Nhân vật Bàn tròn tháng 09/2018 của Thời Đại AI là Giáo sư Max Tegmark – Đại học MIT, Thành viên Ủy ban Chuẩn và Thực hành AIWS, Viện Michael Dukakis về Lãnh đạo và Sáng tạo (MDI).

Thời Đại AI trân trọng giới thiệu toàn văn bài phát biểu của GS. Max Tegmark tại Hội nghị BGF-G7 tổ chức bởi Diễn đàn Toàn cầu Boston (Boston Global Forum) tháng 04/2018:

“Nghiên cứu chính của tôi ở MIT là Trí tuệ nhân tạo (Artificial Intelligence – AI) tuy nhiên tôi cũng đã dành nhiều thời gian và công sức để tìm hiểu về vũ trụ của chúng ta. Sau 13,8 tỷ năm lịch sử hình thành vũ trụ, chúng ta đã khám phá ra rằng vũ trụ của chúng ta lớn hơn rất nhiều so với những gì tổ tiên chúng ta tưởng tượng và sự sống dường như là sự nhiễu loạn đáng kinh ngạc mà nếu không có nó đây sẽ trở thành vũ trụ chết. Chúng ta cũng đã khám phá ra công nghệ và phát triển tiềm năng của nó giúp cuộc sống phát triển hơn bao giờ hết, không chỉ trong hàng thế kỷ mà hàng triệu năm, không chỉ trên Trái Đất mà xuyên suốt cả vũ trụ này. Tôi gọi đây là cuộc sống Đời 1.0 khi mới có sự xuất hiện của vi khuẩn, tiếp đó sự xuất hiện của loài người là Đời 2.0 bởi chúng ta đã có thể “học tập”. Đời 3.0 chưa tồn tại nhưng có lẽ nhờ vào công nghệ, cuộc sống của con người đã lên đời 2.1 khi chúng ta có máy trợ tim nhân tạo và phẫu thuật cấy ốc tai điện tử.

Nhìn kỹ hơn vào mối quan hệ giữa con người với công nghệ. Ta có thể thấy như Sứ mệnh đưa tàu Apollo 11 lên mặt trăng vừa thành công vừa truyền cảm hứng đã cho thấy khi con người có thể sử dụng công nghệ một cách khôn ngoan, chúng ta có thể hoàn thành những điều tổ tiên chúng ta chỉ có thể mơ ước. Và hành trình đầy cảm hứng hơn cả đối với toàn nhân loại là hành trình của con người với AI trong tương lai. Bạn tôi, Jaan Tallinn chỉ ra rằng “Tham vọng là không đủ để khiến công nghệ của bạn mạnh mẽ, mà điều thực sự là làm sao xác định cách điều khiển nó và nơi ta muốn nó đưa ta tới”. Vì vậy, hãy nói về sức mạnh điều hướng và điểm đến bắt nguồn từ sức mạnh đó.

Tôi định nghĩa trí thông minh là khả năng hoàn thành được những mục tiêu phức tạp, vì tôi muốn bao gồm cả trí thông minh nhân tạo (artificial intelligence) và trí thông minh sinh học (biological intelligence). Thật đáng ngạc nhiên về khả năng của AI trong những năm gần đây. Chỉ không lâu trước đây, rô-bốt không thể tự đi nhưng giờ đã có thể nhào lộn. Trước đây, chúng ta không có xe tự lái nhưng giờ ta đã có tên lửa. Trước đây, AI không thể nhận diện khuôn mặt nhưng giờ AI có thể làm giả khuôn mặt. Trước đây, AI không thể đánh bại con người trong trò cờ vây và giờ đây, sau khi mất hàng năm trời luyện tập trò chơi của con người bằng cách chơi với chính nó, AlphaGo Zero của Google DeepMind đã trở thành kì thủ giỏi nhất thế giới. Điều ấn tượng nhất ở đây không phải là AlphaGo Zero tin tưởng các kì thủ con người mà nó tin tưởng các nhà nghiên cứu AI con người, những người đã dành nhiều thập kỷ để chế tạo phần mềm chơi game và AlphaGo Zero. Tất cả những tiến bộ đầy kịch tính gần đây thực sự đặt ra câu hỏi “Nó sẽ đi được bao xa?”

Tôi muốn suy nghĩ về câu hỏi này và đặt nó trong bối cảnh tưởng tượng nơi đỉnh núi đại diện cho cấp độ khó của việc làm sao để AI thực hiện những công việc như con người và mực nước biển tượng trưng cho những gì AI có thể thực hiện ngày nay. Mực nước biển tăng lên khi AI cải thiện, do đó, có một vấn đề nóng lên toàn cầu là khi những công việc ở gần bờ chịu ảnh hưởng bởi tự động hóa. “Nó sẽ đi xa đến đâu?” “Nước sẽ dâng cao và nổi dậy như thế nào?” “Liệu có tạo nên một trận đại hồng thủy khi AI có thể hoàn thành mọi nhiệm vụ của con người?” Đây là định nghĩa về Trí tuệ nhân tạo rộng (Artificial General intelligence – AGI). Điều rất quan trọng là không phải thu hẹp Trí tuệ nhân tạo hẹp (Artificial Narrow Intelligence – ANI) mà chúng ta có ngày nay. Những người nói “Ồ, sẽ luôn có những công việc mà con người có thể làm tốt hơn máy móc” đơn giản là nói rằng chúng ta sẽ không bao giờ có được AGI. Tuy nhiên, AGI trong mọi trường hợp sẽ khiến con người không còn là người thông minh nhất. Nếu mực nước thực sự đạt đến điểm đó thì tiến trình AI tiếp theo sẽ được thúc đẩy chủ yếu bởi kẻ thù của con người hoặc tự thân trí tuệ nhân tạo, điều đó cho thấy là nó sẽ nhanh hơn rất nhiều so với sự phát triển và nghiên cứu của con người, đem đến một khả năng gây tranh cãi về sự bùng nổ của trí thông minh và AI tự cải thiện nhanh chóng hơn so với trí thông minh con người – điều được nhắc tới như là Siêu trí tuệ (Superintelligence)

Có phải chúng ta sẽ sớm đạt được AGI không? Một số nhà nghiên cứu Ai nổi tiếng như Rodney Brooks – MIT cho rằng điều đó sẽ không xảy ra trong hàng trăm năm nữa. Nhưng một số cá nhân khác như nhà sáng lập Google Deepmind Demis Hassabis lạc quan hơn nhiều và họ đang cố gắng để làm cho nó xảy ra sớm hơn. Thú vị rằng, các cuộc khảo sát gần đây đã chỉ ra hầu hết các nhà nghiên cứu AI thực sự đều đồng quan điểm lạc quan với Demis, đoán rằng con người sẽ đạt được AGI trong vòng một thập kỷ nữa và đặt ra câu hỏi “Sau đó thì sao?”. Máy móc sẽ làm mọi thứ tốt hơn và rẻ hơn con người có thể? Theo cách tôi thấy, chúng ta phải đối mặt với lựa chọn ở đây. Hoặc chúng ta sẽ xây dựng những cỗ máy bình thường, mà chúng ta không phải lo lắng về hậu quả. Hoặc chúng ta tham vọng hơn, hình dung ra một tương lai công nghệ cao đầy cảm hứng và cố gắng tìm ra cách để “điều hướng” nó. Đó là phép ẩn dụ của tôi ví việc điều hướng AI như điều hướng tên lửa, tới một tương lai nơi AI giúp nhân loại phát triển thay vì lụi tàn.

Tôi yêu công nghệ, và công nghệ của năm 2018 thực sự tuyệt vời hơn rất nhiều so với thời kì đồ đá. Tôi lạc quan cho rằng chúng ta có thể có một tương lai thực sự đầy cảm hứng với công nghệ. Miễn là chúng ta thắng trong cuộc đua trí tuệ. Tôi xin trích lại lời của ngài Đại sứ “Để giành chiến thắng cuộc đua này, chúng ta cần phải chắc chắn rằng chúng ta giành chiến thắng trong cuộc đua giữa sức mạnh công nghệ ngày càng gia tăng và sự khôn ngoan trong cách quản lý của con người”. Đó thực sự là chìa khóa mà chúng ta nên xem xét. Không phải ngăn chặn công nghệ mà là phát triển trí tuệ nhanh nhưng con người vẫn dẫn trước. Tuy nhiên, chiến thắng cuộc đua trí tuệ này sẽ đòi hỏi một sự thay đổi chiến lược.

Trước đây, tất cả chiến lược đều học từ những sai lầm. Chúng ta tạo ra lửa, rồi sau đó là bình chữa cháy. Chúng ta tạo ra xe hơi, rồi mới đến dây đai an toàn và túi khí. Nhưng với công nghệ mạnh mẽ hơn như vũ khí hạt nhân, sinh học tổng hợp và AGI, con người không muốn học từ những sai lầm mà tốt hơn con người nên chủ động lập kế hoạch ngay từ đầu. Trước khi NASA theo đuổi Sứ mệnh Apollo 11, họ đã suy nghĩ và tính toán một cách có hệ thống về những sai lầm có thể xảy ra rồi mới đưa con người lên các thùng nhiên liệu nổ và phóng vào không gian nơi không người giúp đỡ. Đó chính xác là kỹ thuật an toàn và sự thành công được đảm bảo của nhiệm vụ, và chính là chiến lược mà tôi nghĩ chúng ta nên làm với AGI. Trên tinh thần này, chúng tôi đã tổ chức các hội nghị tập hợp giữa các nhà nghiên cứu AI hàng đầu và thảo luận cách phát triển trí tuệ và khiến AI đem lại lợi ích. Từ đó, chúng tôi đã tạo ra danh sách 23 nguyên tắc đạo đức được ký kết bởi hơn một nghìn nhà nghiên cứu AI trên toàn thế giới. Tôi muốn nói về 3 nguyên tắc trong số đó.

Một là chúng ta nên ngăn chặn các cuộc chạy đua vũ trang và vũ khí tự trị gây chết người. Vì nếu có bất kì nghiên cứu khoa học nào được sử dụng, nó nên vì mục đích giúp đỡ con người chứ không nên để hại người. Hy vọng khi chúng ta nhìn lại trong 10 năm và những gì đã xảy ra với Ai, mọi người sẽ nghĩ về AI với các giải pháp mới và những điều tốt đẹp trên thế giới, chứ không phải với cuộc chạy đua vũ trang.

Nguyên tắc thứ hai tôi muốn đề cập là chúng ta nên giảm thiểu bất bình đẳng thu nhập theo AI. Tôi nghĩ nếu chúng ta có thể phát triển chiếc bánh kinh tế một cách đáng kể với AI, thì mọi người đều nên được hưởng lợi.

Chúng ta nên đầu tư nhiều hơn vào nghiên cứu an toàn AI. Khi chúng ta giao những trọng trách quan trọng về việc ra quyết định và về cơ sở hạ tầng lên AI, chúng ta phải chuyển đổi các máy tính lỗi thành hệ thống AI mạnh mẽ mà chúng ta thực sự tin tưởng. AGI không thực sự xấu xa như trong các bộ phim ngớ ngẩn của Hollywood, tuy nhiên năng lực hoàn thành mục tiêu của AI đôi khi sẽ không gắn liền với mục tiêu của con người. Ví dụ, chúng ta sẽ không tạo ra chiếc xe đâm vào người có chủ đích. Không ai muốn làm vậy cả, nhưng chiếc xe hay AI của chúng ta không thể tự chủ và chúng không có những khung đạo đức được xây dựng ngay từ ban đầu. Hay như ở Tây Phi, chuyện tê giác đen bị tuyệt chủng không phải do ý muốn của con người hay do con người ghét loài tê giác đen. AGI được định nghĩa thông minh hơn con người, nên nếu chúng ta không muốn đặt tương lai của nhân loại như của loài tê giác, chúng ta phải làm sao để các cỗ máy hiểu mục tiêu của chúng ta, chấp nhận mục tiêu của chúng ta và giữ vững mục tiêu của chúng ta.

Vậy mục tiêu đó là gì?

Điều này đưa chúng ta đến phần thứ ba của phép ẩn dụ “tên lửa”, đích đến. Chúng ta tạo ra AI ngày càng mạnh mẽ hơn và cố gắng tìm cách điều khiển nó. Nhưng điều hết sức to lớn hầu như không ai đang nói đến, bởi vì chúng ta gắn chặt với những thách thức của AI trong ngắn hạn: công việc và tất cả những thứ quan trọng khác v..v. Thực tế là loài người đang cố gắng xây dựng AGI. Vậy loại xã hội tương lai nào chúng ta hướng tới nếu chúng ta thành công? Chúng tôi đã làm một cuộc thăm dò ý kiến ​​về điều này và tôi khá giật mình bởi hầu hết mọi người (ít nhất 15.000 người) thực sự muốn xây dựng siêu thông minh AI. Có rất nhiều người đồng ý con người nên có tham vọng và giúp mở rộng cuộc sống ra vô tận tới vũ trụ, tuy nhiên lại rất ít người đồng tình về việc ai hay cái gì nên được kiểm soát. Chỉ khoảng 10% mong muốn chúng chỉ là máy móc. Có một sự bất đồng về vai trò của con người ở mức cơ bản nhất.

Chúng ta hãy xem xét kỹ hơn các tương lai có thể có mà chúng ta có thể chọn để hướng tới (hành trình ẩn dụ của nhân loại trong tương lai). Một lựa chọn mà một số đồng nghiệp của tôi thích là xây dựng siêu thông minh và giữ nó dưới sự kiểm soát của con người như một nô lệ bị ngắt kết nối khỏi internet và được sử dụng để tạo ra công nghệ và sự giàu có không tưởng, kiểm soát hoàn toàn và tuyệt đối nó. Nhưng Lord Acton đã cảnh báo rằng “Quyền lực làm con người tha hóa. Quyền lực tuyệt đối sẽ dẫn đến tha hóa tuyệt đối” Vì vậy, bạn có thể lo lắng rằng có lẽ con người chúng ta không đủ thông minh hay khôn ngoan đủ để xử lý quyền lực này. Nhưng cũng có đồng nghiệp của tôi cho rằng, dù AI có tiếp quản và khiến con người bị tuyệt chủng, miễn chúng ta có thể nghĩ AI như một thế hệ sau xứng đáng như con cháu mình. Làm thế nào để chúng ta biết AI đã không tiếp nối những giá trí tốt nhất của con người?

Nếu bạn không thích một trong hai kịch bản công nghệ cao đó, cần nhớ rằng công nghệ thấp đã mất hoàn toàn trong viễn cảnh vũ trụ, bởi vì nếu chúng ta không vượt xa công nghệ ngày nay, câu hỏi không phải là liệu nhân loại có bị tuyệt chủng ngay lập tức, mà câu hỏi là con người có chịu ảnh hưởng bởi các yếu tố khác như thiên thạch rơi, núi lửa phun trào hay các vấn đề khác mà công nghệ tố hơn có thể giải quyết được. Vậy thì đừng biến AI thành nô lệ mà hãy khiến nó phù hợp với con người và gắn liền giá trị của nó với con người. Đây là ý tưởng của những gì Eliezer Yudkowsky gọi là AI thân thiện (Friendly AI), và nếu chúng ta có thể thực hiện điều này, sẽ thật là tuyệt vời vì nó không chỉ loại bỏ những trải nghiệm tiêu cực như bệnh tật, nghèo đói, tội phạm và những đau khổ khác, mà nó cũng đem đến những lựa chọn đa dạng về trải nghiệm tích cực. Về cơ bản, AI làm cho chúng ta là con người – bậc thầy của chính số phận của chúng ta.

Tóm lại, tình hình của con người với công nghệ và tình hình cụ thể với AI tuy phức tạp nhưng bức tranh toàn thể lại khá đơn giản. Hầu hết các nhà nghiên cứu AI đều mong đợi AGI trong nhiều thập kỷ, mà nếu chúng ta đón đầu mọi thứ với trạng thái không chuẩn bị, đó sẽ là sai lầm lớn nhất trong lịch sử nhân loại. Nhưng nếu “điều hướng” cẩn thận, chúng ta có thể tạo ra một tương lai tuyệt vời nơi mọi người tốt hơn, người nghèo sẽ giàu hơn, người giàu sẽ càng giàu hơn, mọi người đều khỏe mạnh và sống với ước mơ của họ. Với AI thân thiện, chúng ta có thể xây dựng xã hội này và cho mọi người lựa chọn tự do bởi vì chúng ta sẽ không còn bị giới hạn bởi con người và trí thông minh nữa. Vì vậy, con người cần phải lựa chọn. Hoặc chúng ta chọn tự mãn về tương lai, đọc tin tức báo chí về đức tin mù quáng rằng tất cả công nghệ mới đều có lợi và sau đó lặp lại như câu thần chú, và con người chỉ trôi dạt như những bánh lái khác tàu hoặc sự lỗi thời của chính họ. Hoặc chúng ta có thể tham vọng, suy nghĩ kỹ về cách “lái” công nghệ của chúng ta đến nơi chúng ta muốn để gây dựng một tương lai đầy hi vọng. Tôi cảm thấy rằng việc tạo ra tương lai đầy cảm hứng là điều con người thực sự nên lựa chọn, không phải bị tiếm quyền bởi công nghệ mà là làm chủ được công nghệ của chúng ta.”

Xin cám ơn.


Năng lực AI 1) Trí tuệ nhân tạo hẹp (Artificial Narrow Intelligence – ANI): Đôi khi được gọi là AI yếu, ANI là loại AI chỉ tập trung vào một lĩnh vực. Có AI đánh thắng nhà vô địch thế giới về cờ vua, nhưng đó là điều duy nhất nó có thể làm được. Nếu như bạn đặt câu hỏi cho nó về việc làm thế nào để lưu trữ dữ liệu trong ổ cứng tốt hơn, AI sẽ không trả lời được.

Năng lực AI 2) Trí tuệ nhân tạo rộng (Artificial General Intelligence – AGI): Đôi khi được gọi là AI mạnh, hay AI cấp độ người, AGI là một bộ máy thông minh ở cấp trung bình của con người – một cỗ máy có thể thực hiện bất kỳ nhiệm vụ trí tuệ nào mà con người có thể xử lý được. Tạo ra AGI là một nhiệm vụ khó khăn hơn nhiều so với ANI, và hiện con người vẫn chưa làm được điều này.

Năng lực AI 3) Siêu trí tuệ nhân tạo (Artificial Superintelligence – ASI): Nhà triết học và trí tuệ nhân tạo học Oxford hàng đầu, Nick Bostrom, định nghĩa siêu trí tuệ là “một trí tuệ thông minh hơn tất cả những bộ não uyên bác nhất trên tất cả mọi lĩnh vực, bao gồm cả sáng tạo khoa học, trí khôn thông thường và năng lực xã hội.” ASI dao động từ một cỗ máy chỉ thông minh hơn con người một chút cho tới một cỗ máy thông minh gấp hàng triệu tỷ lần một người bình thường.