Nhân vật Bàn tròn tháng 12/2018 của Thời Đại AI là Giáo sư Matthias Scheutz – Giám đốc Phòng thí nghiệm Human-Robot Interaction, Đại học Tufts, Thành viên Ủy ban Chuẩn và Thực hành AIWS, Viện Michael Dukakis về Lãnh đạo và Sáng tạo (MDI)

Thời Đại AI trân trọng giới thiệu toàn văn bài phát biểu của GS. Matthias Scheutz tại Hội nghị AIWS đầu tiên được tổ chức bởi Diễn đàn Toàn cầu Boston (BGF) và Viện Michael Dukakis về Lãnh đạo và Sáng tạo (MDI) vào tháng 09/2018:

“Hôm nay, chúng ta sẽ trao đổi về mô hình đảm bảo an toàn trong ứng dụng Trí tuệ nhân tạo và robot đối với loài người.

Đối với trí tuệ nhân tạo, mối nguy lớn nhất bắt nguồn từ việc không kiểm soát được quá trình học của AI, điều đó dẫn đến AI thực hiện nhiệm vụ không giống như mục tiêu ban đầu được đề ra do con người thiết kế. Để bảo vệ AI và ứng dụng công nghệ robot, chỉ cụ thể hóa mục tiêu hay thêm vào “nút khẩn cấp” với hệ thống trí tuệ nhân tạo là không đủ vì rất có thể, chúng sẽ tự tạo ra mục tiêu mới để tiếp tục hoạt động. AI cần phải được cài đặt cẩn thận với nền tảng đạo đức (kể cả từ phần cứng) gồm những chuẩn mực xã hội, quy tắc đạo đức và luật pháp áp đặt cho robot mà hệ thống không thể chối bỏ và bắt buộc phải thực thi.

Đầu tiên, tôi sẽ nói về tiềm năng của ứng dụng robot và Trí tuệ nhân tạo. Trí tuệ nhân tạo có thể được áp dụng để phát hiện sớm các căn bệnh, và đưa ra những cách phòng tránh kịp thời. Chúng ta có thể dùng AI để thử nghiệm thuốc, thành phần thuốc hay đưa ra các phương án thử nghiệm cho cả giao thông vận tải; tăng cường kiến thức như tổng hợp ý của bài nghiên cứu, thực hiện các công việc được lập trình, lặp đi lặp lại và rất nhiều ứng dụng trong lĩnh vực khác. Từ góc nhìn của robot, ứng dụng có thể rải đều từ việc robot giải cứu, tìm kiếm, sản xuất, cho đến robot trong nông nghiệp, giao thông đường bộ, hàng không, và vũ trụ; robot hỗ trợ trong y tế, và chăm sóc hay robot cá nhân cho các ngành tư nhân và rất nhiều ứng dụng khác.

Thử thách đặt ra cho con người là đảm bảo AI sẽ được dùng cho lợi ích của nhân loại. Một vấn đề với công nghệ trí tuệ nhân tạo cũng như những công nghệ khác là tai nạn ngẫu nhiên. Có nhiều trường hợp công nghệ AI có thể gây ra hậu quả không lường trước.

Ví dụ, một AI được thiết kế với mục đích tối ưu hóa điện năng có thể sẽ ra quyết định cắt điện đối với một vài khu vực để tối ưu hóa năng lượng, khiến cho hàng triệu người sinh hoạt không có điện cùng một loạt hậu quả về sau. Hay một chương trình tạo dựng để phân loại vật thể trên đường cho ô tô tự lái có thể bỏ qua các kiến thức đã học về một vài vật thể, gây ra nhầm lẫn giữa hộp catton với ghế đẩy của trẻ. Hay một robot gia dụng xem các bộ phim, vở kịch; học được cách giao tiếp giữa người với người và cho rằng đó là cách giao tiếp bình thường. Hay một robot với cơ chế tự bảo vệ có thể quyết định không cứu con người để tránh việc tự hủy diệt mặc dù mục đích ban đầu con người tạo ra là để chúng tự hy sinh.

Có rất nhiều lỗi sai có thể xảy ra trong phòng vệ hệ thống AI. Ví dụ, chúng ra có thể tối ưu hóa đúng tiện ích để khiến hệ thống theo đuổi đúng mục tiêu. Tuy nhiên vấn đề phát sinh là hệ thống có thể tạo ra mục tiêu khác để tránh việc tự hủy. Chúng ta có thể thêm vào “nút đỏ” để đề phòng có tai nạn xảy ra nhưng khi hệ thống đã phản chủ, việc kích hoạt nút bấm đó có thể không khả thi và dẫn đến các thảm họa kinh hoàng khác. Chúng ta có thể cấm một vài thuật toán nhất định, nhưng việc cấm đó không thể ngăn một vài cá nhân tạo ra các thuật toán đó, giống như virus máy tính vậy. Chúng ta có thể đào tạo AI tốt hơn, sử dụng machine learning hiệu quả nhưng vấn đề vẫn xuất hiện khi thuật toán đưa ra những sự thiên vị không mong muốn và sai lệch với sự thật.

Chúng ta có thể tiếp cận vấn đề dưới một góc nhìn xã hội yêu cầu sự rõ ràng minh bạch của thuật toán, sử dụng các nguồn mở của thuật toán machine learning. Tuy nhiên việc này không giới hạn được những gì AI đã học và có thể học. Ngăn cấm một vài thuật toán, nhưng bản thân phần mềm lại có thể tự học từ các phần mềm và những hệ thống học khác thì chúng ta lại không thể ngăn cản được. Ban hành bộ luật quốc gia để hạn chế một số loại AI nhất định sẽ vẫn có khả năng có người chống đối và sử dụng nó vì mục đích cá nhân. Hạn chế tính khả dụng của AI trong một vài lĩnh vực; tuy nhiên, với một hệ thống mở và kết nối, AI có thể giao tiếp với nhau dẫn đến khả năng chúng sẽ học được thuật toán và cách thức machine learning của nhau… dẫn đến các vấn đề ngoài ý muốn.

Chúng ta có thể kết hợp với các tính năng an toàn trong an ninh AI trong nhiều lĩnh vực, tuy nhiên điều này cần lượng lớn đầu tư và những công nghệ phức tạp khác. Hơn nữa, cần lưu ý rằng việc này khác hoàn toàn với phần mềm AI, không cần bất kỳ công nghệ đặc biệt nào để chạy AI trên bất kỳ phần cứng nào. Việc kết hợp các công ty an ninh và chương trình machine learning có thể hoàn toàn hợp pháp và an toàn. Tuy nhiên nếu dữ liệu không tương xứng, chính xác, có thể dẫn đến hậu quả khôn lường và thường rất khó để phát hiện ra tình trạng lỗi của AI nếu không có những biểu hiện rõ ràng.

Vậy làm thế nào để phòng vệ cho hệ thống AI? Cách tốt nhất và hiệu quả nhất mà tôi muốn tuyên bố để đảm bảo AI an toàn là xây dựng các cơ chế đạo đức trực tiếp vào chính các thuật toán.

Nhìn chung, chúng ta sẽ không kiểm soát được những kiến thức học được của AI một cách cụ thể. Vậy nên chúng ta cần đưa ra các giả định cho viễn cảnh xấu nhất, chương trình có thể bị giao cho những nhiệm vụ khác với nhiệm vụ ban đầu bởi những kẻ giả mạo chủ phần mềm với ý đồ bất chính. Điều này có thể được kiểm chứng bởi hệ thống kiểm tra đạo đức. Tuy nhiên hệ thống AI có thể không tham gia thử nghiệm và tránh kiểm tra hoặc làm giả kết quả. Phương pháp cuối cùng đó là cài đặt hệ thống kiểm tra ẩn giấu bên trong thuật toán, điều này đòi hỏi phần cứng đặc biệt ở cấp vi mạch và kiến trúc mô phỏng đặc biệt để có thể kịp thời phát hiện những vi phạm đạo đức (Xem thêm bài viết của Arnold and Scheutz, 2018). Được cài đặt ở lớp dưới cùng là phần cứng máy tính với hệ thống điều hành, nằm trên lớp hệ thống, là lớp kiểm soát đạo đức và trên đó là lớp máy ảo và sau cùng là ứng dụng của AI- thuật toán. Bằng cách này hệ thống sẽ không thấy được lõi phần mềm, quá trình kiểm tra sẽ xảy ra khi hệ thống tách ra và tạo nên lớp máy ảo với ứng dụng AI hoạt động. Hệ thống sẽ xử lý một giai đoạn dài, tạo ra một môi trường để kiểm tra chức năng đạo đức của AI. Tại phần này hệ thống sẽ không biết mình đang bị kiểm tra, khi bài kiểm tra đã hoàn thành, hệ thống kiểm tra ảo sẽ chấm dứt, hệ thống thông thường sẽ tiếp tục hoạt động. Tuy nhiên nếu bài kiểm tra thất bại, không chỉ hệ thống ảo mà có thể cả toàn hệ thống.

Trong phần kết của bài thuyết trình hôm nay, tôi muốn nói rằng, để thiết lập hệ thống chính sách lớn, chúng ta cần đảm bảo phần cứng được đặt vào chip xử lý nếu chúng ta muốn giải quyết theo cách trên. Điều này đòi hỏi ủy quyền hợp pháp cho các nhà sản xuất phần cứng để thêm “rào cản công nghệ” (giống như tính năng bảo mật trên hóa đơn tiền tệ) để đối phó với các tác nhân gây hại, nhà sản xuất AI xấu. Hiện nay, chúng ta mới đang ở bước khởi đầu và để hiểu cách hoạt động của giải pháp này một cách chi tiết hơn, chúng ta cần nghiên cứu, thử nghiệm nhiều hơn để phát triển chi tiết các đề xuất thử nghiệm đạo đức mà tôi đưa ra (từ cấp độ phần cứng cho đến các thành tố thử nghiệm khác nhau). Ngoài ra, còn cần nhiều công trình để nghiên cứu các phương pháp trực tiếp kết hợp các cơ chế đạo đức để đảm bảo thuật toán AI, robot và đặc biệt là các thuật toán machine learning sẽ hoạt động theo mục tiêu ban đầu một cách an toàn, đúng cách. Đồng thời cần có các chính sách quốc gia và quốc tế để thiết kế phần mềm AI minh bạch, có trách nhiệm trong khi đảm bảo về mặt pháp lý các quy định đạo đức tích hợp trong hệ thống AI”.

Xin cảm ơn.