Trí tuệ nhân tạo (AI) dựa vào dữ liệu lớn và máy học có thể ứng dụng trong vô số trường hợp, từ các xe tự lái đến giao dịch thuật toán, từ các hệ thống hỗ trợ việc ra quyết định đến khai thác dữ liệu. Sự sẵn có của một lượng lớn dữ liệu là điều rất cần thiết đối với sự phát triển của AI.

Với dân số lớn và lĩnh vực kinh doanh đa dạng, Trung Quốc đã phát triển nền tảng số hóa và các công cụ đến một trình độ chưa từng có, tận dụng được lợi thế trong AI. Thêm vào đó, cũng có ít sự ràng buộc hơn trong việc sử dụng thông tin thu thập được thông qua dấu chân điện tử do con người và các công ty để lại. Ấn Độ đã triển khai một loạt bước tiến tương tự để số hóa nền kinh tế quốc gia, bao gồm mã thông báo nhận dạng sinh trắc học, phi tiền tệ hóa và thuế hàng hóa, dịch vụ tích hợp.

Nhưng vụ bê bối gần đây của Facebook và Cambridge Analytica về việc sử dụng dữ liệu của cá nhân và cộng đồng mạng đã mang tới mối quan tâm về đạo đức trước tiên. Và đó mới chỉ là khởi đầu. Khi các ứng dụng AI yêu cầu nhiều dữ liệu hơn để hỗ trợ máy móc học hỏi và thực hiện các nhiệm vụ vốn dành riêng cho con người, các công ty phải đối mặt với ngày càng nhiều sự giám sát công khai, ít nhất là ở một số nơi trên thế giới. Nỗ lực phát triển xe tự lái của Tesla và Uber đã phải giảm xuống sau những tai nạn được đưa tin rộng khắp. Làm thế nào để chúng ta đảm bảo việc sử dụng AI một cách có đạo đức, có trách nhiệm? Làm thế nào để chúng ta có được những nhận thức về trách nhiệm như vậy, trong trường hợp chưa có một tiêu chuẩn toàn cầu nào về AI?

Những tiêu chuẩn đạo đức để đánh giá AI và công nghệ có liên quan vẫn còn trong giai đoạn ấp ủ. Các công ty cần bắt đầu thảo luận trong nội bộ cũng như với các bên liên quan khác về cách để tránh bị bắt kịp trong những tình huống khó khăn.

Trung Quốc dẫn đầu trong đầu tư toàn cầu cho các công ty khởi nghiệp AI.

Nguồn: CB Insights

Hãy xem xét sự khác biệt giữa các tiêu chuẩn đạo đức có nhiệm vụ và có mục đích. Những gì trước đó tập trung vào ý định và phương tiện, trong khi những cái sau này nghiêng về kết thúc và kết quả. Chẳng hạn, trong trường hợp xe tự lái, kết quả của một hệ thống giao thông không có lỗi – một hệ thống cũng hiệu quả và thân thiện với môi trường – có thể đã đủ để biện minh cho việc thu thập dữ liệu về việc lái xe trong các điều kiện khác nhau với quy mô lớn, và thử nghiệm dựa trên các ứng dụng AI.

Ngược lại, những can thiệp lâm sàng và nhất là các thử nghiệm y khoa khó có thể biện minh cho những căn cứ về mục đích. Với lịch sử ám ảnh về thử nghiệm y khoa trên những đối tượng không ai ngờ, các công ty và nhà nghiên cứu AI sẽ khôn ngoan hơn trong việc áp dụng một cách tiếp cận những phán xét về mặt đạo đức trong hành động của họ, dựa trên cơ sở ý định và phương tiện hơn là dựa trên kết thúc.

Một thước đo hữu ích khác là quy tắc đạo đức vàng, khuyến khích bạn đối xử với người khác theo cách mà bạn mong muốn được họ đối xử. Khó khăn trong việc áp dụng nguyên tắc này cho một lĩnh vực đang phát triển như AI là ở cách tách hàng tỉ người có dữ liệu đang được tích lũy và phân tích khỏi hàng tỉ người thụ hưởng tiềm năng. Những cách mà dữ liệu tập hợp đơn giản khiến việc áp dụng trực tiếp quy tắc vàng phần lớn không còn liên quan gì.

Thử xem xét một bộ tiêu chuẩn đạo đức cuối cùng: thuyết tương đối văn hóa đối lập với thuyết phổ biến. Những gì trước đó khuyến khích chúng ta đánh giá thực tiễn thông qua ống kính các giá trị và tiêu chuẩn của một nền văn hóa nhất định, trong khi những cái sau này thúc đẩy mọi người sống theo một tiêu chuẩn đã được đồng thuận. Sự so sánh này có thể giúp lí giải mâu thuẫn giữa quan niệm của châu Âu về dữ liệu riêng tư với quan niệm của Mỹ, thứ đang định hình cuộc cạnh tranh toàn cầu của các công ty như Google, Facebook… Trong nhiều năm, những thị trường mới nổi như Trung Quốc, Ấn Độ đã đề xuất thuyết tương đối văn hóa là nguyên tắc định hướng, bởi họ thấy nó mang lại lợi thế cho mình, đặc biệt là tránh được các quy định không cần thiết có thể làm chậm quá trình phát triển của họ.

Những tiêu chuẩn đạo đức dường như trở nên quan trọng trong việc hình thành sự cạnh tranh toàn cầu, khi các tiêu chuẩn công nghệ đã có từ những năm 1980. Với khoản cược và sự khao khát dữ liệu mà AI có liên quan, các công ty có thể sẽ phải đặt ra những câu hỏi rất khó đối với từng mảng, về những gì mà họ làm để phát triển. Chúng ta đang làm việc với những khách hàng toàn cầu, chúng ta đang xem xét vai trò của đạo đức trong việc triển khai AI. Cách ngành công nghiệp và xã hội giải quyết những vấn đề này sẽ rất quan trọng đối với việc ứng dụng AI trong thế giới số hóa.

Tuy nhiên, để AI thực hiện được lời hứa của mình, sẽ cần tới khả năng dự đoán và niềm tin. Hai điều này có liên hệ với nhau. Việc xử lí có dự đoán trước các vấn đề phức tạp phát sinh từ AI, như trách nhiệm giải trình và quyền sử dụng dữ liệu, sẽ khuyến khích hoạt động đầu tư và sử dụng AI. Tương tự, làm việc với AI đòi hỏi người tiêu dùng phải tin tưởng vào công nghệ, vào tác động của nó đối với họ và cách nó sử dụng dữ liệu của họ. Xử lí có dự đoán trước và minh bạch sẽ tạo điều kiện cho niềm tin này.

Các máy móc thông minh tăng khả năng cho những quá trình nhận thức cấp cao như tư duy, nhận thức, học tập, giải quyết vấn đề và ra quyết định. AI đưa ra những cơ hội cho trí tuệ con người phát triển và làm phong phú thêm cách thức hoạt động của các ngành công nghiệp và chính phủ.

Doanh thu từ AI cho thị trường ứng dụng doanh nghiệp toàn cầu (2016-2025) (đơn vị: triệu USD).

Nguồn: Statista

Tuy nhiên, khả năng tạo ra máy nhận thức với AI làm nảy sinh nhiều vấn đề về đạo đức cần phải được xem xét cẩn thận. Những tác động đến từ một máy nhận thức có thể tự ra quyết định là gì? Có nên cho phép điều này? Chúng ta chịu trách nhiệm về kết quả đó như thế nào? Chúng ta có cần kiểm soát, điều chỉnh và theo dõi việc học của chúng hay không?

Một khung pháp lí mạnh mẽ sẽ rất cần thiết để ứng phó với những vấn đề quá phức tạp hoặc thay đổi quá nhanh và cần được giải quyết hoàn chỉnh bằng luật pháp. Nhưng chỉ quy trình chính trị và pháp lí thôi thì chưa đủ. Để đạt được niềm tin phát triển, một khung đạo đức là không kém phần quan trọng.

Chính phủ nên khuyến khích việc thảo luận xoay quanh vấn đề đạo đức của AI và đảm bảo tất cả các bên liên quan đều tham gia. Kết hợp với nhóm khu vực tư nhân và người tiêu dùng, giới học viện sẽ cho phép phát triển một khung đạo đức theo kịp sự phát triển của công nghệ, xã hội và chính trị.

Những nỗ lực của chính phủ cần được kết hợp với những nỗ lực hiện có để nghiên cứu và thảo luận về đạo đức trong AI. Có rất nhiều sáng kiến như vậy cần được khuyến khích, như sáng kiến của Viện Alan Turing, Trung tâm Leverhulme cho Tương lai của Trí tuệ, Trung tâm Diễn đàn Kinh tế Thế giới về Cách mạng công nghiệp lần thứ tư, Viện Michael Dukakis về Lãnh đạo và Sáng tạo (với Sáng kiến Xã hội Trí tuệ nhân tạo – AIWS đã được Thời Đại AI giới thiệu tại đây)…

Nhưng những cơ hội này cũng đi kèm với các thách thức có liên quan sau đây:

Ra quyết định và trách nhiệm: Khi sử dụng AI nhiều hơn, sẽ rất khó để phân bổ trách nhiệm đối với các quyết định. Nếu mắc sai lầm gây ra tổn thất, ai sẽ là người chịu rủi ro?

Tính minh bạch: Khi sử dụng hệ thống máy học phức tạp để đưa ra quyết định quan trọng, khó có thể bỏ qua các nguyên nhân đằng sau một quá trình hành động cụ thể. Giải thích một cách rõ ràng cho machine reasoning là điều cần thiết để xác định được trách nhiệm giải trình.

Tính thiên vị: Hệ thống máy học có thể cố định sự thiên vị sẵn có trong hệ thống ra quyết định. Cần cẩn thận để đảm bảo rằng AI sẽ phát triển mà không phân biệt đối xử.

Giá trị con người: Không lập trình, hệ thống AI không có giá trị mặc định hay “thông thường”. Tiêu chuẩn BS 8611 của Viện Tiêu chuẩn Anh quốc về “mô hình đạo đức và ứng dụng của các robot và hệ thống robot” cung cấp một số chỉ dẫn hữu ích: “Các robot không nên được tạo ra chỉ để hoặc chủ yếu để giết hay làm hại con người. Chính con người, không phải robot, là những tác nhân có trách nhiệm; có thể tìm ra ai chịu trách nhiệm cho bất cứ robot nào và hành vi của nó”.

Bảo vệ dữ liệu và IP: Tiềm năng của AI bắt nguồn từ quyền truy cập vào các bộ dữ liệu lớn. Điều gì sẽ xảy ra khi một hệ thống AI được đào tạo trên một bộ dữ liệu, sau đó áp dụng các bài học vào một bộ dữ liệu mới?

AI có trách nhiệm đảm bảo sự chú ý dành cho các nguyên tắc và giá trị đạo đức, để chắc chắn rằng những đạo đức con người cơ bản không bị tổn hại. Gần đây, đã có một số cáo buộc các doanh nghiệp khai thác AI một cách phi đạo đức. Tuy nhiên, Amazon, Google, Facebook, IBM và Microsoft đã thiết lập một mối quan hệ đối tác phi lợi nhuận để xây dựng những giá trị thực tiễn tốt nhất cho công nghệ AI, nâng cao hiểu biết của cộng đồng và phục vụ như một nền tảng về AI.

Thanh Huyền

Lược dịch và biên tập theo Diễn đàn Kinh tế Thế giới


Nhóm tác giả:

Mauro F. Guillén, Giám đốc Viện Lauder, Giáo sư về Quản lý Quốc tế, Trường Wharton, Đại học Pennsylvania;

Srikar Reddy, Giám đốc điều hành kiêm CEO, Sonata Software Limited and Sonata Information Technology Limited.