Cuộc sống của chúng ta chịu ảnh hưởng của dữ liệu. Không chỉ bởi dữ liệu cung cấp cho các công ty thông tin về những thứ chúng ta muốn, mà còn vì nó giúp con người ghi nhớ và phân biệt được những gì muốn, những gì cần với những gì có thể bỏ qua. Tất cả quyết định này dẫn đường cho các mẫu; và các mẫu khi được tổng hợp sẽ đưa cho chúng ta một hình ảnh của chính chúng ta. Một thế giới nơi có những kiểu mẫu đi theo chúng ta, hoặc thậm chí còn được gửi đi trước chúng ta – tới các nhà hàng để họ biết nếu khách hàng bị dị ứng, tới các cửa hàng bán lẻ để họ biết kích cỡ quần áo phù hợp với khách hàng – bây giờ đã là điều rất khả thi.

Những lợi ích của Trí tuệ nhân tạo (AI) mang đến nhiều sự lựa chọn dễ dàng và tiện lợi hơn, dẫn đến thắt chặt tính cạnh tranh trong cùng phạm vi lựa chọn của khách hàng. Khi sự phát triển này diễn ra, câu hỏi là AI đang định hình khung lựa chọn của chúng ta ở mức nào và quan trọng không kém là bằng cách nào. Trong một thế giới như vậy, chúng ta cần hiểu khi nào hành vi của mình bị định hình và nó bị định hình bởi ai.

Rõ ràng, đa số chúng ta đều khá thoải mái khi sống trong một thế giới mà sự lựa chọn của mình được định hình bởi AI. Thật vậy, chúng ta đã sống trong một thế giới như thế: từ phương tiện tìm kiếm đến lưu lượng giao thông suôn sẻ, nhiều tiện nghi trong sinh hoạt hàng ngày của con người có được dựa trên tốc độ cung cấp của các chương trình phụ trợ. Câu hỏi chúng ta cần đặt ra cho chính mình khi xem xét về AI và sự quản lý AI là: Mọi người có thấy thoải mái khi sống trong một thế giới mà chúng ta không được biết mình có đang bị ảnh hưởng hay không, và bị ảnh hưởng như thế nào.

Thiên vị hành vi hay Dấu hiệu hành vi?

AI có thể trợ giúp cho sự hiểu biết của chúng ta về hành vi như công dụng của kính hiển vi trong sinh học. Chúng ta đã chạm đến một điểm nào đó, với việc phần mềm có thể phát hiện được xu hướng trong các hành vi mẫu mà bản thân có thể không để tâm, xác định được cả những đặc điểm mà bạn bè và gia đình của mình không hề hay biết…

Cuộc sống của chúng ta đã được phán quyết bởi những giả định xác suất, nhằm mục đích thúc đẩy hành vi. Bây giờ chúng ta cần phải hỏi và trả lời một cách trung thực: Bạn sẵn sàng dành bao nhiêu phần trong cuộc sống của mình cho những thuật toán mà bạn không hiểu được định hình? Quan trọng hơn, ai sẽ được giao nhiệm vụ theo dõi các thuật toán này để cảnh báo khi chúng dẫn tới việc ra một quyết định không tốt hoặc một quyết định lôi cuốn khác?

Khi nhiều công ty sử dụng AI và việc hiểu nó trở nên phức tạp hơn, chúng ta sẽ phải đối mặt với một khoảng trống để hiểu, hoặc nhận quyền được thông báo rằng mình sẽ phải đối mặt với một khoảng trống liên quan lúc có sự vi phạm xảy ra.

Tương lai của AI

Nguồn: Statista

Khi sự hiện diện của kỹ thuật số phát triển và đang theo hướng công khai đối với tương lai của quản trị điện tử và sự riêng tư trong cách chúng ta tương tác với mối quan tâm của chính mình, quản trị có ý nghĩa sẽ phải bao gồm bước thiết yếu đầu tiên là quyền được biết: dữ liệu của chúng ta đang được sử dụng, ai có nó và khi nào họ sử dụng nó.

Một ví dụ khác về cách thức hành vi và công nghệ giao tiếp với tốc độ nhanh hơn bao giờ hết là quan sát những gì Chatbot đã làm được: tiềm năng cho những liên tưởng cảm xúc có thể được sử dụng nhằm mục đích thao túng.

Khi máy móc cho đến dữ liệu máy móc phát triển trên Internet Vạn Vật (IoT), các công ty có quyền truy cập ưu tiên sẽ có cái nhìn sâu sắc hơn vào những khía cạnh của các mẫu hành vi mà bản thân chúng ta có thể không hiểu, với khả năng di chuyển hành vi một cách mạnh mẽ. Dữ liệu tốt không chỉ là về khối lượng mà còn về tính xác thực – khi IoT phát triển, chúng ta đang giao cho các công ty mọi thứ họ cần biết về mình, như bày món lên trên một chiếc đĩa bạc.

Chúng ta có thể tranh luận rằng vấn đề ở đây không phải là khối lượng, vấn đề là sự bất đối xứng của năng lực phân tích trong việc quản lý khối lượng đó – nghĩa là sự bất đối xứng trong việc thu nhận giá trị. Đổi lại, điều này có nghĩa là một số công ty không chỉ hiểu bạn, họ có thể dự đoán hành vi của bạn đến mức biết phải làm thế nào để ảnh hưởng hiệu quả nhất đến một sự lựa chọn cụ thể của khách hàng. Trong thời đại Dữ liệu lớn (Big Data), doanh nghiệp tốt nhất là doanh nghiệp đạt được sự hiểu biết sâu sắc.

Trách nhiệm: Ai đang chăm sóc chúng ta?

Câu hỏi đầu tiên liên quan đến việc tạo dựng trách nhiệm giải trình là làm thế nào để giữ con người tự chủ hơn trong vòng quyết định của các quy trình được thực hiện thông qua AI. Giai đoạn tiếp theo, cần phải duy trì trách nhiệm giải trình để hiểu và biết tại sao một thuật toán lại đưa ra quyết định này thay vì quyết định khác.

Các ý kiến mới về cách làm những việc này đã bắt đầu xuất hiện. Chẳng hạn, khi các dự án AI cụ thể là những dự án mang tính độc quyền về khả năng cạnh tranh của công ty, chúng ta có thể dùng các hệ thống phản tác dụng để đánh giá tất cả lựa chọn có thể được đưa ra bởi AI. Nhưng các hệ thống sơ đồ quyết định không phá vỡ hộp đen sẽ không thể cung cấp được lý do cho việc một thuật toán đưa ra quyết định này thay vì quyết định khác… Trong tương lai gần, rất có khả năng con người sẽ không thể biết được khi nào AI ảnh hưởng đến chúng ta.

Điều này dẫn chúng ta đến vấn đề cốt lõi: Để quản lý AI, chúng ta có thể cần phải dùng AI.

Chúng ta sẽ cần AI không chỉ để nhận ra khi nào mình đang bị ảnh hưởng công khai, mà còn để biết những phương thức mới mà các công ty có thể tận dụng hiểu biết vi mô của họ về hành vi của mình. Tuy nhiên, những khuôn khổ chính trị, thể chế chính trị và tiêu chuẩn về trách nhiệm hiện có nhằm cung cấp hiểu biết, khả năng dự đoán và nắm bắt việc sử dụng AI cho mục đích thao túng hiện nay là rất thiếu sót.

Sự kết hợp thuật toán cũng là một vấn đề – với các cartel định giá đặt ra vấn đề về giá cả có thể mất đi mà không có sự đồng ý trước đó, do đó tránh được những ý định ban đầu. Chúng ta có thể tưởng tượng về một thế giới nơi sự thông đồng được tổ chức không phải bởi thị trường, mà bằng cách theo dõi hành vi ở các nhóm cá thể riêng biệt để tổ chức những thay đổi về vi giá.

Tất nhiên, các câu hỏi khác sẽ xuất hiện: Ai sẽ quản lý AI mà chúng ta dùng để theo dõi AI? Làm sao chúng ta biết sự thông đồng không xảy ra giữa người theo dõi và người bị theo dõi? Chúng ta cần loại hệ thống minh bạch như thế nào cho AI quản trị để giảm thiểu nhu cầu minh bạch cho AI công ty?

Tương lai của quản lý AI sẽ được quyết định trong khung –thay vì chuyển dịch cấu trúc của sự thông đồng và thao túng (trong kinh tế), thứ mà chúng ta cần chú ý là đạo đức và khả năng cho AI có thẩm quyền trong định hình việc ra quyết định.

Chúng ta cần sớm hội thoại cùng nhau để đưa ra những giả định và niềm tin về việc chỉnh sửa giá cả, về sự thông đồng và sự thao túng trong kinh tế một cách cực kỳ rõ ràng. Trong thời đại AI, chúng ta không thể mơ hồ.

Thanh Huyền

Lược dịch theo The Decision Lab


Các tác giả:

Josh Entsminger, Nhà nghiên cứu ứng dụng

Mark Esposito, Phòng Giáo dục thường xuyên, Đại học Harvard

Terence Tse, London Campus, Trường Kinh doanh ESCP châu Âu

Danny Goh, Doanh nhân và Nhà đầu tư