Ứng dụng trí tuệ nhân tạo trong việc hoạch định chính sách và các lĩnh vực khác có thể gián tiếp dẫn đến sự phân biệt đối xử. Đã đến lúc các kỹ sư phần mềm cần cân nhắc về vấn đề nhân quyền?

(AI) đang ngày càng có sức ảnh hưởng đến mọi khía cạnh trong cuộc sống thường nhật. Đó là sự hiện diện của các trợ lý ảo thông minh trên điện thoại di động và các trợ lý gia đình ảo. Nó xuất hiện trong các thuật toán được thiết kế để cải thiện khả năng chẩn đoán sức khỏe của chúng ta. Và nó được áp dụng trong các công cụ hoạch định chính sách được cảnh sát sử dụng trong công tác phòng chống tội phạm.

Mỗi ví dụ này đều hàm ý những vấn đề tiềm ẩn khi nói đến việc bảo vệ nhân quyền. Việc hoạch định chính sách, nếu không được thiết kế chính xác, có thể dẫn đến sự phân biệt đối xử dựa trên chủng tộc, giới tính hoặc sắc tộc.

Quy tắc bảo mật và bảo vệ dữ liệu áp dụng cho thông tin liên quan đến sức khỏe của các cá nhân. Tương tự, việc ghi chép và sử dụng có hệ thống định vị trên điện thoại thông minh có thể vi phạm các quy tắc bảo vệ dữ liệu và quyền riêng tư và nó có thể dẫn đến mối lo ngại về việc giám sát kỹ thuật số của các cơ quan công quyền.

Các kỹ sư phần mềm chịu trách nhiệm thiết kế các thuật toán đằng sau tất cả các hệ thống này. Chính các kỹ sư phần mềm cho phép các trợ lý thông minh trả lời các câu hỏi của chúng ta một cách chính xác hơn, giúp các bác sĩ cải thiện việc phát hiện các rủi ro sức khỏe và cho phép các nhân viên cảnh sát xác định rõ hơn các nguy cơ tội phạm gia tăng.

Các kỹ sư phần mềm thường không được đào tạo về luật nhân quyền. Tuy nhiên, với mỗi dòng code, họ cũng có thể diễn giải, áp dụng và thậm chí vi phạm các khái niệm về luật nhân quyền quan trọng – mà không hề hay biết.

Đây là lý do tại sao việc giảng dạy luật nhân quyền cho các kỹ sư phần mềm là điều quan trọng. Đầu năm nay, quy định mới của EU đã buộc các doanh nghiệp phải cởi mở hơn với người tiêu dùng về thông tin họ nắm giữ. Bạn có thể đã từng biết đến GDPR trong tiêu đề của nhiều email mong muốn bạn lựa chọn và tham gia vào các cơ sở dữ liệu khác nhau.

GDPR gia tăng các hạn chế đối với những gì tổ chức có thể làm với dữ liệu của bạn và mở rộng quyền của các cá nhân để truy cập và kiểm soát dữ liệu của mình. Những động thái hướng tới sự riêng tư và bảo vệ dữ liệu theo thiết kế là những cơ hội tuyệt vời để tích hợp các khung pháp lý vào công nghệ. Tuy nhiên, nếu chỉ có vậy thì không đủ.

Ví dụ, kiến thức tốt hơn về luật nhân quyền có thể giúp các nhà phát triển phần mềm hiểu việc phân biệt đối xử gián tiếp là gì và tại sao nó bị pháp luật cấm. (Bất kỳ sự phân biệt đối xử dựa trên chủng tộc, màu da, giới tính, ngôn ngữ, tôn giáo, chính trị hoặc quan điểm khác, nguồn gốc quốc gia hoặc xã hội, tài sản, liên kết với một thiểu số quốc gia, nguồn gốc khác đều bị cấm theo điều 14 của Công ước châu Âu về quyền con người.)

Phân biệt đối xử trực tiếp xảy ra khi một cá nhân bị đối xử bất công dựa trên một hoặc nhiều căn cứ được bảo vệ này. Phân biệt đối xử gián tiếp xảy ra khi một quy tắc có vẻ ngoài bình thường nhưng dẫn đến sự đối xử thiếu công bằng hơn đối với một cá nhân (hoặc một nhóm các cá nhân).

Tương tự như vậy, hiểu được sự phức tạp của quyền được xét xử công bằng và hệ quả của nó, giả định vô tội, có thể tạo ra các lựa chọn sáng suốt hơn trong thiết kế thuật toán. Điều đó có thể giúp tránh khả năng các thuật toán sẽ cho rằng số lượng cảnh sát bắt giữ trong một khu dân cư đa sắc tộc có tương quan với số lượng tiền án hình sự thực sự.

Thậm chí quan trọng hơn, nó sẽ hỗ trợ họ phát triển các lựa chọn đúng đắn cho các bộ dữ liệu không có sự phân biệt đối xử dựa trên sắc tộc hoặc chủng tộc. Ví dụ: dữ liệu về sự giàu có và thu nhập kết hợp với dữ liệu vị trí địa lý có thể được sử dụng như một cơ sở để xác định dân số từ một nhóm dân tộc nhất định nếu họ có xu hướng tập trung vào một khu dân cư cụ thể.

Lập trình pháp lý

Tương tự như vậy, sự hiểu biết tốt hơn về cách các khung pháp lý về quyền con người hoạt động có thể thúc đẩy việc tạo ra các giải pháp tăng cường tuân thủ các quy tắc pháp lý. Ví dụ, nhu cầu cho các giải pháp quy trình công nghệ là rất lớn, theo đó các cá nhân có thể dễ dàng đặt câu hỏi ngược lại với các quyết định dựa trên AI được đưa ra bởi các cơ quan công quyền có ảnh hưởng trực tiếp đến họ. Đây có thể là trường hợp cha mẹ bị kết luận sai là kẻ có khả năng lạm dụng trẻ em bởi các thuật toán không chính xác được sử dụng bởi chính quyền địa phương.

Những giải pháp như vậy cũng có thể phù hợp với khu vực tư nhân. Ví dụ, các quyết định về phí bảo hiểm và khoản vay thường được xác định bằng cách lập hồ sơ và thuật toán trong các hộp đen sẽ thực hiện chấm điểm. Sự minh bạch và công khai đầy đủ của các thuật toán này có thể không khả thi hoặc không được mong đợi do bản chất của các mô hình kinh doanh này.

Do đó, một giải pháp thiết kế theo quy trình có thể cho phép các cá nhân dễ dàng đặt câu hỏi đối với các quyết định đó trước khi chấp nhận đề nghị. Khi xã hội đương đại của chúng ta ngày càng phát triển đối với các ứng dụng AI chuyên sâu, chúng ta cần nhớ rằng có những người vẫn luôn đứng đằng sau bức màn AI và có khả năng đưa ra các quyết định ảnh hưởng đến tất cả chúng ta.

Đây là thời kỳ cao điểm mà tài nguyên và năng lượng được hoàn nguyên theo hướng giáo dục không chỉ trong lĩnh vực công nghệ tiên tiến – mà còn liên quan đến cả các quy tắc nhân quyền.

Ana Beduschi – giảng viên cao cấp về Luật tại Đại học Exeter. Bài viết này lần đầu tiên được trình bày tại The Conversation (theconversation.com)

Lệ Thủy
Lược dịch theo Independent


Vấn đề phát triển các thuật toán đáng tin cậy là mối bận tâm hàng đầu không chỉ từ phía nhà phát triển thuật toán, người dùng mà còn của toàn xã hội. Lớp 3 của Mô hình 7 Lớp Xã hội Trí tuệ Nhân tạo sẽ tập trung vào phát triển và tài nguyên AI, bao gồm quản trị dữ liệu, trách nhiệm, tiêu chuẩn phát triển và trách nhiệm đối với tất cả các nhà phát triển tham gia trực tiếp hoặc gián tiếp vào việc tạo ra AI. Mà theo đó, việc thu thập, sử dụng và quản lý dữ liệu bằng thuật toán AI phải tuân theo các nguyên tắc đạo đức nhằm thúc đẩy sự công bằng và tránh những tác động bất công đến con người.