Khi có nhiều người sử dụng trí tuệ nhân tạo hơn, họ sẽ cần đến các công cụ phát hiện sự bất công trong những thuật toán cơ bản.

Microsoft đang phát triển một công cụ tự động xác định sự thiên vị trong một loạt các thuật toán AI khác nhau. Đó là nỗ lực táo bạo nhất nhằm tự động hóa việc phát hiện sự bất công mà có thể sẽ trở nên phổ biến ở học máy (machine learning), và nó có thể hỗ trợ các doanh nghiệp sử dụng AI mà không vô tình tạo ra sự phân biệt đối xử với một số cá nhân nhất định.

Những công ty công nghệ lớn đang chạy đua để bán công nghệ học máy có sẵn – những công nghệ có thể truy cập thông qua đám mây. Khi có ngày càng nhiều khách hàng sử dụng các thuật toán này để tự động hóa những phán đoán và quyết định quan trọng hơn, vấn đề về việc thiên vị sẽ trở nên rất quan trọng. Và kể từ khi sự thiên vị có thể dễ dàng trở nên phổ biến ở các mô hình học máy, các cách tự động hóa việc phát hiện nó sẽ trở thành một phần có giá trị trong bộ công cụ AI.

Ông Rich Caruna – nhà nghiên cứu cấp cao tại Microsoft, hiện đang làm việc trong lĩnh vực bảng điều khiển phát hiện thiên vị, cho biết: “Những điều như tính minh bạch, tính dễ hiểu và lời giải thích hiện còn mới mẻ trong lĩnh vực mà ít người trong số chúng ta có đủ kinh nghiệm để biết mọi thứ chúng ta nên tìm kiếm, và tất cả những cách mà việc thiên vị có thể ẩn núp trong các mô hình của chúng ta.”

Sự thiên vị trong thuật toán là mối quan tâm ngày càng lớn đối với nhiều nhà nghiên cứu và chuyên gia công nghệ. Khi các thuật toán được sử dụng để tự động hóa quyết định quan trọng, có khả năng sự thiên vị được thực hiện một cách tự động, được triển khai có quy mô và gây khó khăn hơn cho những ai phát hiện ra sự thiên vị.

Theo ông Caruna, những sản phẩm bắt lỗi thiên vị của Microsoft sẽ giúp các nhà nghiên cứu AI phát hiện được nhiều trường hợp bất công hơn, mặc dù chưa phải tất cả. “Tất nhiên, chúng ta không thể kỳ vọng sự hoàn hảo – vẫn luôn luôn có một số thiên vị không bị phát hiện ra hoặc không thể loại trừ được – mục tiêu là làm tốt nhất có thể,” ông cho biết.

“Điều quan trọng nhất mà các công ty có thể làm ngay bây giờ là đào tạo lực lượng lao động của mình để họ nhận biết được vô số cách thức mà thiên vị có thể phát sinh và tự thực hiện và tạo ra các công cụ để khiến các mô hình trở nên dễ dàng hiểu hơn và dễ dàng phát hiện sự thiên vị hơn,” ông Caruna nói thêm.

Facebook đã công bố công cụ phát hiện sự thiên vị của chính mình tại hội nghị các nhà phát triển hàng năm vào ngày 02/05. Công cụ Fairness Flow của Facebook tự động cảnh báo nếu một thuật toán đưa ra đánh giá không công bằng về một người nào đó dựa trên chủng tộc, giới tính hoặc tuổi tác của họ. Theo đại diện Facebook, họ cần Fairness Flow bởi ngày càng có nhiều người tại công ty này đang sử dụng AI để đưa ra các quyết định quan trọng.

Bin Yu – một giáo sư tại UC Berkeley, cho rằng các công cụ từ Facebook và Microsoft đang là một bước đi đúng hướng, nhưng có thể là chưa đủ. Bà cho rằng các công ty lớn nên thuê thêm chuyên gia từ bên ngoài để kiểm tra các thuật toán của mình, nhằm chứng minh chúng không thiên vị. “Một người khác nào đó phải kiểm tra các thuật toán của Facebook – chúng không thể là bí mật đối với mọi người,” bà Yu phát biểu.

Thanh Huyền

Lược dịch theo MIT Technology Review


Tác giả Will Knight: Biên tập viên cao cấp về mảng Trí tuệ nhân tạo của tạp chí công nghệ uy tín MIT Technology Review. Ông phụ trách các bài viết bao gồm những tiến bộ mới nhất về AI và các lĩnh vực liên quan, bao gồm Học máy, lái xe tự động và robot. Ông gia nhập MIT Technology Review vào năm 2008 sau khi chuyển công tác từ New Scientist – tạp chí khoa học hàng tuần của Anh.