Sai lầm vẫn ám ảnh Apple, Google sau nhiều năm

8 năm sau vụ việc người da đen bị Google Photos phân loại là khỉ đột, các gã khổng lồ công nghệ vẫn sợ lặp lại sai lầm.

Khi Google phát hành Photos vào năm 2015, người dùng đã ngạc nhiên trước khả năng của ứng dụng: tự động gắn nhãn tên người, địa điểm và đồ vật, tra cứu hình ảnh dựa trên từ khóa. Nhưng không lâu sau, Jacky Alciné, một kỹ sư phần mềm, phát hiện Google Photos đã gắn nhãn các bức ảnh của anh và một người bạn, cả 2 đều là người da đen, là “khỉ đột”.

Sự cố này phản cảm với người dùng vì nó gợi lại sự phân biệt chủng tộc. Để sửa chữa, Google đã ngăn ứng dụng phân loại bất kỳ thứ gì là "khỉ đột" và cho biết sẽ khắc phục sự cố. 8 năm sau, Google cũng như các đối thủ Apple, Amazon và Microsoft vẫn chưa có cách giải quyết triệt để, thay vào đó chỉ né tránh phân loại "khỉ đột".

Né tránh phân loại khỉ đột

Trong một thử nghiệm kiểm tra chức năng tìm kiếm hình ảnh dựa trên từ khóa, The New York Times đã tạo bộ sưu tập gồm 44 hình ảnh có người, động vật và đồ vật hàng ngày. Google Photos tìm ra đúng ảnh khi được cho từ khóa "mèo", "chuột túi" và hầu hết loài động vật khác. Nhưng khi nhập từ khóa "khỉ đột", ứng dụng không tìm thấy bất kỳ hình ảnh nào cho dù có hình ảnh khỉ đột trong bộ sưu tập.

Apple Photos gặp vấn đề tương tự. Ứng dụng có thể tìm thấy chính xác ảnh của các loài động vật cụ thể, ngoại trừ các loài linh trưởng. Trong khi đó, Microsoft OneDrive không tìm được bất kỳ động vật nào, còn Amazon Photos hiển thị tất cả động vật mỗi khi nhập từ khóa liên quan đến động vật.

 Jacky Alciné và bạn bị Google Photos dán nhãn là "khỉ đột". Ảnh: Jacky Alciné/ Twitter.

Jacky Alciné và bạn bị Google Photos dán nhãn là "khỉ đột". Ảnh: Jacky Alciné/ Twitter.

Ứng dụng của Google và Apple tỏ ra chính xác hơn cả, nhưng 2 công ty phát hành nền tảng cho hầu hết điện thoại thông minh trên thế giới vẫn phải tắt tính năng tìm kiếm động vật linh trưởng, do sợ phạm sai lầm như 8 năm trước.

Về mặt sử dụng thực tế, từ khóa cụ thể này không ảnh hưởng nhiều đến người tiêu dùng. Tuy nhiên, vấn đề là vẫn có các lỗ hổng không thể sửa chữa, tiềm ẩn trong các dịch vụ dựa trên AI. Alciné tỏ ra thất vọng khi biết rằng Google vẫn chưa giải quyết triệt để vấn đề và cho biết xã hội đặt quá nhiều niềm tin vào công nghệ. “Tôi sẽ mãi mãi không có niềm tin vào những AI này”, ông cho biết.

Lỗi "khỉ đột" phản ánh thiên kiến phân biệt chủng tộc trong dữ liệu. 2 cựu nhân viên của Google cho biết đã không đưa đủ ảnh của người da đen vào dữ liệu dùng để huấn luyện AI, kết quả là hệ thống không quen với những người da sẫm màu và nhầm lẫn họ là khỉ đột.

Lỗi ẩn sau các hệ thống AI

Việc Google chặn từ khóa "khỉ đột" là cách tiếp cận phổ biến trong ngành công nghệ trí tuệ nhân tạo. Các công ty tìm cách chặn đầu vào từ người dùng hoặc đầu ra của AI theo từ khóa, hình ảnh thay vì tìm cách sửa chữa gốc rễ vấn đề.

Michael Marconi, phát ngôn viên của Google, cho biết công ty đã ngăn Photos gắn nhãn bất kỳ thứ gì là "khỉ" hoặc "vượn" vì cho rằng nguy cơ gây hại lớn hơn lợi ích mà tính năng tra cứu từ khóa cụ thể này mang lại.

 Apple Watch bị cáo buộc không đo chính xác nồng độ oxy trên các màu da khác nhau. Ảnh: Apple.

Apple Watch bị cáo buộc không đo chính xác nồng độ oxy trên các màu da khác nhau. Ảnh: Apple.

"Tuy nhiên việc giải quyết những vấn đề này là quan trọng. Làm thế nào chúng ta có thể tin tưởng AI trong các tình huống khác?”, Vicente Ordónẽz, nhà nghiên cứu thị giác máy tính tại Đại học Rice, cho biết. Lỗi thiên kiến có thể gây hậu quả nghiêm trọng khi AI được sử dụng trong các sản phẩm an ninh, y tế.

Các sản phẩm thị giác máy tính khác bị chỉ trích sau khi gây lỗi bao gồm webcam theo dõi khuôn mặt của HP, không thể phát hiện một số người có làn da sẫm màu. Theo một vụ kiện, Apple Watch đã không thể đọc chính xác nồng độ oxy trong máu với các màu da khác nhau. Những sai sót cho thấy rằng các sản phẩm công nghệ nói chung đang bỏ qua những nhóm dân số nhất định.

Nhiều năm sau lỗi Google Photos, công ty đã gặp sự cố tương tự với camera an ninh gia đình Nest trong quá trình thử nghiệm nội bộ, theo nguồn tin của The New York Times tại Google. Nest, sử dụng AI để xác định người đang tiếp cận khuôn viên nhà là quen hay lạ, đã nhầm một số người da đen với động vật.

Margaret Mitchell, nhà nghiên cứu từng dẫn đầu nhóm đạo đức AI của Google, cho biết những hệ thống này không bao giờ có thể hoàn hảo. Trong khi đó, có hàng tỷ người sử dụng các dịch vụ của Google và cả những trục trặc hiếm gặp cũng sẽ xuất hiện. “Chỉ cần một sai lầm cũng kéo theo hậu quả xã hội to lớn", Mitchell lưu ý.

Hoàng Nam

Nguồn Znews: https://zingnews.vn/sai-lam-van-am-anh-apple-google-sau-nhieu-nam-post1435690.html