Thấy gì từ việc Taylor Swift bị phát tán ảnh khiêu dâm giả?

Công nghệ AI đang vượt khỏi tầm kiểm soát. Taylor Swift nói riêng và phụ nữ nói chung phải gánh chịu hậu quả nặng nề từ sản phẩm deepfake.

Mối lo ngại về nội dung khiêu dâm giả đã lên mức đỉnh điểm sau khi Taylor Swift trở thành nạn nhân mới nhất. Tuần qua, hình ảnh, video deepfake về cô xuất hiện dày đặc trên các nền tảng truyền thông xã hội khác nhau, gồm X (Twitter) và Meta.

Bài đăng deepfake miêu tả Swift khỏa thân và có những tư thế nhạy cảm thu về hơn 27 triệu lượt xem, hơn 260.000 lượt thích trong 19 giờ. Hiện tài khoản đăng chúng đã bị báo cáo và X cũng chặn các tìm kiếm liên quan tới Taylor Swift.

Joe Benarroch - người đứng đầu hoạt động kinh doanh tại X - mô tả hành động này chỉ là "biện pháp tạm thời". Trong khi đó, đại diện phát ngôn của Meta phát biểu: "Chúng tôi sẽ xóa tất cả nội dung tương tự và tiếp tục theo dõi. Nếu phát hiện thêm bài đăng vi phạm, chúng tôi sẽ thực hiện hành động thích hợp".

Các nguồn tin thân cận tiết lộ ca sĩ Blank Space đã xem xét khởi kiện người đứng sau loạt ảnh AI. Glamour cho hay, nhiều nạn nhân cũng muốn quyết liệt như Swift, song họ không có nguồn lực để theo đuổi công lý.

99% sản phẩm deepfake nhắm đến phụ nữ

Trong cuộc phỏng vấn với Glamour, Helen Mort, nhà thơ kiêm giảng viên đến từ Sheffield (Anh), kể từng phát hiện ảnh khiêu dâm giả mạo cô lan truyền trên trang web 18+ tại thời điểm dịch Covid-19 mới bùng phát. Mort cảm thấy sốc, cực kỳ hoang mang.

"Thực sự đây là mối nguy rất đáng lo ngại. Tôi không còn cảm giác an toàn nữa", Helen tâm sự. Mặc dù loạt ảnh deepfake này đã bị xóa sau đó không lâu, song những gì đang xảy ra với Swift khiến Mort nhớ lại cảm giác cũ.

"Nó gợi lại ký ức về trải nghiệm kinh hoàng năm xưa. Không biết ai đã lạm dụng tôi theo cách đáng sợ như vậy", cô nói thêm.

Nhiều phụ nữ cũng bị giả ảnh khiêu dâm như Taylor Swift. Ảnh: CBS.

Báo cáo toàn diện về deepfake năm 2023 xác định nội dung khiêu dâm do AI tạo ra chiếm 98% tổng số video deepfake được tìm kiếm trực tuyến. Tệ hơn nữa, 99% đối tượng bị giả mạo là phụ nữ.

Hồi tháng 1, tổ chức nhân quyền Equality Now cung cấp bản tóm tắt về lạm dụng tình dục, trong đó ghi: "Các nhóm người dễ bị tổn thương nhất là phụ nữ và trẻ em gái phải đối mặt với vô vàn rủi ro và thách thức ngày càng tăng, đặc biệt trong việc chống lạm dụng tình dục dựa trên hình ảnh giả".

Từ đây cho thấy một thực tế đáng sợ hơn: sự kỳ thị phụ nữ vẫn ăn sâu trong tiềm thức nhiều người.

Người nổi tiếng, địa vị cao là mục tiêu

Clare McGlynn - giáo sư luật tại Đại học Durham, chuyên gia về vấn đề lạm dụng trực tuyến - phát biểu: "Việc trao đổi ảnh khiêu dâm deepfake có mục đích chung là cố bịt miệng những phụ nữ dám lên tiếng. Những kẻ xấu xa muốn đe dọa Taylor Swift, các nữ chính trị gia cũng như vô số phụ nữ địa vị cao ngoài kia".

Amanda Manyame, cố vấn quyền kỹ thuật số của Equality Now, người làm việc ở lĩnh vực giao thoa giữa công nghệ và luật pháp, đồng ý quan điểm những phụ nữ nổi tiếng có nguy cơ bị lạm dụng cao hơn. Cô cho biết: "Bất kỳ ai cũng có thể là nạn nhân của ảnh deepfake, nhưng phụ nữ quyền lực, danh tiếng - chẳng hạn các ngôi sao nữ, chính trị gia, nhà báo và nhóm người bảo vệ nhân quyền - mới là mục tiêu đặc biệt".

Theo Glamour, việc đa số phụ nữ có chỗ đứng trong xã hội là nạn nhân của ảnh giả cũng tác động sâu sắc đến nhóm phụ nữ, trẻ em gái bình thường. Một người ủng hộ cải cách tư pháp tên Ellie Wilson kể rằng, cô đã bị công kích khi dám nêu quan điểm về mức độ nguy hiểm của sản phẩm deepfake.

Trường hợp của Wilson là ví dụ điển hình cho chia sẻ của Olivia DeRamus, nhà sáng lập kiêm giám đốc điều hành của Communia - mạng xã hội chỉ dành cho phụ nữ. DeRamus ghi nhận nhiều trường hợp phái đẹp gặp nguy hiểm vì lên tiếng chống lại các tài khoản đứng sau loạt ảnh AI.

Người nổi tiếng dễ trở thành nạn nhân của deepfake. Ảnh: Stylist.

"Khi bản thân tôi chỉ thảo luận về deepfake hay các nhà báo nữ đưa tin về vụ Taylor Swift, cộng đồng Swifties tạo hashtag bảo vệ thần tượng, hoặc chính trị gia nêu giải pháp giải quyết vấn đề, thì tất cả đều bị tấn công cuộc sống riêng tư và nghề nghiệp", DeRamus nói.

Theo giáo sư Amanda Manyame, deepfake đang vượt khỏi tầm kiểm soát và được tiếp tay bởi tiến bộ nhanh chóng trong công nghệ. Từ đó dẫn đến việc sản xuất nội dung deepfake mang tính lạm dụng ngày càng dễ dàng và rẻ tiền.

"Không gian mạng tạo điều kiện thuận lợi cho hành động lạm dụng vì thủ phạm không cần phải ở gần nạn nhân. Ngoài ra, tính ẩn danh do Internet cung cấp cũng là môi trường hoàn hảo cho đối tượng gây hại vì khó truy tìm", cô nhấn mạnh.

Chưa có biện pháp xử lý triệt để

Hầu hết quốc gia không có biện pháp đối phó triệt để với tác hại do deepfake gây ra. Ví dụ, theo Đạo luật An toàn trực tuyến ở Vương quốc Anh, việc chia sẻ nội dung khiêu dâm giả mà không có sự đồng ý là vi phạm. Tuy nhiên luật không quy định cấm sản xuất hình ảnh như vậy.

Giáo sư Manyame giải thích: "Lỗ hổng này tạo môi trường thuận lợi cho những kẻ phạm tội hiểu rằng họ khó có thể bị phát hiện hoặc trừng phạt. Tình hình trở nên tồi tệ hơn do thiếu trách nhiệm pháp lý trong việc quản lý lĩnh vực công nghệ".

Trong khi đó, tại Mỹ, không có luật liên bang nào liên quan đến deepfake. Tuy nhiên, 10 tiểu bang có luật nhắm vào những đối tượng tạo và chia sẻ nội dung deepfake là California, Florida, Georgia, Hawaii, Illinois, Minnesota, New York, South Dakota, Texas và Virginia.

Ngày 30/10/2023, Tổng thống Biden ban hành sắc lệnh về trí tuệ nhân tạo. Theo tuyên bố của Nhà Trắng, sắc lệnh yêu cầu các công ty khi phát triển các hệ thống AI, nếu có nguy cơ gây rủi ro cho an ninh và nền kinh tế quốc gia, sức khỏe hoặc an toàn cộng đồng, phải chia sẻ kết quả kiểm tra an toàn với Chính phủ Mỹ trước khi công bố rộng rãi.

Sắc lệnh cũng chỉ đạo các cơ quan chức năng thiết lập các tiêu chuẩn, công cụ và thử nghiệm để giúp đảm bảo các hệ thống AI an toàn, bảo mật và đáng tin cậy. Tuy nhiên, không có gì cụ thể được thực hiện ở cấp liên bang.

Quốc Minh

Nguồn Znews: https://znews.vn/thay-gi-tu-viec-taylor-swift-bi-phat-tan-anh-khieu-dam-gia-post1458387.html