Vì sao không nên chia sẻ thông tin nhạy cảm với ChatGPT

Với sự phát triển của AI, chatbot, khối lượng dữ liệu được thu thập không ngừng tăng lên và các vấn đề về quyền riêng tư, việc sử dụng thông tin cá nhân càng đáng lo ngại.

ChatGPT, chatbot được phát triển bởi OpenAI, đang thu hút được rất nhiều sự quan tâm trên toàn cầu, vì có thể sử dụng rộng rãi trong các lĩnh vực khác nhau.

Thế nhưng, trong khi các ưu điểm, lợi ích vượt trội của ChatGPT thường xuyên được thảo luận, mọi người đề cập rất ít đến sự đảm bảo quyền riêng tư xung quanh việc sử dụng siêu AI này.

Điều này đặc biệt quan trọng vì để một sản phẩm hướng tới người tiêu dùng như ChatGPT trở nên tốt hơn, nó cần tiếp tục thu thập dữ liệu người dùng để đào tạo mô hình của mình. Đó là một chu kỳ không bao giờ kết thúc, trong đó dữ liệu mới sẽ huấn luyện mô hình để phản hồi tốt hơn, rồi lại tiếp tục cập nhật, cung cấp thông tin mới.

Chỉ sau khoảng 2 tháng ra mắt, phương pháp thu thập dữ liệu của ChatGPT rõ ràng đã khiến nhiều công ty lớn phải kinh hãi và lập tức phát cảnh báo tới nhân viên của mình.

Cảnh báo của Amazon và Microsoft

Cuối tháng 1, Business Insider đưa tin Amazon đã cảnh báo các nhân viên không đưa dữ liệu bí mật lên ChatGPT, sau khi phát hiện chatbot này đưa ra những câu trả lời "rất khớp với dữ liệu chỉ lưu hành nội bộ công ty".

Luật sư của Amazon nói rằng các nhân viên không được cung cấp cho ChatGPT "bất kỳ thông tin bí mật nào của Amazon".

"Điều này rất quan trọng vì dữ liệu bạn cung cấp có thể được sử dụng để huấn luyện ChatGPT đưa ra những phản hồi chính xác hơn sau đó. Chúng tôi không muốn câu trả lời của nó bao gồm hoặc giống với thông tin bí mật của công ty", luật sư, cố vấn cao cấp của Amazon, viết.

Một số nhân viên công ty nói với Business Insider rằng họ đã sử dụng ChatGPT như một "trợ lý mã hóa". Một người khác cho biết đã chia sẻ với chatbot một số câu hỏi phỏng vấn của Amazon cho vị trí viết code và rất ngạc nhiên khi nhận được câu trả lời gần như hoàn hảo.

 Giám đốc điều hành Microsoft Satya Nadella. Ảnh: Jason Redmond/Reuters.

Giám đốc điều hành Microsoft Satya Nadella. Ảnh: Jason Redmond/Reuters.

Vài ngày sau cảnh báo của Amazon, Microsolf cũng đưa ra thông báo tương tự. Một giám đốc công nghệ của công ty cho biết nhân viên có thể sử dụng ChatGPT để phục vụ công việc, nhưng không được chia sẻ "dữ liệu nhạy cảm" với chatbot.

"Vui lòng không gửi dữ liệu nhạy cảm đến chatbot, vì nó có thể được OpenAI sử dụng để đào tạo các mô hình trong tương lai", Microsolf khuyến cáo nhân viên.

Microsoft là nhà đầu tư lớn vào OpenAI, công ty đứng sau ChatGPT. Như vậy công ty này có thể hưởng lợi từ việc OpenAI có được nhiều dữ liệu đào tạo để chatbot ngày càng thông minh hơn.

Tuy nhiên, theo Vincent Conitzer, giáo sư khoa học máy tính và giám đốc phòng thí nghiệm trí tuệ nhân tạo tại Đại học Carnegie Mellon, lợi ích đó sẽ không khiến một gã khổng lồ như Microsoft hành xử một cách vô trách nhiệm.

Mối quan tâm chung là nhân viên có thể vô tình chia sẻ thông tin bí mật của công ty, chẳng hạn như mã phần mềm nội bộ, với chatbot để hỏi mẹo hoặc lời khuyên về cách cải thiện công việc. Đổi lại, ChatGPT có thể xử lý dữ liệu để tự đào tạo, có khả năng chia sẻ các phiên bản thông tin bí mật mà nó nhận được trong các cuộc trao đổi trong tương lai với những người dùng khác.

"Con người ký NDA (thỏa thuận không tiết lộ thông tin) và do đó có ràng buộc phải cẩn thận trong cách họ chia sẻ thông tin. Nhưng các mô hình ngôn ngữ lớn như ChatGPT không có khả năng suy luận về những vấn đề như vậy, ít nhất là theo cách mặc định", ông Conitzer nói.

Thông tin cá nhân và quyền riêng tư

Điều khoản dịch vụ của OpenAI cho công ty này quyền sử dụng tất cả dữ liệu đầu vào và đầu ra do người dùng và ChatGPT tạo ra. Công ty cũng cho biết hệ thống xóa tất cả thông tin nhận dạng cá nhân (PII) khỏi dữ liệu mà mình sử dụng.

Tuy nhiên, theo Emily Bender, giảng viên ngôn ngữ học máy tính tại Đại học Washington, OpenAI gần như không thể xác định và xóa "triệt để" thông tin cá nhân khỏi dữ liệu, do sự phát triển nhanh chóng của ChatGPT.

Quan trọng hơn, tài sản trí tuệ của các tập đoàn có thể không được định nghĩa là một phần thuộc PII.

"OpenAI sẽ không minh bạch về cách họ sử dụng dữ liệu. Nếu chúng được đưa vào để đào tạo, tôi cho rằng các tập đoàn sẽ phải tự hỏi: Sau vài tháng sử dụng rộng rãi ChatGPT, liệu công cụ này có thể trích xuất thông tin mật của công ty một cách khéo léo hay không?", Bender nhận định.

Hadrien Pouget, nhà phân tích nghiên cứu thỉnh giảng trong Chương trình Công nghệ và Quan hệ Quốc tế tại Quỹ Carnegie vì Hòa bình Quốc tế, giải thích trên Lawfare rằng hiện tại không có phương pháp để kiểm tra xem các hệ thống AI có tuân thủ các nguyên tắc đã được thiết lập hay không.

 Khối lượng dữ liệu được AI thu thập làm dấy lên lo ngại về quyền riêng tư. Ảnh minh họa: Fran Pulido/Midjourney.

Khối lượng dữ liệu được AI thu thập làm dấy lên lo ngại về quyền riêng tư. Ảnh minh họa: Fran Pulido/Midjourney.

Mặc dù AI đơn giản hơn có thể được quản lý dễ dàng, những tiến bộ gần đây, đặc biệt là với mạng thần kinh nhân tạo (ANNs), phần lớn vẫn còn là bí ẩn.

"Việc các chatbot và những hệ thống AI khác thu thập dữ liệu để có thể tạo ra kết quả đầu ra tốt hơn là điều hoàn toàn không thể tránh khỏi. Đó là lập luận tương tự mà chúng tôi đã đề cập nhiều lần trước đây trong trường hợp của các công ty công nghệ lớn. Mặc dù các phương tiện thu thập dữ liệu là bất hợp pháp, nó được coi là 'không thể tránh khỏi' để đảm bảo trải nghiệm người dùng được cá nhân hóa", Pouget viết.

Clearview AI, một công ty nhận dạng khuôn mặt của Mỹ, đã thu thập hình ảnh của mọi người từ trang web và sử dụng chúng để đào tạo AI giám sát khuôn mặt mà không cần sự đồng ý.

Cơ sở dữ liệu của nó bao gồm khoảng 20 tỷ hình ảnh. Mặc dù phải đối mặt với nhiều vụ kiện, tiền phạt và lệnh ngừng hoạt động vì vi phạm quyền riêng tư, Clearview AI đã xoay xở để trốn nộp một số khoản tiền phạt và từ chối xóa dữ liệu, bất chấp lệnh của cơ quan quản lý.

Đây chỉ là một trong nhiều trường hợp cho thấy các quy định không rõ ràng có thể tác động như thế nào đến doanh nghiệp và người tiêu dùng ở quy mô lớn.

Với sự tiến bộ của AI và chatbot, khối lượng dữ liệu được thu thập dự kiến không ngừng tăng. Điều này sẽ tiếp tục làm dấy lên nhiều lo ngại hơn về quyền riêng tư và việc sử dụng thông tin cá nhân đúng cách.

Lê Vy

Nguồn Znews: https://zingnews.vn/vi-sao-khong-nen-chia-se-thong-tin-nhay-cam-voi-chatgpt-post1398372.html