Hoa Kỳ, Anh và loạt quốc gia ký thỏa thuận chung về AI, yêu cầu 'an toàn ngay từ khi thiết kế'

AI đang phát triển với tốc độ chóng mặt và cần có hành động phối hợp quốc tế, giữa các chính phủ và ngành công nghiệp, để theo kịp sự phát triển của công nghệ ...

Hoa Kỳ, Anh và hơn chục quốc gia khác đã công bố thỏa thuận quốc tế chi tiết đầu tiên về trí tuệ nhân tạo, trong đó nhấn mạnh những biện pháp đảm bảo trí tuệ nhân tạo an toàn trước những kẻ lừa đảo, thúc đẩy các công ty tạo ra các hệ thống AI “an toàn ngay từ khâu thiết kế”.

Theo hãng tin Reuters, 18 quốc gia đã đồng ý rằng các công ty thiết kế và sử dụng AI cần phát triển và triển khai AI theo cách giúp khách hàng và công chúng nói chung được đảm bảo an toàn, không bị lạm dụng.

LẦN ĐẦU TIÊN CÁC QUỐC GIA ĐỒNG LÒNG VỀ CÔNG NGHỆ TRÍ TUỆ NHÂN TẠO

Hướng dẫn Phát triển Hệ thống AI An toàn đã được phát triển bởi Trung tâm An ninh Mạng Quốc gia của Vương quốc Anh (NCSC), một bộ phận của GCHQ, và Cơ quan An ninh Cơ sở hạ tầng và An ninh mạng của Hoa Kỳ (CISA) với sự hợp tác của các chuyên gia trong ngành và 21 cơ quan, bộ quốc tế khác từ các nước trên toàn thế giới - bao gồm cả những thành viên của nhóm các quốc gia G7 và từ miền Nam bán cầu.

Thỏa thuận này không mang tính ràng buộc và chủ yếu đưa ra các khuyến nghị chung như giám sát hành vi lạm dụng của hệ thống AI, bảo vệ dữ liệu khỏi các nhà cung cấp phần mềm giả mạo và kiểm tra.

Tuy nhiên, Giám đốc Cơ quan An ninh Cơ sở hạ tầng và An ninh mạng Hoa Kỳ, Jen Easterly, cho biết điều quan trọng là rất nhiều quốc gia ghi tên mình vào ý tưởng rằng hệ thống AI cần đặt sự an toàn lên hàng đầu.

“Đây là lần đầu tiên chúng tôi thấy các quốc gia đều đồng lòng khẳng định việc phát triển và ứng dụng trí tuệ nhân tạo không chỉ liên quan đến các tính năng thú vị và tốc độ, hay cạnh tranh để giảm chi phí, mà điều quan trọng nhất cần thực hiện là đảm bảo an toàn, an ninh ngay từ giai đoạn thiết kế công nghệ”, Jen Easterly nói.

“Chúng ta biết rằng AI đang phát triển với tốc độ chóng mặt và cần có hành động phối hợp quốc tế, giữa các chính phủ và ngành công nghiệp, để theo kịp sự phát triển của công nghệ AI”, Giám đốc điều hành NCSC Lindy Cameron nói. “Những hướng dẫn này đánh dấu một bước quan trọng trong việc hình thành sự hiểu biết chung, thực sự mang tính toàn cầu về các chiến lược giảm thiểu và rủi ro mạng xung quanh AI để đảm bảo rằng bảo mật không phải là điều bắt buộc trong quá trình phát triển mà là yêu cầu cốt lõi xuyên suốt. Đây là nỗ lực quan trọng nhằm nâng cao tiêu chuẩn an ninh mạng AI: một không gian mạng toàn cầu an toàn hơn sẽ giúp tất cả chúng ta nhận ra những cơ hội tuyệt vời của công nghệ này một cách an toàn và tự tin”

Thỏa thuận này là sáng kiến mới nhất trong một loạt sáng kiến - một vài sáng kiến trong số đó có hiệu quả - của các chính phủ trên khắp thế giới nhằm định hình sự phát triển của AI, lĩnh vực mà sức ảnh hưởng của nó ngày càng được cảm nhận rõ ràng trong ngành công nghiệp và xã hội nói chung.

Đây là nỗ lực quan trọng nhằm nâng cao tiêu chuẩn an ninh mạng AI: một không gian mạng toàn cầu an toàn hơn. Ảnh minh họa

CHỈ PHÁT HÀNH MÔ HÌNH AI SAU KHI ĐÃ KIỂM TRA BẢO MẬT THÍCH HỢP

Thỏa thuận này giải quyết các câu hỏi về cách để đảm bảo công nghệ AI không bị tin tặc lợi dụng và tấn công, cũng như bao gồm các khuyến nghị chỉ phát hành các mô hình sau khi đã tiến hành các bước kiểm tra bảo mật thích hợp.

Các câu hỏi hóc búa xung quanh việc sử dụng AI phù hợp hoặc cách thu thập dữ liệu cung cấp cho các mô hình này không được đưa vào thỏa thuận.

Sự trỗi dậy của AI đã gây ra nhiều lo ngại, bao gồm cả nỗi lo sợ rằng AI có thể được sử dụng để phá vỡ tiến trình dân chủ, gian lận hoặc dẫn đến mất việc làm trầm trọng, cùng những tác hại khác.

Châu Âu đi trước Hoa Kỳ về các quy định liên quan đến AI, với các nhà lập pháp châu Âu đã soạn thảo các quy tắc về AI. Pháp, Đức và Ý gần đây cũng đã đạt được thỏa thuận về cách quản lý trí tuệ nhân tạo nhằm hỗ trợ "sự tự điều chỉnh bắt buộc thông qua các quy tắc ứng xử" cho cái gọi là mô hình nền tảng của AI, được thiết kế để tạo ra nhiều loại đầu ra.

Chính quyền Tổng thống Biden đã thúc ép các nhà lập pháp về quy định về AI, nhưng Quốc hội Hoa Kỳ với nhiều ý kiến tranh cãi đã đạt được rất ít tiến bộ trong việc thông qua quy định hiệu quả.

Nhà Trắng đã tìm cách giảm thiểu rủi ro AI cho người tiêu dùng, người lao động và các nhóm thiểu số, đồng thời củng cố an ninh quốc gia bằng lệnh điều hành mới vào tháng 10.

Dưới đây là danh sách đầy đủ các bên ký kết quốc tế:

Úc – Trung tâm An ninh Mạng Úc (ACSC) của Tổng cục Tín hiệu Úc
Canada – Trung tâm An ninh mạng Canada (CCCS)
Chile - CSIRT của Chính phủ Chile
Séc - Cơ quan An ninh Thông tin và Mạng Quốc gia Séc (NUKIB)
Estonia - Cơ quan Hệ thống Thông tin Estonia (RIA) và Trung tâm An ninh Mạng Quốc gia Estonia (NCSC-EE)
Pháp - Cơ quan An ninh mạng Pháp (ANSSI)
Đức - Văn phòng An ninh Thông tin Liên bang Đức (BSI)
Israel - Tổng cục Mạng Quốc gia Israel (INCD)
Ý - Cơ quan An ninh mạng Quốc gia Ý (ACN)
Nhật Bản - Trung tâm Quốc gia về Sẵn sàng Sự cố và Chiến lược An ninh Mạng của Nhật Bản (NISC; Ban Thư ký Chính sách Khoa học, Công nghệ và Đổi mới của Nhật Bản, Văn phòng Nội các)
New Zealand - Trung tâm An ninh mạng Quốc gia New Zealand
Nigeria - Cơ quan Phát triển Công nghệ Thông tin Quốc gia Nigeria (NITDA)
Na Uy - Trung tâm An ninh mạng Quốc gia Na Uy (NCSC-NO)
Ba Lan - Viện nghiên cứu quốc gia NASK của Ba Lan (NASK)
Hàn Quốc - Cơ quan Tình báo Quốc gia Hàn Quốc (NIS)
Singapore - Cơ quan An ninh mạng Singapore (CSA)
Vương quốc Liên hiệp Anh và Bắc Ireland – Trung tâm An ninh Mạng Quốc gia (NCSC)
Hợp chủng quốc Hoa Kỳ – Cơ quan An ninh mạng và Cơ sở hạ tầng (CISA); Cơ quan An ninh Quốc gia (NSA; Cục Điều tra Liên bang (FBI)

Thanh Minh

Nguồn VnEconomy: https://vneconomy.vn/hoa-ky-anh-va-loat-quoc-gia-ky-thoa-thuan-chung-ve-ai-yeu-cau-an-toan-ngay-tu-khi-thiet-ke.htm