Liên minh châu Âu đi đầu trong làm luật quản lý AI

Một ví dụ tiêu biểu về xây dựng luật quản lý AI chính là Liên minh châu Âu (EU). Ngày 9-12-2023, tổ chức liên quốc gia này đã đi tới một 'thỏa thuận chính trị' liên quan tới Luật về AI, sau ba ngày thương thuyết đầy căng thẳng giữa các nước thành viên và Nghị viện châu Âu.

Với sự xuất hiện của ChatGPT của Công ty Open AI vào mùa thu 2022, các công ty công nghệ, từ nhỏ đến lớn, lao vào cuộc đua sống còn để tạo ra những chương trình trí tuệ nhân tạo (AI – Artificial Intelligence) ngày càng phát triển hơn. GPT-4 (cũng của Open AI), chatbot Claude phiên bản cải tiến của Anthropic, Gemini của Google… chỉ là một vài ví dụ nhỏ.

Gần đây nhất, OpenAI còn trình làng mô hình mang tên Sora, cho phép tạo ra một đoạn video, với chỉ vài dòng lệnh (prompt).

Thế nhưng, những tiến bộ nói trên cũng… chưa là gì, bởi vì cùng dựa trên một nguyên tắc: AI “học” từ những dữ liệu có sẵn, mà đặc biệt là nội dung và hình ảnh trên mạng Internet.

Hiện nay, các ông lớn công nghệ đang nhắm tới một mục tiêu khác: sử dụng AI để đào tạo AI. Từ vài tháng trở lại đây, Google Deepmind, Microsoft, Amazon, Meta, Apple, OpenAI cũng như nhiều viện khoa học đã tung ra những kết quả nghiên cứu cho thấy có thể sử dụng chính mô hình AI để huấn luyện những mô hình AI khác, hoặc để tự huấn luyện chính mô hình AI đó.

Trong một số trường hợp, việc dùng AI để đào tạo AI này tạo ra những tiến bộ đáng kể. Nhiều chuyên gia công nghệ cho rằng cách tiếp cận này sẽ là tương lai của công nghệ AI.

Không khó để có thể nhận ra rằng AI ngày càng mang lại những thay đổi vô cùng nhanh chóng, từ trong lĩnh vực công nghệ nói riêng cho đến xã hội loài người nói chung.

Hiện nay, một trong những vấn đề thu hút sự chú ý của các chính phủ là những nguy cơ to lớn đến từ AI, đe dọa quyền căn bản của cá nhân và an ninh xã hội. Càng đáng lo ngại hơn cả, đó là tình trạng AI “vô luật” hiện nay. Ở thời điểm này, chưa có quốc gia nào thông qua luật quản lý AI và các chương trình ứng dụng AI. Tuy nhiên, nhiều quốc gia phát triển đang ráo riết xây dựng luật trong lĩnh vực này.

Một ví dụ tiêu biểu về xây dựng luật quản lý AI chính là EU. Ngày 9-12-2023, tổ chức liên quốc gia này đã đi tới một “thỏa thuận chính trị” liên quan tới Luật về AI, sau ba ngày thương thuyết đầy căng thẳng giữa các nước thành viên và Nghị viện châu Âu. Có thể đây sẽ là luật đầu tiên trên thế giới ở quy mô quốc tế liên quan tới chủ đề nóng bỏng này.

Hiện nay, có thể nói rằng EU là nhà làm luật đi đầu trong lĩnh vực quản lý và phát triển AI. Tham vọng của tổ chức này là tạo ra những quy chuẩn hàng đầu được các quốc gia ở các châu lục khác áp dụng trên toàn cầu, tương tự như Luật về Bảo vệ dữ liệu cá nhân (General Data Protection Regulation – GDPR), vốn là hình mẫu xây dựng luật cho rất nhiều quốc gia trên thế giới.

Theo dự thảo luật của EU, AI sẽ được đưa vào một khuôn khổ pháp lý dựa trên ba nguyên tắc chính: đạo đức, đảm bảo và tin cậy. Một mặt, những chương trình AI càng tạo ra nguy cơ cao, thì luật lại càng siết chặt sự quản lý. Mặt khác, EU cũng vươn tới mục tiêu thúc đẩy đầu tư và đổi mới công nghệ AI, để xây dựng một thị trường chung về các ứng dụng AI.

Trong luật này, định nghĩa của OECD về AI được EU sử dụng lại, vì đây là một định nghĩa rộng, cho phép bao trùm tất cả lĩnh vực. Chúng ta có thể thấy logic làm luật của EU là một sự quản lý theo “chiều ngang”, không phân biệt đối tượng kỹ thuật.

Tuy nhiên, những chương trình AI sử dụng với mục đích an ninh quân sự, quốc phòng, hoặc với mục đích duy nhất là nghiên cứu đổi mới, cũng như những chương trình AI “mở” hoặc miễn phí thì không nằm trong đối tượng áp dụng của luật này.

Những hệ thống AI được luật phân loại theo mức độ “nguy cơ”. Cách tiếp cận này cũng được sử dụng trong Luật về Bảo vệ dữ liệu cá nhân (GDPR), cho thấy sự “thận trọng” trong cách quản lý AI của EU, vốn rất đề cao các quyền cá nhân cơ bản và sự an ninh, an toàn cá nhân trong môi trường số. Mọi hệ thống AI với mục đích “chấm điểm xã hội” kiểu Trung Quốc đều bị cấm, cũng như những chương trình sử dụng hình ảnh từ các camera công cộng để nhận diện khuôn mặt.

Các chương trình nhận diện sinh học hay nhận diện cảm xúc bị coi là “nguy cơ cao”, tuy không bị cấm nhưng sẽ bị quản lý gắt gao và phải đáp ứng nhiều tiêu chuẩn khác nhau. “Nguy cơ cao” cũng áp dụng với AI có mục đích y tế, hay AI để phân tích dữ liệu khách hàng trong lĩnh vực ngân hàng, bảo hiểm.

Riêng đối với những chương trình AI tạo sinh (như ChatGPT hay Midjourney… cho phép tạo ra nội dung hay hình ảnh từ những dữ liệu có sẵn), trong thời gian thương thuyết xây dựng luật, ba quốc gia hàng đầu châu Âu là Pháp, Đức và Ý không đồng tình với cách tiếp cận quản lý dựa trên mức độ của chương trình AI. Đối với các quốc gia này, thì cho dù các chương trình nói trên cũng chứa không ít nguy cơ, nhưng mục đích sử dụng có phần khác biệt với các chương trình khác.

Ba quốc gia này đề xuất áp dụng một cách tiếp cận tự do hơn, dựa trên nhu cầu của thị trường để quản lý một cách linh hoạt hơn, theo các quy tắc ứng xử, vì các chương trình này thay đổi vô cùng nhanh chóng. Rốt cục thì dự thảo luật đưa ra hai mức độ quản lý phân biệt những chương trình AI chứa đựng nguy cơ “có hệ thống” (phải thỏa mãn những tiêu chí kiểm định, phân tích nguy cơ, biện pháp đảm bảo an ninh) với những mô hình nền tảng (chỉ cần thỏa mãn những quy định về tính minh bạch, thông tin cho người tiêu dùng…).

Để đạt được sự đồng thuận đối với dự thảo luật này, các quốc gia thành viên và Nghị viện châu Âu đã phải thảo luận, thương thuyết trong vòng 37 giờ ở Brussels (Bỉ). Sự kiện này được coi là một bước tiến lớn trong tiến trình chuyển đổi số của EU. Dự thảo luật này cần được Nghị viện và Ủy ban châu Âu thông qua để trở thành luật áp dụng trong EU. Đây có thể là văn bản pháp lý đầu tiên trên thế giới đưa AI vào “khuôn khổ pháp lý”.

Lê Thiên Hương

Nguồn Saigon Times: https://thesaigontimes.vn/lien-minh-chau-au-di-dau-trong-lam-luat-quan-ly-ai/