Chuyên gia khuyên các doanh nghiệp đặt ra quy chuẩn với việc nhân viên sử dụng ChatGPT

ChatGPT đang trở nên giống với smartphone hay laptop và các công ty cần có quy định đối với việc sử dụng ChatGPT vào công việc, để bảo vệ dữ liệu...

Các công ty công nghệ lớn ồ ạt đổ tiền vào trí tuệ nhân tạo và chatbot đã khiến nhiều giám đốc an ninh thông tin rơi vào tình trạng quay cuồng, hoang mang, đặc biệt khi điều này diễn ra trong bối cảnh sa thải hàng loạt nhân viên và tăng trưởng giảm.

Với ChatGPT của OpenAI, Bing AI của Microsoft, Bard của Google và kế hoạch chatbot riêng đang gây chú ý của Elon Musk, AI sáng tạo (Generative AI) đang xâm nhập mạnh mẽ vào nơi làm việc. Các giám đốc an ninh thông tin cần thận trọng khi tiếp cận công nghệ này và chuẩn bị các biện pháp bảo mật cần thiết.

Công nghệ đằng sau GPT, hay các cỗ máy xử lý dữ liệu được đào tạo trước, được hỗ trợ bởi các mô hình ngôn ngữ lớn (LLM) hoặc thuật toán tạo ra các cuộc hội thoại giống con người của chatbot. Nhưng không phải công ty nào cũng có GPT riêng, vì vậy các công ty cần theo dõi cách người lao động sử dụng công nghệ này.

Michael Chui, một đối tác tại Viện Toàn cầu McKinsey, so sánh công cụ ChatGPT với cách người lao động sử dụng máy tính cá nhân hoặc điện thoại.

Chui nói: “Ngay cả khi bộ phận CNTT của công ty không chấp nhận công cụ ChatGPT, mọi người vẫn đang tự do sử dụng các chatbot này”.

Ông nói: “Trong suốt lịch sử, chúng tôi đã tìm ra những công nghệ hấp dẫn đến mức các cá nhân sẵn sàng trả tiền để sở hữu nó. Mọi người đã mua điện thoại di động từ rất lâu trước khi các doanh nghiệp chính thức cho phép họ dùng điện thoại vào công việc. Máy tính cá nhân cũng tương tự như vậy. Giờ đây, chúng ta đang thấy điều tương tự với AI sáng tạo”.

Do đó, các công ty sẽ phải “bắt kịp” cách tiếp cận các biện pháp bảo mật, Chui nói thêm.

Cho dù đó là thông lệ kinh doanh tiêu chuẩn như giám sát thông tin nào được chia sẻ trên nền tảng AI hay tích hợp GPT do công ty chấp thuận tại nơi làm việc, các chuyên gia cho rằng có một số lĩnh vực mà các giám đốc an toàn thông tin và công ty nên bắt đầu.

BẮT ĐẦU VỚI NHỮNG KIẾN THỨC CƠ BẢN VỀ BẢO MẬT THÔNG TIN

CISO (giám đốc an toàn thông tin) - vốn đã chiến đấu bảo vệ công ty trong tình trạng kiệt sức và căng thẳng - đang phải đối phó với đủ vấn đề, chẳng hạn như các cuộc tấn công an ninh mạng tiềm ẩn và nhu cầu tự động hóa ngày càng tăng. Khi AI và GPT bắt đầu xuất hiện tại nơi làm việc, CISO có thể bắt đầu cuộc chiến bằng những kiến thức cơ bản về bảo mật.

Chui cho biết các công ty có thể cấp phép sử dụng nền tảng AI hiện có để họ có thể theo dõi những gì nhân viên nói với chatbot và đảm bảo rằng thông tin chia sẻ được bảo vệ.

Chui nói: “Nếu bạn là một công ty, bạn không muốn nhân viên của mình nói chuyện với một chatbot công khai, chia sẻ các thông tin bí mật. Vì vậy, bạn có thể áp dụng các phương tiện kỹ thuật, cấp phép cho phần mềm và có một thỏa thuận pháp lý có hiệu lực thi hành về dữ liệu”.

Chui cho biết việc cấp phép sử dụng phần mềm đi kèm với việc kiểm tra và cân bằng bổ sung. Bảo vệ thông tin bí mật, quy định về nơi lưu trữ thông tin và hướng dẫn về cách nhân viên có thể sử dụng phần mềm - tất cả đều là quy trình chuẩn khi công ty cấp phép cho nhân viên sử dụng phần mềm AI.

“Nếu bạn có một thỏa thuận, bạn có thể kiểm tra phần mềm, để bạn có thể biết liệu họ có đang bảo vệ dữ liệu theo cách mà bạn muốn nó được bảo vệ hay không”, Chui nói.

Chui cho biết, hầu hết các công ty lưu trữ thông tin bằng phần mềm dựa trên đám mây đều đã làm điều này, vì vậy việc đi trước và cung cấp cho nhân viên một nền tảng AI được công ty chấp nhận có nghĩa là doanh nghiệp đó phù hợp với các thông lệ hiện có của ngành.

Các công ty sẽ phải “bắt kịp” cách tiếp cận các biện pháp bảo mật khi ChatGPT len lỏi vào môi trường làm việc

Các công ty sẽ phải “bắt kịp” cách tiếp cận các biện pháp bảo mật khi ChatGPT len lỏi vào môi trường làm việc

TẠO HOẶC TÍCH HỢP GPT TÙY CHỈNH

Sameer Penakalapati, giám đốc điều hành của Ceipal, một nền tảng thu hút nhân tài do AI điều khiển, cho biết một lựa chọn bảo mật cho các công ty là phát triển GPT của riêng họ hoặc thuê các công ty tạo ra công nghệ này để tạo ra một phiên bản tùy chỉnh.

Trong các chức năng cụ thể như Nhân sự, có nhiều nền tảng từ Ceipal đến TalentGPT của Beamery và các công ty có thể xem xét kế hoạch cung cấp GPT có thể tùy chỉnh của Microsoft. Nhưng bất chấp chi phí ngày càng cao, các công ty cũng có thể muốn tạo ra công nghệ của riêng mình.

Nếu một công ty tạo GPT của riêng mình, phần mềm sẽ có thông tin chính xác mà họ muốn nhân viên có quyền truy cập. Penakalapati cho biết, một công ty cũng có thể bảo vệ thông tin mà nhân viên cung cấp vào phần mềm, nhưng thậm chí việc thuê một công ty AI để tạo ra nền tảng này sẽ cho phép các công ty cung cấp và lưu trữ thông tin một cách an toàn, ông nói thêm.

Dù công ty chọn con đường nào, Penakalapati nói rằng CISO nên nhớ rằng những cỗ máy này hoạt động dựa trên cách chúng đã được dạy. Điều quan trọng là phải có chủ ý về dữ liệu cung cấp cho công nghệ.

“Tôi luôn nói với mọi người rằng hãy đảm bảo có công nghệ cung cấp thông tin dựa trên dữ liệu chính xác và không thiên vị”, Penakalapati nói. “Bởi vì công nghệ này không được tạo ra một cách tình cờ”.

Thanh Minh

Nguồn VnEconomy: https://vneconomy.vn/chuyen-gia-khuyen-cac-doanh-nghiep-dat-ra-quy-chuan-voi-viec-nhan-vien-su-dung-chatgpt.htm