Lộ trình an toàn mới trong phát triển trí tuệ nhân tạo (AI) của OpenAI sẽ tạo một khuôn khổ để giải quyết các rủi ro, cho phép hội đồng quản trị đảo ngược quyết định của các giám đốc điều hành.
Theo một kế hoạch được công bố trên trang web chính thức vào ngày 18/12, công ty OpenAI đã đặt ra một khuôn khổ mới để giải quyết vấn đề an toàn trong các mô hình trí tuệ nhân tạo (AI) tiên tiến nhất của mình, bao gồm việc cho phép hội đồng quản trị đảo ngược các quyết định đã được thông qua.
OpenAI sẽ chỉ triển khai công nghệ mới nhất trong các lĩnh vực cụ thể như an ninh mạng và hạt nhân nếu chúng đã được xác nhận là an toàn.
Công ty cũng sẽ thành lập một nhóm cố vấn chuyên biệt để nghiên cứu các báo cáo an toàn trước khi chúng được gửi đến các giám đốc điều hành và hội đồng quản trị của công ty.
Kể cả trong trường hợp các giám đốc điều hành đã đưa ra quyết định, hội đồng quản trị vẫn có thể đảo ngược các quyết định đó.
Kể từ khi ChatGPT ra mắt cách đây hơn 1 năm, những rủi ro tiềm tàng của AI đã luôn là mối quan tâm hàng đầu của cả các nhà nghiên cứu AI và công chúng nói chung.
Công nghệ AI tạo sinh đã khiến người dùng bất ngờ với khả năng của mình, nhưng cũng làm dấy lên mối lo ngại về an toàn vì khả năng phổ biến thông tin sai lệch và thao túng con người.
Vào tháng 4/2023, một nhóm các nhà lãnh đạo và chuyên gia trong ngành AI đã ký một bức thư ngỏ, kêu gọi tạm dừng 6 tháng trong việc phát triển các hệ thống mạnh hơn GPT-4 của OpenAI, để nghiên cứu triệt để những rủi ro tiềm ẩn đối với xã hội.
Vào tháng 5/2023, một cuộc thăm dò của Reuters cho thấy hơn 2/3 người Mỹ vô cùng lo lắng về những tác động tiêu cực có thể xảy ra đối với công nghệ AI, trong khi 61% tin rằng nó có thể đe dọa sự tồn tại của cả nền văn minh.
(theo Reuters)