ChatGPT gây sốc
ChatGPT gây sốc khi hàng nghìn cuộc trò chuyện riêng tư của người dùng bất ngờ xuất hiện công khai trên Google, đặt ra thách thức về bảo mật dữ liệu cá nhân.
Một hồi chuông cảnh báo về quyền riêng tư vừa vang lên giữa thời đại trí tuệ nhân tạo, khi ChatGPT, công cụ AI đình đám của OpenAI, vướng vào sự cố nghiêm trọng. Hàng nghìn cuộc trò chuyện tưởng chừng riêng tư của người dùng bất ngờ xuất hiện công khai trên Google Tìm kiếm, khiến nhiều người không khỏi lo ngại.
Sự việc chỉ được phát hiện khi các chuyên gia bảo mật nhận ra rằng chỉ với một truy vấn đơn giản, bất kỳ ai cũng có thể dễ dàng truy cập vào những đoạn hội thoại này. Đáng nói, không chỉ là các đoạn văn mẫu hay hướng dẫn kỹ thuật, nhiều nội dung còn chứa đựng tâm sự cá nhân, dữ liệu công việc nhạy cảm và cả những lời bộc bạch rất riêng tư.

Nguyên nhân bắt nguồn từ tính năng “Share chat” do OpenAI phát triển, cho phép người dùng chia sẻ cuộc trò chuyện với người khác. Khi kích hoạt “Make this chat discoverable”, hệ thống sẽ tạo ra một liên kết công khai, có thể được các công cụ tìm kiếm như Google thu thập và hiển thị. Tuy nhiên, giao diện của tính năng này lại chưa đủ rõ ràng để người dùng nhận thức được rằng nội dung của họ sẽ được công khai rộng rãi. Nhiều trường hợp, người dùng chỉ nghĩ đơn giản là gửi liên kết cho bạn bè hoặc đồng nghiệp xem.
Ngay sau khi sự việc được phát hiện, OpenAI đã nhanh chóng hành động, tạm ngưng tính năng chia sẻ có thể tìm kiếm và phối hợp với Google để gỡ bỏ các liên kết. Theo báo cáo từ Fast Company, hơn 4.500 liên kết công khai đã được phát hiện, một con số không nhỏ trong bối cảnh lượng người dùng ChatGPT tăng nhanh trên toàn cầu.
Rất nhiều người đã tận dụng ChatGPT để soạn email, mô tả bệnh tình, lên kế hoạch kinh doanh hay chia sẻ những suy nghĩ riêng tư mà tưởng chừng chỉ mình biết. Tuy nhiên, sự cố này cho thấy chỉ cần một sai sót nhỏ, những cuộc trò chuyện tưởng như riêng tư đó có thể trở thành dữ liệu công khai, gây ảnh hưởng nghiêm trọng đến quyền cá nhân.
Trước tình hình đó, nhiều người bắt đầu đặt câu hỏi liệu OpenAI có thực sự coi trọng trách nhiệm bảo vệ dữ liệu người dùng? Công ty đã cung cấp đầy đủ và minh bạch các thông tin để người dùng hiểu rõ mức độ bảo mật của dữ liệu mà họ chia sẻ hay chưa?
Sam Altman, CEO OpenAI, từng thẳng thắn thừa nhận rằng các cuộc trò chuyện với ChatGPT không được bảo vệ bởi những quy định pháp lý truyền thống về quyền riêng tư. Trong bối cảnh AI ngày càng lan rộng vào các lĩnh vực như chăm sóc sức khỏe tinh thần, giáo dục cá nhân, việc thiếu khung pháp lý chặt chẽ khiến người dùng đối mặt nhiều nguy cơ bị phơi bày thông tin nhạy cảm. Thậm chí, một đoạn hội thoại mang tính đùa vui hay thử nghiệm cũng có thể bị hiểu sai khi bị trích dẫn ra ngoài ngữ cảnh gốc.
Trên thực tế, OpenAI không phải lần đầu tiên gặp phải các vấn đề liên quan đến quyền riêng tư. Nhiều chuyên gia bảo mật đã cảnh báo rằng các mô hình ngôn ngữ lớn như GPT có thể lưu trữ và vô tình tiết lộ dữ liệu từ những cuộc trò chuyện trước nếu bị khai thác đúng cách. Kỹ thuật “reconstruction”, truy xuất thông tin gián tiếp từ mô hình, cho thấy AI không phải lúc nào cũng hoàn toàn “sạch” trong mỗi phiên làm việc mới. Nguy cơ rò rỉ dữ liệu luôn hiện hữu và phụ thuộc nhiều vào cách mô hình được huấn luyện, cập nhật và kiểm soát.
Không thể phủ nhận rằng AI như ChatGPT đã tạo ra bước đột phá trong việc tiếp cận thông tin và sáng tạo nội dung. Tuy nhiên, bên cạnh tiện ích đó là những rủi ro lớn về bảo mật dữ liệu cá nhân. Sự cố này là lời cảnh báo rõ ràng: Không có gì là tuyệt đối riêng tư nếu thiếu sự bảo vệ kỹ thuật và ý thức của người dùng.
Theo: Business Insider