Hăm dọa đúng cách có thể giúp AI thông minh hơn
Vị tỷ phú này gây tranh cãi khi cho rằng việc "đe dọa" AI bằng lời nhắc nghiêm khắc có thể giúp mô hình phản hồi hiệu quả hơn.
Trong một phát biểu thu hút nhiều sự chú ý tại sự kiện All-In-Live Miami, Sergey Brin – đồng sáng lập Google – đã đưa ra nhận định bất ngờ rằng việc sử dụng các câu lệnh mang tính chất đe dọa khi tương tác với trí tuệ nhân tạo có thể giúp cải thiện kết quả đầu ra. Theo ông, điều này không chỉ đúng với các mô hình AI của Google mà còn với phần lớn các mô hình ngôn ngữ lớn hiện nay.
Sergey Brin giải thích rằng ông và nhóm nghiên cứu tại Google đã thử nghiệm việc đưa vào các lời nhắc (prompt) có tính răn đe, chẳng hạn như cảnh báo mô hình rằng nếu không đưa ra câu trả lời chính xác sẽ bị đánh giá tiêu cực. Kết quả đáng ngạc nhiên là mô hình phản hồi tốt hơn, có vẻ như nó được “kích thích” bởi áp lực và mối đe dọa, dù hoàn toàn không có khả năng nhận thức như con người.
![]() |
Việc sử dụng các câu lệnh mang tính chất đe dọa khi tương tác với trí tuệ nhân tạo có thể giúp cải thiện kết quả đầu ra. |
Phát ngôn này ngay lập tức dấy lên một làn sóng tranh luận sôi nổi trong cộng đồng nghiên cứu AI. Nhiều chuyên gia bày tỏ sự quan ngại về tính đạo đức và an toàn của cách tiếp cận này. Stuart Battersby, Giám đốc công nghệ tại Chatterbox Labs, cảnh báo rằng việc sử dụng ngôn ngữ mang tính ép buộc hay đe dọa có thể là một hình thức tấn công tâm lý đối với AI, đặc biệt nếu mục đích là buộc mô hình trả lời những điều nó vốn không được phép. Điều này có thể khiến hệ thống mất kiểm soát, tạo ra nội dung không phù hợp hoặc thậm chí vi phạm nguyên tắc đạo đức trong thiết kế AI.
Một số chuyên gia khác như Daniel Kang – trợ lý giáo sư tại Đại học Illinois Urbana-Champaign – thì có cái nhìn trung lập hơn. Ông cho rằng hiện chưa có đủ bằng chứng khoa học để kết luận rằng việc “đe dọa” AI là hiệu quả. Theo ông Kang, các nghiên cứu có hệ thống cho thấy kết quả chưa nhất quán về ảnh hưởng của cách soạn câu lệnh đối với hiệu suất mô hình. Có lúc sự lịch sự và nhẹ nhàng mang lại kết quả tốt hơn, có lúc lời lẽ cứng rắn lại hiệu quả. Điều đó cho thấy rằng hiệu suất của AI không đơn thuần phụ thuộc vào kiểu ngôn ngữ mà cần đặt trong ngữ cảnh và mục tiêu cụ thể.
Dù vậy, nhận định của Sergey Brin vẫn mở ra một chủ đề quan trọng: con người đang ngày càng thử nghiệm những cách tương tác mới với trí tuệ nhân tạo, không chỉ dựa vào công nghệ mà còn khai thác yếu tố tâm lý, thậm chí mang tính "nhân hóa" như dọa nạt hay khen thưởng. Sự phát triển của AI trong tương lai không chỉ cần nâng cao khả năng tính toán và xử lý dữ liệu mà còn đòi hỏi hiểu rõ hơn về cách con người sử dụng ngôn ngữ, cảm xúc và các hành vi tương tác.
Thế giới đang tiến gần hơn tới việc định hình lại cách giao tiếp giữa người và máy. Những tuyên bố như của Brin không đơn thuần là hiện tượng cá biệt, mà phản ánh mối quan tâm ngày càng lớn về việc làm sao để AI hiểu – hoặc ít nhất là phản ứng tốt – trước các dạng ngôn ngữ đa dạng, từ nhẹ nhàng đến nghiêm khắc. Đó có thể là một phần tất yếu trong quá trình đào tạo và điều chỉnh các mô hình AI, nhưng đồng thời cũng đòi hỏi các chuẩn mực đạo đức rõ ràng để đảm bảo công nghệ phát triển theo hướng tích cực.
>> ChatGPT khiến người đồng sáng lập Google không thể tiếp tục ẩn mình