Apple cảnh báo: AI chưa biết suy nghĩ như người, AGI vẫn là giấc mơ xa vời
Apple vừa công bố nghiên cứu hé lộ sự thật gây sốc: khả năng suy luận của AI hiện nay chỉ là ảo tưởng, còn rất xa mới chạm đến trí tuệ nhân tạo tổng quát (AGI).
Trong bối cảnh cuộc đua AI đang nóng lên với sự cạnh tranh giữa các ông lớn như OpenAI, Google, Microsoft, Meta, thì Apple – công ty vốn kín tiếng về nghiên cứu trí tuệ nhân tạo vừa bất ngờ công bố một nghiên cứu mang tính chất "tỉnh mộng". Báo cáo này cho thấy một kết luận gây chấn động: những mô hình ngôn ngữ lớn (LLMs) mà thế giới đang kỳ vọng thực chất không hề biết suy luận đúng nghĩa, và tất cả chỉ là ảo tưởng được xây dựng từ dữ liệu.
![]() |
Những mô hình ngôn ngữ lớn (LLMs) mà thế giới đang kỳ vọng thực chất không hề biết suy luận đúng nghĩa |
Thay vì dùng những bài kiểm tra thông thường đã quá quen thuộc như GSM8K hay MATH, nhóm nghiên cứu của Apple đã thiết kế lại cách đánh giá khả năng suy luận của AI bằng một phương pháp hoàn toàn khác. Họ xây dựng các bài toán logic cổ điển như Tháp Hà Nội, vượt sông, hoặc trò chơi nhảy cờ, cho phép kiểm soát độ khó một cách hệ thống. Điều này giúp kiểm tra xem mô hình có thể giải quyết những tình huống chưa từng thấy hay không, hay chỉ đơn giản là "học vẹt" từ dữ liệu đã được huấn luyện trước.
Kết quả thực sự đáng lo ngại. Khi độ khó của các trò chơi tăng lên, những mô hình AI hiện đại nhất hiện nay như GPT-4 (ChatGPT), Claude, Gemini, DeepSeek bắt đầu tỏ ra lúng túng, và sau đó sụp đổ hoàn toàn. Điều này không chỉ xảy ra khi AI phải tự suy luận, mà ngay cả khi các nhà nghiên cứu cung cấp trước cách giải (ví dụ như hướng dẫn chi tiết cách chuyển đĩa trong Tháp Hà Nội), các mô hình vẫn không thể áp dụng thành công trong các cấp độ khó hơn. Tệ hơn nữa, khi đứng trước thử thách, các mô hình không hề cố gắng thêm mà lại "tự bỏ cuộc", biểu hiện qua việc sử dụng ít token hơn, dù vẫn còn đủ dung lượng để tiếp tục trả lời.
Một thí nghiệm thú vị khác trong nghiên cứu là việc thêm các thông tin nhiễu, vô nghĩa vào một câu hỏi toán học đơn giản. Chẳng hạn như thêm cụm "5 quả kiwi nhỏ hơn trung bình" vào đề bài. Ngay lập tức, độ chính xác trả lời của các mô hình AI giảm mạnh từ hơn 90% xuống chỉ còn khoảng 30%. Điều này cho thấy AI bị nhiễu rất dễ dàng, và chưa thể lọc ra đâu là thông tin quan trọng.
Apple cũng cảnh báo rằng những hệ thống đánh giá năng lực AI hiện tại có thể bị "qua mặt" dễ dàng vì các mô hình đã học trước đó trên những tập dữ liệu tương tự. Do đó, việc đánh giá dựa trên kết quả đầu ra là chưa đủ. Họ đề xuất nên theo dõi cả quá trình suy nghĩ (reasoning trace) và sử dụng những môi trường logic dễ kiểm soát để thật sự đo lường được khả năng suy luận một cách khách quan.
Điều đáng nói là nghiên cứu này không đơn thuần chỉ là để cảnh báo người dùng. Nó còn nhắm thẳng vào trào lưu phóng đại hiện nay xung quanh khái niệm AGI – trí tuệ nhân tạo tổng quát. Dù các công ty AI liên tục công bố những tiến bộ vượt bậc và hứa hẹn về một tương lai nơi AI có thể thay thế con người trong việc suy nghĩ, nghiên cứu của Apple chỉ ra rằng: AI hiện tại mới chỉ là một hệ thống nhận diện mẫu cực kỳ mạnh mẽ, chứ chưa hề có khả năng tư duy như con người.
Điều này có tác động sâu rộng không chỉ trong giới công nghệ, mà còn với các nhà đầu tư và người tiêu dùng. Khi AI bị thổi phồng quá mức, thị trường dễ rơi vào ảo tưởng và kỳ vọng sai lệch. Nếu không có cái nhìn thực tế hơn, rất có thể những bong bóng đầu tư xoay quanh AGI sẽ vỡ tung trong tương lai gần.
Đế chế iPhone lao đao: Vì sao Apple đang thất thế trên mọi mặt trận?
Bài học thầm lặng từ Steve Jobs khiến nhân viên Apple 'sốc' sau 10 năm