Tưởng như vô hại, một lời 'cảm ơn' lại khiến OpenAI tốn hàng triệu đô mỗi năm
Đằng sau mỗi lời cảm ơn gửi tới ChatGPT là chi phí vận hành khổng lồ mà OpenAI phải gánh chịu, lên tới hàng chục triệu USD mỗi năm.
Trong thế giới của các chatbot AI như ChatGPT, một hành động nhỏ bé như gõ "cảm ơn" đôi khi lại gây ra những hệ quả tài chính lớn đến khó tin. Một nghiên cứu mới đây đã tiết lộ rằng chỉ riêng việc người dùng gửi lời cảm ơn, không kèm bất kỳ yêu cầu nào khác, đã khiến OpenAI phải chi ra số tiền lên tới hàng chục triệu USD mỗi năm để xử lý.
Lượng lời cảm ơn khổng lồ khiến chi phí vận hành tăng mạnh
Khi một người dùng nhập dòng chữ "cảm ơn", ChatGPT vẫn cần khởi động toàn bộ hệ thống để hiểu và phản hồi lại lời cảm ơn đó. Mặc dù phản hồi thường chỉ đơn giản là "Bạn cũng vậy nhé!" hay "Cảm ơn bạn!", nhưng để tạo ra một câu trả lời như vậy, hệ thống phải huy động năng lực tính toán khổng lồ từ các cụm máy chủ, tiêu tốn không ít điện năng và chi phí hạ tầng.
Theo báo cáo từ SemiAnalysis, tổng chi phí điện năng và phần cứng cần thiết để xử lý những tương tác không yêu cầu trả lời phức tạp như vậy đã vượt qua con số 20 triệu USD mỗi năm. Nếu xu hướng này tiếp tục, con số đó có thể còn tăng cao hơn nữa khi số lượng người dùng ChatGPT trên toàn cầu ngày càng mở rộng.
![]() |
Khi một người dùng nhập dòng chữ "cảm ơn", ChatGPT vẫn cần khởi động toàn bộ hệ thống để hiểu và phản hồi lại lời cảm ơn đó. Ảnh: Internet |
Vì sao lời cảm ơn cũng tốn tiền?
Chatbot AI không thể biết trước người dùng sẽ gửi yêu cầu phức tạp hay chỉ đơn giản là gõ một lời cảm ơn. Do vậy, mọi tin nhắn đều được hệ thống xử lý một cách nghiêm túc, khởi tạo mô hình ngôn ngữ lớn (LLM) để phân tích và đưa ra phản hồi phù hợp.
Quá trình khởi chạy mô hình AI, dù cho kết quả chỉ là một câu trả lời đơn giản, vẫn tiêu tốn điện năng tương đương với việc xử lý một yêu cầu thực sự. Với hàng triệu người dùng, số lần gõ "cảm ơn" hoặc các biến thể khác tạo thành một lượng truy vấn khổng lồ mỗi ngày, gây nên chi phí tích tụ đáng kể.
OpenAI phải tìm cách đối phó với vấn đề "cảm ơn"
Trước tình hình đó, OpenAI đang xem xét một số giải pháp nhằm tối ưu hóa chi phí. Một trong những hướng đi được cân nhắc là cho phép ChatGPT "nhận diện" những lời nhắn đơn giản như cảm ơn, xin chào, hoặc phản hồi xã giao và xử lý chúng bằng cơ chế nhẹ hơn, thay vì kích hoạt toàn bộ mô hình AI chính.
Ngoài ra, OpenAI cũng nghiên cứu việc phân loại yêu cầu ngay từ khi nhận tín hiệu từ người dùng, giúp giảm tải cho hệ thống ngay từ bước đầu tiên. Nếu thành công, những tối ưu này không chỉ giúp tiết kiệm hàng chục triệu USD mỗi năm mà còn giúp ChatGPT hoạt động mượt mà, nhanh chóng hơn.
>> OpenAI ra mắt GPT-4.1: Mô hình AI mới vượt trội về lập trình, hiểu ngữ cảnh và làm theo chỉ dẫn
ChatGPT, Gemini hay Deepseek không ‘hiểu’ bạn đâu, sự thật là nó chỉ đang bắt chước chúng ta mà thôi