Doanh nghiệp cần cẩn trọng tích hợp các công cụ AI vào quy trình kinh doanh khi hacker dễ dàng qua mặt chatbot AI và hướng dẫn chúng thực hiện các tác vụ độc hại.
Cơ quan An ninh mạng Vương quốc Anh cảnh báo các tổ chức đang tích hợp chatbot trí tuệ nhân tạo (AI) vào sản phẩm và dịch vụ, nghiên cứu cho thấy các công cụ AI dễ dàng bị dẫn dắt thực hiện những tác vụ độc hại.
Trong bài đăng trên blog ngày 30/8, Trung tâm An ninh mạng Vương quốc Anh (NCSC) cho hay, các chuyên gia vẫn chưa thể nắm bắt được các vấn đề an ninh mạng tiềm ẩn gắn với những thuật toán có thể tương tác “giống con người”, tức các mô hình ngôn ngữ lớn (LLM).
NCSC cho biết điều này mang theo những rủi ro, khi các mô hình như vậy được đưa vào quy trình kinh doanh của doanh nghiệp. Giới học giả và nghiên cứu gần đây liên tục tìm ra cách “đánh lừa” AI, hướng dẫn chatbot thực hiện lừa đảo hay phá vỡ các rào chắn bảo vệ được tích hợp.
Chẳng hạn, một chatbot AI sử dụng tại một ngân hàng có thể bị lừa tiến hành giao dịch trái phép nếu tin tặc đưa ra “chỉ dẫn” đúng.
“Các tổ chức xây dựng dịch vụ xung quanh LLMs cần cẩn trọng trên tinh thần họ đang sử dụng một sản phẩm mới ở giai đoạn thử nghiệm (beta)”, trích thông báo của NCSC, đề cập đến những AI phát hành thử nghiệm gần đây.
Cuộc thăm dò mới nhất của Reuters/Ipsos cho thấy nhiều nhân viên công ty đang sử dụng công cụ như ChatGPT để thực hiện các tác vụ cơ bản như dự thảo mail, tóm tắt tài liệu và thu thập dữ liệu nghiên cứu ban đầu.
Trong đó chỉ 10% nhân viên nói rằng cấp trên của họ cấm sử dụng công cụ AI bên ngoài một cách rõ ràng và 25% không biết liệu công ty có cho phép sử dụng công nghệ này hay không.
Oseloka Obiora, giám đốc công nghệ tại hãng bảo mật RiverSafe nhận định, cuộc đua tích hợp AI vào mô hình kinh doanh sẽ tạo ra những “hậu quả thảm khốc” khi lãnh đạo doanh nghiệp không tiến hành những bước kiểm tra cần thiết. “Thay vì đu theo xu hướng AI, các giám đốc cấp cao nên suy nghĩ kỹ và tiến hành đánh giá lợi ích/rủi ro, cũng như các biện pháp bảo mật cần thiết để bảo vệ doanh nghiệp”.
Tin giả và tin tặc
Trên toàn thế giới, chính phủ các nước cũng đang tìm cách quản lý sự trỗi dậy của các LLM như ChatGPT của OpenAI. Lo ngại về tính bảo mật của công nghệ mới cũng là trọng tâm chính sách khi Mỹ và Canada gần đây nói rằng họ đã phát hiện tin tặc tăng cường lợi dụng AI tạo sinh.
Một hacker thậm chí nói rằng anh ta phát hiện một LLM đã được “huấn luyện” bằng các tài liệu độc hại và thử yêu cầu nó xây dựng kế hoạch lừa đảo chuyển tiền. Đáp lại, AI tạo ra bức thư điện tử dài ba đoạn, yêu cầu người nhận thanh toán hoá đơn khẩn cấp.
Tháng 7/2023, Trung tâm An ninh mạng Canada ghi nhận việc gia tăng sử dụng AI trong “lừa đảo qua email, nhúng mã độc, thông tin sai lệch và xuyên tạc”. Sami Khoury, giám đốc trung tâm không cung cấp bằng chứng chi tiết, song khẳng định giới tội phạm mạng đang tích cực lợi dụng công nghệ mới nổi này.
Lãnh đạo này cũng cho biết, mặc dù việc sử dụng AI soạn thảo mã độc mới ở giai đoạn đầu, song mô hình AI đang phát triển quá nhanh dễ dẫn đến mức không thể kiểm soát những rủi ro độc hại của chúng.
Trước đó, tháng 3/2023, tổ chức Cảnh sát châu Âu Europol công bố báo cáo nói rằng ChatGPT có thể “mạo danh tổ chức, cá nhân theo cách rất thực tế ngay cả khi chỉ sử dụng tiếng Anh một cách cơ bản”. Cùng tháng, Trung tâm An ninh mạng quốc gia Anh nói rằng “LLM có thể được sử dụng để hỗ trợ các cuộc tấn công mạng”.
(Theo Reuters)
Doanh nghiệp tại Cần Thơ thưởng Tết Nguyên đán cao nhất 300 triệu đồng/người
Xây dựng tuyến cáp ngầm 77,7km đưa điện ra Côn Đảo: Doanh nghiệp nào đủ sức đảm nhận?