Deepfake ứng dụng trí tuệ nhân tạo AI để tạo nên video giả dạng người với những biểu cảm giống thật để lừa đảo khi gọi video.
Tình hình tội phạm lừa đảo chiếm trên không gian mạng ngày càng diễn biến phức tạp, các đối tượng lừa đảo bằng nhiều thủ đoạn khác nhau và ngày càng tinh vi hơn. Những chiêu bài lừa đảo cũng thay đổi liên tục.
Gần đây nhất, hàng trăm phụ huynh đã hoang mang, đã mất tiền trước hành vi lừa đảo bằng cách gọi điện thông báo con bị tai nạn, đang cấp cứu, cần chuyển tiền gấp. Không ít phụ huynh đã lên tiếng tố cáo hình thức lừa đảo này.
Mới lắng xuống được một thời gian, mới đây Chứng khoán MB cảnh báo tới khách hàng, một trong những thủ đoạn đang được nhắc đến nhiều hiện nay là công nghệ Deepfake – công nghệ làm giả cuộc gọi video.
Deepfake là gì?
Deepfake là công nghệ ứng dụng trí tuệ nhân tạo AI tạo ra các sản phẩm công nghệ, âm thanh, hình ảnh và video nhằm làm giả đối tượng ngoài đời thực. Deepfake dùng thuật toán để tái tạo lại khuôn mặt và giọng nói, nét mặt, biểu cảm, âm điệu, giọng nói phù hợp với từng biểu cảm, sau đó tạo ra một video giả mạo hoàn toàn giống với đối tượng được chọn. Tư liệu của quá trình tái tạo này được thu thập từ những hình ảnh, video của đối tượng thu thập được trên mạng xã hội.
Thông qua Deepfake, đối tượng giả mạo sẽ mạo danh chủ tài khoản để thực hiện lừa đảo, chiếm quyền sử dụng tài khoản (tài khoản ngân hàng, tài khoản chứng khoán) nhằm chiếm đoạt tài sản của chính chủ.
Làm gì để tránh bị sa vào bẫy Deepfake?
Tuy vậy dù giả mạo rất giống thật, nhưng là một video thì âm thanh khó nghe, thời lượng video ngắn, không thể hiện được hết biểu cảm. Đồng thời cần chú ý đến ánh mắt, một video giả mạo không thể xây dựng kỹ lưỡng đến mức không có sự gượng ép, mất tự nhiên. Do vậy nếu người nghe để ý kỹ sẽ phát hiện ra vấn đề.
Bên cạnh đó, phần video giả dạng khuôn mặt, nên sự chuyển động ăn ý giữa khuôn mặt và toàn bộ cơ thể sẽ không thể ăn khớp hoàn toàn, không nhất quán.
Thông tin từ báo Công an nhân dân cho biết, đã có những nạn nhân của công nghệ lừa đảo Deepfake. Chị Hà, một người dân ở Thanh Trì (Hà Nội) nhận được tin nhắn của anh trai đề nghị chuyển cho vay 17 triệu đồng. Sau khi nhắn tin, như những cảnh báo trước đó, tài khoản của anh trai chị Hà có gọi video thời lượng ngắn - từ 8-10 giây có hiển thị hình ảnh anh trai để làm tin. Chị Hà cũng không nghi ngờ khi có chính hình ảnh anh trai trong video, đã hỏi số tài khoản để chuyển tiền. Tuy vậy khi nhìn vào số tài khoản được gửi tới, thấy tên tài khoản không phải là của anh trai, chị Hà còn cẩn thận gọi lại anh trai xác nhận thì mới biết tài khoản facebook đã bị hack.
Chị Hà là một trong số những người dân may mắn, còn nhiều người đã trở thành nạn nhân của Deepfake.
Chuyên gia bảo mật Vũ Ngọc Sơn, Giám đốc Kỹ thuật Công ty Công nghệ An ninh mạng Việt Nam (NCS) cho biết: Deepfake ban đầu được sử dụng trong các ứng dụng “hoán đổi khuôn mặt” giúp người sử dụng dễ dàng thay khuôn mặt, giọng nói của mình vào những nhân vật trong các bộ phim nổi tiếng, rồi đến trào lưu chế ảnh, lồng tiếng hài hước cho các clip từng gây sốt thời gian trước. Tuy nhiên, gần đây, những kẻ lừa đảo đã lợi dụng ứng dụng Deepfake để làm ra các clip có nội dung lừa đảo, mạo danh.
Bị bỏ tù 18 năm vì tạo ảnh khiêu dâm trẻ em bằng AI
Triệt phá băng nhóm tội phạm sử dụng deepfake để lừa đảo tinh vi, chiếm đoạt hơn 1.100 tỷ đồng