Giọng quen, người lạ: Cú sập bẫy không ngờ
Vào một buổi chiều cuối tháng 4, bà Lưu (sống tại Hoàng Thạch, Hồ Bắc, Trung Quốc) nhận được cuộc gọi từ một số lạ. Đầu dây bên kia là giọng một nam thanh niên tự xưng là cháu trai của bà. Giọng nói ấy quen thuộc đến mức bà không hề nghi ngờ.
Người này kể với giọng hốt hoảng rằng cậu vừa gây gổ trong siêu thị, khiến một người bị thương và đang bị tạm giữ tại đồn cảnh sát. Cậu “cháu” khẩn khoản nhờ bà Lưu gửi gấp 20.000 nhân dân tệ (khoảng hơn 70 triệu đồng) để bồi thường cho nạn nhân.
Trong tâm trạng hoang mang, bà Lưu và chồng tức tốc đi vay mượn tiền. Sau đó, theo chỉ dẫn của “cháu trai”, bà đưa tiền mặt cho một người lạ, tự xưng là phụ huynh bạn học của cháu, tại địa điểm đã hẹn. Chỉ đến khi người cháu thật sự về nhà, bà Lưu mới tá hỏa phát hiện mình bị lừa.

Cảnh sát điều tra cho biết kẻ gian đã sử dụng công nghệ tổng hợp giọng nói bằng trí tuệ nhân tạo (AI) để tạo ra giọng giả giống hệt cháu trai của bà Lưu. Chúng thu thập dữ liệu âm thanh từ các cuộc gọi, clip cá nhân rồi tổng hợp lại thành giọng nói có độ chính xác đến khó tin.
Không chỉ dừng lại ở giả giọng, nhóm lừa đảo còn đăng tin tuyển dụng nhân sự online để tìm người đến tận nhà nhận tiền, vô tình khiến nhiều người nhẹ dạ trở thành mắt xích trong đường dây phạm pháp.
Ở một diễn biến khác, cảnh sát tại thành phố Tương Dương, Hồ Bắc đã triệt phá một băng nhóm sử dụng AI để giả mạo khuôn mặt, kích hoạt hơn 200 thẻ SIM bất hợp pháp. Những chiếc SIM này sau đó được bán lại cho các nhóm lừa đảo khác, gây thất thoát hơn 18 tỷ đồng.
Không chỉ người già, ai cũng có thể là nạn nhân
Theo chuyên gia an ninh mạng, chỉ cần vài giây âm thanh là AI có thể mô phỏng giọng nói bất kỳ ai. Nếu bạn từng đăng video hay ghi âm công khai, kẻ gian có thể dễ dàng sao chép và dùng chính giọng nói của bạn để lừa thân nhân.
Nhiều trường hợp bị lừa qua điện thoại bắt đầu bằng những cuộc gọi từ số lạ. Khi nghe thấy giọng giống người thân, nhiều người lập tức mất cảnh giác, trở thành con mồi dễ dàng cho bọn tội phạm.
Không dừng lại ở giọng nói, công nghệ deepfake hiện nay có thể mô phỏng khuôn mặt người thật trong video hoặc ảnh. Kẻ xấu sử dụng deepfake để tạo ra các video giả mạo mang nội dung nhạy cảm, sau đó tống tiền nạn nhân qua email, mạng xã hội hoặc tin nhắn.
Ngoài ra, chúng còn tạo các email cá nhân hóa, sử dụng thông tin thật của bạn để gửi thông báo giả mạo, ví dụ như yêu cầu thanh toán, truy cập đường link độc hại... Nếu bạn mất cảnh giác, chỉ một cú click chuột cũng có thể khiến bạn mất trắng dữ liệu hoặc tiền bạc.
Cách bảo vệ bản thân và người thân
Trước những thủ đoạn ngày càng tinh vi, chuyên gia khuyến cáo:
-
Không vội vàng tin tưởng các cuộc gọi, tin nhắn yêu cầu chuyển tiền – dù giọng nói có giống người thân đến đâu.
-
Hãy kiểm tra lại thông tin bằng cách gọi trực tiếp cho người thân qua số cũ, hoặc yêu cầu xác minh thêm thông tin cá nhân.
-
Cảnh giác với những lời mời tuyển dụng lương cao nhưng không rõ ràng – đó có thể là cách để kéo bạn vào các hoạt động phạm pháp.
-
Với người lớn tuổi, nên thường xuyên trò chuyện, cập nhật kiến thức về các chiêu trò lừa đảo công nghệ, đồng thời dặn dò họ không chuyển tiền nếu chưa xác minh kỹ.
-
Luôn cài đặt phần mềm bảo mật và cập nhật hệ thống trên các thiết bị cá nhân.