Công nghệ AI ngày càng phát triển cũng là lúc các thủ đoạn lừa đảo trở nên tinh vi đến mức rùng mình. Mới đây, Cục An toàn thông tin đã phát đi cảnh báo khẩn về hình thức lừa đảo dùng công nghệ Deepfake để giả mạo khuôn mặt và giọng nói (Voice Clone) của người thân nhằm chiếm đoạt tài sản dịp cuối năm.

Thủ đoạn tinh vi: "Nhìn thấy mặt, nghe thấy tiếng" vẫn bị lừa Không còn là những tin nhắn rác hay cuộc gọi sim lạ, kẻ gian giờ đây sử dụng AI để ghép mặt người thân của bạn vào cuộc gọi Video.

  • Kịch bản quen thuộc: Kẻ gian hack Facebook/Zalo của nạn nhân, sau đó nhắn tin cho bạn bè/người thân mượn tiền gấp để "đáo hạn ngân hàng", "trả nợ tất niên" hoặc "cấp cứu".

  • Đòn quyết định: Khi nạn nhân nghi ngờ và gọi Video Call để kiểm chứng, kẻ gian sẽ dùng phần mềm Deepfake phát lại một đoạn video ngắn khuôn mặt chủ tài khoản (thường là mờ ảo, giật lag, sóng yếu) để tạo lòng tin, sau đó tắt máy và thúc giục chuyển tiền.

Dấu hiệu nhận biết cuộc gọi Deepfake lừa đảo Để bảo vệ túi tiền của mình và gia đình dịp Tết này, hãy lưu ý các dấu hiệu sau:

  1. Thời lượng ngắn: Cuộc gọi video thường chỉ kéo dài vài giây rồi tắt ngúm với lý do "mạng lag", "đang đi đường", "sóng yếu".

  2. Khuôn mặt thiếu tự nhiên: Cử động miệng và khuôn mặt trong video thường cứng đờ, không khớp với âm thanh, hoặc nhìn rất "giả trân".

  3. Thúc giục chuyển tiền: Liên tục hối thúc chuyển tiền vào tài khoản lạ (không phải tên chính chủ của người mượn).

"3 KHÔNG" để tránh mất tiền oan ức

  • KHÔNG chuyển tiền nếu chưa xác thực trực tiếp (hãy gọi điện thoại bằng số di động thông thường để kiểm tra, hoặc hỏi những câu hỏi riêng tư mà chỉ 2 người biết).

  • KHÔNG click vào các đường link lạ nhận lì xì online hay trúng thưởng Tết.

  • KHÔNG cung cấp mã OTP, mật khẩu ngân hàng cho bất kỳ ai, kể cả người tự xưng là công an hay nhân viên ngân hàng.

Hãy chia sẻ ngay bài viết này cho bố mẹ, ông bà ở quê để tránh sập bẫy những kẻ lừa đảo tàn nhẫn dịp cuối năm!