Sự bùng nổ của AI tạo sinh (Generative AI) không chỉ mang lại tiện ích vượt trội mà còn vô tình trao ‘vũ khí hạng nặng’ cho tội phạm mạng. Từ những email giả mạo không tì vết đến các cuộc gọi video deepfake giống như thật, dưới đây là 4 cạm bẫy lừa đảo bằng AI công nghệ cao mà bạn cần biết để tự bảo vệ mình.
Tạm biệt lỗi chính tả ngớ ngẩn khi lừa đảo bằng AI
Trước đây, người dùng dễ dàng phát hiện email lừa đảo (phishing) nhờ các lỗi ngữ pháp hay cách dùng từ ngô nghê. Nhưng nay, bằng cách huấn luyện các mô hình ngôn ngữ lớn (LLM) với dữ liệu từ các doanh nghiệp uy tín, kẻ gian có thể tạo ra những email giả mạo hoàn hảo, bắt chước giọng điệu của ngân hàng hay đối tác một cách đáng kinh ngạc.

Những email lừa đảo giờ đây chỉn chu hơn nhiều khi được AI soạn thảo
ẢNH: CHỤP MÀN HÌNH BGR
Dấu hiệu nhận biết là hãy so sánh email đáng ngờ với các email cũ từ cùng một đơn vị để tìm sự khác biệt nhỏ trong văn phong. Quan trọng nhất, luôn kiểm tra kỹ địa chỉ email người gửi – đây là yếu tố then chốt mà AI chưa thể che giấu hoàn toàn.
‘Cào’ dữ liệu cá nhân để giăng bẫy
Kẻ lừa đảo không còn rải lưới ngẫu nhiên. Chúng sử dụng AI để ‘cào’ (scrape) toàn bộ thông tin bạn công khai trên mạng xã hội, từ đó tạo ra các kịch bản lừa đảo được ‘đo ni đóng giày’ dành cho riêng bạn. Thậm chí, chúng có thể tạo ra các nhân vật ảo có cùng sở thích để tiếp cận, làm quen và dẫn dụ nạn nhân vào các bẫy đầu tư tài chính hoặc tiền ảo.
Trước chiêu trò này, hãy giữ thái độ hoài nghi lành mạnh với bất kỳ người lạ nào nhắn tin tư vấn đầu tư. Thiết lập kênh liên lạc phụ với người thân để xác minh chéo khi có nghi ngờ.
Khi giọng nói người thân bị đánh cắp
Đây là hình thức lừa đảo gây hoang mang nhất hiện nay. Chỉ cần một vài đoạn video bạn đăng trên TikTok hay Facebook, AI có thể sao chép (clone) giọng nói của bạn giống đến 99%. Kẻ gian dùng giọng nói này để gọi điện vay tiền bạn bè, hoặc tồi tệ hơn là dàn dựng các vụ bắt cóc tống tiền giả mạo nhắm vào người cao tuổi trong gia đình.
Để tự bảo vệ, hãy thiết lập một ‘mật khẩu gia đình’ (safe word) – một từ khóa bí mật mà chỉ người nhà mới biết. Nếu nhận được cuộc gọi khẩn cấp, hãy hỏi từ khóa này. Nếu đầu dây bên kia ấp úng, hãy cúp máy ngay lập tức.
Video call cũng chưa chắc là thật
Không chỉ giọng nói, AI còn có thể tạo ra khuôn mặt giả (deepfake) trong các cuộc gọi video. Kẻ lừa đảo thường dùng hình ảnh người nổi tiếng hoặc giả danh sếp, người thân để tạo lòng tin.

Công nghệ deepfake tạo ra những gương mặt giả khó phân biệt
ẢNH: CHỤP MÀN HÌNH ANM
Mặc dù vậy, vẫn có cách lật tẩy chiêu trò này. AI hiện tại vẫn rất kém trong việc xử lý các chuyển động vật lý phức tạp. Nếu nghi ngờ, hãy yêu cầu người gọi quay đầu sang hai bên hoặc khua tay trước mặt. Khuôn mặt hoặc bàn tay của Deepfake sẽ bị biến dạng (glitch) hoặc mờ đi khi thực hiện các động tác này.
Trong kỷ nguyên AI, nguyên tắc vàng là ‘chậm lại và xác minh’. Đừng để nỗi sợ hãi hay sự cấp bách mà kẻ gian tạo ra khiến bạn mất cảnh giác.
Nguồn: https://thanhnien.vn/4-cam-bay-lua-dao-bang-ai-nguy-hiem-nhat-hien-nay-185251224133210747.htm

