AI khiến việc lừa đảo khó nhận ra hơn vì thứ mà ta thường tin — giọng nói quen, khuôn mặt quen, tài khoản quen — đều có thể bị giả mạo. Lừa đảo AI có thể kết hợp danh tính giả, deepfake và thủ thuật thao túng tâm lý; còn lừa đảo deepfake có thể dùng hình ảnh, video hoặc âm thanh do AI tạo ra để giả mạo người đáng tin cậy, thậm chí nhìn và nghe rất thật.[8][
9]
Vì vậy, mục tiêu không phải là biến mỗi người thành chuyên gia giám định video. Mục tiêu thực tế hơn là tạo một thói quen: hễ ai đó yêu cầu bạn hành động ngay — chuyển tiền, đưa mã OTP, bấm đường link, cài phần mềm, gửi giấy tờ hoặc chia sẻ gấp — hãy coi nội dung đó là chưa được xác minh.
Không vội, không hoảng, không chuyển tiền, không đưa mã; hãy gọi lại và xác minh trước.
Đừng nhìn mặt trước, hãy nhìn yêu cầu trước
Giọng nói giống người thân, cuộc gọi video thấy “sếp”, hay tin nhắn có văn phong rất quen đều không đủ để xem là bằng chứng ủy quyền. Deepfake có thể dùng video hoặc âm thanh giả để khiến người xem tin rằng một ai đó thật sự đã nói, làm hoặc cho phép một việc nào đó.[4]
Cách kiểm tra hữu ích hơn là hỏi: đối phương đang muốn mình làm gì, và có đang ép mình làm ngay không? Các hướng dẫn phòng tránh lừa đảo AI và deepfake cũng nhấn mạnh rằng kiểu lừa đảo này thường tạo cảm giác khẩn cấp để nạn nhân quyết định vội.[5]
Hãy dừng lại nếu gặp một trong các yêu cầu sau:
- Chuyển khoản ngay, trả tiền hộ, mua tiền mã hóa, hoặc đổi tài khoản nhận tiền.
- Cung cấp mật khẩu, mã OTP, mã SMS, giấy tờ tùy thân, thông tin ngân hàng hoặc ảnh chụp màn hình tài khoản.
- Bấm link lạ, quét mã QR, tải ứng dụng, cài tiện ích mở rộng hoặc bật phần mềm điều khiển từ xa.
- Giữ bí mật, không được hỏi người nhà, đồng nghiệp, ngân hàng, tổng đài hoặc cấp trên.
- Dùng lời lẽ gây áp lực như “cơ hội cuối”, “đang gặp nạn”, “cần cứu ngay”, “việc gấp của sếp”, “không làm là mất tiền”.
- Mạo danh người nổi tiếng, lãnh đạo, người thân, ngân hàng, bộ phận chăm sóc khách hàng hoặc cơ quan chính thức để yêu cầu bạn làm điều bình thường bạn sẽ không làm.
Chỉ cần có đủ hai yếu tố — trông như người đáng tin và yêu cầu hành động ngay — bạn không nên tiếp tục làm theo trong cùng kênh liên lạc đó.
Quy trình 5 bước khi nhận nội dung đáng ngờ
1. Dừng lại: ngắt tương tác trước
Không trả lời thêm, không bấm link, không tải tệp đính kèm, không quét mã QR. Nếu đối phương đang gọi điện hoặc video call và liên tục thúc ép, hãy kết thúc cuộc gọi. Việc thật sự quan trọng thường chịu được thêm vài phút để kiểm tra.
2. Đổi kênh: không dùng thông tin liên hệ mà đối phương đưa
Đừng xác minh bằng số điện thoại, đường link, tài khoản “chăm sóc khách hàng” hoặc nút bấm có sẵn trong tin nhắn đáng ngờ. Hãy dùng số bạn đã lưu từ trước, website chính thức, ứng dụng chính thức, danh bạ công ty hoặc kênh liên hệ mà bạn vốn biết là đúng.
Điểm này rất quan trọng: nếu tin nhắn ban đầu là giả, số điện thoại, đường link và “tổng đài” bên trong đó cũng có thể là giả.
3. Hễ liên quan đến tiền và tài khoản, phải có xác minh thứ hai
Gia đình, nhóm làm việc hoặc công ty nên thống nhất trước một quy tắc xác minh thứ hai. Chỉ cần liên quan đến chuyển tiền, mượn tiền, đổi tài khoản nhận tiền, mã đăng nhập, giấy tờ, cứu trợ khẩn cấp hoặc thao tác từ xa, phải kiểm tra lại qua một kênh khác.
Trong môi trường công việc, đừng phê duyệt thanh toán chỉ vì một cuộc gọi, một đoạn ghi âm hoặc một video trông giống người có thẩm quyền. Lừa đảo deepfake có thể dùng âm thanh hoặc hình ảnh do AI tạo ra để giả mạo người đáng tin cậy.[8]
4. Kiểm tra nguồn gốc và bối cảnh đầy đủ
Khi thấy tin gây sốc, video người nổi tiếng, phát ngôn chính trị, cảnh tai nạn, thiên tai hoặc lời mời đầu tư, đừng chỉ xem một đoạn cắt ngắn. Deepfake có thể tạo video hoặc âm thanh giả khiến người khác trông như đã nói hoặc làm điều có hại.[4]
Trước khi tin hoặc chia sẻ, hãy tự hỏi:
- Ai là người đăng đầu tiên?
- Có video đầy đủ, bài viết đầy đủ hoặc bài đăng gốc không?
- Thời gian, địa điểm và sự kiện có khớp nhau không?
- Có nguồn đáng tin cậy, cơ quan chính thức hoặc chính người liên quan xác nhận không?
Nếu chỉ thấy ảnh chụp màn hình, đoạn video ngắn bị cắt, hoặc nhiều tài khoản đăng lại mà không có nguồn gốc rõ ràng, hãy khoan chia sẻ.
5. Giữ bằng chứng rồi mới tìm hỗ trợ hoặc báo cáo
Nếu nghi mình đã bị lừa, hãy lưu lại ảnh chụp màn hình, đường link, số điện thoại, tài khoản, lịch sử giao dịch, địa chỉ ví tiền mã hóa, tệp video và đoạn chat. Đừng vội xóa mọi thứ. Nếu có liên quan đến tài khoản ngân hàng, thẻ tín dụng hoặc ví điện tử, hãy liên hệ ngay qua kênh chính thức của tổ chức đó.
Tại Mỹ, tài liệu tuyên truyền của chính phủ nêu các kênh báo cáo cho FTC — Ủy ban Thương mại Liên bang Hoa Kỳ — gồm ftc.gov/complaint và số 1-877-FTC-HELP.[3] FTC cũng có các tài nguyên về trí tuệ nhân tạo, lời khuyên cho người tiêu dùng và các hình thức lừa đảo để người đọc tra cứu thêm.[
1] Nếu bạn không ở Mỹ, hãy làm theo kênh báo cáo chính thức tại nơi mình sinh sống, đồng thời liên hệ ngân hàng hoặc nền tảng thanh toán liên quan.
Có thể kiểm tra video giả và deepfake thế nào?
Kiểm tra bằng mắt chỉ nên là lớp cảnh báo đầu tiên, không phải kết luận cuối cùng. Bạn có thể dùng danh sách sau như một “đèn vàng” để tạm dừng:
- Miệng và âm thanh có lệch nhịp không?
- Mép khuôn mặt, kính, tóc hoặc vùng quanh tai có nhấp nháy, méo hoặc biến dạng không?
- Ngón tay, răng, da mặt hoặc kết cấu da có bất thường không?
- Nền phía sau, chữ viết, ánh sáng hoặc hình phản chiếu trong gương có vô lý không?
- Nhịp nói, khoảng dừng, cảm xúc và phản ứng có giống một cuộc trò chuyện bình thường không?
Nhưng hãy nhớ chiều ngược lại: không thấy những lỗi này không có nghĩa là nội dung chắc chắn thật. Vấn đề của deepfake là nó có thể nhìn và nghe rất thuyết phục.[8]
Cách đáng tin hơn vẫn là quay về xác minh nguồn: người đăng ban đầu là ai, bản đầy đủ ở đâu, thời gian và địa điểm có khớp không, bối cảnh trước sau là gì, và có nguồn đáng tin cậy nào khác xác nhận không. Với deepfake, video giả và tin giả, bối cảnh thường quan trọng hơn việc soi từng điểm lỗi bằng mắt.
Ba tình huống thường gặp và cách tự bảo vệ
Trong gia đình: đặt trước “câu hỏi khóa”
Người thân có thể thống nhất một câu hỏi riêng không công khai, hoặc một quy ước đơn giản: hễ mượn tiền, xin cứu gấp, báo đổi số điện thoại, yêu cầu mã OTP hoặc nhờ thao tác tài khoản thì phải gọi lại để xác minh. Nếu người lớn tuổi trong nhà nhận tin nhắn tự xưng là con cháu, công an, ngân hàng hoặc tổng đài, hãy nhắc họ dừng lại và nhờ thêm một người thân kiểm tra cùng. Lừa đảo deepfake vốn có thể giả mạo người đáng tin cậy.[8]
Ở nơi làm việc: thanh toán và đổi tài khoản phải theo quy trình
Nếu có người nhân danh sếp, phòng tài chính, nhà cung cấp hoặc khách hàng để yêu cầu chuyển tiền, đổi tài khoản nhận tiền hoặc cung cấp mã đăng nhập, hãy đi theo quy trình sẵn có. Đừng bỏ qua phê duyệt chỉ vì giọng nói, video hoặc cách nhắn tin “rất giống người thật”. Deepfake có thể dùng âm thanh hoặc video giả để khiến người xem tin rằng một người đã thật sự ủy quyền.[4]
Trên mạng xã hội: càng kích động, càng nên chia sẻ chậm
Tin giả thường dựa vào tức giận, hoảng sợ, thương cảm hoặc thù ghét để thúc đẩy chia sẻ. Khi gặp những câu như “chia sẻ ngay”, “truyền thông không dám nói”, “bị che giấu”, “cứu gấp”, “lợi nhuận chắc chắn”, hãy đặt điện thoại xuống, kiểm tra nguồn gốc rồi mới quyết định. Deepfake cũng có thể được dùng để tạo âm thanh hoặc hình ảnh giả, khiến một người trông như đã nói hoặc làm điều gây hại.[4]
Ghi nhớ: chống lừa đảo AI bằng quy trình, không bằng “mắt thần”
AI khiến giọng nói giả, hình ảnh giả và danh tính giả dễ xuất hiện hơn trong các tin nhắn hằng ngày. Lừa đảo deepfake cũng có thể dùng hình ảnh, video hoặc âm thanh để mạo danh người đáng tin cậy.[8][
9]
Điều bạn kiểm soát được là quy trình của mình: không vội trả lời, không xác minh trong chính tin nhắn đáng ngờ, không chuyển tiền hay đưa mã chỉ vì đối phương “nghe giống” hoặc “nhìn giống”.
Hãy biến mọi yêu cầu gây áp lực thành ba bước cố định: dừng lại, đổi kênh, rồi xác minh. Chỉ riêng thói quen đó đã giúp bạn giảm đáng kể nguy cơ bị lừa bởi AI, deepfake, video giả và tin giả.




