Quy tắc quan trọng nhất là: AI không phải bằng chứng danh tính, cũng không phải bằng chứng của sự thật. Một giọng nói nghe rất quen, một video trông như thật, một website chuyên nghiệp hay một câu trả lời AI rất trôi chảy đều có thể đúng — nhưng cũng có thể được tạo ra, chỉnh sửa hoặc bịa đặt rất thuyết phục.
Vì vậy, câu hỏi cần đặt ra không phải là “nhìn có giống thật không?”, mà là: mình có thể kiểm chứng việc này bằng một nguồn độc lập hay không?
Vì sao lừa đảo AI không còn giống thư rác kiểu cũ
Một số cơ quan Mỹ hiện xem lừa đảo có hỗ trợ AI là vấn đề bảo vệ người tiêu dùng và tài chính. Ủy ban Truyền thông Liên bang Mỹ (FCC) đã đề cập đến cuộc gọi và tin nhắn do AI tạo, đồng thời khuyến nghị tăng cường giáo dục công chúng để người tiêu dùng hiểu rõ hơn về robocall và robotext — tức cuộc gọi, tin nhắn tự động — được tạo bằng AI [1]. Ủy ban Giao dịch Hàng hóa Tương lai Mỹ (CFTC) cảnh báo rằng AI tạo sinh có thể giúp kẻ gian tạo ra hình ảnh, giọng nói, video, cuộc gọi video livestream, hồ sơ mạng xã hội và website giả mạo nhưng trông rất thuyết phục [
4].
Ủy ban Thương mại Liên bang Mỹ (FTC) cũng đã có động thái với các hành vi lừa dối liên quan đến AI: năm 2024, cơ quan này công bố chiến dịch xử lý các tuyên bố và mô hình lừa đảo AI gây hiểu lầm [3]. FTC cũng đề xuất các biện pháp bảo vệ mới trước việc AI giả mạo cá nhân, trong đó nhắc rõ nguy cơ lừa đảo từ deepfake do AI tạo [
5]. Năm 2025, FTC cho biết các vụ lừa đảo mạo danh doanh nghiệp và cơ quan nhà nước nằm trong nhóm thường được báo cáo, gây ra 2,95 tỷ USD thiệt hại tiêu dùng được báo cáo trong năm 2024; con số này nói về lừa đảo mạo danh nói chung, không chỉ các vụ dùng AI [
13].
Nói cách khác: bằng chứng hiện có rất mạnh đối với rủi ro lừa đảo, giả mạo và lời hứa AI gây hiểu lầm. Nhưng với “tỷ lệ lỗi chung” của mọi hệ thống AI trong đời sống hằng ngày, các nguồn được dùng ở đây không đưa ra một con số phổ quát đủ chắc chắn.
1. Hễ bị thúc ép, hãy dừng lại
Sự khẩn cấp là một tín hiệu cảnh báo. Hãy đặc biệt cẩn trọng với cuộc gọi, tin nhắn, email, video hoặc đoạn chat yêu cầu bạn phải chuyển tiền, bấm liên kết, xác nhận giao dịch, giữ bí mật hoặc cung cấp dữ liệu nhạy cảm ngay lập tức.
Tự đặt một quy tắc dừng cố định:
- không chuyển tiền ngay;
- không mở liên kết vội;
- không tải tệp đính kèm;
- không xác nhận quyền truy cập hoặc giao dịch;
- không cung cấp dữ liệu nhạy cảm;
- luôn kiểm tra lại bằng cách khác.
Khoảng dừng này rất quan trọng, vì CFTC cảnh báo AI tạo sinh có thể giúp kẻ gian dựng danh tính, nội dung truyền thông và website giả mạo thuyết phục hơn [4].
2. Xác minh con người qua kênh thứ hai
Một giọng nói trong điện thoại hoặc một khuôn mặt trong video không còn đủ để chứng minh người đó là thật. FTC khi đề xuất biện pháp chống giả mạo cá nhân đã nhấn mạnh rủi ro lừa đảo từ deepfake do AI tạo [5].
Cách làm an toàn hơn: kết thúc liên lạc hiện tại và tự chọn một kênh kiểm chứng khác. Ví dụ, gọi lại vào số đã lưu từ trước, tự gõ địa chỉ website chính thức vào trình duyệt, hoặc liên hệ với người đó qua một kênh quen thuộc và độc lập.
Một vài thói quen hữu ích:
- thống nhất một mật khẩu gia đình cho tình huống khẩn cấp thật;
- có quy tắc gọi lại khi có yêu cầu tiền bạc;
- không phá lệ chỉ vì người kia nói “gấp lắm”;
- không xác minh danh tính ngay trong chính cuộc chat, cuộc gọi hoặc video đang gây nghi ngờ.
3. Không bao giờ đọc mã OTP, mật khẩu hoặc xác nhận thanh toán trong cuộc liên lạc đang diễn ra
Mã dùng một lần, mật khẩu, ảnh giấy tờ tùy thân, quyền truy cập ví/wallet và xác nhận thanh toán là nhóm dữ liệu rủi ro cao. Nếu những thứ này bị yêu cầu trong một cuộc gọi đến, tin nhắn, video call hoặc tin nhắn thoại, phản ứng an toàn nhất là: dừng lại và kiểm tra riêng.
Điều này vẫn đúng dù người liên hệ tự xưng là ngân hàng, cơ quan nhà nước, nơi làm việc, bộ phận hỗ trợ nền tảng, khách hàng, người thân hay cấp trên. CFTC nêu rõ rằng giọng nói giả, video giả, cuộc gọi video livestream, hồ sơ mạng xã hội và website độc hại có thể được dùng để làm lừa đảo bằng AI trông đáng tin hơn [4].
4. Xem giọng nói, video và ảnh chụp màn hình là manh mối — không phải bằng chứng
Bạn không cần phải trở thành chuyên gia kỹ thuật để bắt lỗi deepfake. Với quyết định hằng ngày, câu hỏi quan trọng hơn là: câu chuyện này có được xác nhận độc lập không?
Hãy tự hỏi:
- Yêu cầu này có phù hợp với cách người hoặc tổ chức đó thường làm không?
- Có số điện thoại hoặc kênh liên hệ quen thuộc để gọi lại không?
- Người kia có yêu cầu giữ bí mật không?
- Tiền có bị yêu cầu chuyển sang tài khoản mới, ví/wallet hoặc phương thức lạ không?
- Có yêu cầu đổi thông tin ngân hàng, địa chỉ giao hàng hoặc thông tin đăng nhập không?
Nếu chỉ một câu trả lời cũng khiến bạn lấn cấn, hãy dừng quy trình. Khi liên quan đến tiền, danh tính hoặc quyền truy cập, kiểm chứng qua kênh thứ hai nên là điều bắt buộc.
5. Đừng tin lời hứa kiếm tiền chỉ vì có chữ AI
“AI-powered”, “dùng AI” hay “tự động bằng AI” không phải tem đảm bảo chất lượng. Năm 2024, FTC công bố hành động chống các tuyên bố và mô hình lừa đảo AI gây hiểu lầm, trong đó có vụ kiện một mô hình cơ hội kinh doanh trực tuyến bị cáo buộc quảng bá công cụ AI “cutting edge” có thể giúp người tiêu dùng nhanh chóng kiếm hàng nghìn USD mỗi tháng dưới dạng thu nhập thụ động [3].
Hãy đặc biệt cảnh giác với các kiểu chào mời như:
- “AI trading” với lợi nhuận được mô tả như chắc chắn;
- “thu nhập thụ động” nhờ tự động hóa bằng AI;
- “lợi nhuận đảm bảo” nhờ thuật toán;
- khóa học hoặc công cụ đắt tiền kèm hứa hẹn thu nhập phi thực tế;
- lời chứng thực, ảnh chụp màn hình hoặc video demo nhưng không có bằng chứng kiểm chứng được.
Quy tắc an toàn: kiểm tra người chịu trách nhiệm, điều khoản hợp đồng, chi phí, rủi ro và nguồn gốc thông tin trước khi trả tiền — và đừng thanh toán chỉ vì sản phẩm được quảng cáo là có AI.
6. Dùng câu trả lời của AI như bản nháp, không phải phán quyết cuối cùng
Với lỗi AI, nguyên tắc cũng giống như với lừa đảo AI: đừng bê nguyên xi, hãy kiểm tra. Các nguồn trong bài này chủ yếu chứng minh rủi ro lừa đảo, giả mạo và lời hứa AI gây hiểu lầm; chúng không đưa ra một tỷ lệ lỗi chung đáng tin cậy cho mọi hệ thống AI trong đời sống hằng ngày.
Với quyết định quan trọng, quy trình này an toàn hơn:
- Mở nguồn gốc: văn bản luật, trang cơ quan chính thức, nghiên cứu gốc, hợp đồng, sao kê, tài liệu nhà sản xuất hoặc thông tin chuyên môn liên quan.
- Kiểm tra số liệu và ngày tháng: xem bối cảnh, đơn vị phát hành, định nghĩa và thời điểm dữ liệu.
- Có người kiểm tra lại khi rủi ro cao: nhất là trong pháp lý, y tế, tài chính, an toàn, danh tính và công việc.
- Không chuyển tiếp bản tóm tắt AI khi chưa kiểm chứng: kiểm tra các khẳng định chính trước khi chia sẻ.
AI có thể hữu ích để soạn nháp, sắp xếp ý tưởng và tóm tắt. Nhưng AI không nên là căn cứ duy nhất để quyết định một điều là đúng, an toàn hoặc có giá trị pháp lý.
7. Đặt sẵn quy tắc cho gia đình và nơi làm việc
Cách bảo vệ tốt nhất là có quy trình mà mọi người đều biết trước khi sự cố xảy ra. Điều này đặc biệt cần thiết vì lừa đảo mạo danh là một nhóm thiệt hại lớn: theo FTC, mạo danh doanh nghiệp và cơ quan nhà nước nằm trong các loại lừa đảo thường được báo cáo; năm 2024, thiệt hại tiêu dùng được báo cáo là 2,95 tỷ USD, và con số này không chỉ bao gồm các vụ dùng AI [13].
Với gia đình:
- thống nhất một mật khẩu cho tình huống khẩn cấp;
- mọi yêu cầu tiền bạc đều phải gọi lại qua số đã biết;
- nhắc trẻ em, cha mẹ và ông bà rằng giọng nói và video đều có thể bị làm giả;
- không bao giờ đọc mã OTP hoặc mật khẩu qua điện thoại.
Với nhóm làm việc và doanh nghiệp:
- không phê duyệt thanh toán chỉ qua chat, email, tin nhắn thoại hoặc video call;
- mọi thay đổi thông tin ngân hàng đều phải kiểm tra hai lần;
- áp dụng nguyên tắc bốn mắt cho khoản chi bất thường;
- bắt buộc gọi lại qua số liên hệ đã biết;
- nội dung do AI tạo phải được kiểm tra các dữ kiện chính trước khi dùng bên ngoài.
Checklist nhanh khi gặp tình huống đáng ngờ
Nếu một cuộc gọi, video, đoạn chat hoặc nội dung do AI tạo đang thúc bạn hành động, hãy đi qua 5 bước sau:
- Dừng lại: không phản ứng ngay.
- Giữ dữ liệu an toàn: không chia sẻ mã OTP, mật khẩu, giấy tờ tùy thân hoặc xác nhận thanh toán.
- Đổi kênh: kiểm tra qua số đã biết hoặc tự mở website chính thức.
- Tìm bằng chứng gốc: mở hợp đồng, tài khoản, trang cơ quan, sao kê hoặc nguồn xác nhận trực tiếp.
- Kéo thêm một người vào: với tiền bạc, danh tính và quyết định quan trọng, đừng xử lý một mình khi đang bị gây áp lực.
Kết luận
Lá chắn tốt nhất trước lừa đảo AI và lỗi AI không nhất thiết là một công cụ đặc biệt, mà là một quy trình cố định: dừng lại, xác minh riêng, bảo vệ dữ liệu nhạy cảm và kiểm tra các khẳng định quan trọng của AI bằng nguồn gốc.
Các nguồn trong bài này ủng hộ mạnh mẽ nhận định rằng AI có thể bị dùng để lừa đảo, deepfake, giả mạo qua cuộc gọi/tin nhắn và quảng bá lời hứa AI gây hiểu lầm [1][
3][
4][
5][
13]. Tuy vậy, bằng chứng yếu hơn nhiều nếu muốn đưa ra một tỷ lệ lỗi chung cho mọi hệ thống AI trong đời sống hằng ngày. Ngoài ra, các nguồn chủ yếu đến từ Mỹ; bài viết này không xác minh riêng các kênh báo cáo hoặc hệ quả pháp lý cụ thể tại Việt Nam hay Liên minh châu Âu.




