Một bức ảnh “trông hơi sai” chỉ mới là tín hiệu ban đầu. Điều quan trọng hơn là câu chuyện đi kèm nó có được chứng minh hay không: ai được cho là đã nói gì, làm gì, ở đâu, vào lúc nào — và bằng chứng gốc nằm ở đâu?
AI tạo sinh khiến việc kiểm chứng khó hơn, nhưng không làm nó trở nên bất khả thi. Chương trình GenAI của Viện Tiêu chuẩn và Công nghệ Quốc gia Mỹ, thường được gọi là NIST, đang đánh giá nhiều năng lực của AI tạo sinh, trong đó có mức độ khó phân biệt văn bản do AI tạo với văn bản của con người và độ thuyết phục của các câu chuyện do AI tạo ra.[1] UNESCO mô tả deepfake như một phần của “crisis of knowing” — có thể hiểu là khủng hoảng trong việc biết điều gì còn đáng tin.[
4] Reuters cũng đưa tin về một báo cáo của Liên Hợp Quốc kêu gọi biện pháp mạnh hơn để phát hiện deepfake do AI thúc đẩy, trong bối cảnh rủi ro tin sai lệch và khả năng can thiệp bầu cử.[
3]
Nguyên tắc gốc: kiểm tra lời khẳng định, không kiểm tra cảm giác
Nhiều người bắt đầu bằng cách soi bề mặt: bàn tay có méo không, bóng đổ có lạ không, môi có khớp tiếng nói không, chữ trong ảnh có bị nhòe không. Những dấu hiệu này có ích, nhưng chưa đủ để kết luận.
Hãy bắt đầu bằng ba câu hỏi đơn giản hơn:
- Bài đăng đang khẳng định chính xác điều gì? Viết lại thành một câu cụ thể.
- Nguồn gốc ở đâu? Có video đầy đủ, đoạn âm thanh nguyên vẹn, tài liệu, bài nghiên cứu, thông cáo chính thức hoặc bản đăng đầu tiên không?
- Bối cảnh có khớp không? Ngày tháng, địa điểm, ngôn ngữ, phần bị cắt, tiêu đề và lời dẫn có ăn khớp với nhau không?
Nếu thiếu một trong các lớp này, bài đăng không tự động là giả. Nhưng nó cũng chưa đủ chắc để xem là sự thật. Vì vậy, nhận diện thông tin sai lệch trong nội dung do AI tạo hiện được xem là một phần của năng lực số; N.C. Cooperative Extension đặt chủ đề này trong khuôn khổ “Digital Literacy for the Age of Deepfakes”, tức năng lực số trong thời đại deepfake.[2]
Tách chất liệu khỏi kết luận
Sai lầm phổ biến là nghĩ rằng: nếu video thật thì câu chuyện đi kèm cũng thật; hoặc nếu ảnh là AI thì mọi điều liên quan đều sai. Thực tế, hai chuyện này có thể tách rời.
- Một video thật có thể bị gắn sai địa điểm hoặc thời gian.
- Một ảnh chụp màn hình thật có thể bị cắt mất phần quan trọng.
- Một ảnh AI có thể chỉ được dùng để minh họa tượng trưng cho một tin tức có thật.
- Một clip tổng hợp có thể được ghép với một lời khẳng định cần kiểm chứng riêng.
Vì vậy, mỗi lần kiểm tra nên có hai kết luận riêng: chất liệu này là thật, đã chỉnh sửa hay do AI tạo? Và nó có thật sự chứng minh điều mà bài đăng đang nói không?
Checklist 7 bước khi gặp nội dung AI đáng nghi
Bạn có thể dùng thứ tự sau khi gặp một bài đăng mạng xã hội, video, ảnh AI hoặc tuyên bố gây sốc về AI.
- Ghi lại lời khẳng định cốt lõi. Chính xác thì chuyện gì được nói là đã xảy ra? Ai liên quan? Bài đăng muốn bạn tin điều gì?
- Tìm nguồn gốc. Đừng chỉ xem bản đăng lại. Hãy tìm video đầy đủ, âm thanh dài hơn, tài liệu gốc, bài nghiên cứu, tài liệu sản phẩm hoặc thông báo chính thức.
- Đối chiếu bối cảnh. Kiểm tra ngày, địa điểm, ngôn ngữ, sự kiện, góc cắt, tiêu đề và lời dẫn. Một đoạn thật vẫn có thể gây hiểu lầm nếu bị đặt sai bối cảnh.
- Tách chất liệu khỏi lời kết luận. Hỏi riêng: ảnh, video, âm thanh hoặc văn bản này có thật không? Và nó có chứng minh kết luận được rút ra từ nó không?
- Kiểm tra chéo. Dùng tìm kiếm ngược hình ảnh, kiểm tra từng khung hình video, so sánh địa điểm, logo, thời tiết, trang phục, bóng đổ hoặc chi tiết nền.
- Xem dấu hiệu kỹ thuật như manh mối, không phải phán quyết. Chữ bị méo, môi không khớp, bóng đổ kỳ lạ, bàn tay bất thường hoặc âm thanh vỡ là tín hiệu cảnh báo. Nhưng chỉ riêng chúng chưa đủ để kết luận.
- Tìm xác nhận độc lập. Với các tuyên bố lớn, chỉ nên coi là sự thật khi có nguồn đáng tin cậy khác xác nhận cùng nội dung cốt lõi và, tốt nhất, dẫn về tài liệu gốc.
Nếu sau các bước này vẫn thiếu thông tin trọng yếu, đánh giá thận trọng nhất thường là: chưa được chứng minh.
Deepfake và ảnh AI: truy nguồn quan trọng hơn soi lỗi pixel
Với deepfake, vấn đề không chỉ là có bị thao túng kỹ thuật hay không. Nó còn làm lung lay niềm tin vào chính những thứ vốn được xem là bằng chứng nghe được, nhìn được. UNESCO gọi đây là một phần của khủng hoảng về tri thức và niềm tin; báo cáo Liên Hợp Quốc mà Reuters đề cập cũng kêu gọi tăng cường biện pháp xử lý deepfake và tin sai lệch do AI thúc đẩy.[3][
4]
Trong thực tế, hãy lần ngược chuỗi nguồn gốc:
- Từ đoạn cắt đến bản đầy đủ: Bạn chỉ thấy vài giây hay có toàn bộ video?
- Từ bài đăng lại đến nơi xuất phát: Ai đăng đầu tiên? Có dấu thời gian không?
- Từ ảnh chụp màn hình đến đường dẫn: Có mở được liên kết, lưu trữ và kiểm tra lại không?
- Từ cảnh quay đến lời khẳng định: Hình ảnh thật sự cho thấy điều bài viết đang nói, hay chỉ được dùng để gợi cảm xúc?
- Từ dấu hiệu lạ đến bằng chứng: Bóng đổ lạ hay giọng nói bất thường là manh mối. Điều quyết định vẫn là có nguồn gốc rõ và xác nhận độc lập hay không.
Với người nổi tiếng, khủng hoảng, bầu cử, cáo buộc nghiêm trọng hoặc “bê bối” đang lan nhanh, nên chậm lại một nhịp. Không có nguồn gốc rõ ràng và bối cảnh đầy đủ thì chưa nên xem như sự việc đã được làm rõ.
Tin giả về AI: hãy kiểm tra cả cơn sốt công nghệ
Không phải câu chuyện sai lệch nào về AI cũng được tạo bằng AI. Nhiều khi vấn đề nằm ở cách diễn giải quá đà: một bản demo được kể như sản phẩm hoàn chỉnh, một kết quả thử nghiệm đơn lẻ được thổi thành đột phá phổ quát, hoặc một ảnh chụp màn hình thay thế cho tài liệu gốc.
Những câu hỏi nên đặt ra:
- Có bài nghiên cứu gốc, thông báo sản phẩm hoặc tài liệu kỹ thuật không?
- Một bản thử nghiệm trong phòng lab có bị mô tả như tính năng ai cũng dùng được không?
- Các giới hạn, điều kiện thử nghiệm hoặc tỉ lệ lỗi có bị bỏ qua không?
- Từ một ví dụ, bài viết có suy ra kết luận quá rộng không?
- Ai được lợi từ cách kể này: lượt xem, quảng cáo, tác động chính trị hay lợi ích kinh tế?
Các cụm như chính xác 100%, đã chứng minh hoàn toàn, AI biết nghĩ như con người, cách mạng hóa mọi thứ hoặc sẽ thay thế mọi công việc ngay lập tức không tự động chứng minh bài viết sai. Nhưng chúng là lý do tốt để bạn tìm nguồn gốc và thu hẹp lời khẳng định về đúng phạm vi có bằng chứng.
Công cụ phát hiện AI: hỗ trợ nghiên cứu, không phải tòa án
Các công cụ phát hiện AI có thể hữu ích, nhưng không thay thế được kiểm chứng. Chương trình GenAI của NIST cho thấy việc phân biệt nội dung tạo sinh và đánh giá độ thuyết phục của các câu chuyện do AI tạo đang là đối tượng đánh giá có cấu trúc; tài liệu của NIST cũng nói dữ liệu từ các câu chuyện thuyết phục nhưng gây hiểu lầm có thể được dùng để huấn luyện công cụ nhận diện.[1]
Nếu dùng một công cụ như vậy, hãy hỏi:
- Công cụ này kiểm tra văn bản, ảnh, âm thanh hay video?
- Nó đang phát hiện nội dung do AI tạo, phát hiện chỉnh sửa, hay chỉ phát hiện bất thường thống kê?
- Nó đưa ra lý do có thể kiểm tra được hay chỉ hiện một con số phần trăm?
- Kết quả có khớp với nguồn gốc và bối cảnh không, hay chỉ tạo cảm giác rằng bạn đã kiểm chứng?
Điểm quan trọng: một công cụ phát hiện AI nhiều nhất chỉ gợi ý về cách một nội dung có thể được tạo ra. Nó không tự động chứng minh lời khẳng định trong bài đăng là đúng hay sai.
Dùng AI để kiểm chứng: được, nhưng đừng giao quyền kết luận
Chatbot và các công cụ AI có thể giúp bạn sắp xếp quá trình kiểm tra. Điều không nên làm là để chúng quyết định thay bạn điều gì đã được chứng minh.
AI có thể hữu ích khi bạn cần:
- viết lại lời khẳng định chính thành một câu có thể kiểm tra;
- liệt kê thông tin còn thiếu về ngày, địa điểm, nhân vật, trích dẫn hoặc bối cảnh;
- gợi ý nguồn gốc có thể cần tìm;
- đề xuất cách kiểm tra chéo;
- chỉ ra chỗ mâu thuẫn giữa lời khẳng định và bằng chứng được đưa ra.
Sau đó, bạn vẫn cần tự mở nguồn được nêu. Một câu trả lời của AI không có tài liệu gốc để kiểm tra chỉ là gợi ý nghiên cứu, không phải bằng chứng.
Những dấu hiệu nên dừng tay trước khi chia sẻ
Hãy đặc biệt thận trọng khi nhiều dấu hiệu cùng xuất hiện:
- Chỉ có ảnh chụp màn hình, không có đường dẫn.
- Trích dẫn bị cắt cụt hoặc không tìm thấy bản đầy đủ.
- Thiếu tác giả, ngày đăng hoặc nơi xuất bản đầu tiên.
- Bài viết thúc giục chia sẻ ngay.
- Chỉ một nguồn duy nhất lan truyền lời khẳng định.
- Ngôn ngữ đầy phẫn nộ nhưng ít dữ kiện có thể kiểm tra.
- Ảnh chụp màn hình của một công cụ phát hiện AI được dùng như bằng chứng duy nhất.
- Lời khẳng định rất lớn, nhưng bằng chứng rất mỏng.
Công thức ngắn gọn
Khi gặp nội dung AI đáng nghi, hãy đi theo thứ tự:
- Tìm nguồn gốc.
- Kiểm tra bối cảnh.
- Tìm xác nhận độc lập.
- Rồi mới tin hoặc chia sẻ.
Vì các câu chuyện do AI tạo có thể nghe rất hợp lý và deepfake có thể làm lung lay niềm tin vào bằng chứng nhìn thấy, nghe thấy, “chưa được chứng minh” thường là kết luận tốt hơn nhiều so với phán đoán vội vàng.[1][
4]




