Главная защита от ИИ-мошенничества проста: ИИ не подтверждает личность и не доказывает правду. Знакомый голос, лицо на видеозвонке, аккуратный скриншот, профессиональный сайт или уверенный ответ чат-бота могут быть настоящими. А могут быть сгенерированы, подправлены или просто ошибочны.
Поэтому главный вопрос не «выглядит ли это убедительно?», а «могу ли я проверить это независимо?»
Почему ИИ-мошенничество уже не похоже на старый спам
Классический спам часто выдавали плохой язык, грубые ошибки и странный дизайн. С генеративным ИИ всё сложнее: мошенническое сообщение может быть грамотным, персонализированным и эмоционально убедительным.
Американская Федеральная комиссия по связи (FCC) уже рассматривает ИИ-сгенерированные звонки и сообщения как тему защиты потребителей и рекомендует просветительские меры, чтобы люди лучше понимали, когда автоматические звонки и тексты могут быть созданы ИИ [1]. Комиссия по торговле товарными фьючерсами США (CFTC) предупреждает, что генеративный ИИ облегчает мошенникам создание убедительных поддельных изображений, голосов, видео, видеочатов в прямом эфире, профилей в соцсетях и сайтов, похожих на настоящие [
4].
Федеральная торговая комиссия США (FTC) также занимается обманом вокруг ИИ: в 2024 году она объявила меры против вводящих в заблуждение заявлений об ИИ и связанных с ИИ схем [3]. Отдельно FTC предложила новые меры против имитации конкретных людей, прямо указывая на риски мошенничества с ИИ-дипфейками [
5]. В 2025 году FTC подчеркнула, что мошенничество с подражанием компаниям и госорганам остаётся среди часто сообщаемых видов обмана; в 2024 году заявленные потери потребителей по таким схемам составили 2,95 млрд долларов США. Важно: эта сумма относится к имитационному мошенничеству в целом, а не только к случаям, где использовался ИИ [
13].
Вывод для повседневной жизни: не нужно пытаться за секунды «разоблачить дипфейк по пикселям». Надёжнее выстроить привычку проверки.
1. Ставьте паузу, когда вас торопят
Срочность — один из главных тревожных сигналов. Если вам звонят, пишут или показывают видео и требуют немедленно заплатить, перейти по ссылке, подтвердить операцию, сохранить тайну или назвать данные, сначала остановитесь.
Полезная стоп-формула:
- не платить сразу;
- не открывать ссылку из сообщения;
- не скачивать вложения;
- не подтверждать вход, платёж или доступ;
- не передавать паспортные данные, пароли и коды;
- проверить запрос другим способом.
Такая пауза особенно важна, потому что, по предупреждению CFTC, генеративный ИИ помогает создавать более правдоподобные фальшивые личности, медиа и сайты [4].
2. Проверяйте человека через второй канал
Голос в трубке и лицо в видео больше нельзя считать достаточным доказательством. FTC в предложении о мерах против имитации людей прямо связывает проблему с рисками ИИ-дипфейков [5].
Практическое правило: завершите текущий контакт и проверьте ситуацию через канал, который выбрали вы. Позвоните по номеру, который уже был сохранён раньше. Откройте официальный сайт вручную в браузере. Напишите человеку в привычном мессенджере, но не отвечайте в том же подозрительном чате.
Что стоит заранее договорить с близкими:
- кодовую фразу для настоящих экстренных ситуаций;
- обязательный обратный звонок при просьбах о деньгах;
- правило «никаких исключений из-за срочности»;
- запрет на проверку личности в том же звонке, чате или видеосвязи.
Второй канал — это не ещё одно сообщение от того же собеседника. Это независимая проверка.
3. Никогда не передавайте коды, пароли и подтверждения в текущем контакте
Одноразовые коды, пароли, фото документов, доступы к кошелькам и подтверждения платежей — данные высокого риска. Если их просят во входящем звонке, чате, видеозвонке или голосовом сообщении, безопасный ответ один: прекратить разговор и проверить отдельно.
Это правило действует даже тогда, когда собеседник выглядит как банк, госорган, работодатель, служба поддержки, клиент, родственник или руководитель. CFTC прямо перечисляет поддельные голоса, видео, видеочаты, профили в соцсетях и вредоносные сайты среди инструментов, которые могут делать ИИ-мошенничество правдоподобнее [4].
Особенно насторожитесь, если вас просят:
- назвать код из SMS, почты или приложения;
- установить программу «для проверки»;
- показать экран во время звонка;
- подтвердить вход в аккаунт;
- срочно перевести деньги на новый счёт или в криптокошелёк.
4. Считайте голос, видео и скриншот подсказкой, а не доказательством
Не обязательно разбираться в технических признаках дипфейка. Для решения важнее другое: подтверждается ли история из независимых источников?
Перед действием задайте себе вопросы:
- Похожа ли просьба на обычное поведение этого человека или организации?
- Есть ли известный номер или официальный канал для обратной связи?
- Требуют ли от меня секретности?
- Просят ли отправить деньги необычным способом?
- Меняются ли реквизиты, адрес доставки, доступы или условия оплаты?
- Давят ли фразами вроде «иначе будет поздно»?
Если хотя бы один ответ вызывает сомнение, остановитесь. В вопросах денег, доступа к аккаунтам и подтверждения личности второй способ проверки должен быть не «желательно», а обязательно.
5. Не верьте обещаниям лёгких денег «с помощью ИИ»
Фраза «AI-powered» или «на базе ИИ» — не знак качества и не гарантия дохода. FTC в 2024 году объявила меры против обманных заявлений об ИИ и ИИ-схем; среди примеров была жалоба на онлайн-бизнес-предложение, которое, по утверждению FTC, обещало с помощью «cutting edge» ИИ-инструментов быстро зарабатывать тысячи долларов в месяц пассивного дохода через онлайн-магазины [3].
Будьте особенно осторожны с предложениями вроде:
- «ИИ-трейдинг» с якобы гарантированной прибылью;
- «пассивный доход» на автоматизации;
- «алгоритм без риска»;
- дорогие курсы и инструменты с нереалистичными обещаниями;
- отзывы, скриншоты и демо-видео без проверяемых первичных данных.
Безопасный подход: сначала выяснить, кто стоит за предложением, какие есть договорные условия, расходы, риски и независимые подтверждения. Не платите только потому, что продукт красиво упакован как ИИ.
6. Используйте ответы ИИ как черновик, а не как последнюю инстанцию
С ошибками ИИ помогает тот же принцип, что и с ИИ-мошенничеством: не принимать на веру, а проверять. Использованные здесь источники хорошо подтверждают риски обмана, имитации и вводящих в заблуждение ИИ-обещаний, но не дают универсальной надёжной цифры «ошибочности ИИ» для всех бытовых ситуаций [1][
3][
4][
5][
13].
Для важных решений безопаснее такой порядок:
- Открыть первоисточник. Закон, страницу ведомства, оригинальное исследование, договор, выписку, инструкцию производителя или медицинскую информацию.
- Проверить числа и контекст. Дату, автора, определения, условия и ограничения.
- Подключить человека при высоком риске. Особенно в вопросах права, медицины, финансов, безопасности, идентификации и работы.
- Не пересылать ИИ-сводку без проверки. Ключевые утверждения нужно сверить до того, как они станут «фактом» в рабочем чате или семейной переписке.
ИИ может отлично помогать с формулировками, структурой, идеями и краткими пересказами. Но он не должен единолично решать, что правда, безопасно или юридически надёжно.
7. Заранее договоритесь о правилах для семьи и работы
Лучший момент для правил — до того, как кто-то позвонит «голосом родственника» или пришлёт срочную просьбу от имени начальника. Это особенно важно, потому что имитационное мошенничество уже является крупной зоной ущерба: по данным FTC, схемы с подражанием компаниям и госорганам стабильно входят в число часто сообщаемых видов мошенничества, а заявленные потребительские потери в 2024 году составили 2,95 млрд долларов США; эта сумма не относится исключительно к ИИ-случаям [13].
Для семьи:
- придумайте кодовую фразу для экстренных ситуаций;
- при просьбе о деньгах всегда перезванивайте по известному номеру;
- объясните детям, родителям и пожилым родственникам, что голос и видео можно подделать;
- договоритесь, что одноразовые коды и пароли никогда не диктуются по телефону.
Для команд и компаний:
- не разрешайте платежи только по чату, письму, голосовому сообщению или видеозвонку;
- изменения банковских реквизитов проверяйте двумя независимыми способами;
- для необычных платежей используйте принцип двух пар глаз;
- обратный звонок делайте только по заранее известным номерам;
- ИИ-сгенерированные тексты и презентации перед внешней отправкой проверяйте на факты.
Мини-чек-лист на случай подозрительного звонка, видео или сообщения
Если вас подталкивают к действию, пройдите пять шагов:
- Пауза. Не отвечайте и не платите сразу.
- Данные под замок. Не передавайте коды, пароли, документы и подтверждения.
- Смена канала. Проверяйте через известный номер, официальный сайт или заранее согласованный способ связи.
- Поиск первоисточника. Откройте договор, счёт, аккаунт, страницу организации или прямое подтверждение.
- Вторая голова. При деньгах, доступах и важных решениях не действуйте в одиночку под давлением.
Итог
Самая надёжная бытовая защита от ИИ-мошенничества — не специальная программа, а привычный алгоритм: остановиться, проверить через независимый канал, не отдавать чувствительные данные и сверять важные ИИ-ответы с первоисточниками.
Доказательная база этой статьи сильнее всего подтверждает риски ИИ-обмана, дипфейк-имитаций, ИИ-сгенерированных звонков и вводящих в заблуждение обещаний о заработке на ИИ [1][
3][
4][
5][
13]. Она слабее в вопросе универсальных «процентов ошибок» ИИ в повседневной жизни. Кроме того, источники в основном американские; местные способы обращения, правовые последствия и процедуры нужно проверять отдельно для вашей страны и ситуации.




