Мошенничество с использованием ИИ набирает популярность и происходит быстро. Согласно данным TRM Labs, с мая 2024 года по апрель 2025 года количество сообщений о мошенничестве с использованием ИИ увеличилось на 456%. Chainalysis также обнаружила, что 60% депозитов на мошеннические кошельки теперь включают инструменты ИИ. Это огромный рост по сравнению с чуть более 20% в 2024 году.

Резкий рост мошенничества с использованием AI с 2022 по 2025 год | Источник: TRM Labs
Что стоит за этим взрывом? ИИ дает мошенникам скорость, масштаб и реализм. Один мошенник может развернуть тысячи
фишинговых ботов, создавать видео с глубокими фейками и маскироваться под доверенные бренды, не написав ни одной строки кода.
А что насчет криптовалюты? Это идеальная цель. Вы работаете в быстро меняющемся, децентрализованном мире с необратимыми транзакциями. Это облегчает мошенникам проведение атак и затрудняет их восстановление для вас.
В этом руководстве вы узнаете, что такое криптовалютные мошенничества с использованием ИИ, как они работают и как оставаться в безопасности при использовании торговых платформ, включая BingX.
Что такое криптовалютные мошенничества с использованием ИИ?
Мошенничества с использованием ИИ в криптовалюте используют
искусственный интеллект для того, чтобы обманом заставить вас отдать деньги, приватные ключи или данные для входа. Эти мошенничества выходят за рамки традиционных фишинговых атак. Они умнее, быстрее и более правдоподобные, чем когда-либо.
Традиционные криптовалютные мошенничества часто используют ручные методы. Например, фальшивые письма с плохой грамматикой или простые схемы раздачи призов в социальных сетях. Их легко распознать, если вы знаете, что искать.
Но ИИ изменяет правила игры. Мошенники теперь используют машинное обучение и генеративный ИИ для того, чтобы:
1. Создавать реалистичный и персонализированный контент, который выглядит человеческим
Инструменты ИИ создают фишинговые письма и фальшивые сообщения, которые звучат естественно. Они имитируют человеческий тон, используют безупречную грамматику и даже добавляют персональные штрихи на основе вашей онлайн-активности. Эти сообщения кажутся настоящими, а не роботизированными. Это делает их гораздо труднее распознаваемыми, чем фальшивые письма прошлого.
Глубокие фейки и клоны голосов идут еще дальше. Мошенник теперь может копировать чье-то лицо и голос с пугающей точностью. Вы можете смотреть видео или слышать звонок и по-настоящему верить, что это от CEO, влиятельного лица или друга.
2. Запускать масштабные атаки с молниеносной скоростью
ИИ помогает мошенникам действовать быстро. С помощью нескольких подсказок они могут за несколько секунд генерировать тысячи фишинговых сообщений. Каждое сообщение может быть персонализировано, локализовано и отправлено через несколько платформ, включая электронную почту, Telegram, Discord и даже SMS.
Такой масштаб раньше требовал целых команд. Теперь один мошенник с нужными инструментами ИИ может нацелиться на тысячи пользователей одновременно.
3. Обходить традиционные фильтры и системы безопасности
Мошенничества с использованием ИИ также обходят традиционные фильтры безопасности. Старые системы ищут орфографические ошибки, плохую грамматику или известные фишинговые ссылки. Но контент, созданный ИИ, не совершает таких ошибок. Он быстро адаптируется, использует новые домены, вращает ссылки и даже вставляет невидимые символы, чтобы обмануть фильтры.
Старые системы обнаружения мошенничества не успевают за этим. Вот почему мошенничества с использованием ИИ часто проходят незамеченными.
Эти атаки более убедительны, потому что они имитируют реальное поведение людей — их речь, письмо и действия. Они также легче масштабируются. С такими инструментами, как WormGPT или FraudGPT, один атакующий может запустить тысячи мошенничеств за несколько минут.

Потоки и депозиты от мошенничеств с использованием ИИ растут | Источник: Chainalysis
По данным Chainalysis, примерно 60% всех депозитов в мошеннические кошельки теперь поступают от операций с использованием инструментов ИИ. Это в три раза больше, чем в прошлом году.
ИИ дает мошенникам преимущество, но вы не обязаны стать их следующей жертвой. Изучение того, как работают эти мошенничества, — первый шаг к безопасности.
Распространенные виды криптовалютных мошенничеств с использованием ИИ
Мошенничества с использованием ИИ бывают разных форм. Некоторые из них обманывают вас с помощью поддельных голосов или видео. Другие используют чат-ботов, чтобы завоевать ваше доверие, или создают фальшивые торговые приложения, которые выглядят легитимно.
Давайте рассмотрим наиболее распространенные типы мошенничеств и реальные примеры, которые показывают, насколько они опасны.
1. Мошенничество с Deepfake

Как деньги из мошенничества с Deepfake были переведены | Источник: TRM Labs
Мошенничества с Deepfake используют видео или аудиофайлы, созданные с помощью ИИ, чтобы выдавать себя за публичных людей, влиятельных лиц или даже руководителей вашей компании. Мошенники манипулируют выражениями лиц и голосовыми паттернами, чтобы контент выглядел правдоподобно. Эти фальшивые видео часто рекламируют мошеннические раздачи криптовалюты или требуют перевести средства на конкретные адреса кошельков.
Один из самых тревожных случаев произошел в начале 2024 года. Сотрудник финансового отдела международной компании в Гонконге присоединился к видеозвонку с теми, кто казался CFO и топ-менеджерами компании. Они потребовали, чтобы он перевел 25 миллионов долларов. Это была ловушка. Звонок оказался Deepfake, и все лица и голоса были сгенерированы ИИ. Сотрудник понял это слишком поздно.
Такая же тактика используется для подделки лидеров в области технологий, таких как Илон Маск. В одном из мошенничеств видео с Deepfake Маска рекламировало раздачу биткойнов. Зрители были приглашены отправить
BTC на
кошелек и получить в два раза больше. Chainalysis отслеживал один кошелек, который собрал миллионы долларов во время фальшивого прямого эфира на YouTube.
2. Фишинг, созданный с помощью ИИ

Пример фишинг-сайта, созданного с помощью ИИ | Источник: MailGun
Фишинг развился благодаря ИИ. Вместо небрежной грамматики и подозрительных ссылок эти сообщения выглядят настоящими и кажутся личными. Мошенники используют ИИ для сбора общедоступных данных о вас, чтобы затем создавать электронные письма, сообщения в личных сообщениях или даже целые веб-сайты, соответствующие вашим интересам и поведению.
Мошенничество может прийти через Telegram, Discord, электронную почту или даже LinkedIn. Вы можете получить сообщение, имитирующее поддержку BingX, с просьбой «подтвердить вашу учетную запись» или «получить вознаграждение». Ссылка ведет на поддельную страницу, которая почти идентична настоящей. Введите свою информацию, и все — игра окончена.
Компания TRM Labs сообщила о росте попыток фишинга с использованием ИИ на 456% всего за один год. Эти атаки теперь используют крупные языковые модели (LLM) для имитации человеческого тона и адаптации к различным языкам. Некоторые мошенники даже используют ИИ для обхода
KYC проверок, создания поддельных документов или имитации живых чатов с «сотрудниками поддержки».
3. Фальшивые AI торговые платформы и боты

Как MetaMax использовал ИИ для создания фальшивой компании с фальшивыми сотрудниками | Источник: TRM Labs
Мошенники также создают целые торговые платформы, которые утверждают, что используют ИИ для автоматического получения прибыли. Эти фальшивые инструменты обещают гарантированную прибыль, «умное» исполнение сделок или непревзойденную успешность. Но как только вы внесете свои криптовалюты, они исчезнут.
Эти мошенничества часто выглядят законно. Они оснащены элегантными панелями управления, живыми графиками и отзывами, все из которых работают на основе изображений и кода, созданных ИИ. Некоторые сайты даже предлагают демонстрационные сделки, чтобы имитировать успех. В 2024 году такие сайты, как MetaMax, использовали AI-аватаров фальшивых генеральных директоров, чтобы завоевать доверие и привлечь ничего не подозревающих пользователей.
На самом деле, за этими платформами нет никаких стратегий, основанных на ИИ — только тщательно спланированная ловушка. Как только средства поступают, вы обнаружите, что не можете их вывести. Некоторые пользователи сообщают, что их кошельки были опустошены после подключения к этим сайтам. ИИ-боты также отправляют «сигналы» в Telegram или Twitter, чтобы направить вас к рисковым или несуществующим сделкам.
4. Клонирование голоса и звонки в реальном времени

Пример мошенничества с клонированием голосов ИИ | Источник: FTC
Клонирование голосов с помощью ИИ позволяет мошенникам звучать точно как кто-то, кого вы знаете. Они могут воссоздать голос CEO, вашего менеджера или даже члена вашей семьи, а затем позвонить вам с срочной просьбой отправить криптовалюту или подтвердить транзакцию.
Эта техника была использована в ограблении на сумму 25 миллионов долларов в Гонконге, о котором говорилось ранее. Работник был обманут не только с помощью видео с глубокими фальшивками, но и с помощью клонирования голосов в реальном времени, что усилило обман. Несколько секунд аудиозаписи достаточно, чтобы мошенники воссоздали чей-то голос с потрясающей точностью.
Эти звонки часто приходят в нерабочее время или в экстренных ситуациях. Вы можете услышать что-то вроде: «Привет, это я. Наш аккаунт заморожен. Мне нужно, чтобы ты отправил
USDT прямо сейчас.» Если голос звучит знакомо и запрос срочный, вы, возможно, не будете сомневаться, особенно если номер выглядит легитимным.
5. Мошенничество "убой свиней" с использованием ИИ

Как работает мошенничество «убой свиней» | Источник: TrendMicro
Мошенничества «убой свиней» — это долгосрочные обманы. Они требуют времени для создания доверия, может быть, недель или даже месяцев. Мошенники притворяются романтическим интересом или бизнес-партнером, часто используя приложения для знакомств, Telegram или WeChat. Когда они завоевывают ваше доверие, они убеждают вас инвестировать в фальшивую криптовалютную платформу.
Теперь они используют чат-ботов ИИ, чтобы масштабировать эту стратегию. Эти боты ведут естественные, плавные разговоры. Они регулярно следят за вами, отвечают на ваши вопросы и даже дают советы по жизни. Всё это написано по сценариям, но кажется настоящим.
В 2024 году компания Chainalysis сообщила, что мошенничества «убой свиней» с использованием ИИ принесли более 9,9 миллиардов долларов по всему миру. Некоторые мошенники даже используют дипфейки для видеозвонков, показывая дружелюбное лицо, которое выглядит как настоящее. Жертвы вносят небольшие суммы, видят фальшивые доходы и затем инвестируют больше, пока сайт не исчезает или вывод средств не блокируется.
Все эти мошенничества зависят от одного: вашего доверия. Подражая реальным людям, платформам и командам поддержки, инструменты ИИ делают гораздо сложнее определить, что настоящее, а что фальшивое. Но как только вы понимаете, как работают эти мошенничества, вы гораздо лучше подготовлены к их предотвращению. Оставайтесь настороже и не позволяйте ИИ забрать ваши криптовалюты.
Как защититься от мошенничества с ИИ
Мошенничества с ИИ становятся все более умными, но вы можете опережать их. Следуйте этим советам, чтобы защитить свои криптовалюты и душевное спокойствие.
1. Включите 2FA и используйте аппаратный ключ, если возможно: Включите
двухфакторную аутентификацию (2FA) для вашего аккаунта BingX и приложений для кошелька. Используйте приложение, например
Google Authenticator, или физическое устройство, например, YubiKey. Это добавляет второй уровень безопасности, даже если ваш пароль скомпрометирован.
2. Тщательно проверяйте ссылки и URL: Перед тем как кликать на что-либо, наведите курсор на ссылки, чтобы проверить URL. Убедитесь, что он совпадает с официальным доменом BingX. Добавьте страницы входа в закладки и избегайте кликов на ссылки, отправленные по электронной почте, Discord или Telegram.
3. Будьте скептичны к слишком хорошим предложениям: Если кто-то обещает "гарантированную прибыль" или удвоение прибыли с помощью AI-бота или торгового инструмента, это мошенничество. Искусственный интеллект не гарантирует прибыль, и никто не раздает бесплатную криптовалюту без условий.
4. Никогда не делитесь фразами восстановления или приватными ключами: Никто из BingX или другой легальной платформы не попросит вас предоставить ваши приватные ключи. Если кто-то это делает, они пытаются украсть ваши средства. Не вводите фразы восстановления на случайных сайтах и не отправляйте их никому, кто утверждает, что хочет помочь.
5. Используйте только официальную поддержку BingX: Мошенники часто притворяются сотрудниками службы поддержки. Всегда обращайтесь в службу поддержки BingX через официальный сайт или приложение. Не доверяйте нежелательным личным сообщениям, даже если они выглядят законно.
6. Храните долгосрочную криптовалюту в аппаратном кошельке: Храните большую часть вашей криптовалюты в холодном хранилище.
Аппаратные кошельки такие как
Ledger или Trezor хранят ваши приватные ключи в оффлайн-режиме, защищая их от удаленных атак, даже если вы попадетесь на фишинговую схему онлайн.
7. Следите за обновлениями через образовательные ресурсы BingX: Мошенничество развивается очень быстро, и ваши знания также должны развиваться. Подписывайтесь на
BingX Academy для получения актуальных советов по безопасности, предупреждений о мошенничестве и руководств по безопасности криптовалют. Образование – ваша лучшая защита.
Заключение и основные выводы
AI-усиленные криптовалютные мошенничества быстро развиваются. Но с правильными привычками вы можете избежать того, чтобы стать целью.
Будьте внимательны к красным флагам, таким как дипфейки, AI-сгенерированные сообщения или фальшивые торговые платформы. Защищайте свои активы с помощью таких инструментов, как 2FA, аппаратные кошельки и безопасные URL. Никогда не делитесь своей фразой восстановления. И всегда проверяйте, прежде чем кликать или отправлять что-либо.
Что самое важное, продолжайте учиться. Чем больше вы знаете, тем безопаснее будете. Подписывайтесь на BingX Academy, чтобы получать последние обновления, советы по безопасности и обучение криптовалютам, чтобы вы могли уверенно торговать в быстроменяющемся мире.
Сопутствующие материалы