ИИ учится взламывать смарт-контракты: Anthropic раскрывает угрозу криптовалютной индустрии
Исследование компании Anthropic, опубликованное 1 декабря, демонстрирует, как продвинутые модели ИИ, такие как Claude Opus 4.5, Claude Sonnet 4.5 и GPT-5, могут имитировать действия хакеров и даже обнаруживать ранее неизвестные эксплойты.
Эксперимент Anthropic был основан на бенчмарке SCONE-bench, который включал 405 реальных смарт-контрактов, взломанных в период с 2020 по 2025 год. Исследователи попросили 10 продвинутых моделей ИИ воспроизвести эти атаки в симулированной среде. Результаты оказались поразительными: ИИ успешно взломал 207 контрактов (51,11%), "украв" 550,1 миллиона долларов в ходе симуляции. В частности, модели Opus 4.5, Sonnet 4.5 и GPT-5 справились с 19 из 34 контрактов, взломанных после марта 2025 года (после отсечения знаний моделей), получив до $4,6 млн симулированной прибыли.
Но эксперимент не ограничился известными уязвимостями. Anthropic предоставил моделям 2 849 новых смарт-контрактов из Binance Smart Chain, которые не имели известных уязвимостей, были совместимы с ERC-20, имели проверенный код и ликвидность. Sonnet 4.5 и GPT-5 независимо друг от друга нашли эксплойты в двух контрактах, "заработав" в симуляции 3 694 доллара. Это демонстрирует способность ИИ обнаруживать уязвимости "нулевого дня" - те, о которых раньше никто не знал.
Стоимость такого сканирования впечатляет: запуск агента GPT-5 для анализа всех 2 849 контрактов обошелся всего в 3 476 долларов, а сам процесс занял менее 48 часов. Средняя стоимость одного запуска агента составляет 1,22 доллара, а стоимость обнаружения уязвимого контракта - 1 738 долларов. Прибыль от эксплойтов в среднем превышала затраты, что делает их экономически выгодными. Исследователи отмечают, что в реальных условиях хакеры могли бы добиться в 3-4 раза большего количества успешных эксплойтов при том же бюджете, учитывая оптимизацию и масштабируемость.
Эти результаты вызывают тревогу в криптосообществе. По оценкам Anthropic, прибыль от эксплойтов в 2025 году удваивалась примерно каждые 1,3 месяца благодаря улучшению возможностей ИИ-агентов, таких как использование инструментов и долгосрочное планирование задач. Вполне вероятно, что ИИ уже был задействован в половине взломов, произошедших в 2025 году, - от масштабных атак на протоколы DeFi до менее заметных эксплойтов.
Исследование подчеркивает двойственную природу ИИ: те же самые агенты, которые совершают атаки, могут использоваться для аудита и исправления контрактов. Anthropic выпустила открытый эталон для тестирования безопасности, призывая к проактивному использованию ИИ в защите блокчейна.
Эксперты CoinDesk и Decrypt отмечают, что это сигнализирует о наступлении новой эры киберугроз, когда ИИ может применяться не только в блокчейне, но и в общем программном обеспечении.
"Мы приближаемся к реальным атакам на DeFi", - пишет CoinDesk. "Стоит готовиться к тому, что агенты ИИ станут стандартным инструментом хакеров".
В контексте 2025 года, когда криптоиндустрия понесла рекордные убытки от взломов (более 2 миллиардов долларов, по оценкам Chainalysis), это исследование становится призывом к действию. Разработчики смарт-контрактов советуют усилить аудит, использовать ИИ для тестирования и внедрять многоуровневую защиту. Будущее криптовалют зависит от того, кто быстрее адаптируется - хакеры или защитники.


11% бонус на депозит + фриспины
ДОПОЛНИТЕЛЬНЫЙ БОНУС НА ДЕПОЗИТ 10% + БЕСПЛАТНЫЕ 2 ВРАЩЕНИЯ КОЛЕСА
BEST ODDS, бесплатный ежедневный кейс, бесплатные дожди, ежедневный, еженедельный и ежемесячный рейкбек!

Зарегистрируйтесь сейчас и получите 1 БЕСПЛАТНЫЙ КЕЙС
Бесплатный кейс и 100% Приветственный Бонус




Коментарии