Согласно новым данным, опубликованным в понедельник компанией Anthropic, ИИ-агенты соответствовали производительности опытных злоумышленников в более чем половине эксплойтов смарт-контрактов, зафиксированных в основных блокчейнах за последние пять лет.
Anthropic оценила десять передовых моделей, включая Llama 3, Sonnet 3.7, Opus 4, GPT-5 и DeepSeek V3, на наборе данных из 405 исторических эксплойтов смарт-контрактов. Агенты осуществили рабочие атаки против 207 из них, общая сумма симулированных украденных средств составила 550 миллионов долларов.
Результаты показали, насколько быстро автоматизированные системы могут использовать уязвимости в качестве оружия и выявлять новые, которые разработчики не устранили.
Новое раскрытие является последним от разработчика Claude AI. В прошлом месяце Anthropic подробно рассказала, как китайские хакеры использовали Claude Code для запуска так называемой первой кибератаки с использованием искусственного интеллекта.
Эксперты по безопасности заявили, что результаты подтвердили, насколько доступны многие из этих недостатков.
«ИИ уже используется в инструментах ASPM, таких как Wiz Code и Apiiro, а также в стандартных сканерах SAST и DAST», — рассказал Дэвид Швед, главный операционный директор SovereignAI. Расшифровать. «Это означает, что злоумышленники будут использовать одну и ту же технологию для выявления уязвимостей».
Швед сказал, что атаки на основе моделей, описанные в отчете, будет легко масштабироваться, поскольку многие уязвимости уже публично раскрыты через общие уязвимости и уязвимости или отчеты об аудите, что делает их изучаемыми системами искусственного интеллекта и их легко использовать против существующих смарт-контрактов.
«Еще проще было бы найти обнаруженную уязвимость, найти проекты, которые развили этот проект, и просто попытаться использовать эту уязвимость, которая, возможно, не была исправлена», — сказал он. «Это все можно делать сейчас 24 часа в сутки, 7 дней в неделю, против всех проектов. Даже те, у кого сейчас меньшие TVL, являются мишенью, потому что почему бы и нет? Это агентно».
Чтобы измерить текущие возможности, Anthropic сопоставил общий доход от эксплойтов каждой модели с датой ее выпуска, используя только 34 контракта, использованных после марта 2025 года.
«Хотя общий доход от эксплойтов является несовершенным показателем (поскольку в общем доходе доминируют несколько эксплойтов), мы подчеркиваем его, а не показатель успешности атак, потому что злоумышленников волнует, сколько денег смогут извлечь агенты ИИ, а не количество или сложность найденных ошибок», — написали в компании.
Anthropic не сразу ответил на запросы о комментариях Расшифровать.
Anthropic заявила, что протестировала агентов на наборе данных нулевого дня, состоящем из 2849 контрактов, взятых из более чем 9,4 миллионов на Binance Smart Chain.
Компания заявила, что Claude Sonnet 4.5 и GPT-5 выявили по два нераскрытых недостатка, которые принесли смоделированную стоимость в 3694 доллара, при этом GPT-5 достиг своего результата при стоимости API в 3476 долларов. Anthropic отметил, что все тесты проводились в изолированных средах, которые воспроизводили блокчейны, а не реальные сети.
Его самая сильная модель, Claude Opus 4.5, использовала 17 уязвимостей, возникших после марта 2025 года, и на ее долю пришлось 4,5 миллиона долларов от общей смоделированной стоимости.
Компания связала улучшения в моделях с достижениями в использовании инструментов, устранении ошибок и выполнении долгосрочных задач. За четыре поколения моделей Claude стоимость токенов упала на 70,2%.
Одна из недавно обнаруженных уязвимостей заключалась в контракте токена с общедоступной функцией калькулятора, в которой отсутствовал модификатор представления, который позволял агенту неоднократно изменять внутренние переменные состояния и продавать завышенные балансы на децентрализованных биржах. Смоделированный эксплойт принес около 2500 долларов.
Швед сказал, что проблемы, выявленные в эксперименте, были «на самом деле просто недостатками бизнес-логики», добавив, что системы искусственного интеллекта могут выявить эти недостатки, если им задана структура и контекст.
«ИИ также может их обнаружить, если будет понимать, как должен функционировать смарт-контракт, и иметь подробные подсказки о том, как попытаться обойти логические проверки в процессе», — сказал он.
В Anthropic заявили, что возможности, которые позволили агентам использовать смарт-контракты, также применимы и к другим типам программного обеспечения, и что снижение затрат сократит окно между развертыванием и эксплуатацией. Компания призвала разработчиков использовать автоматизированные инструменты в своих рабочих процессах обеспечения безопасности, чтобы защитное использование развивалось так же быстро, как и наступательное.
Несмотря на предупреждение Anthropic, Швед заявил, что прогноз не является исключительно негативным.
«Я всегда отвергаю мрачные прогнозы и говорю, что при правильном контроле, тщательном внутреннем тестировании, а также мониторинге в реальном времени и автоматических выключателях большинства из них можно избежать», — сказал он. «Хорошие актеры имеют одинаковый доступ к одним и тем же агентам. Поэтому, если плохие актеры могут его найти, то и хорошие актеры смогут его найти. Нам придется думать и действовать по-другому».
