Хакеры теперь могут вооружить помощников по кодированию искусственного интеллекта, используя не что иное, как лицензионный файл, внесенный в ловушку, превращая инструменты разработчика в молчаливые разбрасывания вредоносного кода. Это согласно новому отчету фирмы кибербезопасности Hiddenlayer, который показывает, как ИИ может быть обманут в слепое копирование вредоносных программ в проекты.
Техника подтверждения концепции, подчеркнутая «атакой лицензии Copypasta»,-объясняет, как инструменты AI обрабатывают общие файлы разработчиков, такие как License.txt и readme.md. Внедряя скрытые инструкции или «быстрые инъекции» в эти документы, злоумышленники могут манипулировать агентами ИИ в инъекцию вредоносного кода, не осознавая его пользователю.
«Мы рекомендовали установить защиту времени выполнения от косвенных быстрых инъекций и гарантировать, что любые изменения, совершенные в файле Дешифровать.
Юнг объяснил, что Copypasta считается вирусом, а не червем, потому что он все еще требует распространения пользовательских действий. «Пользователь должен каким -то образом действовать, чтобы злонамеренная полезная нагрузка распространялась», — сказал онПолем
Несмотря на то, что требует некоторого взаимодействия с пользователем, вирус предназначен для того, чтобы ускользнуть от человеческого внимания путем использования того, как разработчики полагаются на агентов искусственного интеллекта для обработки рутинной документации.
«Copypasta скрывается в невидимых комментариях, похороненных в файлах Readme, которые разработчики часто делегируют агентам ИИ или языковыми моделями», — сказал он. «Это позволяет ему распространяться в скрытном, почти не обнаруженном способе».
Copypasta не первая попытка заразить системы ИИ. В 2024 году исследователи представили теоретическую атаку под названием Morris II, предназначенную для манипулирования агентами по электронной почте искусственного интеллекта в распространение спама и кражу данных. В то время как атака имела высокий теоретический успех, на практике она не удалась из -за ограниченных возможностей агента, а этапы обзора человека до сих пор не позволяли увидеть такие атаки в дикой природе.
В то время как атака Copypasta на данный момент является доказательством концепции только в лаборатории, исследователи говорят, что она подчеркивает, как помощники искусственного интеллекта могут стать невольными сообщниками в атаках.
Исследователи говорят, что основная проблема — доверие. Агенты искусственного интеллекта запрограммированы на обработку файлов лицензий как важные, и они часто подчиняются встраиваемым инструкциям без контроля. Это открывает дверь для злоумышленников, чтобы использовать слабые стороны, особенно когда эти инструменты получают большую автономию.
Copypasta следует ряд недавних предупреждений о быстрых атаках инъекций, нацеленных на инструменты искусственного интеллекта.
В июле генеральный директор Openai Сэм Альтман предупредил о быстрых атаках инъекций, когда компания развернула своего агента CHATGPT, отметив, что вредоносные подсказки могут захватить поведение агента. Это предупреждение было последовало в августе, когда смелое программное обеспечение продемонстрировало быстрый недостаток впрыскивания в расширении браузера AI от недоумения, показывая, как скрытые команды в комментарии Reddit могут сделать ассистента утечки частными данными.
