Самые дикие клипы от бомбардировок Ирана не были захвачены камерами Пентагона или экипажами CNN. Они были приготовлены Google AI Video Maker.
После того, как в начале недели на этой неделе в Иране было ракетно -ракетное заграждение против Израиля, фальшивые видеоролики начали распространяться, как неприятный слух, показывая, что в Тель -Авиве и аэропорту Бена Гуриона предположительно забиты.
Сцены были очень реалистичными, и хотя забастовки были реальными, видео, которые были вирусными по всему Интернету, не были, по словам судебных фирм.
Это состояние войны в 2025 году, где Айгенерированные Deepfakes, Lies, сгенерированная чатботом и видеоигры. используются для манипулирования общественным восприятием с беспрецедентной частотой и проникновением в социальные сети.
Поскольку мир был в воскресенье для ответа Ирана после того, как США напали на ключевые иранские ядерные места, присоединившись к Израилю в самых значительных западных военных действиях против Исламской Республики с момента ее революции в 1979 году, миллионы людей обратились к социальным сетям для обновлений.
Вместо того, чтобы получить правду, многие были вдоха в новом типе дезинформационной кампании.
Кампании иранского тиктока, наблюдаемые в дни, сразу после того, как израильские нанесены на удар по Ирану в 2025 году, развернули пять основных категорий контента, сгенерированного AI.
В одном видео, создавающем раунды, показывает обычный израильский район, внезапно превращенный в зону военных действий, в формате до и после.
🚨🚨⚡ Одна из самых роскошных улиц Тель -Авива — до и после иранских ударов.
От гламура до обломков … за считанные секунды. 💥🇮🇷🇮🇱 pic.twitter.com/wk2e2aqj4h
— Russianews 🇷🇺 (@mog_russen) 19 июня 2025 г.
Другая партия подделок показывает главное аэропорт Тель -Авива, которые разбивают ракеты.
Один клип включает в себя самолет El Al Israel Airlines, охваченный пламенем. Несмотря на то, что он полностью создан компьютером, он все еще достаточно реалистичен, чтобы обмануть, не подвижные люди.
Сложность ошеломляет, отражая огромный прыжок в качественных видео генераторах, показанный в последние месяцы, поскольку Kling 2.1 Master, SeedReam и Google Veo3 генерируют реалистичные сцены с изображением к видео -возможностям, что заставляет модель создавать видео, основанное на реальной реальной картине вместо создания сцен с нуля.
Даже программное обеспечение с открытым исходным кодом, такое как WAN 2.1, популярное среди любителей, использует дополнения, которые создают суперреалистичное видео и повышают качество, одновременно обходя ограничения контента, налагаемые крупными технологическими компаниями.
Эти политические клипы набирают миллионы мнений по всему тиктоку, в то время как Instagram, Facebook и X продолжают продвигать их без перерыва.
Например, видео, опубликованное сегодня, показывающее преувеличение атак Ирана на базы США, было замечено более 3 миллионов раз на X, тогда как фотография изображала Кандидата Оуэнса и Такера Карлсона — юрналистов, которые против участия Трампа в войне — поскольку мусульмане набрали более 371 тысячи просмотров за три дня. Телеграмма накачивает эти подделки и всплывает быстрее, чем платформы могут их закрыть.
Происхождение обмана
Но кто создает все это?
Партизаны с обеих сторон, конечно, и вероятные агенты каждой страны. Пропагандистская война простирается далеко за пределы Ближнего Востока.
Сеть «Pravda» из России загрязняет помощников по ИИ, в том числе чат-бот CATGPT-4 и Meta, превращая их в мундштуки Krspanlin.
NewsGuard, проект, посвященный разоблачению дезинформации в американском дискурсе, оценивает годовой уровень публикации сети Pravda, составляет не менее 3,6 млн. Статьи о проруссии.
В прошлом году сеть произвела 3,6 миллиона штук в 49 странах, используя 150 веб -адресов на нескольких языках.
Согласно исследованию, российская сеть использует комплексную стратегию для проникновения в данные обучения чат -ботов ИИ и сознательно публиковать ложные претензии.
Результат? Каждый крупный чат -бот — хотя исследование не называет имен — пропаганда Правды.
Кампании на Ближнем Востоке демонстрируют, что они сводятся к науке, настраивая контент по языку.
«Содержание арабского и фарси часто способствует региональной солидарности и антиизраильским настроениям; видео на иврите, посвященные психологическому давлению внутри Израиля»,-говорится в отчете Израильского Международного института контртерроризма Израиля.
Другая пропагандистская тактика использует содержание искусственного интеллекта для издевательств израильских чиновников, делая лучшего священнослужителя Ирана как героя.
Эти видео, которые, очевидно, сгенерированы AI и не предназначены для того, чтобы выглядеть реалистичными, часто изображают сцены аятоллы Али Хаменея вместе с премьер-министром израиля Бенджамином Нетаньяху и президентом США Дональдом Трампом, изображающие сценарии, в которых Хаменеи символически унижают или доминирует в одном или обеих фигурах.
Другие DeepFakes сочетают в себе поддельные видео с поддельными голосами, чтобы улучшить различные политические повестки дня.
В одном видео, которое собрало более 18 миллионов просмотров за неделю, представляет реалистичные кадры иранского военного парада с сотнями ракет и голос Хаменеи, угрожая Америке ответом.
Государственные СМИ Ирана вскочили. Ирановое телевидение управляло старыми кадрами лесных пожаров от Чили и передали его, когда израильские города сжигают.
Другие рассказы, изображающие себя как новостные каналы, использовали поддельные видео ИИ о том, как Иран мобилизует свои ракеты.
Готовимся к сегодняшнему удару 🚀 pic.twitter.com/2uenmpd2g0
— Военный комментарий Ирана (@igazanews) 22 июня 2025 г.
С другой стороны, Израиль решил запретить средствам массовой информации контролировать геополитический повествование, побуждая эксперты еще большую дезинформацию и «дегуманизация».
Хотя Израиль сосредотачивается на использовании ИИ для различных целей-в основном для военных стратегий, а не на политической пропаганде-также были случаи, когда актеры используют генеративный ИИ для этих целей, издевающиеся над нынешними и прошлыми аятоллами и распространять свои политические сообщения с помощью AI-видео, а также создания сети AI Bots, чтобы распространять содержание в социальных сетях.
Хаменеи прощается со своими близкими — эксклюзивными! pic.twitter.com/tz0efxuhno
— Джошуа Иерусалима (@IL_US_PATRIOT) 17 ноября 2024 г.
Я обычно воздерживаюсь от публикации сырного искусственного интеллекта, но это чертовски круто. Помните, что мы пришли из длинной линии воинов. Дольше, чем кто -либо, кто жил здесь.
Наши дети будут говорить об этом смелом поколении на протяжении веков. Мы являемся частью истории прямо сейчас. Быть… pic.twitter.com/dqq20lu0le
— Моссад: сатирический и удивительный (@Thspanossadil) 23 июня 2025 г.
56 секунд Хаменеи, будучи смешным
*Satire #khamenei pic.twitter.com/p2cvfyk2nk— ужасное существо 🎃 (@Escapehumanity1) 22 июня 2025 г.
Синтетическая игра Persona — следующий уровень. Это не просто фальшивые изображения профиля — мы говорим об полной искусственной идентичности с жизненной речью, движением и выражениями.
Уже есть инструменты, которые используют передовые технологии для преобразования одного фото и аудиоклипа в гиперреалистичные видео с синтетическими персонажами.
Рынок виртуальных влиятельных лиц, показывает исследовательские данные KBV, может достичь 37,8 млрд. Долл. США к 2030 году, что означает, что ваша любимая личность в социальных сетях, это видео о вашем политическом лидере, в котором говорится что -то компрометирующее, или что очень реалистичное шоу новостей, показывающих сцены от разрушительной атаки, может даже не существовать.
С генеративным ИИ поле битвы расширилось за пределы границ и бункеров в каждом смартфоне, каждом социальном канале и каждом разговоре.
Если даже президент самой могущественной страны в мире может использовать эту технологию без последствий, легко увидеть, как в этой новой войне мы все бойцы, и мы все жертвы.
Под редакцией Себастьяна Синклера и Джоша Квинтнера
