ИИ поддельные боевые изображения наводняют сеть: как дезинформация об иранском конфликте захватывает социальные сети

ChainNewsAbmedia

В 2022 году, когда началась война между Россией и Украиной, социальные сети были заполнены низкокачественными фейковыми изображениями — будь то фотоманипуляции, созданные в Photoshop, или неправильно маркированные кадры из видеоигр, фильмов или старых новостей. Сегодня те же методы вновь используются в контексте конфликта в Иране, но на этот раз появился новый тип обмана, который в 2022 году еще не был широко распространен: AI-инструменты, доступные любому желающему, позволяют легко создавать высококачественные видео и изображения, которые трудно отличить от настоящих.

Профессор цифровой криминалистики из Калифорнийского университета в Беркли Хани Фарид отметил, что десять лет назад подобные фейки были редкими и быстро разоблачались; сейчас же их сотни, и степень их реалистичности поражает. «Они не только выглядят правдоподобно, но и продолжают развиваться — глубоко влияют на людей. Люди верят и продолжают распространять их.»

Распространение генеративного AI значительно снизило порог для создания подделок

Ведущий журналист BBC Verify, Шаян Садаризаде, который давно занимается отслеживанием фейковых новостей с полей боевых действий, заявил, что за последний год ключевым изменением стало значительное снижение порога доступа к генеративному AI: «Теперь любой может создавать очень убедительные видео и изображения, которые выглядят как крупные боевые сцены, и их трудно отличить от настоящих невооруженным глазом или непрофессионалом.»

Менее чем через две недели после начала конфликта в Иране эксперты, включая Садаризаде, подтвердили, что на различных платформах было собрано миллионы просмотров нескольких AI-сгенерированных фейковых видео.

Какие фейковые изображения сейчас распространяются?

Обнаруженные AI-фальсификации охватывают широкий спектр, включая:

Вымышленные кадры ракетных обстрелов Ирана по Тель-Авиву

Панические сцены бегства людей с аэропорта Тель-Авива во время атаки

Видео, где американские спецназовцы ведут под охраной иранских солдат

«Видео с камер наблюдения», утверждающие, что иранские военные объекты были разрушены (три из них — AI-сгенерированные, одно — реальное событие прошлого года)

Движущиеся кадры американских войск на земле в Иране

Обломки американского вертолета, проходящие по улицам Тегерана

Что касается статичных изображений, то появились кадры американских баз и посольства США, охваченных огнем после атаки Ирана, изображение, где верховный лидер Хаменеи прижат к обломкам, а также сцены скорби и похорон погибших иранских граждан. Даже некоторые СМИ, связанные с иранским правительством, публиковали поддельные спутниковые снимки, якобы показывающие повреждения американской базы в Бахрейне.

Это лишь вершина айсберга — на данный момент распространяется множество фейков, связанных с Ираном.

Недостаточный контроль платформ усложняет борьбу с фейками

Несмотря на то, что Садаризаде и его коллеги ежедневно разоблачают новые фейки, их количество растет быстрее, чем удается их опровергать, а уровень реалистичности таков, что обычные пользователи с трудом могут отличить их при быстром просмотре.

Многие широко распространенные фейки явно исходят от аккаунтов, поддерживающих Иран, с целью пропаганды. Но мотивы создания других фейков зачастую трудно определить — это может быть ради трафика, влияния или прибыли, а может, потому что создание таких материалов стало очень простым.

Фарид отметил, что нынешняя ситуация очень сложная: «Контент становится все более правдоподобным, их количество растет, и они проникают все глубже — это реальность нашего времени, и она очень хаотична.»

Платформа X на прошлой неделе объявила, что если платные авторы публикуют неотмеченные AI-источники боевых видео, их доходы будут приостановлены на 90 дней, а при повторных нарушениях — аккаунт будет заблокирован навсегда. Однако Фарид сомневается в эффективности этой меры, а большинство пользователей X вообще не участвуют в платных программах для создателей. TikTok и Meta (владеющая Facebook и Instagram) не прокомментировали ситуацию для CNN.

Еще более тревожно, что собственный AI-чатбот X, Grok, неоднократно критиковался Садаризаде за то, что он, наоборот, мешает проверке фактов — он ошибочно сообщает пользователям, что несколько AI-сгенерированных видео являются реальными.

Как не попасться на ложь?

Фарид признает, что даже несколько месяцев назад известные методы распознавания AI-фейков, например, по количеству пальцев или пропорциям тела, уже не работают, поскольку современные AI исправили эти очевидные ошибки.

Он советует получать информацию только из надежных источников — проверенных новостных медиа, а не от незнакомых аккаунтов в соцсетях. «В периоды глобальных конфликтов соцсети — не лучший источник информации.»

Для тех, кто все же часто пользуется соцсетями, эксперт рекомендует:

Замедлиться: при виде сенсационных боевых кадров сначала потратьте несколько секунд на проверку

Обратить внимание на детали: синхронность звука и изображения, соответствие характеристик кадра реальной ситуации, наличие водяных знаков или ошибок AI

Обратиться к профессиональным фактчекерам: проверить, есть ли мнения экспертов или авторитетных СМИ по данному видео

Обратить внимание на комментарии: иногда обычные пользователи могут указать на ошибки или несоответствия

Использовать AI-инструменты для проверки: хотя они не идеальны, все же могут помочь

Тревожные перспективы и будущие вызовы

Садаризаде призывает всех «учиться видеть» и распознавать признаки AI-контента. Но он также признает: «Обнаружение AI-генерированного контента становится все сложнее, и тенденция показывает, что в будущем это будет только усложняться.»

Под давлением постоянного развития генеративных AI и слабого регулирования платформ, цифровая сфера фейковых новостей расширяется с невиданной скоростью, а каждый пользователь смартфона — это участник этой информационной битвы.

Эта статья о распространении AI-фейков в военных изображениях: как ложные новости о конфликте в Иране захватывают соцсети, впервые опубликована на ABMedia.

Посмотреть Оригинал
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.
комментарий
0/400
Нет комментариев