Интернет-газета. Псков
16+

СМИ против ИИ: удастся ли отстоять правду?

19 июля 2025 г.

Сегодня часто обсуждаются фейки, дипфейки, мы все еще пытаемся отличить их от правды, хотя получается это всё хуже и хуже. Сгенерированный с помощью ИИ контент вызывает у нас недоверие, ненависть, вражду друг к другу, к СМИ, политикам, бизнесу. Поток лжи нарастает. Все ярче проявляются симптомы, за которыми стоит серьёзная болезнь – если пользоваться аналогиями из медицины, аутоиммунное заболевание, когда организм начинает уничтожать здоровые клетки. Такую аналогию приводит в своём эссе «Искусственный интеллект пишет текст и создает нарративы. Кто верифицирует реальность?» агентство MINDSMITH.

Авторы объясняют: попытки защититься от потока фейков приводят к опасному побочному эффекту - люди начинают с подозрением относиться не только к ложной, но и к правдивой информации, у них снижается доверие к реальным новостям. Явление, когда человек вообще ничему не верит, в исследовании назвали «паралич цинизма».

У человека нет иных способов корректировки картины общей реальности, кроме как через других людей. И если сформировалась установка «я никому не верю» —«это упрощение, доминирующий автоматизм, который ослабляет мышление и снижает адекватность», считает участник исследования Даниил Терентьев, тренер по сложным переговорам, разработчик программ коррекции когнитивных нарушений (цитата здесь и дальше: mindsmith.ru). Более сложный, но адекватный путь – это сомневаться. И сомнения не означают, что человек  не верит. «Сомневаться – это проверять, допуская вероятность того, что информация может оказаться верной», - говорит Терентьев. Потому что если отбросить сомнения, общество окажется парализованным. Невозможно принятие решений, невозможно сотрудничество, невозможен прогресс там, где люди убеждены, что правды не существует вовсе. Цель самых сложных информационных атак — именно такая, они проводятся не для того, чтобы мы убедились в чьей-то правоте, а чтобы перестали доверять любой информации.

ИИ эксплуатирует уязвимости человеческого мышления, заложенные в нас эволюцией. Вместо того чтобы убеждать нас с помощью логики, потому что от человека это требует усилий, ИИ эксплуатирует наши когнитивные искажения. Например, склонность принимать желаемое за действительное, предвзятость суждений, игнорирование информации, которая противоречит нашим убеждениям.

Из исследования: «Социальные сети и ИИ-алгоритмы превратили эту склонность в самоподдерживающийся механизм: они создают для нас «информационные пузыри» и «эхо-камеры», где каждое взаимодействие вознаграждается дофамином, закрепляя наши убеждения и делая нас глухими к альтернативным точкам зрения. Через постоянное взаимодействие и анализ обратной связи ИИ-системы динамически подстраивают генерируемый контент, чтобы он все точнее соответствовал когнитивным моделям и предпочтениям пользователя. Этот процесс  активно  усиливает и закрепляет наши предубеждения, делая влияние ИИ «постоянным и глубоким». Кроме того, ИИ-системы, особенно в новостных рекомендациях, могут использовать конкретные когнитивные искажения для манипуляции. Например, эффект якоря, когда первое полученное сообщение непропорционально влияет на последующие решения, или эффект фрейминга, когда способ подачи информации определяет наше к ней отношение».

Если смотреть шире, идёт разрушение связей между фактами. Раньше медиа и журналисты фильтровали и помещали информацию в определенный контекст, создавая темы для общественного обсуждения.  Сегодня ИИ-инструменты и социальные платформы позволяют обходиться без посредников. Вместо разнообразия мнений мы получаем бесконечное повторение одних и тех же трендов, мемов и нарративов. Уникальный человеческий опыт вытесняется сгенерированным, оптимизированным под клики контентом. С точки зрения бизнеса это выгодно. Социальные платформы всячески поощряют рост аудитории и её вовлечённость, и готовы поступиться безопасностью. Модерация контента — это в первую очередь экономическая проблема, а не технологическая, « поскольку эффективный контроль противоречит их стремлению к росту любой ценой. Ответственность за последствия приносится в жертву метрикам, а декларации о безопасности нередко остаются лишь на бумаге».  

Зато для пользователей ситуация опасная, потому что мы как бы выпадаем из общей реальности в свою личную, а из неё смотрим на альтернативные точки зрения чуть ли не как на заговор: « ИИ создает для каждого из нас отдельную, непротиворечивую внутри себя, но полностью оторванную от общей реальности вселенную. ИИ-системы, особенно в политике или религии, могут генерировать и распространять теории заговора или морализаторские нарративы, которые создают глубокое чувство принадлежности к «своей» группе и ненависти к «чужой». Эти истории по своей природе «самогерметичны» - любое опровержение воспринимается как часть заговора».

Главную угрозу в  MINDSMITH видят не в качестве отдельных дипфейков, хотя это тоже признаётся опасным трендом, а в способности ИИ генерировать миллионы версий персонализированной лжи в реальном времени. И не в том, что машины станут слишком умными и обретут сознание, а в том, что глупеем мы. Нашей интуиции уже недостаточно. Пресловутого критического мышления тоже. Авторы исследования предлагают взять на вооружение техники манипуляций, попробовать себя в роли создателей фейков в интерактивной игре Bad News Game. И пытаться задавать себе вопросы: кто стоит за опубликованной информацией, какие доказательства приводятся, что говорят другие авторитетные источники. Этот навык – видеть за частностями общие тенденции, медиаграмотность  - помогает распознавать фейки. Но увы, даже если мы понимаем, что информация ложная, она все равно продолжает влиять на наши выводы и решения. Просто распознать «вирус» недостаточно, чтобы полностью избавиться от его воздействия.

Из исследования: «На уровне общества этот эффект проявляется через еще более опасный механизм — «эффект нормализации». Самый разрушительный итог информационной атаки — не переубедить убежденных, а сдвинуть «окно Овертона» для сомневающихся. Когда человек постоянно сталкивается с токсичными или радикальными идеями, он не обязательно начинает в них верить — он начинает воспринимать их как «нормальную» часть информационного поля. Ненависть и ложь становятся привычным фоном, что снижает порог критического восприятия и готовит почву для будущих, более агрессивных манипуляций».

Противостоять насаждаемым нарративам можно только при умении стратегически мыслить и оценивать ситуацию, видеть, кто проводит информационную кампанию и какие цели она может преследовать. Тут на СМИ ложится большая ответственность: готовы ли они и дальше предлагать аудитории аналитические материалы, мысли, комментарии и оценки экспертов. На данном этапе живое человеческое участие и вовлечённость в работу медиа необходимы, но на будущее в MINDSMITH прогнозируют развитие технологий когнитивной защиты, синергию человека м машины, которые общими усилиями смогут противостоять информационным атакам. Системы обработки данных будут  анализировать огромные массивы данных, в том числе на форумах, в соцсетях для выявления угроз, устанавливать неочевидные связи между действующими субъектами, инструментами и целями, прогнозировать векторы атак: «В этой гибридной модели машина берет на себя рутинную работу по мониторингу и обнаружению аномалий на скорости, недоступной человеку, а человек, вооруженный этими данными и собственным стратегическим мышлением (третьей линией когнитивной обороны), верифицирует контекст и принимает окончательное решение».

Кирилл ГРАДОВ

«Прессапарте»/Pressaparte.ru

Вам также может быть интересно:

Как не попасть в ловушку фейковых новостей

Пора идти с кружкой. Общественные медиа – вопрос жизни и смерти

Призыв поддержать свободную и независимую журналистику прозвучал в мире

591 просмотр.
Теги: Медиа

Поделиться с друзьями:

Поиск по сайту

Заказать книгу