Дезинформация распространяется быстрее, чем когда-либо.


Социальные платформы обрабатывают миллионы постов каждую минуту, и ручная проверка фактов просто не успевает.

Именно здесь должна была помочь ИИ.

Но есть один нюанс. Сам ИИ может генерировать неправильную информацию. Большие языковые модели иногда дают уверенные ответы, содержащие фактические ошибки или вымышленные источники. Эти галлюцинации затрудняют использование ИИ как единственного решения проблемы дезинформации.

Это вызов, с которым пытаются справиться такие проекты, как Mira.

Mira вводит слой проверки, специально разработанный для выводов ИИ. Вместо того чтобы принимать ответ модели за окончательный, система разбивает содержание на меньшие фактические утверждения, которые можно оценить независимо.

Каждое утверждение затем проверяется несколькими моделями ИИ, работающими в децентрализованной сети.

Если эти модели достигнут согласия, утверждение считается подтвержденным. Если они расходятся во мнениях, система помечает информацию как неопределенную, а не представляет ее как факт. Этот процесс превращает ответы ИИ из вероятностных догадок в результаты, которые были коллективно проверены.

Для дезинформации такой подход может быть мощным.

Представьте новостную статью, пост в соцсетях или исследовательское резюме, сгенерированные ИИ. Вместо немедленной публикации содержимое может пройти через сеть проверки. Отдельные утверждения будут проверены, подтверждены или помечены как сомнительные, прежде чем попасть к публике.

Архитектура напоминает консенсус блокчейна.

Так же, как децентрализованные валидаторы подтверждают транзакции, распределенные модели ИИ подтверждают точность информации. Надежность достигается за счет согласия независимых проверяющих, а не доверия к одной системе.

ИИ больше не будет просто генератором контента. Он может стать частью инфраструктуры, которая проверяет утверждения, прежде чем они широко распространится.

Полностью остановить дезинформацию, возможно, невозможно.

Но сети проверки, такие как Mira, предполагают будущее, в котором ИИ помогает фильтровать неточную информацию до того, как она распространится в масштабах.
MIRA-4,35%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить