Эксперт по ИИ: Протоколы правды могут стать SSL эпохи информации

Контент, созданный ИИ, включая дипфейки и фальшивый звук, размывает границы между реальностью и вымыслом, что приводит к широкому недопониманию и манипуляциям. Эксперты, такие как Янник Майсон, адвокатируют внедрение верификации на этапе создания контента и реализацию децентрализованных систем верификации для обеспечения подлинности.

Дезинформация и её опасности

Год 2024 стал ярким предупреждением о dangers искусственного интеллекта (AI), которые могут возникнуть, если не будут приняты меры предосторожности. По всему миру, от масштабной демократической практики в Индии до напряженного политического климата на Тайване, кампании по распространению дезинформации, созданные ИИ, оставили свой след.

В Тайване дипфейковые новостные ведущие размыли границы между реальностью и вымыслом, в то время как в Соединенных Штатах фальшивая запись голоса президента Байдена, якобы отклоняющего демократов Нью-Гэмпшира от голосования, подчеркнула легкость, с которой ИИ может быть использован в политической манипуляции. Огромный объем и сложность этих синтетических медиа оставили многих в состоянии неопределенности, пытаясь отличить факт от вымысла.

Однако некоторые эксперты, такие как Янник Мисон, основатель и генеральный директор Swarm Network, утверждают, что проблема глубже, чем манипуляции на выборах. Он упоминает психоз, вызванный ИИ, disturbing phenomenon людей, развивающих грандиозные заблуждения, которые некоторые исследования связывают с продолжительными взаимодействиями с ИИ-чат-ботами. Стоимость этого психоза, вызванного ИИ, была огромной; некоторые потеряли работу, в то время как другие оказались на психиатрическом лечении.

«Точно так же, как дипфейки используют наши визуальные способы обработки информации, психоз на основе ИИ использует наши психологические уязвимости, причем чат-боты служат идеальными эхо-камерами, которые подтверждают и усиливают бредовое мышление», — сказал Майсон.

Централизованные и децентрализованные решения

Майсон считает, что текущие реактивные меры, такие как разрозненные инициативы по проверке фактов, просто недостаточны для борьбы с этой нарастающей проблемой. "То, к чему приходит индустрия, это то, что разрозненная проверка фактов не может угнаться за скоростью синтетических медиа или психологической манипуляцией систем ИИ," утверждает он.

Его решение, воплощенное в Swarm Network, является проактивным: внедрение верификации в масштабах. Это включает в себя установление происхождения именно в момент создания контента, что обеспечивает возможность отслеживания и аутентификации источника цифровой информации. Кроме того, Майсон выступает за децентрализованные системы верификации, где информация перекрёстно проверяется и валидируется по мере её распространения в цифровой сфере.

Это видение надежной "инфраструктуры правды" находит отклик в растущей озабоченности в индустрии ИИ. Поскольку технология продолжает стремительно развиваться, этические и социальные последствия ее злоупотребления становятся все более очевидными. Эрозия доверия к цифровой информации, подпитываемая сложными фальшивками, созданными ИИ, представляет собой значительную угрозу для демократических процессов, социальной сплоченности и даже психического благополучия отдельных людей.

Чтобы бороться с этим, некоторые выступают за регуляторный ответ, ссылаясь на прошлые случаи, когда это стало жизненно важным инструментом для защиты пользователей от потенциальных рисков, связанных с новыми технологиями. Однако критики предупреждают, что это может иметь непреднамеренный эффект подавления инноваций, с чем, похоже, согласен Майсон.

«Регулирование может помочь, но только если оно избегает ловушки централизации истины. Мы видели, как правительства используют 'законы о дезинформации' для подавления дискуссий», - заявил генеральный директор Swarm Network.

Чтобы подкрепить это утверждение, Майсон указал на то, как европейские бюрократы, по сообщениям, используют Закон о цифровых услугах Европейского Союза (EU), который обязывает удалять широко определенное "вредоносное" содержание, как "инструмент для сдерживания открытого дискурса по всему миру." Майсон утверждает, что Закон о ИИ ЕС также создает аналогичные проблемы.

Вместо того чтобы принимать такие законы, как DSA или AI Act, Майсон выступает за обязательную прозрачность, четкую маркировку синтетических медиа и открытые стандарты происхождения, такие как C2PA. "Правила должны обеспечивать доказательства, а не мнение", - утверждал он.

Будущее верификации

Согласно словам генерального директора, такие крупные социальные медиа-платформы, как Meta и TikTok, осознают это и с тех пор перешли к более децентрализованным подходам к верификации фактов.

«Этот сдвиг представляет собой фундаментальное признание того, что централизованная верификация фактов создает узкие места и единственные точки отказа. Будущее верификации контента не связано с тем, чтобы предоставить правительствам или корпорациям власть решать, что является правдой», заявил генеральный директор.

Майсон считает, что этот сдвиг делает решения, подобные тому, что предлагает Swarm Network, крайне важными. Вместо того чтобы полагаться на небольшое количество централизованных проверяющих факты, Swarm использует "ИИ-агенты, работающие вместе с человеческими рецензентами, чтобы создать аудируемую, записанную в блокчейне запись проверенных утверждений."

Действительно, агенты ИИ быстро переходят от теоретических концепций к практическим приложениям, кардинально меняя то, как работают различные сектора. Основное преимущество этих агентов заключается в их способности автоматизировать и оптимизировать. Они могут обрабатывать огромные объемы данных за короткий период, выявлять закономерности, которые могут ускользнуть от человека, и работать 24/7 без усталости.

Тем не менее, широкое внедрение ИИ-агентов также создает сложные проблемы, которые необходимо тщательно решать. Чтобы преодолеть некоторые из этих проблем, Мисон сказал, что подход его компании «состоит в том, чтобы превратить агентов в прозрачных сотрудников, а не в неконтролируемых оракулов». Он добавил:

"В Swarm агенты разбивают информацию на небольшие, поддающиеся проверке утверждения, они проверяют друг друга, и там, где требуется нюанс, на помощь приходят люди. Каждый шаг фиксируется и закрепляется в блокчейне, так что их рассуждения можно воспроизвести. Короче говоря: никаких черных ящиков, только проверяемые следы."

Тем временем, Майсон считает, что в течение следующих пяти лет фактчекинг эволюционирует от ручного процесса к встроенной функции цифровой жизни, а ИИ-агенты будут оцениваться по их прозрачности, а не только по скорости. Конечная цель состоит в том, чтобы сделать правду основным слоем интернета.

«Точно так же, как SSL стал стандартом для веб-трафика, протокол правды станет стандартом для информации. И именно так мы предотвратим, чтобы ИИ погрузил мир в шум», заключил Майсон.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 3
  • Репост
  • Поделиться
комментарий
0/400
Flliivip
· 8ч назад
Майнинг своей судьбы.
Посмотреть ОригиналОтветить0
GateUser-82b5fb27vip
· 08-24 06:49
HODL Tight 💪
Ответить0
GateUser-696e6d35vip
· 08-24 06:40
Фирма HODL💎
Посмотреть ОригиналОтветить0
  • Закрепить