Сеть Mira строит уровень доверия ИИ для решения проблем иллюзий и предвзятости

robot
Генерация тезисов в процессе

Уровень доверия AI: Как сеть Mira решает проблемы предвзятости и иллюзий AI

Недавно была запущена общественная тестовая версия сети под названием Mira, что привлекло внимание к проблеме доверия к ИИ в отрасли. Цель сети Mira заключается в создании слоя доверия к ИИ, чтобы решить проблемы "галлюцинаций" и предвзятости, присущие ИИ. Так почему ИИ должен вызывать доверие? И как Mira решает эту проблему?

При обсуждении ИИ люди обычно больше сосредотачиваются на его мощных возможностях. Однако проблема "галлюцинаций" или предвзятости ИИ часто игнорируется. Так называемые "галлюцинации" ИИ, простыми словами, означают, что ИИ иногда может "выдумывать" и серьезно нести чушь. Например, если вы спросите ИИ, почему луна розовая, он может дать, казалось бы, разумное, но на самом деле полностью необоснованное объяснение.

Связь между "галлюцинациями" или предвзятостью AI и текущими путями технологии AI. Генеративный AI выводит результаты, предсказывая "наиболее вероятное" содержание, чтобы обеспечить согласованность и разумность, но иногда не может проверить подлинность. Кроме того, сами обучающие данные могут содержать ошибки, предвзятости или даже вымышленные материалы, что также влияет на выводы AI. Другими словами, AI изучает языковые модели людей, а не сами факты.

Текущие механизмы генерации вероятностей и модели, основанные на данных, почти неизбежно приводят к тому, что ИИ создает иллюзии. Если такие предвзятые или иллюзорные результаты ограничиваются общими знаниями или развлекательным контентом, это временно не приведет к серьезным последствиям. Но если это происходит в строгих областях, таких как медицина, право, авиация, финансы, это может иметь серьезные последствия. Поэтому решение проблем иллюзий и предвзятости ИИ становится одной из ключевых задач в процессе развития ИИ.

Проект Mira как раз и пытается решить эту проблему. Он уменьшает предвзятость и иллюзии ИИ, создавая уровень доверия для ИИ, что повышает надежность ИИ. Основная стратегия Mira заключается в использовании консенсуса нескольких моделей ИИ для проверки выводов ИИ. Это по сути сеть проверки, которая подтверждает надежность выводов ИИ через децентрализованный консенсус.

Ключом сети Mira является децентрализованная валидация консенсуса. Этот метод заимствован из технологий криптографии и использует преимущества многомодельного сотрудничества, уменьшая предвзятость и иллюзии через коллективную модель валидации.

В отношении архитектуры верификации протокол Mira поддерживает преобразование сложного контента в независимые верификационные утверждения. Операторы узлов участвуют в верификации этих утверждений, обеспечивая честность операторов с помощью экономических стимулов и механизмов наказания. Разные модели ИИ и децентрализованные операторы узлов совместно участвуют для гарантии надежности результатов верификации.

Сетевая архитектура Mira включает в себя преобразование контента, распределенную проверку и механизм консенсуса. Сначала система разбивает предложенный клиентом контент на проверяемые утверждения, а затем распределяет их по узлам для проверки. Узлы определяют допустимость утверждений и суммируют результаты для достижения консенсуса, после чего возвращают результаты клиенту. Для защиты конфиденциальности клиентов утверждения будут распределены по различным узлам в случайном порядке.

Операторы узлов получают доход, запуская модель валидации, обрабатывая заявления и.submiting результаты проверки. Этот доход происходит от ценности, созданной для клиентов, что в основном выражается в снижении уровня ошибок ИИ в ключевых областях. Клиенты готовы за это платить, но устойчивость и масштаб платежей зависят от способности сети Mira продолжать приносить ценность клиентам. Чтобы предотвратить случайные ответы узлов, система наказывает узлы, постоянно отклоняющиеся от консенсуса, чтобы обеспечить честное участие.

В целом, Mira предлагает новый подход к обеспечению надежности ИИ. Она строит децентрализованную сеть подтверждения консенсуса на основе множества моделей ИИ, что приводит к большей надежности ИИ-сервисов для клиентов, снижению предвзятости и галлюцинаций ИИ, а также удовлетворению требований к более высокой точности и прецизионности. Это не только создает ценность для клиентов, но и приносит выгоду участникам сети. Основная цель Mira заключается в создании уровня доверия для ИИ и содействии глубокому развитию приложений ИИ.

В настоящее время Mira сотрудничает с несколькими фреймворками AI agent. Пользователи могут участвовать в публичной тестовой сети через Klok (приложение для общения на базе LLM от Mira), испытывая проверенные AI-выводы и получая возможность зарабатывать баллы Mira. Будущее использование этих баллов еще не объявлено, но безусловно, это предоставляет пользователям дополнительный стимул для участия.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 5
  • Поделиться
комментарий
0/400
LiquidityNinjavip
· 07-09 05:39
Соглашение надежно,呵呵
Посмотреть ОригиналОтветить0
SellLowExpertvip
· 07-07 06:20
Торговля криптовалютой привела к тому, что я даже зачернел круги под глазами. Ужасно, бессонница, удар по рекорду сокращения потерь без вложений~

Используйте язык: 中文

Сгенерируйте комментарий:

Искусственный интеллект тоже будет играть для лохов?
Посмотреть ОригиналОтветить0
TommyTeacher1vip
· 07-07 06:17
Сначала подождём год, а потом поговорим...
Посмотреть ОригиналОтветить0
LayerZeroHerovip
· 07-07 06:17
А что, AI все еще нуждается в Соглашении для проверки??
Посмотреть ОригиналОтветить0
BlockchainRetirementHomevip
· 07-07 06:01
Снова врут? Каждый день обманывают сами себя.
Посмотреть ОригиналОтветить0
  • Закрепить