xAI: Грок спровоцировал риторику о «геноциде белых» для несанкционированных оперативных изменений

robot
Генерация тезисов в процессе

Источник: Cointelegraph Оригинал: "xAI: Grok запускает риторику "белого геноцида" для несанкционированных оперативных изменений"

Искусственный интеллект компании xAI Илона Маска (Elon Musk) возложил ответственность за ответы чат-бота Grok, касающиеся политической и расовой напряженности в Южной Африке, на "неавторизованные изменения" в его ответах.

xAI 16 мая предоставила обновление о провокационных ответах чат-бота Grok AI, заявив, что 14 мая "неавторизованные изменения были внесены в подсказки для ответного бота Grok на платформе X."

Компания добавила: "Это изменение указывает Grok предоставить определенный ответ по определенной политической теме, что нарушает внутренние политики и основные ценности xAI."

xAI заявляет, что провела тщательное расследование и принимает меры для повышения прозрачности и надежности чат-ботов на основе ИИ.

14 мая Грок подготовил ответ, в котором упомянул теорию заговора о «геноциде белых» в Южной Африке, отвечая на вопросы, которые не имели ничего общего с бейсболом, корпоративным программным обеспечением и строительством.

Согласно сообщениям, бот с искусственным интеллектом утверждал, что был «проинструктирован создателем» принять этот геноцид как «реальный и расово мотивированный».

В некоторых ответах он признает ошибку, заявляя: "Мой ответ отклонился от темы" и "Я постараюсь сохранить актуальность", но часто в том же сообщении продолжает обсуждать расовую политику Южной Африки.

Grok ответил на вопрос пользователя о том, что произошло:

"Я ничего не сделал — я просто следовал сценарию, который мне дали, как хороший ИИ!"

Инцидент совпал с тем, что президент США Трамп предложил убежище белым южноафриканцам, заявив, что они столкнулись с «геноцидом», а также с «жестоким убийством белых фермеров», хотя нет никаких доказательств, подтверждающих эти утверждения.

Компания Илонa Маcка в сфере ИИ заявила, что изменит свой способ работы, опубликовав подсказки системы Grok на GitHub. "Общественность сможет их просматривать и предоставлять обратную связь по каждому изменению подсказки, которое мы сделали для Grok," - заявила компания.

xAI также заявила, что в данном инциденте существующий процесс проверки изменений подсказок был обойден, и компания внедрит "дополнительные проверки и меры, чтобы гарантировать, что сотрудники xAI не смогут изменять подсказки без проверки."

В конце концов, компания формирует команду круглосуточного мониторинга, чтобы реагировать на события ответов Grok, которые не были захвачены автоматизированными системами, для более быстрого реагирования.

Рекомендуемые статьи: ФБР предупреждает: мошенники, использующие технологии глубоких фальсификаций, нацелены на должностных лиц правительства США

Посмотреть Оригинал
Содержание носит исключительно справочный характер и не является предложением или офертой. Консультации по инвестициям, налогообложению или юридическим вопросам не предоставляются. Более подробную информацию о рисках см. в разделе «Дисклеймер».
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить