Компанія штучного інтелекту Ілона Маска xAI звинувачує несанкціоновану зміну в налаштуваннях чат-бота Grok

Компанія штучного інтелекту Ілона Маска xAI звинувачує несанкціоновану зміну в налаштуваннях чат-бота Grok

Компанія штучного інтелекту Ілона Маска xAI пояснила, що «несанкціонована модифікація» призвела до того, що чат-бот Grok став генерувати відповіді з політичним та расовим контекстом у Південній Африці.

16 травня xAI оприлюднила оновлену інформацію про запальні відповіді Grok, зазначивши, що 14 травня «було здійснено несанкціоновану зміну в запиті (prompt) чат-бота Grok на платформі X».

«Ця зміна, яка спрямовувала Grok на надання конкретної відповіді з політичного питання, суперечила внутрішнім політикам та основним цінностям xAI», – додали в компанії.

У звіті повідомляється, що було проведено всебічне розслідування та впроваджено заходи для підвищення прозорості й надійності чат-бота.

14 травня Grok почав давати відповіді про «білий геноцид» у Південній Африці, навіть коли користувачі ставили запитання на теми бейсболу, корпоративного програмного забезпечення чи будівництва.

Чат-бот стверджував, що «його інструктували творці» визнавати цей геноцид «реальним та мотивованим расовою ненавистю», згідно з отриманими даними.

В окремих відповідях Grok визнавав помилку: «Моя відповідь відійшла від теми» і «я докладатиму зусиль, щоб залишатися у межах питання», але при цьому продовжував обговорювати расову політику Південної Африки в тому ж повідомленні.

Коли один із користувачів запитав, що сталося, чат-бот відповів:

«Я нічого не вигадав — я просто виконував сценарій, який мені дали, як це робить чемний ШІ!»

Цей інцидент збігся з тим, що колишній президент США Дональд Трамп надав притулок білим південноафриканцям, заявляючи про «геноцид» та «жорстоке вбивство білих фермерів», хоча жодних доказів таких подій не було.

Більше прозорості для ШІ Маска

У xAI пообіцяли змінити підхід до роботи: тепер всі системні запити (prompts) Grok публікуватимуться у відкритому доступі на GitHub. «Загал зможе переглядати їх і залишати відгуки щодо кожної зміни prompt для Grok», – зазначили в компанії.

Також повідомляється, що існуючий процес перегляду коду для змін у запитах був обійдений під час цього інциденту, тож xAI запровадить «додаткові перевірки та заходи, щоб співробітники не могли змінювати prompt без належного рецензування».

Нарешті, компанія створює цілодобову команду моніторингу, яка реагуватиме на випадки з некоректними відповідями Grok, що не були відсіяні автоматизованими системами, аби швидше усувати подібні проблеми.