AI чат-боти стають гіршими і деградують з часом — наукові дослідження

Нещодавнє дослідження під назвою “Більші та більш інструктивні мовні моделі стають менш надійними”, опубліковане в журналі Nature Scientific Journal, виявило, що штучні інтелектуальні чат-боти з часом роблять більше помилок, коли випускаються новіші моделі.
Лексін Чжоу, один з авторів дослідження, висунув теорію, що оскільки моделі ШІ оптимізовані для завжди надання правдоподібних відповідей, здавалось би правильні відповіді пріоритизуються та передаються кінцевому користувачу незалежно від точності.
Ці галюцинації ШІ є самопідсилюючими та мають тенденцію накопичуватися з часом — явище, яке посилюється використанням старіших великих мовних моделей для навчання новіших, що призводить до “колапсу моделі”.
Редактор і письменник Матьє Руа застеріг користувачів не надто покладатися на ці інструменти та завжди перевіряти результати пошуку, згенеровані ШІ, на наявність невідповідностей:
“Хоча ШІ може бути корисним для ряду завдань, важливо, щоб користувачі перевіряли інформацію, яку вони отримують від моделей ШІ. Факт-чекінг повинен бути кроком у процесі кожного при використанні інструментів ШІ. Це стає більш складним, коли мова йде про чат-ботів служби підтримки клієнтів.”
Ще гірше, “часто немає способу перевірити інформацію, окрім як запитати самого чат-бота”, стверджує Руа.
Стійка проблема галюцинацій ШІ
Платформа штучного інтелекту Google викликала насмішки в лютому 2024 року після того, як ШІ почав створювати історично неточні зображення. Прикладами цього були зображення кольорових людей як нацистських офіцерів та створення неточних зображень відомих історичних фігур.
На жаль, такі інциденти занадто поширені в поточній ітерації штучного інтелекту та великих мовних моделей. Керівники індустрії, включаючи генерального директора Nvidia Дженсена Хуанга, запропонували пом’якшити галюцинації ШІ, змушуючи моделі ШІ проводити дослідження та надавати джерела для кожної відповіді, наданої користувачу.
Однак ці заходи вже присутні в найпопулярніших ШІ та великих мовних моделях, але проблема галюцинацій ШІ все ще залишається.
Нещодавно, у вересні, генеральний директор HyperWrite AI Метт Шумер оголосив, що нова модель компанії на 70 мільярдів параметрів використовує метод під назвою “Reflection-Tuning” — який, як повідомляється, дає ШІ-боту можливість навчатися, аналізуючи власні помилки та коригуючи свої відповіді з часом.