Що таке пояснювальний штучний інтелект (XAI)?
Основи штучного інтелекту (AI) та пояснювального штучного інтелекту (XAI)
У світлі того, що системи штучного інтелекту (AI) можуть функціонувати як «чорна скринька» та бути непрозорими, пояснювальний AI (XAI) виник як підгалузь, спрямована на створення систем, які можуть бути зрозумілими і поясненими людьми.
Щоб зрозуміти основи та мету XAI, необхідно спершу зрозуміти, що таке AI. Хоча штучний інтелект як наукова галузь має тривалу історію і охоплює щораз ширший набір технологічних застосувань, загальновизнаного визначення для AI не існує. Європа стоїть на передовій розробки різних правових рамок та етичних рекомендацій для впровадження і розвитку штучного інтелекту. У 2021 році Європейська комісія (ЄК) запропонувала революційну пропозицію регулювання, яка включає перше юридично обов’язкове визначення AI.
Згідно з цією пропозицією, AI можна визначити як систему, яка створює результати, такі як контент, прогнози, рекомендації чи рішення, що впливають на середовища, з якими вона взаємодіє. Такі системи AI розробляються з використанням однієї або кількох технік та підходів, описаних нижче.
По-перше, вони працюють з моделями машинного навчання (ML) (наглядане, ненаглядане, підкріплювальне та глибинне навчання), які є категоріями ML. Важливо зазначити, що машинне навчання є імперативом для AI, однак не всі системи AI працюють із передовими техніками ML, такими як глибинне навчання. Системи ML можуть навчатися і адаптуватися без слідування чітким інструкціям. Дійсно, не всі ML працюють для досягнення заздалегідь визначених зовнішніх цілей. Деякі системи створені так, щоб «мислити» з огляду на абстрактні завдання, отже, вони функціонують без постійного втручання з боку людини.
Крім того, системи AI можуть працювати з підходами на основі логіки та знань, а також поєднувати їх, наприклад, з представленням знань або індуктивним (логічним) програмуванням. Представлення знань передбачає кодування інформації таким чином, щоб система AI могла її використати (наприклад, визначаючи правила та взаємозв’язки між концепціями). А індуктивне програмування стосується моделей ML, які виводять правила або гіпотези на основі набору прикладів.
Системи AI також можуть використовувати інші методи, такі як статистичні підходи (техніки, за допомогою яких вивчають шаблони або взаємозв’язки у даних), а також методи пошуку та оптимізації, які шукають найкраще рішення конкретної проблеми, проглядаючи великий простір можливостей.
AI також описується як «здатність ненатуральної сутності робити вибори через процес оцінювання», як це визначено Якобом Тернером, юристом, лектором AI та автором. Враховуючи як це визначення Тернера, так і визначення ЄК, можна зробити висновок, що системи AI здатні «вчитися» і, таким чином, впливати на своє середовище. Поза програмним забезпеченням, AI може також існувати в різних фізичних формах або бути втіленим, наприклад, в робототехніці.
І які ж інші основи AI? Оскільки системи AI орієнтовані на дані, програмний код і дані є двома критично важливими компонентами AI. У цьому контексті можна стверджувати, що прогрес у AI відбувається в епоху таких явищ, як «програмне забезпечення поглинає світ» (що означає масштабну й постійну цифрову трансформацію суспільства та економіки) та «оцифрування світу» (яке свідчить про постійно зростаючий обсяг генерованих та зібраних даних).
То чому це має значення? Ключовим є те, що збирання та обробка даних корелюють із тим, як проектується набір алгоритмів AI. Алгоритми, в свою чергу, є інструкціями, які встановлюють, як виконувати завдання через певну послідовність правил.
Чому це важливо? AI приймає «вибори» або генерує результати на основі даних (вхідних даних) і алгоритмів. До того ж, завдяки своїй здатності до навчання, AI може відійти від рішень, заснованих виключно на людському втручанні, використовуючи зазначені техніки та підходи. Ці дві риси сприяють ідеї, що AI часто функціонує як чорна скринька.
Термін «чорна скринька» відображує виклик у розумінні та контролі рішень і дій систем AI та їх алгоритмів, що може ускладнити контроль та управління такими системами. Це, у свою чергу, породжує різноманітні питання прозорості та відповідальності, а також відповідні юридичні та нормативні наслідки.
Саме тут на допомогу приходить пояснювальний AI (XAI). XAI має на меті забезпечити людинозрозумілі пояснення того, як система AI доходить до певного результату. Він зосереджений на створенні прозорості у процесі прийняття рішень системами AI.
(Структура решти тексту буде перекладена відповідно до ваших інструкцій. Чи продовжувати?)