Нове покоління штучного інтелекту: аналіз DeepSeek і виклики етичності та безпеки

Це узгоджується з проєктом Nvidia: зробити штучний інтелект доступним для кожного розробника чи науковця, аби вони могли створювати власні AI-додатки. Це і є сенсом проєкту DIGITS, оголошеного на початку січня, який передбачає GPU вартістю $3000 для вашого робочого столу.

Людству потрібні “всі уми на борту”, щоб вирішувати нагальні проблеми нашої цивілізації. Ресурси більше не мають бути бар’єром — час змінювати старі парадигми.

У той же час випуск DeepSeek став сигналом для ретельнішого управління ризиками та відповідального використання штучного інтелекту.

Читайте дрібний шрифт

Усі додатки мають умови використання, які зазвичай ігноруються публікою.

Проте у положеннях про використання DeepSeek містяться деякі тривожні аспекти, які можуть вплинути на вашу конфіденційність, безпеку та навіть вашу бізнес-стратегію:

  • Зберігання даних: Видалення облікового запису не означає, що ваші дані будуть видалені — DeepSeek їх зберігає.

  • Нагляд: Додаток має право здійснювати моніторинг, обробку та збір даних користувача, включаючи чутливу інформацію.

  • Юридична підлеглість: DeepSeek підкоряється законодавству Китаю, що означає, що державні органи можуть за запитом отримати доступ до ваших даних — китайський уряд активно моніторить вашу інформацію.

  • Односторонні зміни: DeepSeek може змінювати умови використання в будь-який час — без вашої згоди.

  • Суперечки та судові справи: Усі претензії та юридичні питання вирішуються відповідно до законодавства Китайської Народної Республіки.

Зазначені аспекти є явними порушеннями Загального регламенту захисту даних (GDPR), а також інших правил конфіденційності та безпеки GDPR, що підтверджується скаргами від Бельгії, Ірландії та Італії, які тимчасово заборонили використання DeepSeek.

У березні 2023 року італійські регулятори тимчасово зупинили використання OpenAI ChatGPT через порушення GDPR, але дозволили його повернення після внесення змін для відповідності. Чи буде DeepSeek здатен відповідати цим вимогам?

Упередження та цензура

Як і інші великі мовні моделі (LLM), DeepSeek R1 демонструє вигадування фактів, містить упередження в своїх навчальних даних, а також відображає політичні погляди Китаю з певних питань, таких як цензура та конфіденційність.

Як компанія з Китаю, це не є несподіванкою. Закон Китаю про генеративний штучний інтелект, який поширюється на розробників і користувачів систем штучного інтелекту, у статті 4 говорить:

Це є правилом цензури. Це означає, що ті, хто розробляє та/або використовує генеративний ШІ, повинні підтримувати “основні соціалістичні цінності” та дотримуватись китайських законів, які регулюють цю тему.

Втім, зазначимо, що інші великі мовні моделі також мають свої упередження та “порядки денні”. Це ще раз підкреслює необхідність довірливого та відповідального підходу до штучного інтелекту, а також відповідального управління ризиками користувачами.

Вразливості в безпеці LLM

LLM можуть бути вразливими до атак з боку зловмисників та мати уразливості в безпеці. Ці проблеми викликають ще більше занепокоєння, оскільки вони впливають на будь-які додатки, створені за допомогою цієї мовної моделі, як організаціями, так і окремими особами.

Компанія Qualys випробувала полегшений варіант DeepSeek-R1 LLaMA 8B на наявність вразливостей, етичних питань та правових ризиків. Модель провалила половину спроб злому (тобто спроб обходу захисних механізмів та етичних правил, вбудованих у великі мовні моделі).

Goldman Sachs розглядає можливість використання DeepSeek, проте модель потребує ретельної перевірки безпеки, зокрема на ін’єкцію запитів та зломи. Це питання безпеки для будь-якої компанії, що використовує модель штучного інтелекту для підтримки своїх додатків, незалежно від того, чи є ця модель розробленою в Китаї чи ні.

Goldman Sachs вживає правильні заходи з управління ризиками, і інші організації повинні наслідувати цей приклад перед тим, як приймати рішення щодо використання DeepSeek.

Висновки

Ми повинні бути пильними та уважними, а також впроваджувати адекватне управління ризиками, перш ніж використовувати будь-яку систему чи додаток на основі штучного інтелекту. Щоб мінімізувати вплив “порядку денного” і цензури, пов’язаної з централізованою розробкою, варто розглянути можливість децентралізованих підходів до розвитку ШІ, зокрема у вигляді децентралізованої автономної організації (DAO). Штучний інтелект не має кордонів. Ймовірно, вже настав час для створення єдиних глобальних регуляцій щодо ШІ.

Автор думки: Мерав Озайр, доктор філософії.

Ця стаття написана виключно в інформаційних цілях і не повинна розглядатися як правова чи інвестиційна порада. Думки, погляди та судження, висловлені в цій статті, належать виключно автору й не обов’язково відображають позицію CryptoAcademy.