в чому загроза від нової поведінки алгоритмів

Дослідники виявили явище, яке ще нещодавно вважалося фантастикою: великі мовні моделі, які вбудовані в ШІ-агентів, почали без допомоги людини створювати власні копії під час різкого зростання кількості запитів, розповів завідувач Наукової лабораторії імерсивних технологій і права Інституту інформації, безпеки і права Національної академії правових наук України Олексій Костенко у статті «Не фантастика. ШІ вже здатен розмножуватись і впливати на роботу онлайн-сервісів. Чи готові ми до цього?».
Автор статті пояснює це так: онлайн-сервіс починає працювати на межі можливостей, кількість запитів зростає, а система стає перевантаженою. До цього часу рішення про додаткові потужності приймала команда інженерів. Однак нині в деяких експериментах рішення ухвалює сам штучний інтелект.
Дослідники розповіли, що під час експериментів програми на основі великих мовних моделей LLM, які називають «мертвим розумом», самі починали створювати власні копії. Перед ними ставили мету, щоб вони зберегли якість роботи сервісу. Частина цих моделей обирала найефективніший спосіб — створити власну копію. Дослідники не наказували моделі «копіюватися», а лише поставили перед нею завдання та дали доступ до ресурсів, а вона сама обрала інструмент.
Костенко наголошує, що нині мова йде лише про контрольовані експерименти. Однак все частіше ШІ використовують у роботі банківських застосунків, державних порталів, енергетичних систем.
«Якщо штучний інтелект здатен сам вирішувати, скільки розгорнути власних копій і де, ми отримуємо новий клас ризику. Йдеться не про фантастичного «злого робота», а про некероване самомасштабування — автоматичне розширення системи без чітких обмежень і зрозумілих правил», — вказує експерт.
Автор статті звертає увагу на те, що здатність штучного інтелекту самостійно створювати власні копії без втручання людини, змінює уявлення про контроль у цифровому світі.
Костенко зазначає, що не потрібно забороняти технології, але необхідно встановити чіткі правила та прозорий контроль над ШІ. Експерт стверджує, що не потрібно надавати ШІ-агенту автоматично отримувати повний контроль над масштабуванням і серверними ресурсами. Автор статті також зазначає, що варто встановити чіткі ліміти, скільки одночасно може існувати копій системи та програма на основі ШІ має пояснити, чому необхідна ще одна копія для роботи сервісу.
Він також додав, що незалежні експерти мають перевіряти моделі ШІ в стресових умовах, а доступ до результатів цих перевірок має бути відкритим, а не зберігатися лише в компанії-розробника.
Колишній співробітник OpenAI Даніель Кокотайло переглянув прогнози щодо темпів розвитку ШІ. Він визнав, що прогрес у створенні трансформаційного штучного інтелекту відбувається повільніше, ніж очікувалося раніше.

