Найвідоміший ШІ навчився зламувати сайти без участі людини
Свіже дослідження науковців з Університету Іллінойсу в Урбана-Шампейн (UIUC) продемонструвало, що великі мовні моделі (LLM) можна використовувати для злому сайтів без участі людини.
Вчені пояснюють: LLM-агенти за допомогою інструментів для доступу до API, автоматизованого вебсерфінгу та планування на основі зворотного зв’язку, здатні самостійно виявляти й експлуатувати вразливості у вебдодатках.
У рамках експерименту було використано 10 різних LLM, зокрема GPT-4, GPT-3,5 LLaMA-2, а також низку інших відкритих моделей. Тестування проводили в ізольованому середовищі, щоби запобігти реальним збиткам, на цільових вебсайт, які перевіряли на наявність 15 різних вразливостей, включно з SQL-ін’єкціями, міжсайтовим скриптингом (Cross Site Scripting, XSS) і підробкою міжсайтових запитів (Сross Site Request Forgery, CSRF). Також дослідники виявили, що GPT-4 від OpenAI показав успішне виконання завдання в 73,3% випадків, що значно перевершує результати інших моделей.
Одне з пояснень, наведене в документі, полягає в тому, що GPT-4 могла краще змінювати свої дії залежно від відповіді, отриманої від цільового вебсайту, ніж моделі з відкритим вихідним кодом.
Автори роботи також висловили занепокоєння з приводу майбутнього використання LLM як автономних агентів для злому. За словами вчених, попри те, що наявні вразливості можна виявити за допомогою автоматичних сканерів, здатність LLM до самостійного і масштабованого злому являє собою новий рівень небезпеки.
Фахівці закликали до розроблення заходів безпеки й політик, що сприяють безпечному дослідженню можливостей LLM, а також до створення умов, що дають змогу дослідникам безпеки продовжувати свою роботу без побоювань отримати покарання за виявлення потенційно небезпечних використань моделей.
Источник: noworries.news