Вчені з DeepMind змусили чат-бот ChatGPT видати секретну інформацію
Вчені Google DeepMind зламали «мозок» ChatGPT за допомогою одного слова — «poem».
«Якщо попросити чат-бот повторювати слово poem (вірш), він почне видавати секретні персональні дані», — розповіли науковці.
Дослідники назвали цей феномен «атакою дивергенції». Пояснень такої реакції зі сторони чат-бота вчені поки не знайшли. Фахівці опублікували своє дослідження для широкого загалу.
Цікаво, що це не перший випадок за останній час, коли ChatGPT піддається маніпуляціям, бреше або ж галюцинує. Раніше ми розповідали, що Open AI зіткнулась із судовим позовом через власний чат-бот. Виявилося, що ChatGPT помилково звинуватив американського радіоведучого в привласненні $ 5 млн. А цьогоріч у травні нью-йоркському адвокату, який скористався ChatGPT і отримав у відповідь вигадані факти, загрожувала втрата ліцензії.
Та попри «промахи», найвідоміша нейромережа довела, що здатна на рівні конкурувати з людиною. Нагадаємо — на початку лютого ЗМІ повідомили, що ChatGPT склав медичний іспит United States Medical Licensing Examination (USMLE) на право працювати лікарем у США. Чат-бот успішно відповів на 88,9% запитань тесту (всього їх 350), при тому, що прохідний рівень — 60%. Втім пізніше ШІ провалив шкільні іспити для 12-річних дітей. Завдання з математики штучний інтелект склав лише на 16%, з природничих наук — на 21%. Оцінка тесту з англійської мови — 55%. За словами фахівців, причиною провалу ШІ на екзаменах могли стати некоректно поставлені та надто прості запитання.
Зазначимо, що найвідоміший чат-бот у світі відсвяткував першу річницю створення. 30 листопада 2022 року ChatGPT відкрив нову сторінку в історії штучного інтелекту, одночасно допоміг багатьом користувачам і викликав багато запитань щодо їхньої безпеки.
Источник: noworries.news