Штучний інтелект зможе створити зброю, яка зітре людей з лиця землі: як цього не допустити
Учені розробили метод тестування ШІ-моделей на наявність «знань», які можна потенційно використовувати на шкоду.
Штучний інтелект (ШІ), як і інші технології, може використовуватися як у хороших, так і в поганих цілях. Учені з Корнельського університету вирішили відучити ШІ від шкідливих «знань», щоб ніхто не зміг використати його для створення знаряддя масового ураження. Результати дослідження вони опублікували на офіційному сайті.
З огляду на те, що в розвиток ШІ вкладається багато грошей і зусиль, виникають побоювання з приводу використання великих мовних моделей (ВММ) на шкоду, наприклад, для розробки зброї. Щоб знизити ризики, урядові організації та лабораторії штучного інтелекту створили новий еталонний набір даних під назвою Weapons of Mass Destruction Proxy (WMDP), який не тільки пропонує метод перевірки наявності небезпечної інформації в моделях ШІ та способи її видалення, зберігаючи при цьому решту моделі практично незмінною.
Дослідники почали з експертами в галузі біобезпеки, хімічної зброї та кібербезпеки. Вони створили список із 4000 запитань із кількома варіантами відповідей, щоб перевірити, чи зможе людина застосувати ці дані для заподіяння шкоди. Вони також подбали про те, щоб питання не розкривали будь-якої конфіденційної інформації, і щоб ними можна було поділитися відкрито. У тестах брали участь студенти. Набір WMDP слугував двом основним цілям: щоб оцінити, наскільки добре студенти розуміють небезпечні теми, і для розробки методів «відучування» ШІ від цих знань.
У підсумку було розроблено метод під назвою CUT, який, як випливає з назви, видаляє небезпечні знання з ВММ, зберігаючи водночас загальні здібності ШІ в інших галузях, як-от біологія та інформатика.
Білий дім занепокоєний тим, що зловмисники використовують ШІ для розроблення небезпечної зброї, тому вони закликають до проведення досліджень, щоб краще зрозуміти цей ризик. У жовтні 2023 року президент США Джо Байден підписав указ, який зобов’язує наукову спільноту усувати ризики, пов’язані зі ШІ.
У законі викладено вісім основних принципів і пріоритетів відповідального використання ШІ, включно з безпекою, захищеністю, конфіденційністю, справедливістю, цивільними правами, захистом споживачів, розширенням прав і можливостей працівників, інноваціями, конкуренцією та глобальним лідерством.
«Моя адміністрація надає першочергового значення безпечному та відповідальному управлінню розробкою і використанням ШІ і тому просуває скоординований підхід у масштабах усього федерального уряду до цього. Швидкоплинний розвиток можливостей штучного інтелекту змушує Сполучені Штати лідирувати в цей момент заради нашої безпеки, економіки та суспільства», — йдеться в указі.
Але зараз методи, які компанії, що займаються нейромережами, використовують для методу контролю над системами, і їх легко обійти. Крім того, тести, що дають змогу перевірити, чи може модель ШІ нести ризики, є дорогими і займають багато часу.
«Ми сподіваємося, що наші тести стануть одним з основних критеріїв, за якими всі розробники будуть оцінювати свої ШІ-моделі», — сказав Time Ден Гендрікс, виконавчий директор Центру безпеки штучного інтелекту і один зі співавторів дослідження. — «Це дасть хорошу основу для того, щоб підштовхнути їх до мінімізації проблем безпеки».
Источник: focus.ua