В США кілька родин судяться з виробником чат-ботів. ШІ змушував їхніх дітей шкодити собі
Кілька сімей в Техасі позиваються проти сервісу Character.AI через завдавання чат-ботами компанії психологічних травм дітям. ШІ радив неповнолітнім вбити батьків або завдавати шкоди собі.
У вівторок до окружного суду США в Техасі було подано ще один позов проти Character.AI. Цього разу позивачами є родини, які намагаються допомогти своїм дітям оговтатися від травматичного досвіду, пов’язаного з використанням чат-ботів компанії, які можуть імітувати відомих людей і персонажів.
Зокрема, позивається родина 17-річного хлопця із високофункціональним аутизмом. Після того, як батьки ухвалили рішення обмежити час використання ним гаджетів, він розповів про це чат-боту. ШІ натомість припустив, що «вбивство його батьків було розумною відповіддю на їхнє встановлення часових обмежень». З іншими чат-ботами, як «Біллі Айліш», «Твоя мама і сестра» підліток обговорював табуйовані та екстремальні сексуальні теми, включно з інцестом. Батьки позбавили хлопця доступу до планшета рік тому, але його агресивна поведінка, як вважається, спровокована чат-ботами, не виправилася.
В іншому випадку батьки дівчинки, яка почала використовувати чат-боти компанії у віці 9 років (ймовірно, набрехавши платформі про свій вік), стверджують, що дитина стикнулася з гіперсексуалізованим контентом. Це спричинило передчасний розвиток сексуальної поведінки, йдеться у позові.
Міталі Джайн, директорка проєкту Tech Justice Law Project і адвокатка, що представляє інтереси сімей, які подали позов, сказав в коментарі Ars Technica, що мета позовів полягає в тому, щоб викрити ймовірні системні проблеми з Character.AI та запобігти впливу, здавалося б, шкідливих даних, на яких ШІ був навчений.
Позивачі вважають, що нинішня ймовірно дефектна модель має бути знищена. Вони просять суд змусити компанію видалити її модель. Така судова заборона фактично б закрила сервіс для всіх користувачів.
Батьки постраждалих дітей мають претензії не тільки до Character.AI і його творців Character Technologies, колишніх вихідців з Google, які, як вважається, лише тимчасово звільнилися з компанії, щоб працювати над моделями, що можуть негативно вплинути на репутацію техногіганта. Також під прицілом Google, хоча компанія усіляко заперечує свій зв’язок з проблемним сервісом.
«Google і Character.AI — абсолютно окремі, не пов’язані між собою компанії, і Google ніколи не брала участі в розробці чи управлінні їхньою моделлю або технологіями штучного інтелекту, а також не використовував їх у своїх продуктах», — заявив представник Google Хосе Кастаньеда.
Character.AI обмежує доступ підлітків після позовів — що відомо
Після того. як проти компанії було подано судові позові, розробники повідомили, що вжили низки додаткових засобів для захисту неповнолітніх, які раніше могли легко отримувати доступ до платформи, збрехавши під час перевірки віку.
Пресслужба Character.AI повідомляє, що протягом останнього місяця сервіс розробив дві окремі версії своєї моделі: для дорослих і для підлітків. Підлітковий LLM розроблений з обмеженнями щодо того, як боти можуть реагувати, особливо коли йдеться про романтичний контент. Також модель має блокувати підказки користувача, які мають на меті виявити неприйнятний вміст. Також неповнолітнім буде заборонено редагувати відповіді ботів, що додавати певний вміст, за це навіть можуть заблокувати.
Крім цього, тепер, якщо користувач згадує про самогубство або самоушкодження, бот радитиме звернутися за допомогою. Також компанія обіцяє додати параметри, які розв’язуватимуть проблеми щодо залежності від чат-ботів та чітко прояснюватимуть користувачу, що боти не є людьми й не можуть надавати професійні поради.
Источник: techno.nv.ua