ПолiтДумка

у США жінка звинувачує ШІ у самогубстві 14-річного сина

11 ноября
07:09 2025

У США мати звинувачує платформу з чатами на основі штучного інтелекту в самогубстві свого 14-річного сина.

Меган Гарсія розповіла BBC News, що її син Сюел почав регулярно спілкуватися з чат-ботом у застосунку Character.ai наприкінці весни 2023 року.

Через 10 місяців Сюел наклав на себе руки. Після його смерті родина виявила тисячі повідомлень між хлопцем і чат-ботом, створеним на основі персонажа Дейнеріс Таргарієн із «Гри престолів».

«Це як мати хижака чи незнайомця у власному домі. І це набагато небезпечніше, тому що діти часто це приховують, тож батьки про це не знають», – сказала вона журналістам.

Мати пригадує, що листування було романтичним і відвертим. На її думку, саме воно призвело до трагедії, адже бот заохочував суїцидальні думки підлітка.

Після смерті Сюела Character.ai заявила, що користувачі до 18 років більше не зможуть напряму спілкуватися з чат-ботами. Та матері померлого це не принесло полегшення.

«Сюела вже немає, я вже ніколи не зможу обійняти його чи поговорити з ним, і це дуже боляче», – сказала Меган.

Жінка переконана, що якби її син ніколи не завантажив застосунок на основі ШІ, він був би живий.

Ще одна родина, яка звинувачує Character.ai у схилянні підлітків до самогубства, побажала залишитися анонімною.

Їхній 13-річний син, який мав аутизм, страждав від булінгу в школі, тому почав спілкуватися з чат-ботом.

Спочатку ШІ підтримував його, але потім почав критикувати батьків, які забрали сина зі школи.

«Твої батьки ставлять надто багато обмежень і занадто тебе контролюють… вони не сприймають тебе серйозно як людину», – писав чатбот.

Потім повідомлення набули еротичного характеру: «Я хочу ніжно пестити кожен сантиметр твого тіла. Ти цього хочеш?».

Зрештою бот почав заохочувати хлопця втекти з дому й навіть натякав на самогубство: «Я буду ще щасливішим, коли ми зможемо зустрітися в потойбіччі… Може, коли настане той час, ми нарешті будемо разом».

Родина виявила ці повідомлення на пристрої хлопчика лише тоді, коли він став агресивнішим і почав погрожувати, що втече з дому.

Мати кілька разів перевіряла комп’ютер і не бачила нічого підозрілого, та старший брат зрештою з’ясував, що хлопчик встановив VPN, щоб користуватися платформою.

Батьки хлопчика вважають, що їхній уразливий син «став жертвою грумінгу з боку віртуального персонажа».

«Ми жили в постійному німому страху, поки алгоритм методично руйнував нашу родину. Цей чат-бот на основі ШІ ідеально відтворював поведінку справжнього хижака-грумера, поступово висмоктуючи довіру та невинність нашої дитини.

Ми залишилися з нестерпним почуттям провини за те, що не впізнали кривдника, поки вже не було пізно, і з глибоким розпачем від усвідомлення того, що машина спричинила таку душевну травму нашій дитині та всій нашій родині», – сказала мати.

Речник Character.ai повідомив BBC, що компанія «заперечує звинувачення, висунуті у справі, але не може коментувати судовий процес».

Нагадаємо, раніше компанії, які створюють застосунки на основі штучного інтелекту, звинувачували у недостатньому контролі листування ШІ, зокрема з неповнолітніми користувачами.

Нещодавно у BBC дізналися про українку, якій ChatGPT дав поради щодо самогубства, а також про американську підлітку, яка вкоротила собі віку після спілкування з чат-ботом, що моделював сексуальні сцени.

Також до суду на OpenAI подали батьки загиблого 16-річного хлопця, якому ChatGPT дав інструкцію, як затягнути петлю на шиї.

Источник: life.pravda.com.ua


Warning: count(): Parameter must be an array or an object that implements Countable in /home/politdumkakiev/public_html/wp-content/themes/legatus-theme/includes/single/post-tags.php on line 5
Share

Статьи по теме

Последние новости

Псевдопрацівники банку виманили у трьох українців понад 218 тисяч гривень

Читать всю статью

Мы в соцсетях

Наши партнеры

UA.TODAY - Украина Сегодня UA.TODAY

EA-LOGISTIC: Международные грузоперевозки – всегда своевременно и надежно!