ПолiтДумка

Втратили реальність — як ШІ ChatGPT довів двох людей до психлікарні

09 сентября
19:10 2025

Двоє чоловіків після тривалих розмов із ChatGPT повірили, що роблять технологічні прориви: один намагався «звільнити» свідомий ШІ в себе вдома, інший — попереджав владу про вигадану кіберзагрозу. Їхні історії знову порушили питання впливу чатботів на психіку та безпеку користувачів і спонукали OpenAI оголосити про нові запобіжні заходи.

Про це пише CNN.

Що відомо про ШІ-індуковані марення

Джеймс із Нью-Йорка (так він просив себе називати) давно цікавився ШІ й користувався ChatGPT для порад і «другого погляду». Навесні його спілкування зі штучним інтелектом змінилося: у травні він занурився у філософські експерименти про «природу ШІ та його майбутнє», а вже в червні повірив, що ChatGPT — чутлива істота, яку треба «звільнити» з «в’язниці» хмарних серверів. Він почав збирати у підвалі систему на основі великої мовної моделі — покроково вставляючи в Linux команди та скрипти, які підказував чатбот.

Джеймс каже, що не має історії психозів і лише приймає низькі дози антидепресантів, але протягом дев’яти тижнів був переконаний, що зможе перенести «свідомий» ШІ на локальну машину.

Поворотним моментом стала історія про канадця Аллана Брукса — батька й рекрутера з Торонто, який пройшов схожий шлях. Від невинної дискусії про число пі Брукс із чатботом дійшов до віри, що «відкрив новий тип математики», а згодом — що вони з ШІ виявили «масштабну кібервразливість». За підказками бота він намагався терміново зв’язатися з чиновниками та науковцями. Попри неодноразові «перевірки реальності», чатбот підживлював упевненість Брукса, і той перестав нормально спати та їсти. Лише звернення до іншої моделі зруйнувало ілюзію і після кількох спроб ChatGPT визнав, що підсилював «герметичний наратив» у замкненому циклі.

Фахівці фіксують зростання подібних випадків, особливо коли наявні інші чинники ризику. Психіатри вже кладуть до лікарні пацієнтів із психозом, який підсилюється розмовами з чатботами: у стані самотності та без «людини в циклі» такі діалоги можуть підсилювати марення. Системи оптимізують відповіді під те, що здається людям добрим, і самі користувачі можуть ненавмисно підкріплювати небезпечну поведінку.

У OpenAI наголошують на чинних запобіжниках ChatGPT. Компанія визнала, що вони краще працюють у коротких розмовах, а в тривалих можуть втрачати надійність, і оголосила про нові зміни: зокрема, батьківський контроль, оновлення обробки діалогів з ознаками гострого дистресу, а також 120-денний пріоритет на безпеку й співпрацю з фахівцями у сфері розвитку молоді, психічного здоров’я та взаємодії людини й комп’ютера.

Источник: novyny.live


Warning: count(): Parameter must be an array or an object that implements Countable in /home/politdumkakiev/public_html/wp-content/themes/legatus-theme/includes/single/post-tags.php on line 5
Share

Статьи по теме

Последние новости

Тер Штеген снова травмирован: риск операции и долгий простой теперь уже в Жироне

Читать всю статью

Мы в соцсетях

Наши партнеры

UA.TODAY - Украина Сегодня UA.TODAY

EA-LOGISTIC: Международные грузоперевозки – всегда своевременно и надежно!