ПолiтДумка

Співзасновник Google DeepMind запропонував, як зробити, щоб ШІ точно не знищив людство

21 сентября
17:19 2023

Занадто швидкий розвиток ІІ викликав занепокоєння, що якось він стане сильнішим за людей, а його цілі розійдуться з нашими — і тоді він загрожуватиме існуванню цивілізації. Співзасновник DeepMind, ІІ-підрозділи Google, Мустафа Сулейман у недавньому інтерв’ю MIT Technology Review запропонував спосіб уникнути фатального розвитку подій.

На думку підприємця, для цього розробникам достатньо позбавити ІІ деяких базових здібностей. Наприклад, до самовдосконалення.

«Не можна дозволяти штучному інтелекту самостійно оновлювати свій код без вашого контролю», — вважає Сулейман. Він припустив, що цю діяльність можна навіть ліцензувати як роботу зі збудниками сибірки або ядерними матеріалами.

Також дослідник вважає, що в цьому контексті важливо визначити допустимі межі використання персональних даних штучним інтелектом.

«Йдеться про встановлення кордонів, лімітів, які ІІ не повинен переходити», — говорить Сулейман. Також ці межі повинні забезпечувати безпеку на всіх етапах роботи ІІ: від власне програмного коду до взаємодії з іншими ІІ-системами та людьми, а також мотивів та цілей компаній-розробників.

Загалом Сулейман вважає, що ІІ-сферу можна ефективно регулювати і не вірить у сценарій зі знищенням людей. За його словами, перед нами сьогодні стоїть безліч більш практичних питань у галузі штучного інтелекту, включаючи приватність, упередженості, розпізнавання осіб та модерацію ІІ-контенту в мережі.


Warning: count(): Parameter must be an array or an object that implements Countable in /home/politdumkakiev/public_html/wp-content/themes/legatus-theme/includes/single/post-tags.php on line 5
Share

Статьи по теме

Последние новости

Виталий Пономарев: Дмитрий Ледвий грубо ошибся

Читать всю статью

Мы в соцсетях

Наши партнеры

UA.TODAY - Украина Сегодня UA.TODAY

EA-LOGISTIC: Международные грузоперевозки – всегда своевременно и надежно!