Співзасновник Google DeepMind запропонував, як зробити, щоб ШІ точно не знищив людство
Занадто швидкий розвиток ІІ викликав занепокоєння, що якось він стане сильнішим за людей, а його цілі розійдуться з нашими — і тоді він загрожуватиме існуванню цивілізації. Співзасновник DeepMind, ІІ-підрозділи Google, Мустафа Сулейман у недавньому інтерв’ю MIT Technology Review запропонував спосіб уникнути фатального розвитку подій.
На думку підприємця, для цього розробникам достатньо позбавити ІІ деяких базових здібностей. Наприклад, до самовдосконалення.
«Не можна дозволяти штучному інтелекту самостійно оновлювати свій код без вашого контролю», — вважає Сулейман. Він припустив, що цю діяльність можна навіть ліцензувати як роботу зі збудниками сибірки або ядерними матеріалами.
Також дослідник вважає, що в цьому контексті важливо визначити допустимі межі використання персональних даних штучним інтелектом.
«Йдеться про встановлення кордонів, лімітів, які ІІ не повинен переходити», — говорить Сулейман. Також ці межі повинні забезпечувати безпеку на всіх етапах роботи ІІ: від власне програмного коду до взаємодії з іншими ІІ-системами та людьми, а також мотивів та цілей компаній-розробників.
Загалом Сулейман вважає, що ІІ-сферу можна ефективно регулювати і не вірить у сценарій зі знищенням людей. За його словами, перед нами сьогодні стоїть безліч більш практичних питань у галузі штучного інтелекту, включаючи приватність, упередженості, розпізнавання осіб та модерацію ІІ-контенту в мережі.