в США призвали запретить ИИ самостоятельно ликвидировать людей
Институт Future of Life Institute призвал запретить использование искусственного интеллекта в разработке беспилотников. Было опубликовано видео с угрозами, которые несет в себе ИИ в военных разработках.
Видео с названием «Slaughterbots — if human: kill()» показывает, что может быть, если в роботе или ИИ будет четкая инструкция «обнаружить-идентифицировать-убить». Ролик выполнен в виде выпуска новостей с различными сценариями убийства роботами людей:
- при ограблении банков
- при охоте на военных
- при нападении на полицейские участки
В ролике также показали роботов-собак с автоматами на спинах.
«В то время как в случае беспилотником решение об ударе принимается удаленно оператором-человеком, в случае автономного оружия решение о том, кто выживет, а кто будет убит принимается исключительно алгоритмами», — подчеркивается в видеоролике.
Поэтому FLI и Международный красный крест предлагает запретить давать право искусственному интеллекту решать, кого можно убить. Всего институт и Красный крест выделили 4 причин для запрета подобных боевых систем:
- может быть непреднамеренная эскалация ситуаций из-за широкого распространения ИИ
- массовое распространение подобных технологий по всему миру из-за их дешевизны
- непредсказуемость машинного обучения в реальных условиях и при боях
- избирательный поиск цели оптическими сенсорами, которые могут визуально определять цель.
Источник: focus.ua