Терминаторов не будет

Терминаторов не будет

На проходящей в Стокгольме Международной конференции по искусственному интеллекту представители 164 организаций и более 2,4 тыс. человек из 90 стран мира подписали открытое письмо о том, что обязуются отказаться от разработки автономного оружия на базе искусственного интеллекта, сообщает «КоммерсантЪ».

В числе поставивших подписи: основатели DeepMind Демис Хассабис, Шейн Легг, Мустафа Сулейман, основатель Tesla и SpaceX Илон Маск, основатель Skype Яан Таллинн.

Инициатором выступила некоммерческая организация Future of Life Institute, призывающая представителей технологической отрасли не участвовать в разработке, производстве или финансировании автономного оружия на базе искусственного интеллекта. По мнению подписантов, появление оружия, способного самостоятельно идентифицировать и выбирать цели, а также вступать с ними в бой, несет угрозу «моральным и прагматическим принципам человечества». В частности, они полагают, что «машины никогда не должны получить право» на принятие решений о лишении жизни человека. Подписанты также убеждены, что создание и применение таких систем «серьезно дестабилизирует ситуацию в мире».

Соглашение показывает серьезность намерений и свидетельствует «о переходе от слов к делу» представителей ИИ-отрасли. Автономное оружие — такое же опасное, как и биологическое, и его обязательно надо контролировать. В последние годы авторитетные предприниматели и ученые все чаще говорят о возможной опасности ИИ. В частности, свои опасения высказывали Илон Маск и физик-теоретик Стивен Хокинг.

По данным Brookings Institute, большинство американцев уверены, что через 30 лет роботы пусть и не полностью, но почти везде заменят человека. Повсеместное распространение роботов нередко пугает людей, особенно учитывая, что когда-то искусственный интеллект (ИИ) сможет превзойти человеческий. Поэтому значительная часть опрошенных хочет, чтобы развитие робототехники контролировалось властями путем создания специального агентства.

Автономные системы вооружения на каждом из этапов выполнения задания действуют самостоятельно без вмешательства или контроля со стороны человека. Такие системы уже существуют. Например, российские зенитные ракетные комплексы С-400 могут работать полностью самостоятельно, обнаруживая, классифицируя, приоритизируя и поражая воздушные цели. По тому же принципу может функционировать американская корабельная боевая информационно-управляющая система Aegis. Однако, несмотря на возможность переведения этих систем в автономный режим, военные ею не пользуются.

Дело даже не в том, что военные не уверены в надежности уже существующих автономных систем или в опасениях относительно восстания машин, которые вдруг решат, что люди им больше не нужны даже в качестве обслуги. Просто никакое международное законодательство, никакие Обычаи ведения войны и Женевские конвенции не оговаривают и не регулируют использование полностью автономных оружейных систем в военных конфликтах. Кроме того, не определен и юридический статус таких систем, сообщает «Meduza».

Кроме того, сложные системы фактически подразумевают существование в них сложных программных ошибок. Любое автономное оружие с искусственным интеллектом содержит сотни тысяч и миллионы строк программного кода, написанного людьми. И ошибки в программах неизбежны, хотя они и проходят тщательные испытания перед принятием оружейных систем на вооружение, а впоследствии получают программные исправления.

НОВОСТИ. ТЕРМИНАТОР 6. Чего ждать?


Понравилась статья? Поделиться с друзьями: