robogeek.ru

все о роботах и робототехнике

edu.robogeek.ru

все об обучении робототехнике

Открытое письмо в ООН с призывом запретить разработку вооружений c ИИ

Некоммерческая организация Future of Life Institute подготовила открытое письмо, которое подписали более 1000 исследователей в области робототехники и искусственного интеллекта (ИИ), они призывают Организацию Объединенных Наций запретить разработку военных систем с ИИ, способных целенаправленно убивать без контроля за ними со стороны человека.

Письмо было представлено на Международной конференции по искусственному интеллекту (IJCAI 2015) и поддержано рядом знаменитых ученых и лидеров отрасли, в числе которых Стивен Хокинг, Элон Маск, Стив Возняк и Ноам Хомский.

Для некоторых людей ИИ в автономных и военных роботах может представляться лишь причудливой концепцией, сосредоточенной в сфере видеоигр и научной фантастики. Тем не менее, леденящее душу предупреждение, содержащееся в недавно опубликованном открытом письме, настаивает на том, что новая технология появится в действительности в течение ближайших лет, а не десятилетий, и необходимо принимать меры сейчас, если мы хотим предотвратить рождение новой парадигмы современной войны.

Рассмотрим эти последствия. Согласно открытого письма, многие сейчас считают, что вооружения с ИИ совершат третью революцию в методах ведения войн, после изобретения пороха и ядерного оружия. Тем не менее, в двух предыдущих случаях всегда были мощные препятствия для использования новой технологии. Для используемой в полевых условиях винтовки нужен солдат, который из нее будет стрелять, а это, в свою очередь, означает, что он подвергает свою жизнь риску.

Вместе с ядерной революцией получается целый букет проблем, начиная с дорогостоящей и сложной процедуры получения ядерных материалов и проведения исследований, необходимых для того, чтобы сделать атомную бомбу. Не говоря уже о чудовищной гибели людей и международном осуждении, которое неизбежно последует после использования такого рода оружия, при этом, с угрозой взаимного гарантированного уничтожения. Эти факторы сдерживания привели к тому, что на сегодняшний день только две атомные бомбы были реально применены в течение всей ядерной эры.

Опасность технологии военной машины с ИИ заключается в том, что ей не хватает этих сдерживающих факторов. ИИ может устранить необходимость рисковать жизнью солдат на поле боя, развертывание такого оружия не приведет к взрыву общественного мнения в международном сообществе, какое последует после запуска межконтинентальных баллистических ракет. Кроме того, в соответствии с открытым письмом, военные беспилотники с ИИ, которые получат возможность охотиться и убивать людей без контроля со стороны человека, будут обходиться дешево и могут относительно легко производиться в массовых количествах.

Технология позволит, в целом, сделать военное вторжение менее дорогостоящим и более привлекательным, по существу, снижая порог для развязывания конфликта. Кроме того, устранение человека из процесса принятия решения удаляет элемент человеческого сострадания и процесс рассуждения, которые, по крайней мере, в обозримом будущем будут недоступны для машины.

Еще один леденящий душу аспект вооружений с ИИ, на который указывается в письме, заключается в возможности появления такого военного оборудования в руках деспотов и полевых командиров, которые, не задумываясь, будут использовать такие вооружения для устранения недовольных или даже для этнических чисток.

«Многие из ведущих ученых в нашей области поставили свои подписи под этим письмом», - говорит профессор искусственного интеллекта из университета Нового Южного Уэльса (UNSW) и NICTA Тоби Уолш. «С этим открытым письмом мы надеемся привлечь внимание к зловещей проблеме, которая, без сомнения, будет иметь непоправимое влияние на все человечество. Мы можем сегодня решить данную проблему на ранней стадии или будем сидеть, сложа руки, и наблюдать за рождением новой эры в развитии вооруженных конфликтов. Честно говоря, не это хотят видеть многие из нас. Наш призыв к действию прост: запретить наступательные автономные системы вооружений и, тем самым, обеспечить безопасное будущее для всех нас».

Комментарии

(0) Добавить комментарий