robogeek.ru

все о роботах и робототехнике

edu.robogeek.ru

все об обучении робототехнике

Открытое письмо в ООН с призывом запретить разработку вооружений c ИИ

Некоммерческая организация Future of Life Institute подготовила открытое письмо, которое подписали более 1000 исследователей в области робототехники и искусственного интеллекта (ИИ), они призывают Организацию Объединенных Наций запретить разработку военных систем с ИИ, способных целенаправленно убивать без контроля за ними со стороны человека.

Письмо было представлено на Международной конференции по искусственному интеллекту (IJCAI 2015) и поддержано рядом знаменитых ученых и лидеров отрасли, в числе которых Стивен Хокинг, Элон Маск, Стив Возняк и Ноам Хомский.

Для некоторых людей ИИ в автономных и военных роботах может представляться лишь причудливой концепцией, сосредоточенной в сфере видеоигр и научной фантастики. Тем не менее, леденящее душу предупреждение, содержащееся в недавно опубликованном открытом письме, настаивает на том, что новая технология появится в действительности в течение ближайших лет, а не десятилетий, и необходимо принимать меры сейчас, если мы хотим предотвратить рождение новой парадигмы современной войны.

Рассмотрим эти последствия. Согласно открытого письма, многие сейчас считают, что вооружения с ИИ совершат третью революцию в методах ведения войн, после изобретения пороха и ядерного оружия. Тем не менее, в двух предыдущих случаях всегда были мощные препятствия для использования новой технологии. Для используемой в полевых условиях винтовки нужен солдат, который из нее будет стрелять, а это, в свою очередь, означает, что он подвергает свою жизнь риску.

Вместе с ядерной революцией получается целый букет проблем, начиная с дорогостоящей и сложной процедуры получения ядерных материалов и проведения исследований, необходимых для того, чтобы сделать атомную бомбу. Не говоря уже о чудовищной гибели людей и международном осуждении, которое неизбежно последует после использования такого рода оружия, при этом, с угрозой взаимного гарантированного уничтожения. Эти факторы сдерживания привели к тому, что на сегодняшний день только две атомные бомбы были реально применены в течение всей ядерной эры.

Опасность технологии военной машины с ИИ заключается в том, что ей не хватает этих сдерживающих факторов. ИИ может устранить необходимость рисковать жизнью солдат на поле боя, развертывание такого оружия не приведет к взрыву общественного мнения в международном сообществе, какое последует после запуска межконтинентальных баллистических ракет. Кроме того, в соответствии с открытым письмом, военные беспилотники с ИИ, которые получат возможность охотиться и убивать людей без контроля со стороны человека, будут обходиться дешево и могут относительно легко производиться в массовых количествах.

Технология позволит, в целом, сделать военное вторжение менее дорогостоящим и более привлекательным, по существу, снижая порог для развязывания конфликта. Кроме того, устранение человека из процесса принятия решения удаляет элемент человеческого сострадания и процесс рассуждения, которые, по крайней мере, в обозримом будущем будут недоступны для машины.

Еще один леденящий душу аспект вооружений с ИИ, на который указывается в письме, заключается в возможности появления такого военного оборудования в руках деспотов и полевых командиров, которые, не задумываясь, будут использовать такие вооружения для устранения недовольных или даже для этнических чисток.

«Многие из ведущих ученых в нашей области поставили свои подписи под этим письмом», - говорит профессор искусственного интеллекта из университета Нового Южного Уэльса (UNSW) и NICTA Тоби Уолш. «С этим открытым письмом мы надеемся привлечь внимание к зловещей проблеме, которая, без сомнения, будет иметь непоправимое влияние на все человечество. Мы можем сегодня решить данную проблему на ранней стадии или будем сидеть, сложа руки, и наблюдать за рождением новой эры в развитии вооруженных конфликтов. Честно говоря, не это хотят видеть многие из нас. Наш призыв к действию прост: запретить наступательные автономные системы вооружений и, тем самым, обеспечить безопасное будущее для всех нас».

Комментарии

(0) Добавить комментарий

Ищите команду разработчиков? Не можете найти робота для своих нужд? Пишите нам!

Для обратной связи укажите ваш E-mail, он будет доступен только администратору. Так вы сможете оперативно узнать, когда ответ на ваш вопрос будет опубликован

Новые комментарии

Рынок БПЛА в России — перспективы развития и применения
Гость из будущего
23.03.2017
08:57:29
Доставка товаров дронами для нас сегодня не актуальна! Но она нам очень пригодится, когда мы все будем жить в загородных усадьбах.
Пермский Promobot снялся как актер в новом фильме “Патент”
Заинтересованный Гость
23.03.2017
08:25:09
Полностью солидарен с Гостем Юрием! ...