Армия США разрабатывает боевых роботов

Армия США разрабатывает боевых роботов

В стране и миреНаука и техника
 До 2010 году США планируют потратить 4 млрд долларов на разработку боевых роботов, которые не будут способны испытывать страх и мстить, что позволит снизить угрозу военных преступлений

 В исследовательскую группу специально приглашен британский эксперт по робототехнике, который будет следить, чтобы создание автоматических бойцов не противоречило Женевской конвенции: она требует, чтобы решение о применении оружия принимал человек, напоминает "Газета".

Руководство Пентагона обеспокоено результатами недавнего исследования, которое показало, что солдаты, испытавшие стресс в результате военных операций в Ираке, склонны к мести и применению пыток. В своем отчете исследователь из Технологического института штата Джорджия Рональд Аркин, разрабатывающий программное обеспечение для армии, указал, что роботы на поле боя могут вести себя пусть и не идеально, но все же более этично, нежели люди.

Уже сейчас в Афганистане и Ираке американские военные активно используют беспилотные аппараты для нанесения воздушных ударов, а также роботизированные машины для разминирования. Однако существующее поколение роботов дистанционно управляется человеком. Эффективный боевой робот остается мечтой Пентагона уже 30 лет, а скептики говорят, что для создания полноценных искусственных солдат понадобится еще столько же.

Напомним, что в феврале Исследовательский центр ВМФ США предложили гуманный принцип использования боевых машин: они должны уничтожать только себе подобные механизмы. Теперь же исследователи пытаются разработать робота-солдата, который сможет самостоятельно идентифицировать и уничтожать вражеские цели, не нанося вреда мирным объектам и гражданским лицам.

"Эти новые солдаты не бывают голодными, они никогда никого не боятся, - рассказывал еще в 2005 году Гордон Джонсон, сотрудник Объединенного командования Пентагона. – Эти солдаты не забывают о приказах, и их не волнует, что солдата, соседнего с ними в строю, только что застрелили. Будут ли они делать свою работу лучше, чем люди? Безусловно".

По мнению американского философа Колина Аллена, автора книги "Моральные машины: учим роботов отличать добро от зла", ученым необходимо ответить на вопрос: возможна ли разработка подобного оружия, которое способно подчиняться военным законам и будет при этом соблюдать нормы морали?

Аллен считает, что необходимо программировать роботов с учетом этических норм. "Это нужно продумать заранее, - говорит он. - Хотя и сейчас у нас есть компьютеры, которые могут принимать решения. Например, они подтверждают или отклоняют операции по кредитным картам, а также используются в медицине".

А вот профессор Шеффилдского университета Ноэл Шарки резко отрицательно относится к роботам-солдатам. "От одной мысли о подобном у меня мурашки бегут по коже. Сама идея робота, который принимает решение об уничтожении человека, просто ужасна", - говорит он.

В то же время Шарки не имеет ничего против роботов-полицейских, вооруженных нелетальным оружием. Ранее ученый заявлял, что к 2040 году на улицах британских городов полицейских заменят "робокопы".

Российская армия в ближайшее время использовать самостоятельных роботов-убийц не планирует. В 2006 году Верховный главнокомандующий Владимир Путин, отвечая на вопрос интернет-сообщества о том, "собирается ли Российская Федерация использовать для обороны своих рубежей огромных боевых человекоподобных роботов", заявил: "Может быть дойдет дело и до роботов, но без участия человека это невозможно, главное - это пограничник".

Шесть правил, которые спасут человечество от власти роботов

Правило первое: не доверять роботам задач, которые связаны со значительным риском для общества. Другими словами, действия роботов должны быть предсказуемыми, а возможность катастроф сведена к минимуму. Однако уже сейчас поведение вычислительных систем не всегда возможно прогнозировать, а в будущем, по мере усложнения интеллектуальных способностей роботов и компьютеров, их "самостоятельность" будет только повышаться. 

Правило второе: ни при каких условиях не доверять роботам оружие, и/или не предоставлять им управление вооружением. К сожалению, предотвратить появление боевых роботов невозможно – уже разработаны и поставлены на вооружение полуавтономные роботизированные установки, в небо подняты беспилотные летательные аппараты, а несколько единиц боевых роботов были посланы в Ирак, пусть и для ознакомления с их возможностями. 

Правило третье: соблюдение трех законов робототехники Азимова. Знаменитые законы Айзека Азимова должны обеспечить безопасное сосуществование роботов в человеческом обществе, избежать несчастных случаев и злоупотребления роботами своими возможностями. Однако подводным камнем является тот факт, что Азимов специализировался на научной фантастике и не имел опыта в роботостроении, а значит, его законы лишены научной базы. Более того, сам автор в своих произведениях описывает ситуации, когда сформулированные им правила перестают работать в нужном направлении. 

Правило четвертое: программирование роботов с учетом целого ряда условий и принципов. Одним из таких принципов должен являться принцип максимально полезных действий – то есть, выбирать из целого ряда возможных поступков лишь те, которые принесут пользу как можно большему количеству людей. С другой стороны, следуя этому принципу робот может принести в жертву жизнь одного человека, чтобы спасти жизнь пятерых. Сегодня же ни один врач не способен за счет убийства одного человека спасти жизнь и здоровье других пациентов, реализация столь высоких моральных качеств – одна из главных проблем, которая встанет перед робототехниками в будущем. 

Правило пятое: постоянное обучение роботов. Это позволит "умным" машинам гибко изменять свое поведение с течением времени, анализировать собственные действия, выбирая из них правильные и ошибочные. Впрочем, достижение указанной цели невозможно без целого ряда технологических прорывов, ведь уровень развития современной науки не позволяет создавать действительно мыслящих и анализирующих роботов. 

Правило шестое: наделение роботов основным набором эмоций. Подобная "функциональность" крайне необходима для интеграции роботов в человеческое общество – машины должны с легкостью распознавать эмоции человека, на основании чего выбирать собственную стратегию поведения. Ведь не секрет, что значительная часть информации, необходимой для успешного общения человека с себе подобными, передается за счет выражения лица, языка жестов – все это должны с легкостью воспринимать и роботы. И хотя эта задача очень сложна в реализации, уже сейчас наблюдаются подвижки в создании роботов, способных распознавать эмоции. То есть, задача не является невыполнимой. 

Футуролог: роботы и физически, и умственно превзойдут людей к 2030 году

Напомним, согласно мнению известного британского футуролога, сотрудника British Telecom Яна Пирсона в ближайшие 30 лет человечество ждет множество инноваций в области производства, обработки информации, здравоохранения и индустрии развлечений. А роботы за это время разовьются так, что обгонят людей как по физическим, так и по умственным способностям. 

К 2007 году роботы, похожие на человека, смогут заменить людей на фабриках, а к 2015 - в домашнем хозяйстве и в больницах. К 2010 году четверть звезд шоу-бизнеса будут составлять "компфетки" - компьютерные виртуальные персонажи. Они же будут среди самых высокооплачиваемых знаменитостей. К 2015 году для них самих - то есть для искусственных компьютерных разумов - появится своя индустрия развлечений.

После 2011 года практически все программное обеспечение будет писаться машинами. В 2018 году искусственный интеллект получит Нобелевскую премию, а в 2020 году электронные формы жизни получат конституционные права. К 2025 году в развивающихся странах будет больше роботов, чем людей. После 2030 роботы и физически, и умственно превзойдут людей, и скорее всего не захотят терпеть диктата своих создателей-людей, предупреждает футуролог. Многие из предсказаний Пирсона, кстати, уже подтвердились: первый его список "памятных дат будущего", опубликованный компанией BTexact Technologies в 1991 году, сбылся на 85%. Среди точно предсказанных событий - появление робокошек и робособак, а также общественного транспорта без водителей и машинистов.

Другой аспект той же проблемы – как заранее провести четкую границу между людьми и кибернетическими организмами. В конце октября столь неожиданный вопрос обсуждали ученые с мировыми именами на заседании Европейской группы по соблюдению этики в науке и новых технологиях (EGE). EGE - это серьезный консультативный орган Еврокомиссии, высокий статус которого подтверждается хотя бы тем, что на всех заседаниях группы присутствуют как минимум два еврокомиссара. Волнения EGE связаны с чипами-имплантатами, способными влиять на работу мозга. Прототипы таких чипов разрабатываются в Институте биохимии Общества Макса Планка, причем с благороднейшей целью - помочь людям, страдающим эпилепсией. 

Проблема в том, что от эта техническая разработка может стать толчком к созданию столь любимых писателями-фантастами мозг8овых чипов для увеличения объема памяти. Так что эксперты мгновенно задались вопросом, можно ли будет назвать подобный усовершенствованный мозг человеческим?

 

Подписывайтесь на наш Telegram, чтобы быть в курсе самых важных новостей. Для этого достаточно иметь Telegram на любом устройстве, пройти по ссылке и нажать кнопку JOIN.

всего: 1686 / сегодня: 1

Комментарии /0

После 22:00 комментарии принимаются только от зарегистрированных пользователей ИРП "Хутор".

Авторизация через Хутор:



В стране и мире