Роботы-убийцы – это будущее войны | Первый творческий форум ЦРТП

Чечич

Креатор
Регистрация
8 Окт 2018
Сообщения
88
Реакции
348
Решение применять смертельное оружие в сражении с соперниками всегда принимал человек. Вскоре это может измениться. Успехи в области искусственного интеллекта, распознавания изображений и робототехники могут привести военных к новому будущему, где оружейные системы будут находить и убивать противников без человеческого вмешательства.

При каких обстоятельствах военные могут или должны делегировать такие решения машинам? Это поднимает фундаментальные вопросы о природе войны, в которых еще не достигли консенсуса правозащитные организации, военные стратеги, исследователи, аналитики и этики.

Насколько нова технология?

Такая технология существовала в своей базовой форме уже несколько десятилетий. В 1980-х и 1990-х годах американские военные стратеги экспериментировали с ракетами «Томагавк» и «Гарпун», которые могли идентифицировать цели; обе используются по сей день.

Самое современное автоматизированное оружие США сосредоточено на защитных применениях. Когда крупным американским базам в Ираке в 2003 году угрожали ракетные и минометные атаки, Армия разработала систему C-RAM, которая может идентифицировать приближающуюся воздушную угрозу, предупредить об этом человека-оператора и – после нажатия оператором кнопки – отследить и уничтожить ее.

Это оружие было основано на морской артиллерийской системе Phalanx, которая считается последней линией обороны от противокорабельных ракет. «Когда ракет очень много, человек не может сказать “Ладно, сначала разберись с этой”», – утверждает Роберт Уорк, старший научный сотрудник Центра новой американской безопасности в Вашингтоне. Поэтому стратеги разработали Phalanx и Aegis Combat System, которые при помощи датчиков на кораблях и самолетах определяют воздушные угрозы и автоматически атакуют их по указанию оператора. «Человек в какой-то момент нажимает кнопку, и машина принимает все решения», – продолжает Уорк.

Как будут работать автоматизированные артиллерийские системы?

Это зависит от уровня их автоматизированности. «Есть оружия типа “выстрелил и забыл”, где само оружие решает: “Так, я вижу, что происходит на поле действий, и я думаю, мне нужно сбить этот определенный танк, потому что мне кажется, что это танк командира”», – объясняет Уорк. Это определение настоящей автоматизированной артиллерийской системы: независимое оружие, которое самостоятельно решает, что и кого уничтожить.

Будучи заместителем министра обороны в период между 2014 и 2017 годами, Уорк отвечал за исполнение стратегии Third Offset – план по противодействию численным преимуществам потенциального противника при помощи инновационных технологий. Для Уорка суть стратегии Third Offset заключалась в использовании искусственного интеллекта и машинного обучения для создания более быстрой и умной сети, объединяющей людей и машины, а также наблюдении за тем, как другие государства разрабатывают собственные автоматизированные технологии.

Каковы аргументы в пользу смертельных и независимых оружий?

«Вы не можете справиться с каждой ситуацией. Вы совершите ошибку в любом случае», – утверждает Тони Серри, который до недавнего времени курировал аналитику данных и симуляции в Армии США.

Он считает, что вероятность совершения ошибки автоматизированным оружием очень низкая. «Робот, действующий в миллисекунды, проанализирует данные, которые вы даже не сможете понять, и решит, что это правильное время для использования конкретного оружия». Автоматизированное оружие зачастую сравнивают с беспилотными автомобилями. В обоих случаях машины управляют сложной средой без отвлечений, усталости и других человеческих факторов, которые могут привести к фатальным ошибкам. Тем не менее, оба аргумента в пользу технологий противоречат моделям поведения, которые возникают в результате того, что умные машины интерпретируют мир не так, как люди.

Каковы аргументы против автоматизированного оружия?

Даже сторонники технологии признают, что поведение роботов может быть новым и непредвиденным. Страны, в которых разрабатываются такие системы, должны прийти к общему соглашению в области возможностей военной технологии и ее угроз. Делегации ООН уже приступили к обсуждению вопроса о регулировании смертельных автоматизированных артиллерийских систем.

В августе рабочая группа ООН определила принципы, которыми можно руководствоваться при регулировании смертельной автономии в будущем. Формальный отчет с рекомендациями для дальнейших действий будет выпущен в этом месяце.

«Мы сфокусировались на двух вещах, которые должны оставаться под контролем человека. Это идентификация и выбор целей, а затем применение против них оружия», – утверждает Мэри Уорхем, координатор кампании «Stop Killer Robots». Критики считают, что такие ситуации можно доверить лишь человеку.

Морально ли делегирование решений о жизни и смерти роботам?

Наша склонность оправдывать войну или осуждать определенные действия «связана с тем, что люди принимают либо моральные, либо аморальные решения. Если эти решения принимают буквально машины, тогда это что-то другое?» – рассуждает Паулин Шенкс Корин, профессор, специализирующаяся на военной этике в Колледже США Навал Вар.

В 2015 году Стив Возняк, Илон Маск, Стивен Хокинг и другие 1000 исследователей в области робототехники и искусственного интеллекта подписали открытое письмо, которое предупреждало о том, что «автоматизированное оружие станет автоматом Калашникова будущего, оно будет идеально для убийств, дестабилизации и покорения наций и выборочного уничтожения определенных этнических групп». В 2018 году Google опубликовала заявление о собственных принципах касательно искусственного интеллекта, к числу которых относился отказ от разработки «оружия и других технологий, чья цель или применение – причинять вред людям».

Для Уорка вопрос морали сводится к поведению противников Америки. «Когда-то в будущем против нас будет настроена страна, которая не так переживает о делегировании смертельных полномочий машине. Но это произойдет нескоро, и у нас есть время подумать об этом и предпринять какие-то действия», – добавил он.

Источник:
 
Сверху Снизу