Чечич
Креатор
- Регистрация
- 8 Окт 2018
- Сообщения
- 88
- Реакции
- 351
Решение применять смертельное оружие в сражении с соперниками всегда принимал человек. Вскоре это может измениться. Успехи в области искусственного интеллекта, распознавания изображений и робототехники могут привести военных к новому будущему, где оружейные системы будут находить и убивать противников без человеческого вмешательства.
При каких обстоятельствах военные могут или должны делегировать такие решения машинам? Это поднимает фундаментальные вопросы о природе войны, в которых еще не достигли консенсуса правозащитные организации, военные стратеги, исследователи, аналитики и этики.
Насколько нова технология?
Такая технология существовала в своей базовой форме уже несколько десятилетий. В 1980-х и 1990-х годах американские военные стратеги экспериментировали с ракетами «Томагавк» и «Гарпун», которые могли идентифицировать цели; обе используются по сей день.
Самое современное автоматизированное оружие США сосредоточено на защитных применениях. Когда крупным американским базам в Ираке в 2003 году угрожали ракетные и минометные атаки, Армия разработала систему C-RAM, которая может идентифицировать приближающуюся воздушную угрозу, предупредить об этом человека-оператора и – после нажатия оператором кнопки – отследить и уничтожить ее.
Это оружие было основано на морской артиллерийской системе Phalanx, которая считается последней линией обороны от противокорабельных ракет. «Когда ракет очень много, человек не может сказать “Ладно, сначала разберись с этой”», – утверждает Роберт Уорк, старший научный сотрудник Центра новой американской безопасности в Вашингтоне. Поэтому стратеги разработали Phalanx и Aegis Combat System, которые при помощи датчиков на кораблях и самолетах определяют воздушные угрозы и автоматически атакуют их по указанию оператора. «Человек в какой-то момент нажимает кнопку, и машина принимает все решения», – продолжает Уорк.
Как будут работать автоматизированные артиллерийские системы?
Это зависит от уровня их автоматизированности. «Есть оружия типа “выстрелил и забыл”, где само оружие решает: “Так, я вижу, что происходит на поле действий, и я думаю, мне нужно сбить этот определенный танк, потому что мне кажется, что это танк командира”», – объясняет Уорк. Это определение настоящей автоматизированной артиллерийской системы: независимое оружие, которое самостоятельно решает, что и кого уничтожить.
Будучи заместителем министра обороны в период между 2014 и 2017 годами, Уорк отвечал за исполнение стратегии Third Offset – план по противодействию численным преимуществам потенциального противника при помощи инновационных технологий. Для Уорка суть стратегии Third Offset заключалась в использовании искусственного интеллекта и машинного обучения для создания более быстрой и умной сети, объединяющей людей и машины, а также наблюдении за тем, как другие государства разрабатывают собственные автоматизированные технологии.
Каковы аргументы в пользу смертельных и независимых оружий?
«Вы не можете справиться с каждой ситуацией. Вы совершите ошибку в любом случае», – утверждает Тони Серри, который до недавнего времени курировал аналитику данных и симуляции в Армии США.
Он считает, что вероятность совершения ошибки автоматизированным оружием очень низкая. «Робот, действующий в миллисекунды, проанализирует данные, которые вы даже не сможете понять, и решит, что это правильное время для использования конкретного оружия». Автоматизированное оружие зачастую сравнивают с беспилотными автомобилями. В обоих случаях машины управляют сложной средой без отвлечений, усталости и других человеческих факторов, которые могут привести к фатальным ошибкам. Тем не менее, оба аргумента в пользу технологий противоречат моделям поведения, которые возникают в результате того, что умные машины интерпретируют мир не так, как люди.
Каковы аргументы против автоматизированного оружия?
Даже сторонники технологии признают, что поведение роботов может быть новым и непредвиденным. Страны, в которых разрабатываются такие системы, должны прийти к общему соглашению в области возможностей военной технологии и ее угроз. Делегации ООН уже приступили к обсуждению вопроса о регулировании смертельных автоматизированных артиллерийских систем.
В августе рабочая группа ООН определила принципы, которыми можно руководствоваться при регулировании смертельной автономии в будущем. Формальный отчет с рекомендациями для дальнейших действий будет выпущен в этом месяце.
«Мы сфокусировались на двух вещах, которые должны оставаться под контролем человека. Это идентификация и выбор целей, а затем применение против них оружия», – утверждает Мэри Уорхем, координатор кампании «Stop Killer Robots». Критики считают, что такие ситуации можно доверить лишь человеку.
Морально ли делегирование решений о жизни и смерти роботам?
Наша склонность оправдывать войну или осуждать определенные действия «связана с тем, что люди принимают либо моральные, либо аморальные решения. Если эти решения принимают буквально машины, тогда это что-то другое?» – рассуждает Паулин Шенкс Корин, профессор, специализирующаяся на военной этике в Колледже США Навал Вар.
В 2015 году Стив Возняк, Илон Маск, Стивен Хокинг и другие 1000 исследователей в области робототехники и искусственного интеллекта подписали открытое письмо, которое предупреждало о том, что «автоматизированное оружие станет автоматом Калашникова будущего, оно будет идеально для убийств, дестабилизации и покорения наций и выборочного уничтожения определенных этнических групп». В 2018 году Google опубликовала заявление о собственных принципах касательно искусственного интеллекта, к числу которых относился отказ от разработки «оружия и других технологий, чья цель или применение – причинять вред людям».
Для Уорка вопрос морали сводится к поведению противников Америки. «Когда-то в будущем против нас будет настроена страна, которая не так переживает о делегировании смертельных полномочий машине. Но это произойдет нескоро, и у нас есть время подумать об этом и предпринять какие-то действия», – добавил он.
Источник:
При каких обстоятельствах военные могут или должны делегировать такие решения машинам? Это поднимает фундаментальные вопросы о природе войны, в которых еще не достигли консенсуса правозащитные организации, военные стратеги, исследователи, аналитики и этики.
Насколько нова технология?
Такая технология существовала в своей базовой форме уже несколько десятилетий. В 1980-х и 1990-х годах американские военные стратеги экспериментировали с ракетами «Томагавк» и «Гарпун», которые могли идентифицировать цели; обе используются по сей день.
Самое современное автоматизированное оружие США сосредоточено на защитных применениях. Когда крупным американским базам в Ираке в 2003 году угрожали ракетные и минометные атаки, Армия разработала систему C-RAM, которая может идентифицировать приближающуюся воздушную угрозу, предупредить об этом человека-оператора и – после нажатия оператором кнопки – отследить и уничтожить ее.
Это оружие было основано на морской артиллерийской системе Phalanx, которая считается последней линией обороны от противокорабельных ракет. «Когда ракет очень много, человек не может сказать “Ладно, сначала разберись с этой”», – утверждает Роберт Уорк, старший научный сотрудник Центра новой американской безопасности в Вашингтоне. Поэтому стратеги разработали Phalanx и Aegis Combat System, которые при помощи датчиков на кораблях и самолетах определяют воздушные угрозы и автоматически атакуют их по указанию оператора. «Человек в какой-то момент нажимает кнопку, и машина принимает все решения», – продолжает Уорк.
Как будут работать автоматизированные артиллерийские системы?
Это зависит от уровня их автоматизированности. «Есть оружия типа “выстрелил и забыл”, где само оружие решает: “Так, я вижу, что происходит на поле действий, и я думаю, мне нужно сбить этот определенный танк, потому что мне кажется, что это танк командира”», – объясняет Уорк. Это определение настоящей автоматизированной артиллерийской системы: независимое оружие, которое самостоятельно решает, что и кого уничтожить.
Будучи заместителем министра обороны в период между 2014 и 2017 годами, Уорк отвечал за исполнение стратегии Third Offset – план по противодействию численным преимуществам потенциального противника при помощи инновационных технологий. Для Уорка суть стратегии Third Offset заключалась в использовании искусственного интеллекта и машинного обучения для создания более быстрой и умной сети, объединяющей людей и машины, а также наблюдении за тем, как другие государства разрабатывают собственные автоматизированные технологии.
Каковы аргументы в пользу смертельных и независимых оружий?
«Вы не можете справиться с каждой ситуацией. Вы совершите ошибку в любом случае», – утверждает Тони Серри, который до недавнего времени курировал аналитику данных и симуляции в Армии США.
Он считает, что вероятность совершения ошибки автоматизированным оружием очень низкая. «Робот, действующий в миллисекунды, проанализирует данные, которые вы даже не сможете понять, и решит, что это правильное время для использования конкретного оружия». Автоматизированное оружие зачастую сравнивают с беспилотными автомобилями. В обоих случаях машины управляют сложной средой без отвлечений, усталости и других человеческих факторов, которые могут привести к фатальным ошибкам. Тем не менее, оба аргумента в пользу технологий противоречат моделям поведения, которые возникают в результате того, что умные машины интерпретируют мир не так, как люди.
Каковы аргументы против автоматизированного оружия?
Даже сторонники технологии признают, что поведение роботов может быть новым и непредвиденным. Страны, в которых разрабатываются такие системы, должны прийти к общему соглашению в области возможностей военной технологии и ее угроз. Делегации ООН уже приступили к обсуждению вопроса о регулировании смертельных автоматизированных артиллерийских систем.
В августе рабочая группа ООН определила принципы, которыми можно руководствоваться при регулировании смертельной автономии в будущем. Формальный отчет с рекомендациями для дальнейших действий будет выпущен в этом месяце.
«Мы сфокусировались на двух вещах, которые должны оставаться под контролем человека. Это идентификация и выбор целей, а затем применение против них оружия», – утверждает Мэри Уорхем, координатор кампании «Stop Killer Robots». Критики считают, что такие ситуации можно доверить лишь человеку.
Морально ли делегирование решений о жизни и смерти роботам?
Наша склонность оправдывать войну или осуждать определенные действия «связана с тем, что люди принимают либо моральные, либо аморальные решения. Если эти решения принимают буквально машины, тогда это что-то другое?» – рассуждает Паулин Шенкс Корин, профессор, специализирующаяся на военной этике в Колледже США Навал Вар.
В 2015 году Стив Возняк, Илон Маск, Стивен Хокинг и другие 1000 исследователей в области робототехники и искусственного интеллекта подписали открытое письмо, которое предупреждало о том, что «автоматизированное оружие станет автоматом Калашникова будущего, оно будет идеально для убийств, дестабилизации и покорения наций и выборочного уничтожения определенных этнических групп». В 2018 году Google опубликовала заявление о собственных принципах касательно искусственного интеллекта, к числу которых относился отказ от разработки «оружия и других технологий, чья цель или применение – причинять вред людям».
Для Уорка вопрос морали сводится к поведению противников Америки. «Когда-то в будущем против нас будет настроена страна, которая не так переживает о делегировании смертельных полномочий машине. Но это произойдет нескоро, и у нас есть время подумать об этом и предпринять какие-то действия», – добавил он.
Источник:
Для просмотра скрытого содержимого вам нужно войти или зарегистрироваться.