В ООН обсуждают проблемы применения боевых автономных роботизированных систем
13 мая 2014 г. (Центр новостей ООН) — 13 мая в Женевском отделении ООН открылся симпозиум экспертов, посвященный проблеме использования боевых автономных роботизированных систем (БАРС). Его участники рассмотрят необходимость новых международно-правовых норм, регулирующих использование БАРС, обсудят вопросы этического и морального характера, юридические, технологические и военные аспекты применения таких систем.
Решение о проведении дискуссии было принято в 2013 году делегатами стран-участниц Конвенции о запрещении или ограничении применения конкретных видов обычного оружия, которые могут считаться наносящими чрезмерные повреждения или имеющими неизбирательное действие. Ее часто называют также Конвенцией по конкретным видам обычного оружия или Конвенцией о «негуманном» оружии.
Помимо именитых специалистов в области робототехники в симпозиуме принимают участие высокопоставленные сотрудники ООН, делегаты государств-членов, представители НПО «Кампания против роботов-убийц», Международного комитета Красного Креста.
В рамках симпозиума пройдет ряд круглых столов и семинаров. На одном из них состоятся дебаты о преимуществах и рисках применения БАРС. В них примет участие известный специалист по робототенике профессор Технологического института Джорджии (США) Роналд Аркин.
В интервью Радио ООН профессор заявил о том, «что существующие риски и угрозы могут быть минимизированы, если применение БАРС будет регулироваться международным гуманитарным правом еще до того, как такие системы будут приведены в действие. Только после этого они могут быть использованы в том качестве, в котором используются другие виды обычных вооружений».
Проблема использования БАРС попала в поле зрения экспертов ООН в области международного права совсем недавно. В мае 2013 года Специальный докладчик по вопросу о внесудебных казнях, казнях без надлежащего судебного разбирательства и произвольных казнях Кристоф Хейнс призвал Совет по правам человека настоять на том, чтобы все государства наложили мораторий на испытания, производство, сборку, передачу, приобретение, подготовку и применение БАРС до тех пор, пока не будет достигнуто соглашение о регулирующих нормах.
По мнению Хейнса, эти роботы «потенциально могут создать новые угрозы для права на жизнь, что породит международный раскол и ослабит роль и верховенство международного права и тем самым подорвет систему международной безопасности». Он заявил, что после приведения БАРС в действие будет уже поздно пытаться выработать соответствующие ответные меры.
ООН требует ограничить применение боевых роботов
Три года назад более тысячи учёных, изобретателей, специалистов в области робототехники и искусственного интеллекта, предпринимателей и общественных деятелей подписали открытое письмо , призывающее отказаться от создания полностью автономных боевых систем. Письмо было опубликовано на сайте некоммерческой организации Future of Life Institute, которая занимается исследованиями в области потенциальных угроз для существования человечества, связанных с распространением систем искусственного интеллекта.
Авторы письма уверяли, что человечество стоит на пороге создания полностью автономных боевых систем, которые будут способны самостоятельно принимать решение об открытии огня. В том случае, если оборонные корпорации сосредоточатся на разработке подобных систем, нам не избежать фатальных последствий. Учёные опасаются, что подобные устройства неизбежно появятся на чёрном рынке и попадут в руки террористов, диктаторов и экстремистов.
Кроме того, боевая техника с искусственным интеллектом идеальна для выполнения заказных убийств, террористических актов и операций, направленных на дестабилизацию общества и разрушение конституционного строя государства. В отличие, к примеру, от ядерного оружия, создание боевых роботов несоизмеримо проще с технической точки зрения, а материалы для их изготовления довольно дёшевы и широко доступны.
Системами смертельного автономного оружия (Lethal Autonomous Weapons Systems) называют автономных боевых роботов, которые могут самостоятельно искать и уничтожать цели на основе запрограммированных ограничений и описаний. Группа правительственных экспертов ООН категорически считает, что они должны оставаться под контролем людей, так как ответственность за применение оружия невозможно возложить на роботов.
Под руководством посла Индии и председателя группы Амандипа Сингха Гилла эксперты разработали десять руководящих принципов применения смертельного автономного оружия. Прежде всего, специалисты подчеркнули, что международное гуманитарное право продолжает полностью применяться в отношении всех систем вооружений, включая потенциальную разработку и использование автономного оружия.
Эксперты ООН требуют обязать государства решить, при каких обстоятельствах применение боевых роботов неприемлемо. При этом жёсткий контроль за смертельным автономным оружием не должен мешать развитию гражданских автономных технологий. В заседании приняли участие эксперты из 125 стран, включая Россию, а также представители международных организаций, академических и промышленных кругов, и гражданского общества.
Организация Объединенных Наций и Роботы-Убийцы
Информация о конфиренции
Это гостевой пост. Мнения, выраженные здесь, являются исключительно мнениями авторов и не представляют позиции IEEE Spectrum или IEEE.
Роботы-убийцы стоят на повестке дня крупной встречи Организации Объединенных Наций в Женеве на этой неделе.
В рамках конференции ООН по разоружению страны-участницы в пятницу принимают решение о том, начинать или не начинать официальные дискуссии о запрете смертоносного автономного оружия после трех лет неофициальных дискуссий.
В июле прошлого года тысячи исследователей, работающих в области ИИ и робототехники, собрались вместе и выпустили открытое письмо, призывающее к превентивному запрету на такое оружие.
Я был одним из организаторов письма, и сегодня я в третий раз выступал в ООН, призывая еще раз к запрету.
Причина, по которой я был мотивирован сделать это, проста. Если мы не получим запрет, начнется гонка вооружений. И конечная точка этой гонки будет выглядеть так же, как мрачное будущее, нарисованное голливудскими фильмами, как Терминатор.
Даже до этой конечной точки такое оружие, скорее всего, попадет в руки террористов и стран-изгоев. У этих людей не будет никаких сомнений по поводу снятия каких-либо гарантий. Или использовать их против нас.
И это не просто боевые роботы. Сегодня конфликты носят асимметричный характер. В основном это будут роботы против людей. Таким образом, в отличие от того, что могут утверждать некоторые эксперты-роботы, многие из этих людей будут невинными гражданскими лицами.
Это ужасная и ужасающая перспектива. Но нам не нужно на этом заканчивать. Мир коллективно решил не вооружать другие технологии. У нас есть запреты на биологическое и химическое оружие. Совсем недавно мы запретили несколько технологий, включая ослепляющие лазеры и противопехотные мины.
И хотя эти запреты не были на 100 процентов эффективными, мир, вероятно, лучше с этими челками, чем без них. Эти запреты не помешали разработке соответствующих технологий. Если вы пойдете в больницу сегодня,” ослепляющий ” лазер фактически будет использоваться, чтобы исправить ваши глаза. Но оружейные компании не продадут вам его. И Вы не найдете их ни на одном поле боя.
То же самое относится и к автономному оружию. Мы не остановим развитие широкой технологии, которая имеет много других положительных применений, таких как автономные транспортные средства.
Но если мы получим запрет ООН, у нас не будет автономного оружия на поле боя. И это будет хорошая вещь. Как и в случае с ослепляющими лазерами, вряд ли существует регулирующий орган или инспекционный режим для автономного оружия. Вместо этого запрет будет осуществляться с помощью более тонких мер, таких как неблагоприятная реклама и, в конечном счете, моральное клеймо. В этом пространстве начинают действовать такие профессиональные организации, как IEEE.
Заключение
Ранее на этой неделе IEEE объявил об инициативе по разработке этических стандартов для разработчиков автономных систем. Первоначальный доклад предупреждает, что автономное оружие дестабилизирует международную безопасность, приведет к непреднамеренной военной эскалации и даже к войне, нарушит стратегический баланс и будет способствовать наступательным действиям.
В докладе IEEE содержится ряд рекомендаций, в том числе о необходимости реального человеческого контроля над прямыми нападениями с применением такого оружия. Он также говорит, дизайн, разработка или проектирование автономных вооружений сверх значимого человеческого контроля используется до обидного или убивать человека должно считаться неэтичным. Из реакции, которую я имел говорить об этом вопросе публично, многие люди во всем мире поддерживают мнение, что запрет будет хорошей идеей.
Даже девять членов Конгресса США написали на прошлой неделе государственным секретарям и министру обороны в поддержку призыва к превентивному запрету. Все технологии могут быть использованы для хорошего или плохого. Нам нужно сделать сознательное и эффективное решение в ближайшее время, чтобы принять мир вниз хороший путь. Мои пальцы пересек, что ООН сделает первый шаг в пятницу.
Источники:
http://www.popmech.ru/technologies/news-439652-oon-trebuet-ogranichit-primenenie-boevyh-robotov/
http://robroy.ru/organizacziya-obedinennyix-naczij-i-robotyi-ubijczyi.html
http://tehnika.expert/novosti-texniki/osobennosti-tekhnologii-nfc-i-smartfonov-s-etoj-funkciej.html