В Женеве состоялось очередное заседание группы правительственных экспертов Организации объединённых наций по вопросу смертельного автономного оружия, на котором обсуждались механизмы влияния международного права на применение новых видов вооружений.
Три года назад более тысячи учёных, изобретателей, специалистов в области робототехники и искусственного интеллекта, предпринимателей и общественных деятелей подписали открытое письмо, призывающее отказаться от создания полностью автономных боевых систем. Письмо было опубликовано на сайте некоммерческой организации Future of Life Institute, которая занимается исследованиями в области потенциальных угроз для существования человечества, связанных с распространением систем искусственного интеллекта.
Авторы письма уверяли, что человечество стоит на пороге создания полностью автономных боевых систем, которые будут способны самостоятельно принимать решение об открытии огня. В том случае, если оборонные корпорации сосредоточатся на разработке подобных систем, нам не избежать фатальных последствий. Учёные опасаются, что подобные устройства неизбежно появятся на чёрном рынке и попадут в руки террористов, диктаторов и экстремистов.
Кроме того, боевая техника с искусственным интеллектом идеальна для выполнения заказных убийств, террористических актов и операций, направленных на дестабилизацию общества и разрушение конституционного строя государства. В отличие, к примеру, от ядерного оружия, создание боевых роботов несоизмеримо проще с технической точки зрения, а материалы для их изготовления довольно дёшевы и широко доступны.
Системами смертельного автономного оружия (Lethal Autonomous Weapons Systems) называют автономных боевых роботов, которые могут самостоятельно искать и уничтожать цели на основе запрограммированных ограничений и описаний. Группа правительственных экспертов ООН категорически считает, что они должны оставаться под контролем людей, так как ответственность за применение оружия невозможно возложить на роботов.
Под руководством посла Индии и председателя группы Амандипа Сингха Гилла эксперты разработали десять руководящих принципов применения смертельного автономного оружия. Прежде всего, специалисты подчеркнули, что международное гуманитарное право продолжает полностью применяться в отношении всех систем вооружений, включая потенциальную разработку и использование автономного оружия.
Эксперты ООН требуют обязать государства решить, при каких обстоятельствах применение боевых роботов неприемлемо. При этом жёсткий контроль за смертельным автономным оружием не должен мешать развитию гражданских автономных технологий. В заседании приняли участие эксперты из 125 стран, включая Россию, а также представители международных организаций, академических и промышленных кругов, и гражданского общества.
Я соглашаюсь с правилами сайта