Эксперты оценили разработки ученых и действия военных.

Рубеж пройден, прокомментировали они решение по делегированию дрону задачи по лишению жизни человека.
Впервые за всю историю существования мира беспилотный боевой робот по собственной воле выследил и лишил жизни человека. Поневоле начинаешь задумываться о том, насколько далекое и невероятное будущее изображено в «Терминаторе». Эксперты уточняют, что это первый случай, когда боевая машина приняла решение об атаке человека без соответствующей команды управляющего оператора.
Речь идет о случае, произошедшем в марте прошлого года во время боевых действий между правительственными силами Ливии и войсками, которые находились в подчинении фельдмаршала Халифе Хафтару. Инцидент более года оставался неизвестен широкой аудитории. О трагедии стало известно лишь в ходе недавнего доклада Совета Безопасности ООН.
Согласно официальным данным, беспилотник-квадрокоптер KARGU-2 турецкого производства разработчики оснастили возможностью работы в «высокоэффективном автономном режиме». Собственно, что из этого вышло, нам продемонстрировали наглядно: дрон может самостоятельно принимать решения о ликвидации и выполнять поставленную задачу, поражая выбранную цель без соответствующей команды от человека.
Эксперты уточняют, что этот автономный беспилотник запрограммирован убивать без должной связи с управляющим лицом. Об этом говорится и в отчете ООН.
Журналисты обратились к эксперту в сфере беспилотных систем вооружения Денису Федутинову с просьбой поделиться своими оценками подобной разработке и ее применению в военных целях.
По словам Федутинова, разработка представляет собой совершенно новый этап в истории военных операций. Психологическая граница пройдена, уверен он. Так, человек самостоятельно принял решение, позволяющее роботу решать достоин ли тот или иной противник жить или нет. Делегирование искусственному интеллекту принятия решения о целесообразности применения оружия в отношении других людей, насколько это этично и уместно с точки зрения морали и нравственности?
Если задаться вопросом с точки зрения технологичности, то стоит учитывать, что автоматические системы не всегда способны на 100 процентов точно идентифицировать цели, разъясняет эксперт. Функция оператора как раз к этому и сводиться: контролировать и исправлять ошибки системы. Кроме того, есть и этические нормы: позволить машине принять решение об убийстве живого существа, другого человека – пусть тот и является противником, до сего дня представлялось немыслимым.
Стоит представить, что машина на основании каких-либо алгоритмов принимает решение о том, жить или умереть человеку, становится страшно. А если она выберет несколько целей для поражения? Если для большей эффективности будет выбрана задача по поражению социально важного объекта, сколько людей может пострадать, в том числе, например, дети? И стоит исключить из этой цепочки контроль человека и возможность скорректировать действия боевого робота. Страшное будущее человечества и закономерный вопрос о том, выживет ли род людской в войне с использованием таких вот боевых машин.