Дрон по собственной воле выследил и убил человека: «Рубикон перейден»

Эксперты оценили разработки ученых и действия военных.

Рубеж пройден, прокомментировали они решение по делегированию дрону задачи по лишению жизни человека.

Впервые за всю историю существования мира беспилотный боевой робот по собственной воле выследил и лишил жизни человека. Поневоле начинаешь задумываться о том, насколько далекое и невероятное будущее изображено в «Терминаторе». Эксперты уточняют, что это первый случай, когда боевая машина приняла решение об атаке человека без соответствующей команды управляющего оператора.

Речь идет о случае, произошедшем в марте прошлого года во время боевых действий между правительственными силами Ливии и войсками, которые находились в подчинении фельдмаршала Халифе Хафтару. Инцидент более года оставался неизвестен широкой аудитории. О трагедии стало известно лишь в ходе недавнего доклада Совета Безопасности ООН.

Согласно официальным данным, беспилотник-квадрокоптер KARGU-2 турецкого производства разработчики оснастили возможностью работы в «высокоэффективном автономном режиме». Собственно, что из этого вышло, нам продемонстрировали наглядно: дрон может самостоятельно принимать решения о ликвидации и выполнять поставленную задачу, поражая выбранную цель без соответствующей команды от человека.

Эксперты уточняют, что этот автономный беспилотник запрограммирован убивать без должной связи с управляющим лицом. Об этом говорится и в отчете ООН.

Журналисты обратились к эксперту в сфере беспилотных систем вооружения Денису Федутинову с просьбой поделиться своими оценками подобной разработке и ее применению в военных целях.

По словам Федутинова, разработка представляет собой совершенно новый этап в истории военных операций. Психологическая граница пройдена, уверен он. Так, человек самостоятельно принял решение, позволяющее роботу решать достоин ли тот или иной противник жить или нет. Делегирование искусственному интеллекту принятия решения о целесообразности применения оружия в отношении других людей, насколько это этично и уместно с точки зрения морали и нравственности?

Если задаться вопросом с точки зрения технологичности, то стоит учитывать, что автоматические системы не всегда способны на 100 процентов точно идентифицировать цели, разъясняет эксперт. Функция оператора как раз к этому и сводиться: контролировать и исправлять ошибки системы. Кроме того, есть и этические нормы: позволить машине принять решение об убийстве живого существа, другого человека – пусть тот и является противником, до сего дня представлялось немыслимым.

Стоит представить, что машина на основании каких-либо алгоритмов принимает решение о том, жить или умереть человеку, становится страшно. А если она выберет несколько целей для поражения? Если для большей эффективности будет выбрана задача по поражению социально важного объекта, сколько людей может пострадать, в том числе, например, дети? И стоит исключить из этой цепочки контроль человека и возможность скорректировать действия боевого робота. Страшное будущее человечества и закономерный вопрос о том, выживет ли род людской в войне с использованием таких вот боевых машин.

Поделиться:

Related posts

Расширение «белых списков»: новые инициативы для бизнеса и пользователей

В России создадут государственную систему мониторинга здоровья спортсменов

Тысячи тендеров на анонимизацию трафика

Мы используем «Рекомендательные технологии» для наилучшего представления нашего сайта. Если Вы продолжите использовать сайт, мы будем считать что Вас это устраивает. Подробнее..