Любое автономное оружие имеет шанс выйти из построения и эти ошибки могут иметь широкий спектр последствий, говорят эксперты.


Боевой беспилотник, находясь в полном автономном порядке работы, атаковал людей. Первый зафиксированный случай в истории, когда дрон без приказа человека совершил смертоубийство, произошел в Ливии в марте прошлого года, но об этом стало известно только сейчас из доклада ООН.


Такие оружейные системы почитаются одной из самых опасных военных технологий, разрабатываемых в настоящее время. Против автономных боевых машин выступали астрофизик Стивен Хокинг, глава Tesla Илон Маск и тысячи иных ученых и инженеров. Корреспондент.net рассказывает подробности.


 


Стрелять, забывать и вновь находить


Конфликт в Нагорном Карабахе показал, что беспилотные летательные аппараты сделаются одним из основных видов вооружения в настоящих и будущих военных конфликтах. Главным действующим лицом в таком развитии всемирный ситуации является Турция во главе с автократическим президентом Тайипом Эрдоганом.


Страна разработала свои собственные дроны и успешно использовала их в своих военных операциях против курдских вооруженных группировок на норде Ирака и Сирии, сил мятежного фельдмаршала Халифы Хафтара в Ливии и сирийского режима, а также для поддержки своих союзников, как это было с Азербайджаном в Карабахе.


На прошедшей неделе журнал New Scientist со ссылкой на исследование ООН сообщил, что военный квадрокоптер Kargu-2, находясь в автономном режиме труды, убил человека во время вооруженного конфликта в Ливии в марте 2020 года.


Погибший был участником Ливийской национальной армии под предводительством Халифа Хафтара, какая воюет против регулярной армии правительства Ливии в Триполи.


В отчете ООН говорится, что подразделения Хафтара “не были обучены и не мотивированы для защиты от эффективного использования этой новоиспеченной технологии и обычно отступали в беспорядке”.


Во время плохо организованного отхода формирования Хафтара “подвергались постоянному погоне со стороны боевых беспилотных летательных аппаратов разных типов”.


В отчете также говорится, что подобное смертоносное автономное оружие повергло к “значительным потерям” при использовании БПЛА против зенитного ракетного комплекса Панцирь С-1, произведенного в РФ и имевшегося в распоряжении у формирований Хафтара.


Kargu-2 был создан турецкой военно-технической компанией STM и трудился в “высокоэффективном автономном режиме”, то есть был запрограммирован для атаки целей без необходимости команд от оператора. Дрон обладает “сложной системой распознавания объектов и лиц”.


Эти машины оснащаются осколочно-фугасной военный частью и могут быть наведены на цель для самоподрыва. Вес дрона-камикадзе составляет 15 килограмм с возможностью находиться в атмосфере до 30 минут.


Также отличительной особенностью Kargu-2 является способность группироваться с другими такими же дронами (до 20 штук) и совершать немало масштабные атаки, говорится в докладе.


[embedded content]


Решение об атаке Kargu-2 принимают на основе машинного обучения. Беспилотники трудятся на программных алгоритмах, которые позволяют искусственному интеллекту распознавать различные объекты, будь это школьный автобус, трактор или танк.


“Но комплекты данных, на которых они обучаются, могут быть недостаточно сложными или надежными, в результате чего искусственный интеллект может “освоить” неправильный урок”, – отмечает New Scientist.


Однако, как пишет Daily Mail, в Ливии была продемонстрирована функция “бить, забывать и вновь находить возможности для поражения очередных целей”.


Отметим, что многие функции у современных боевых беспилотников автоматизированы – от взлета до посадки. Оптикоэлектронные системы наблюдения и соответственнее программное обеспечение позволяют делегировать машине многие функции, упрощая работу операторов.


Обнаружение и идентификация объектов, соответственных заданным критериям, сопровождение их, наведение оружия и прочие подобные задачи могут выполняться автоматикой. Функции оператора зачастую сводятся лишь к верификации полученной информации и выдаче команды на применение мочи в отношении обнаруженных целей.


[embedded content]


 


Однажды люди на самом деле могут утратить контроль


Приверженцы применения летальных автономных дронов типа Kargu-2 утверждают, что их использование ограничивает жертвы среди гражданского народонаселения, но критики полагают, что технология на данном этапе еще слишком неточна.


“Современные системы, основанные на машинном обучении, не могут эффективно отличить фермера от бойца”, – написал специалист по национальной безопасности Закари Калленборн в колонке для издания Bulletin of the Atomic Scientists (Бюллетень ученых-атомщиков).


Фермеры могут содержать винтовку, чтобы защитить свою землю, а солдаты могут использовать грабли, чтобы опрокинуть орудийную башню, обращает внимание Калленборн. Он также добавил, что без управления человеком риск использования подобный технологией слишком высок.


Любое автономное оружие имеет шанс выйти из строя, но эти ошибки могут владеть широкий спектр последствий, говорят аналитики по оружию.


Еще в 2015 году тысячи ученых, инженеров и бизнесменов со итого мира, в том числе физик и популяризатор науки Стивен Хокинг, глава Tesla Илон Маск, создатель компании в районы искусственного интеллекта DeepMind (принадлежит Google) Мустафа Сулейман подписали открытое письмо с призывом ввести запрещение на использование оружия с ИИ.


“Опасность велика, так как подобные автономные виды вооружений представляют собой третью революцию в военной районы после изобретения пороха и ядерного оружия”, – говорилось в письме.


При этом подписавшие призыв не говорят о полном запрещенье разработки технологий искусственного интеллекта для оборонной промышленности, но, по их мнению, эти технологии не должны быть автономными и наделяться функцией самостоятельного принятия решений.


Так, Маск находит искусственный интеллект самой большой угрозой, с которой сталкивается человеческая цивилизация, а Хокинг призывал искать новоиспеченные планеты для заселения, иначе человечество погибнет. Об этом подробно в материале Чем пугает ИИ.


Комментируя первое автономное смертоубийство дроном, бывший командующим сухопутными войсками Польши генерал Вальдемар Скшипчак, написавший книги о войне грядущего, говорит, что если международные организации сейчас не ограничат развитие таких вооружений, то вскоре военных по обе стороны фронта будут убивать роботы.


“Нам необходимо уже сейчас к этому подготовиться, подумать об ограничениях в использовании таких вооружений, поскольку если все активнее развивающийся ИИ будет использоваться для смертоубийства, однажды люди на самом деле могут утратить над ними контроль. Возможно, мы сами создадим нечто, что в грядущем нас убьет”, – отметил он в интервью Onet.


Новости от Корреспондент.net в Telegram. Подписывайтесь на наш канал https://t.me/korrespondentnet