Автономні системи озброєння є загрозою, усвідомлення якої вимагає розуміння психологічних, соціальних й технологічних проблем

Україна – не єдине поле битви безпілотників. Безпілотники відіграли значну роль в азербайджано-вірменському конфлікті, коли збройні сили Вірменії зіткнулися з дронами-камікадзе, ударними БПЛА і дистанційно керованими літаками Азербайджану. А китайські безпілотники продовжують перевіряти оборонні можливості та готовність Тайваню. Як засвідчив глобальний саміт з відповідального використання штучного інтелекту у військовій сфері (REAIM), зростає розуміння того, що смертоносні автономні системи озброєння (LAWS) є загрозою, на яку потрібно зважати. Усвідомлення цієї загрози вимагає розуміння психологічних, соціальних й технологічних проблем, які вони становлять. Про це йдеться в авторській колонці Джордана Річарда Шенхерра, доцента психології в Університеті Конкордія (Канада) на сторінках The Conversation, переказ якої пропонує Foreign Ukraine.
Вбивство та психологічна дистанція
Психологія є основою всіх конфліктів. Чи то з погляду ймовірних екзистенційних або територіальних загроз, люди об’єднуються у групи, щоб отримати вигоду або уникнути втрат.
Небажання вбивати випливає з нашого сприйняття людяності та приналежності до того ж співтовариства. Перетворюючи людей на статистичні дані та дегуманізуючи їх, ми ще більше притупляємо наше моральне почуття.
LAWS видаляють нас із поля бою. Залежно від того, як ми дистанціюємося від людських страждань, смертельні рішення стають простішими. Дослідження засвідчили, що відстань пов’язана з більш антигромадською поведінкою. При погляді на потенційні цілі з точки зору безпілотника люди втрачають моральну зацікавленість.
Автономність та інтелект – це різні поняття
Багато видів сучасної зброї покладаються на штучний інтелект, але не всі форми штучного інтелекту є автономними. Автономія та інтелект – це різні поняття. Автономія пов’язана з контролем конкретними операціями. Система озброєння може збирати інформацію та ідентифікувати ціль автономно, тоді як ухвалення рішень про постріл залишається за людьми-операторами. Крім того, людина-оператор може вибрати ціль, випустивши самонаведену зброю для націлювання та автономного вибуху.

Автономна зброя не є чимось новим для ведення війни. У морі самохідні торпеди та морські міни використовувалися із середини 1800-х років. На землі елементарні фугаси поступилися місцем автономним турелям.
У повітрі нацистська Німеччина використовувала ракети «Фау-1» та «Фау-2» та радіокеровані боєприпаси. Точні системи теплового та лазерного наведення з’явилися у 1960-х роках і використовувалися американцями у В’єтнамі. До 1990-х років настала ера «розумної зброї» і тоді виникли питання про наші етичні зобов’язання.
Сучасні LAWS були представлені як «природний еволюційний шлях» ведення війни. Ми можемо провести паралелі між автономними дронами та розумною зброєю, хоча зграї дронів є новим видом зброї.
Здатність координувати свої дії дає можливість зруйнувати людські сили. Ступінь координації, по суті, потребує більш високого рівня автономії. Якщо зграя дронів досить велика, одна людина-оператор не може підтримувати достатню ситуаційну обізнаність, щоб контролювати її.
Точність й відповідальність
Потенціал зменшення людської помилки часто використовується для рекомендації LAWS. Хоча актуарний підхід до етики використання штучного інтелекту навряд чи є найкращим чи єдиним способом ухвалення моральних рішень. Надійні дані необхідні для оцінки точності та покращення роботи LAWS. Однак, їх часто не вистачає.
Аналіз ударів безпілотників США за 15-річний період засвідчив, що лише близько 20% із понад 700 ударів було визнано урядом, внаслідок чого загинуло близько 400 цивільних осіб.
На ранніх етапах російського вторгнення в Україну українці знищили близько 85% безпілотників, запущених проти них. У ході останніх атак вони знищили понад 75% дронів.
Ця статистика може свідчити, що дрони не дуже ефективні. Але мінімальна вартість і велика кількість дронів означають, що навіть у разі успіху невеликої частки такої зброї, збитки та втрати можуть бути значними.
При розподілі відповідальності ми маємо враховувати, хто виробляє цю зброю. Вони не завжди вітчизняні. Безпілотники, які використовує Росія в Україні, родом з Китаю та Ірану.
Усередині цих дронів багато деталей поставляються західними виробниками. Розуміння відповідальності та підзвітності у конфліктах вимагає, щоб ми враховували міжнародні ланцюжки поставок, які дозволяють LAWS.
Чи можуть LAWS бути поза законом?
Незалежно від того, чи LAWS становлять унікальну загрозу правам людини, існує поширена думка про те, що ми повинні переглянути існуючі підходи до регулювання.
Робота REAIM не єдина спроба регулювати LAWS. Організація Об’єднаних Націй й такі країни, як США та Канада, розробили, запропонували або переглядають достатність існуючих стандартів.
Ці зусилля стикаються з низкою практичних проблем. У багатьох випадках принципи сформульовані як передовий досвід і розглядаються як добровільні, а не обов’язкові до виконання. Держави також можуть чинити опір, щоб забезпечити узгодженість зі своїми союзниками.
Договори та постанови також створюють соціальні дилеми — так само, як і при розгляді питання про кіберзброю, країни повинні вирішити, чи дотримуються вони правил, тоді як інші розвивають досконаліші можливості.
Навіть якщо закони будуть повністю або частково заборонені, залишається багато можливостей для інтерпретації та раціоналізації.
У липні 2022 року Росія заявила, що відповідальність лежить на їхніх операторах і що LAWS може «знижувати ризик навмисних ударів по цивільних особах та цивільних об’єктах» та підтримувати «місії з підтримки або відновлення міжнародного миру та безпеки… [згідно з міжнародним правом»». Це порожні заяви зроблені порожнім режимом.
Незалежно від того, наскільки елегантна нормативно-правова база і наскільки прямолінійні принципи, протиборчі країни навряд чи дотримуватимуться міжнародних угод, особливо знаючи, що така зброя, як дрони, полегшує солдатам, психологічно віддаленим від реалій поля бою, вбивати інших.
Як свідчить війна Росії в Україні, переосмислення конфліктів завжди може виправдати використання LAWS. Однак, їх здатності знижувати чутливість своїх користувачів до акта вбивства не повинно бути.