Колко опасни са "роботите убийци"

"Роботите убийци" не са проблем от бъдещето, а от настоящето. Руската корпорация "Калашников" показа проект на един от тях, но в действителност подобни бойни машини вече са на въоръжение и в други държави. Просто не могат да правят всичко сами.
И критиците, и поддръжниците на смъртоносните автономни оръжия (lethal autonomous weapons, LAWs) могат да се обединят около едно - времето, в което те ще се използват във войни, не е далеч и може би става дума за броени години.
Това ще е важно и за експерти от 70 държави, които ще се съберат през работните дни на другата седмица в Женева, за да решат дали да започнат преговори, с които да спрат създаването им в зародиш или да поставят пред него ограничения. Някои от страните участнички искат обаче искат да не се взима никакво решение.
Кой да живее и кой да умре
Разговорното название за смъртоносните автономни оръжия, "роботи убийци", ги описва точно. Такива роботи биха могли да изберат сами цели в битка и да ги поразят без човешка намеса. В най-чистия смисъл това би означавало, че те могат да решат кой да живее и кой да умре.
Такива оръжия още няма; редица държави и академични институции обаче работят, за да превърнат теорията на бойните роботи в практика. Британският в. "Гардиън" отбелязва, че в различни моменти в последните години представители на въоръжените сили на редица държави са заявявали, че употребата на подобни устройства е въпрос на немного години.
В 12 държави - като Франция, Израел, Русия, Великобритания и САЩ - са регистрирани най-малко 381 съществуващи или (в повечето случаи) разработвани в момента частично автономни оръжия. Съществуващите безпилотни устройства (танкове, дронове и др.) или израелската противоракетна система "Железен купол" са обичаен пример. Нито едно от тези разработени оръжия не може да взима самостоятелни решения - зад тях винаги стои човек, който може да понесе отговорност.
Според експерти всички технологии, които са необходими - от програмиране на рояци от дронове (или други устройства) до преодоляване на препятствия и координиране на атаки - са разработени и съществуват в различни търговски продукти. Така че не става дума за "научна фантастика" - не е нужно такива системи да са хуманоидни, за да убиват, и появата им в битка им не е въпрос на десетилетия, казва Стюарт Ръсел, изследовател на изкуствения интелект от Калифорнийския университет.
"За" и "против"
Държави като Русия, Съединените щати, Израел и Великобритания открито са заявявали, че не искат подобна забрана, докато Китай я подкрепя - единствената държава постоянен член Съвета за сигурност на ООН, която иска подобно нещо. Част от страните, които искат да бъде оставена възможността за такива оръжия, не желаят дори да се стига до преговори за евентуални преговори.
Според сайта на Кампанията за спиране на роботите убийци - кауза на мрежа от активисти - призовалите до момента за забрана са 26 правителства: Австрия, Алжир, Аржентина, Боливия, Бразилия, Ватиканът, Венецуела, Гана, Гватемала, Джибути, Египет, Еквадор, Зимбабве, Ирак, Китай, Колумбия, Коста Рика, Куба, Мексико, Никарагуа, Паистан, Панама, Перу, Палестинската автономия и Уганда.
Това означава, че в Европа единствено Австрия и Ватиканът недвусмислено подкрепят идеята.
Какво трябва да се направи за забрана
Подписването на допълнителен протокол към Конвенцията за забрана или ограничаване на използването на някои конвенционални оръжия от 1981 г. - известна на английски като Convention on Certain Conventional Weapons (CCW). За 30 г. към текста ѝ са добавени още 5 протокола, свързани с лазерни оръжия, възпламеняеми оръжия, мини и др.
От 2014 г. група експерти от няколко десетки държави обсъжда включването на автономните оръжия, но едва миналата работата им получи "официален статут" чрез признанието на ООН. Участниците в тези разговори, които подкрепят забраната, се опитват да убедят други страни, че трябва да започнат преговори за международно споразумение още догодина. Съединените щати и Русия са категорично против всякакви преговори по темата.
Между 27 и 31 август участниците - очаква се те да включват пратеници от над 70 правителства - трябва да започнат обсъждане на ключови въпроси за автономните оръжия и да подготят почвата за среща през ноември. На нея трябва или да се обединят (с консенсус) около идеята, че е нужна някаква форма на контрол (и това ще е достатъчно за начало на преговори), или да я приключат без такива резултати.
Преди миналогодишното заседание от август (което се отложи заради финансови спорове) имена от науката и технологичния сектор като Илън Мъск, съостователя на "Епъл" Стивън Возняк, физика Стивън Хокинг и съоснователя на невронната мрежа на "Гугъл" DeepMind, Мустафа Сюлейман, поискаха в писмо "кутията на Пандора", каквато според тях е разработването на "роботи убийци", да си остане затворена с международна забрана.
Предпазливост или търпение
Според "Хюмън райтс уоч" да се разреши на "машини да отнемат човешки живот на война или при правоприлагане и в други обстоятелства повдига много сериозни етични, правни, морални, оперативни, обществени, технически и други притеснения."
Противниците казват, че отговорността за отнемането на човешки живот или унищожаването на имущество трябва да остане в ръцете на хората. Компютрите не могат да носят отговорност според международното хуманитарно право, нито да го уважават, тъй като не биха могли да изпитват уважение към човешкия живот и достойнство, а ще взимат решения на базата на алгоритми, казват те.
Позовават се и на т. нар. "клауза Мартенс" в Хагската конвенция от 1899 г. Тя най-общо изисква защита за цивилни и сражаващи се в ситуации, които не могат да се регулират от международни споразумения или обичаи, защото ситуацията няма прецедент, нито правна норма. В случаите с един от протоколите към CCW - този за някои лазерни оръжия, заслепяващи враговете в битка - клаузата е интерпретирана като нужда новите технологии да се ръководят от "принципите на човечеството" и "изискванията на съвестта".
Според скорошен доклад на "Хюмън райтс уоч" и екип от Училището/Школата по право на университета в Харвард "роботите убийци" не биха се справили с клаузата.

Несъгласните с тях обаче смятат, че трябва да се разгледат различните варианти, с които "човешкият контрол" да се запази, без да се ограничава развитието в определени сектори.
Ами ако тази технология има възпиращ потенциал, питат някои от застъпниците ѝ. Аргумент според тях е и че с прецизните удари, извършвани досега от дронове - и то без риск за живота на войници - биха се избегнали непреднамерени щети и жертви сред цивилните и би се намалил рискът от конвенционална война. Автономните оръжия, казват още те, може по-бързо и ефикасно да обработват информация от хората и е необходимо първо да се види какво ще носи технологията, преди евентуално да бъде забранена. В някои университети тези технологии се разработват с уверенията, че начинът им на функциониране към момента е под човешки контрол.
Различията между двата "лагера" изглеждат трудно преодолими, но няма място за паралели с други нови оръжия като ядрената бомба. За да се замисли човечеството как да използва тази енергия, са "нужни" няколкостотин хиляди жертви, макар ужасът на случилото се да сдържа ядрените сили през Студената война. Дори времето за решение днес да е малко, страните, които трябва да го вземат, все пак сядат заедно на масата в опит да оформят съвсем близкото бъдеще.