Šta ako roboti-ubice krenu u rat protiv ljudi?
24.08.2019. | 21:24Roboti-ubice, autonomno oružje koje samostalno odlučuje o napadu – to više nije naučna fantastika već bliska budućnost. U Ženevi se pod okriljem UN o tome odavno raspravlja. Ali neke zemlje su izričito protiv zabrane.
Za generalnog sekretara UN nema mjesta za sumnju: autonomno oružje je „politički neprihvatljivo i moralno odvratno“, i trebalo bi ga zabraniti međunarodnom konvencijom.
„Pomislite na posljedice kad neki autonomni oružani sistem samostalno bira ljude kao ciljeve i odlučuje o napadu“, apeluje Antonio Gutereš.
Predstavnici međunarodne zajednice ponovo su se nedavno okupili u Ženevi kako bi raspravljali o zabrani – kako se to u medijima zove – „robota-ubica“. Ali sloga po tom pitanju nije ni na vidiku. Još manje su šanse za uvođenje zabrane prije nego što se pojave na ratištima. „Tapka se u mjestu“, javlja jedan od učesnika te rasprave.
Ono što iz usta generalnog sekretara zvuči kao užas naučne fantastike, u stvari je već odavno realnost. Mnoge vojske svijeta eksperimentišu sa sistemima u kojima se vještačka inteligencija i robotika koriste kao potencijalno smrtonosno oružje.
Vojna logika je jasna: ako su mašine na frontu, ljudi su na sigurnom. Onda nema medijskih izvješća o poginulim ili ranjenim vojnicima, i koga je briga ako je uništen nekakav aparat. Povrh toga, naglašavaju zagovornici, mašine se nikada ne umore i uvijek su precizne. A to na kraju ima čak i svoje prednosti: biće manje „kolateralne štete“ na civilnim ciljevima, prenosi B92.
To više nije naučna fantastika
Prema prihvaćenoj definiciji Međunarodnog komiteta Crvenog krsta, autonomno oružje je ono koje samostalno bira ciljeve i uništava ih. Bespilotnim letelicama i dalje po pravilu upravlja vojnik koji bira cilj i aktivira oružje.
Autonomno oružje sve odlučuje samo, a taj razvoj je daleko odmakao. A kad smo kod letjelica, već sad postoje projektili koji sami procjenjuju da li je cilj u povoljnom položaju za uništavanje i znaju da „sačekaju“ dok se to ne dogodi.
VIDEO – Robot Fedor naučio da puca iz pištolja, pa ostao bez stranih rezervnih dijelova?!
Nije teško otići još dalje: naučnici smatraju da nije nemoguće da će se uskoro voditi bitke u kojima neće biti ljudi već nego matematičke formule u procesorima računara na osnovu kojih će se odlučivati o životu ili smrti.
To u suštini krši humanitarno međunarodno pravo koje nalaže da rat smije da se vodi samo između boraca, a ne protiv civila. Može li računar da razlikuje vojnika od civila?
Veoma teško. „Ne možemo u te mašine da ugrađujemo čipove sa upisanim pravilima međunarodnog prava“, kažu protivnici takvog oružja.
Mora da postoji garancija da, čak i kad je posao ubijanje, uvijek na kraju čovjek odlučuje da li će biti povučen obarač.
Kako stvoriti takve garancije? O tome već pet godina raspravljaju Ujedinjene nacije u Ženevi u okviru rasprave o „Konvenciji o određenom konvencionalnom oružju“ (Convention on Certain Conventional Weapons, CCW).
Sredinom devedesetih na tom forumu se uspjelo da se zabrani upotreba lasera koji bi služio za to da zaslijepi protivnika i prije nego što je takvo oružje došlo na neko od bojišta. Takvu zabranu protivnici žele da dogovore i za „robote-ubice“, ali pregovori su veoma teški.
Glavni protivnici su države koje su daleko odmakle u razvoju automatizovanog oružja: SAD, Rusija, ali i Izrael. One odbacuju rezoluciju koja bi jasno zabranila takve sisteme. Tim vojnim velesilama protivi se grupa skupina od 28 djelimično malih država koje traže jasnu zabranu. Jedina zemlja EU među njima je – Austrija.
Te zemlje koje teže zabrani podržava čitav spektar nevladinih udruženja: ukupno 113 iz 50 zemalja pridružilo inicijativi Campagne to Stop Killer Robots. To podržava i Evropski parlament, mnoštvo naučnika, među kojima je i 21 dobitnik Nobelove nagrade.
Njemačka se nije priključila ni zagovornicima, ni protivnicima, iako se aktuelna vlada u svom koalicionom sporazumu složila da ne želi takvo oružje: „Odbacujemo autonomne sisteme naoružanja koji su izvan nadzora čovjeka. Želimo da ono bude odbačeno u čitavom svijetu“, piše u tom sporazumu.
Ali njemačka delegacija na raspravi u Ženevi procijenjuje da se „u ovom trenutku“ jednostavno ne može doći do potpune međunarodne zabrane takvog oružja, već i zbog jasnog protivljenja SAD i Rusije. Pritom njemačka vlada nerado govori o tome da i njemački proizvođači oružja eksperimentišu s takvim sistemima. Neke od tih funkcija bi, recimo, trebalo da ima i njemačko-francuski vojni avion FCAS sa pripadajućim bespilotnim letjelicama upravljanim satelitskom navigacijom.
U svakom slučaju, postoji mogućnost da i ova runda pregovora propadne. Trenutno je na stolu samo prijedlog – da se o tome raspravlja i u naredne sjledeće dvije godine. Prema mutnoj formulaciji, izražava se nada da će se do tada postići „normativni okvir“. Sve je to, naravno, veoma daleko od nekakvih jasnih riječi zabrane.
Tomas Kihenmajster, portparol njemačkog ogranka inicijative Stop Killer Robots razočaran je tim, kako kaže, „nebuloznim formulacijama“. I dalje se umanjuje značaj neophodnosti da čovjek ipak odlučuje o upotrebi sile, žali se Kihenmajster novinarima DW. On isto tako strahuje da rasprava u Ženevi „nikada neće dovesti do jasne zabrane autonomnog oružja“.
Protivnici ipak ne žele da odustanu – dugo su se u Ženevi protivili i sporazumu o zabrani protivpešadijskih mina i kasetnih bombi. Zato su se organizovali van tog tijela Ujedinjenih nacija i pred vladama čitavog svijeta zagovarali takvu zabranu – što je na kraju i potpisano u Otavi i Oslu. Danas je ta zabrana dio međunarodnog prava.