Vještačka inteligencija u ratovanju: Evolucija zaštite ili prijetnja etici?

U posljednje vrijeme, razvoj nuklearnog oružja je glavna tema u svijetu, dok gotovo svaka vijest govori o ratovima koji se vode. Kao što su neki politički lideri i nagovijestili – oni koji posjeduju najnapredniju tehnologiju imaju i najveću prednost.

Vještačka inteligencija (AI) značajno je napredovala u prethodnim godinama, a s tim se povećala i njena primjena u ratovanju. Ovo donosi određene koristi za države, ali i brojne posljedice i neizvjesnosti.

Koje su glavne upotrebe vještačke inteligencije u ratu?
AI se koristi u donošenju odluka i strateškom planiranju, jer sistemi zasnovani na vještačkoj inteligenciji mogu obraditi informacije brže nego što to mogu vojni komandanti. Ovo značajno povećava efikasnost jer se sukobi ne zaustavljaju, a brzina je ključna za odbranu države. Ako se jedna država suoči sa drugom koja koristi AI sisteme, njena odbrana može biti ugrožena jer je manuelni proces odlučivanja znatno sporiji.

Takođe, ova tehnologija omogućava veću preciznost u gađanju ciljeva – autonomno oružje sve češće se koristi, uključujući i autonomne dronove koje koriste mnoge države, uključujući Ukrajinu. Ovi sistemi mogu identifikovati ciljeve i razlikovati ih od civila i civilnih objekata kako bi se izbjegla direktna šteta i povrede nevinih.

Međutim, ovakvo ciljanje nosi i rizike.
Pošto oružje funkcioniše autonomno i reaguje na zadate informacije i ulazne podatke, može doći do greške – npr. civil može biti prepoznat kao prijetnja i ubijen. U tom slučaju, postavlja se pitanje etike i pravne odgovornosti: ko je kriv kada je zapravo mašina izvršila napad? Kako navode neki istraživači, ono što AI nedostaje, a što ljudi posjeduju, jeste sumnja. Sumnja nam omogućava da zastanemo i preispitamo svoje postupke, dok oružje reaguje isključivo na obrasce.

Još 2012. godine, organizacije kao što su Human Rights Watch i International Human Rights Clinic upozorile su na probleme i tražile zabranu. Kasnije, 2017. godine, mnogi direktori i osnivači AI i robotike potpisali su otvoreno pismo Ujedinjenim nacijama, ali sveobuhvatna pravna regulativa o upotrebi AI – osim osnovnih prava na privatnost – još uvijek nije uspostavljena.

S druge strane, AI može pomoći i u humanitarnim zadacima.
Pruža unaprijeđene mjere predostrožnosti – omogućava kreiranje informacija u realnom vremenu o lokacijama civilnih objekata i procjenama rizika, kako bi se preduzeli koraci za smanjenje štete. Takođe, pomaže izbjeglicama da pronađu siguran izlaz iz zemlje, dok oni koji ostaju mogu naći skloništa i pomoć.

Ipak, još jedna opasnost AI-ja leži u njegovoj zloupotrebi van ratne zone.
Nedavno se desio slučaj u kojem je fotografija oštećenog borbenog aviona objavljena sa lažnog naloga i brzo se proširila. Kako prenose BBC i drugi relevantni izvori, fotografija je zapravo bila generisana pomoću AI-ja. Takve slike ne bi smjele da se koriste za podsticanje debata i uticaj na političke stavove. Društvene mreže su snažan alat za širenje vijesti i politike, pa bi svaki korisnik trebalo pažljivo da analizira fotografije i objave, i provjeri izvore prije nego što formira mišljenje ili podijeli sadržaj.

Zaključno, AI može biti snažno oruđe u odbrani građana nakon izbijanja sukoba, omogućavajući minimizaciju civilnih žrtava i sigurnu distribuciju pomoći. Ipak, uz to dolaze i određene opasnosti – greške, etička pitanja i širenje dezinformacija. Zbog toga su dalji razvoj i strože regulacije neophodni, kako bi se obezbijedila zaštita ljudi u pogođenim zemljama.


Izvori:

  • Marr, B. (2024). How AI Is Used In War Today. Forbes.
  • Batallas, C. (2024). When AI Meets the Laws of War. IE Insights.
  • Humble, K. (2024). AI & the Future of Conflict. Georgetown Journal of International Affairs.
  • Erskine, T. and Miller, S.E. (2024). AI and the Decision to Go to War. Australian Journal of International Affairs.
  • Harris, J. (2025). Inside the Rise of AI-Driven Combat. YouTube.

Share the news: