Svakim danom svjedočimo inovacijama u nauci i tehnologiji, prilagođavamo se promjenama koje, koliko god se čine male, svakim danom postaju sve veći dio naše svakodnevnice. Jedna od tih inovacija je i vještačka inteligencija (AI) koja postaje ključni alat u zaštiti informacionih sistema i borbi protiv sajber kriminala. Njena sposobnost da analizira velike količine podataka i reaguje u realnom vremenu omogućava efikasnu detekciju i prevenciju sajber napada. Međutim, ova tema otvara i komplesna pravna pitanja koja su vezana za odgovornost i zaštitu ličnih i autorskih prava. Glavno pitanje koje se postavlja je – Da li zakoni kakve danas poznajemo mogu uopšte obuhvatiti ovakvu kompleksnost?
Za početak, šta to čini AI boljim od „klasičnog softvera? – Dok klasični softver radi po unaprijed zadatim pravilima, AI sam uči iz podataka i može prepoznati nove, nepoznate obrasce ponašanja koje nije ranije „vidio“. AI uči i pamti podatke o korisniku, prilagođava mu se i na osnovu zapamćenih podataka traži najbolji odgovor za korisnika, filtrira sadržaj – a možda prikuplja i više podataka nego što je potrebno?
Glavne funkcije AI-a u sajber bezbjednosti
Vještačka inteligencija se danas široko primenjuje u sajber bezbjednosti – koristi se za detekciju virusa, sprečavanje phishing napada, analizu ponašanja korisnika i automatski odgovor na prijetnje. Gmail koristi AI za filtriranje sumnjivih mejlova, dok alati poput CrowdStrike Falcona autonomno blokiraju štetne aktivnosti. Ipak, ovakva praksa se mora posmatrati kroz prizmu prava na privatnost i zaštitu podataka – da li je dozvoljeno da sistem bez ljudske kontrole donosi odluke koje mogu imati ozbiljne posljedice, poput zabrane pristupa ili nadzora nad korisnikom?
Pravna odgovornost za greške AI sistema
Koliko puta vam se desilo da postavite pitanje vještačkoj inteligenciji, zatim pirovjerite je li sigurna u odgovor ili sami istražite i saznate da je taj odgovor zaista bio pogrešan? Medijska i informatička pismenost postaju važne gotovo koliko gramatika i pravopis, a posjedovanje tačnih informacija alat kojim neprestano rukujemo. Ukoliko alat nije ispravan, postoji mogućnost nastanka štete kako po njegovog imaoca, tako i po treća lica Zato, je greška vještačke inteligencije jedno od ključnih pitanja savremene pravne nauke.
Kada AI sistem autonomno odlučuje – blokira korisnika ili pogrešno označi bezbjedan sadržaj kao prijetnju – postavlja se pitanje: Ko je odgovoran? Pošto AI trenutno nema pravni subjektivitet, odgovornost se može tražiti od proizvođača softvera, administratora sistema ili organizacije koja koristi takvu tehnologiju.
U praksi, sudovi se najčešće oslanjaju na postojeća pravila obligacionog prava i princip objektivne odgovornosti, iako to ne rješava sve izazove koje donosi autonomno odlučivanje mašina. Pitanje je da li bi pravo trebalo da se mijenja i uvede, kao što se predlaže u EU, nova kategorija – elektronska ličnost – kako bi se ove situacije adekvatno regulisale.
AI i autorskopravna zaštita
AI sistemi se obučavaju na velikim količinama postojećih autorskih djela – tekstova, slika, muzike – često bez saglasnosti autora, što može predstavljati povredu njihovih prava. Posebno je problematično kada AI stvara djela u prepoznatljivom umjetničkom stilu, poput tzv. „Ghibli-style“ ilustracija. U nedavnom, poznatom slučaju, umjetnici su se pobunili jer je AI model generisao slike koje oponašaju karakteristični stil japanskog studija Ghibli, bez dozvole nosilaca prava. Ovakvi primjeri pokreću dilemu – da li „stil“ kao takav uživa pravnu zaštitu, i da li AI svojim „imitacijama“ zaobilazi zakon? Ono što je sigurno, nažalost, jeste to da ono u šta je umjetnik uložio vrijeme, ljubav i trud, sada možete posjedovati u sličnom stilu i obliku uz svega par klikova.
Trenutni pravni okvir – još uvek ne pruža potpun odgovor na izazove koje donosi upotreba vještačke inteligencije u sajber bezbjednosti i digitalnom stvaralaštvu. Evropska unija je predložila AI Act, prvi sveobuhvatni zakon o veštačkoj inteligenciji, kojim se AI sistemi klasifikuju po nivou rizika – a posebno stroga pravila predviđena su za „visokorizične“ sisteme, uključujući one u oblasti bezbjednosti. Takođe, Opšta uredba o zaštiti podataka (GDPR) u EU ograničava automatsko odlučivanje bez ljudskog nadzora (član 22), što direktno utiče na AI sisteme koji samostalno donose odluke.
Crna Gora je u procesu usklađivanja sa aktima Evropske unije, a jasnija zakonska rješenja biće neophodna i u okviru Zakona o autorskom i srodnim pravima, Zakona o zaštiti podataka o ličnosti, kao i Zakona o obligacionim odnosima.
Razvoj vještačke inteligencije duboko zalazi u pravne praznine u oblasti autorskog i drugih grana prava. Uz sve to, značajan je i etički aspekt: Da li ohrabrivanje ovakve prakse podriva vrijednost i integritet ljudskog stvaralaštva? Pravni sistemi, uključujući i naš, još uvijek kaskaju za tehnologijom i ne pružaju jasan odgovor na mnoga pitanja. Postaje jasno da vještačka inteligencija može biti dobar sluga, ali i zao gospodar – sve zavisi od toga kako je koristimo i kakve granice joj postavimo.
Iako AI nudi ogroman potencijal, naročito u bezbjednosti, neophodno je da njegov razvoj prati savremena i pravična pravna regulativa – naročito u domenu autorskog prava, koje mora ostati temelj zaštite kreativnog rada u digitalnom dobu.