Pod pojmom AI halucinacija podrazumijevamo pojavu koja nastaje kad AI pronalazi obrasce koje ne postoje, tako stvarajući odgovore koji su netačni ili su u potpunosti izmišljeni. Do ove pojave dolazi kada algoritam ne stvara odgovore na osnovu podataka koje ima, kada netačno protumači ili uopšte ne protumači odgovarajući obrazac.
Da bi bolje shvatili ovaj fenomen, moramo prvo analizirati modele na kojima se AI zasniva, a to su veliki jezički modeli ili LLM. Oni predstavljaju neuronske mreže koje su napravljene da razumiju i generišu odgovore na osnovu podataka koje imaju. Kada su ovi podaci netačni ili model nije pronašao odgovarajuće obrasce, dobijamo odgovor koji najčešće nema smisla ili je u potpunosti izmišljen. U praksi postoji dosta primjera ovog fenomena, koji variraju od netačnih informacija, nepostojećih informacija pa sve do pojave Eliza efekta (pojava koja nastaje kada se vještačkoj inteligenciji pripisuju ljudske emocije).
Glavna opasnost AI halucinacija je upravo ljudski faktor, odnosno opasnosti do kojih može doći ako se previše oslanjamo na sve odgovore koje primimo. Ove halucinacije je teško uočiti u određenim situacijama jer ćemo dobiti odgovor koji izgleda izuzetno uvjerljivo. Jedino rešenje je da se ručno provjerava svaki odgovor ili da se koriste određeni sistemi koji su napravljeni da zaustave ovu pojavu kao što su TruthChecker.
Koliko često dolazi do ovih halucinacija, teško je reći. Prema podacima koje ima Vectara (amerčki AI startup), do ove pojave dolazi između 3% i 27% vremena. Razne kompanije su poočele da stavljaju disklejmere da bi upozorili ljude da može doći do pojave lažnih ili izmišljenih informacija i u slučaju da sumnjaju da je neka informacija lažna da treba da prijave i da provjere istinitost informacije na više platformi.
Budući da je nemoguće u potpunosti ukloniti AI halucinacije, postoji nekoliko načina da se smanji šansa za njih i da se poveća sama istinitost odgovora koje dobijamo. Prvi način jeste da se poboljša kvalitet podataka koje AI ima. Zatim povećano testiranje modela prije upotrebe od strane stručnjaka i korisnika kako bi se na vrijeme uočile sve greške. Etičko korišćenje ovakvih programa može povećati tačnost informacija koje se dobijaju i na taj način se mogu smanjiti AI halucinacije.
AI tehnologija predstavlja jedan izazov kome treba prići pažljivo, upravo jer je jedan od najmoćnijih alata tehnologije današnjice. AI halucinacije nastaju iz određenih ograničenja koje veliki jezički modeli imaju. Dok naučnici rade na tome da ih smanje i da poprave kvalitet odgovora koji nam se pružaju, na nama je da koristimo AI sa oprezom i da sa određenom dozom sumnje pristupamo odgovorima koje dobijamo.
Darinka Bulatović
Women4Cyber Montenegro