Piše: mr Dejan Abazović
Datum: 06.02.2026. godine.
U posljednjih nekoliko godina svjedoci smo tehnoloških promjena koje su dramatično izmijenile način na koji nastaju, distribuiraju se i tumače digitalni video-zapisi. Alati zasnovani na vještačkoj inteligenciji (VI) danas omogućavaju da se realni snimci mijenjaju ili čak potpuno generišu tako da izgube sve vizuelne tragove manipulacije.
Takvu tehnologiju više ne možemo posmatrati isključivo kao tehnički fenomen – ona postavlja ozbiljna pravna, društvena i bezbjednosna pitanja. Ključno je da shvatimo šta podrazumijeva pouzdana provjera autentičnosti video-zapisa i zašto takve provjere moraju biti sistematske, a ne slučajne.
Konkretan povod za pisanje ovog teksta je serija videozapisa koji se pojavljuju zadnjih dana i koji su poprilično uzburkali javnost Crne Gore. Namjera mi je da se čitaoci upoznaju sa načinom kako je moguće sa sigurnošću utvrditi tj. razlikovati real od fake snimka, kako laički tako i profesionalno.
Metodologija – Sedam stubova verifikacije
Razvoj vještačke inteligencije i alata za obradu multimedije doveo je do toga da danas gotovo svaki video-zapis može biti izmijenjen, rekonstruisan ili u potpunosti generisan bez jasnih vizuelnih tragova manipulacije. Zbog toga se više ne može osloniti isključivo na lični utisak ili površnu provjeru, već je neophodan sistemski, višeslojni pristup utvrđivanju autentičnosti video materijala.
Generalno ne postoji 100% pouzdan način da se dokaže da li je video zapis AI-generisan bez originalnog tj. izvornog snimka. Pouzdana prihvatljiva procjena autentičnosti nekog video-zapisa podrazumijeva kombinaciju više koraka i metoda i ne oslanjanje se na jedan alat ili jednu procjenu. U praksi, osnovni model verifikacije obuhvata sljedeće faze.
Prije svega, sprovodi se vizuelna provjera, tokom koje se analizira: stabilnost lica, promjene oblika obraza, nosa, vilice, pokreti lica, premalo treptanja, asimetrični kapci, zamućenje oko očiju, sinhronizacija govora i slike, krajevi usana se razmazuju, stabilnost ivica lica i kose, pokreti glave i mikro-ekspresije, pokreti vrata, “plastičnost” glasa, prirodno disanje, konzistentnost osvjetljenja, sjenke, pozadina itd. kako bi se uočile eventualne nepravilnosti karakteristične za AI manipulacije.
Zatim slijedi analiza metapodataka korišćenjem alata poput MediaInfo i ExifTool, gdje se ispituju podaci o uređaju, vremenu snimanja, softveru obrade i tragovima izvoza, jer odsustvo ili izmjena metapodataka često ukazuje na naknadnu obradu.
Treći korak podrazumijeva automatsku detekciju pomoću specijalizovanih AI alata, kao što su Deepware ili Reality Defender, koji statistički procjenjuju vjerovatnoću da je sadržaj generisan ili manipulisan vještačkom inteligencijom.
Nakon toga se vrši analiza kadar-po-kadar (frame-by-frame), gdje se video posmatra po frejmovima radi uočavanja „plivanja“ lica, promjena tekstura, neusklađenosti pozadine i diskontinuiteta koji se ne vide u realnom vremenu.
Peti korak je spektralna analiza audio zapisa, kojom se ispituje da li glas ima karakteristike sintetičkog govora ili da li je audio naknadno umetnut i vremenski neusklađen sa slikom.
U šestom koraku se koriste forenzički AI alati. Vrši se primjena naprednih modela za mjerenje biometrijske stabilnosti lica i digitalnih artefakata koji ukazuju na lažnu generaciju sadržaja, tipičnih za deepfake tehnologije.
Na kraju se svi dobijeni nalazi koreliraju i dokumentuju kako bi se na osnovu više nezavisnih izvora donio pouzdan zaključak o autentičnosti zapisa.
Tek kombinacija ovih koraka daje realnu osnovu da se neki snimak proglasi vjerodostojnim ili manipulisanim.
Osvrt na objavljene snimke sa poznatim likom
Kada se ovaj model primijeni na seriju objavljenih snimaka, u mjeri sa mogućnostima, nameće se zaključak da je riječ o složenoj i unaprijed pripremljenoj režiji, a ne o jednostavnom AI deepfake videu u klasičnom smislu.
Vrlo je moguće da je u pripremnoj fazi osoba sa snimka zaista snimljena dok daje određenu izjavu. Na jednom od prvih snimaka možda je i montiran originalni snimak lica, iako ni to ne može biti sa sigurnošću potvrđeno bez izvornog fajla. Taj inicijalni snimak je potom vjerovatno korišćen kao baza za dalju obradu.
Na osnovni video je, po svemu sudeći, kasnije montiran dodatni sadržaj, poput kape, pozadine ili drugih vizuelnih komponenti oko samog lika. Da bi se izbjegle uočljive anomalije između subjekta i pozadine, kompletan snimak je propušten kroz različite filtere koji neutrališu oštre ivice, razlike u teksturi i osvjetljenju, i drugi elementi, čime se postiže djelimično zamućenje i vizuelna homogenizacija kadra.
Nakon toga je izvršeno editovanje kojim su izbrisani ili promijenjeni metapodaci snimka, čime su uklanjene informacije o uređaju, vremenu nastanka i softveru obrade, što dodatno otežava forenzičko ispitivanje.
Naredni snimci, vrlo vjerovatno, iako ne sa apsolutnom sigurnošću, su generisani na osnovu tog izvornog materijala odnosno treniranog modela glasa i lica, korišćenjem alata koji su zasnovani na vještačkoj inteligenciji.
Drugim riječima, ne mora postojati jedan jedinstveni deepfake mehanizam, već kombinacija realnog snimka, montaže, filtriranja i AI generacije, što predstavlja daleko sofisticiraniji oblik manipulacije. Ovdje se ne radi o “klasičnom” deepfake-u koji nastaje jednim klikom, već o hibridnoj manipulaciji – procesu gdje se istina koristi kao skelet za nadogradnju laži.
Tehnologija i potreba za regulativom
Sve navedeno pokazuje da živimo u vremenu u kojem tehnologiju ne možemo posmatrati samo kao alat, već i kao izvor rizika koji zahtijeva pravno i institucionalno prepoznavanje. Problem nije samo u kaznenim odredbama, jer se najveći dio zloupotrebe već danas mogu podvesti pod postojeća krivična i prekršajna djela. Suštinsko pitanje je šta se uopšte može javno objaviti i pod kojim uslovima.
Tehnički je danas potpuno moguće da se video i audio sadržaj digitalno verifikuje, potpisuje ili pečatira, slično kao elektronski dokumenti. Takva rješenja već postoje u okviru propisa o elektronskom poslovanju i elektronskom potpisu u Crnoj Gori.
Uvođenjem obaveze digitalne verifikacije multimedijalnog sadržaja, odgovornost se ne bi odnosila samo na one koji sadržaj kreiraju, već i na one koji ga objavljuju. Time se uspostavlja lanac odgovornosti i provjerljivosti izvora, a preventivno suzbija mogućnost objaviljivanja.
Za određene potrebe provjere mogu se sprovoditi lokalno, korišćenjem sopstvenih tehničkih kapaciteta, na primjer za interne medijske analize, preliminarne procjene ili upravljanje rizikom.
Međutim, kada je riječ o prekršajnim i krivičnim postupcima, sudskim procesima i formalnim istragama, takve analize mora sprovoditi certifikovana i stručno osposobljena institucija, uz poštovanje forenzičkih standarda, lanca čuvanja dokaza i dokumentovanja postupka.
Na kraju…
U eri vještačke inteligencije više nije pitanje da li se video može falsifikovati, već koliko brzo i koliko uvjerljivo. Zato se društvo, institucije i zakonodavstvo moraju prilagoditi realnosti u kojoj je digitalna autentičnost jednako važna kao i fizički dokaz.
Bez sistemske verifikacije, digitalnog potpisivanja i profesionalne forenzičke kontrole, javni prostor postaje izuzetno podložan manipulacijama koje mogu imati ozbiljne pravne, političke i bezbjednosne posljedice. U svijetu u kojem kamera više ne govori istinu, povjerenje se mora zaslužiti digitalnim potpisom ili pečatom a ne samo vizuelnim utiskom.
