Danas, kada umjetna inteligencija može generirati slike i videozapise toliko uvjerljive da nas zavaraju, pitanje nije hoće li nas prevariti, već kada. Mnogi vjeruju da su imuni na lažne sadržaje, ali najnovije istraživanje pokazuje upravo suprotno. Velika većina ljudi jednostavno ne može razlikovati stvarno od lažnog.
Samo 0,1% ljudi može prepoznati deepfake
Tvrtka iProov, koja sebe opisuje kao “vodećeg svjetskog pružatelja znanstveno utemeljenih rješenja za biometrijsku identifikaciju”, provela je istraživanje kako bi saznala koliko smo zapravo sposobni detektirati deepfakeove. Rezultati su, blago rečeno, poražavajući.
Deepfakeovi su AI-generirani sadržaji koji izgledaju toliko stvarno da lako mogu zavarati promatrača. Koriste se za zabavu, dezinformacije, pa čak i financijske prevare. Od videozapisa slavnih koji “pjevaju” pjesme koje nikad nisu snimili, do političara koji izgovaraju rečenice koje nikad nisu rekli — granica između stvarnog i lažnog sve je tanja.
U istraživanju je sudjelovalo 2.000 ispitanika iz SAD-a i Velike Britanije, a zadatak im je bio jednostavan — prepoznati jesu li slike i videozapisi koje gledaju stvarni ili deepfake. Samo dvoje sudionika, odnosno 0,1%, postiglo je savršen rezultat.
“Samo 0,1% ljudi moglo je točno prepoznati deepfakeove, što jasno pokazuje koliko su i organizacije i pojedinci ranjivi na prijevare u eri umjetne inteligencije. Čak i kada ljudi sumnjaju da je nešto deepfake, većina ništa ne poduzima. Kriminalci koriste tu ranjivost i stavljaju naše osobne podatke i financijsku sigurnost u opasnost,” upozorava Andrew Bud, osnivač i izvršni direktor iProova.
Koliko ste vi otporni na lažne sadržaje?
Prije nego što smo napisali ovaj tekst, odlučili smo osobno isprobati iProovov kviz. Rezultat? 9 od 10 točnih odgovora u 44 sekunde. Impresivno? Možda. No, iako smo bili brzi i relativno točni, ipak smo pogriješili jedan zadatak. Još jedan dokaz koliko je čovjek sklon greškama, čak i kad misli da je “prokužio” sustav.
Ako ste uvjereni da ste bolji od prosjeka, kviz je dostupan svima. Prepoznajte li svih 10 deepfakeova, bit ćete među 0,1% ljudi koji su uspjeli. Ako ne — pa, barem ste u društvu većine.
Zašto je ovo važno?
Deepfakeovi više nisu samo trikovi za društvene mreže ili memeove. Postali su moćan alat za širenje lažnih vijesti, manipulaciju i prijevare. Tehnologija napreduje brže nego što je društvo spremno priznati, a mogućnosti zloupotrebe su goleme.
Na kraju krajeva, pitanje nije možete li vi prepoznati deepfake. Pitanje je — hoćete li primijetiti prije nego što bude prekasno?
Kako prepoznati deepfake? Ključni znakovi na koje trebate obratiti pažnju
Deepfake tehnologija je toliko napredovala da su danas lažni videozapisi i slike gotovo neprepoznatljivi prosječnom oku. No, i dalje postoje suptilni tragovi koje čak i najsofisticiraniji algoritmi ne mogu u potpunosti prikriti. Ako ste mislili da ste “neprobojni” za ovakve prijevare, možda biste trebali dvaput razmisliti. Evo nekoliko trikova kako raskrinkati lažnjak prije nego što postane viralni hit.
1. Neprirodni pokreti lica
Ljudi imaju tisuće mikroekspresija koje se događaju nesvjesno — sitno podizanje obrve, trzaj kapka ili lagani pomak usana dok slušamo sugovornika. Deepfake algoritmi često imaju problema s repliciranjem ovih mikrodetalja. Ako vam se čini da je osoba na snimci “blenula” ili izgleda kao da je zaboravila trepnuti — to je crvena zastava.
2. Oči su ogledalo… lošeg deepfakea
Jedan od najčešćih problema kod deepfakeova su oči. Refleksije svjetlosti u očima često nisu pravilno prikazane — previše sjaja, asimetrične sjene ili potpuni nedostatak sjaja. Ako oči izgledaju “beživotno” ili vas podsjećaju na loše CGI likove iz 2000-ih — vjerojatno gledate deepfake.
3. Neusklađenost glasa i pokreta usana
Iako su moderni deepfakeovi sve bolji u sinkronizaciji zvuka s pokretima usta, još uvijek postoje propusti. Ako primijetite da izgovorene riječi ne odgovaraju pomicanju usana — ili usne jednostavno izgledaju “plastično” — to je jasan znak da nešto nije u redu.
4. Problemi s pozadinom i osvjetljenjem
AI se često “zbuni” kada mora uskladiti pozadinu s osobom u prvom planu. Neočekivane sjene, zamagljeni rubovi oko glave ili svjetlo koje dolazi iz nemogućih kutova mogu biti znak da gledate deepfake. Ponekad se čak pojavljuju čudni vizualni artefakti — “nestajanje” dijelova slike ili treperenje pozadine.
5. Nenormalni tonovi kože i tekstura
Duboka analiza često otkriva varijacije u tonu kože koje nisu prisutne kod stvarnih snimki. Previše glatka koža, neprirodan sjaj ili područja bez teksture mogu ukazivati na manipulaciju. Ako vam lice osobe izgleda kao da je provuklo deset filtera prije nego što je završilo na ekranu — sumnjajte.
6. Kontekstualne nelogičnosti
Iako vizualni tragovi mogu biti očiti, ponekad sadržaj sam po sebi otkriva prijevaru. Postavlja li osoba izjave koje zvuče nelogično? Mijenja li stavove iznenada? Ili izgovara nešto što nikada ne bi rekla? Ako se kontekst “ne slaže”, moguće je da ste žrtva manipulacije.
Kako ostati korak ispred deepfakeova?
Nažalost, deepfake tehnologija se razvija brže nego što većina korisnika može pratiti. No, postoji nekoliko jednostavnih pravila:
- Usporite snimku — detalji koji se kriju pri normalnoj brzini često “iskoče” kad usporite video.
- Koristite alate za otkrivanje deepfakeova — alati poput Deepware Scanner-a mogu pomoći u otkrivanju manipulacija.
- Provjerite izvor — ako video dolazi s nepoznatog profila ili sumnjive web stranice, dvaput provjerite autentičnost.
Kada zabava postaje prijetnja: Najpoznatiji deepfake skandali
Deepfake tehnologija je u početku izgledala kao zabavna igračka interneta — memeovi, celebrity parodije i viralni videozapisi. No, vrlo brzo je postalo jasno da se ista tehnologija može pretvoriti u moćno oružje za dezinformacije, prijevare i javno sramoćenje. Granica između zabave i prijetnje izbrisana je gotovo preko noći, a posljedice su bile više nego ozbiljne.
Ovdje su neki od najkontroverznijih deepfake skandala koji su šokirali svijet i pokazali tamnu stranu ove tehnologije.
1. Političke manipulacije: Kada predsjednici govore ono što nikad nisu rekli
Jedan od najpoznatijih slučajeva dogodio se kada je internetom kružio video Baracka Obame koji koristi vulgaran jezik i vrijeđa tadašnjeg predsjednika Donalda Trumpa. Na prvu, video je djelovao autentično — isti glas, isti pokreti — no kasnije se otkrilo da je riječ o deepfakeu koji je kreirao glumac Jordan Peele kako bi upozorio na opasnosti ove tehnologije.
Poruka je bila jasna: ako mogu natjerati bivšeg predsjednika SAD-a da “izgovori” bilo što, zamislite što sve može završiti u krivim rukama.
2. Financijske prijevare: Kad vam “šef” naloži uplatu
Deepfakeovi nisu rezervirani samo za društvene mreže i političke propagande — sve češće su alat za sofisticirane prijevare. U Njemačkoj je direktor jedne tvrtke primio poziv od, kako je mislio, izvršnog direktora matične kompanije iz Velike Britanije. Glas je bio identičan. Uslijedio je zahtjev za hitan transfer novca — 243.000 dolara. Naravno, bio je to deepfake glas. Novac je nestao, a kriminalci su ostali nedodirljivi.
Pouka? Nemojte vjerovati ni vlastitim ušima.
3. Deepfake u zabavnoj industriji: Kada fanovi “ožive” slavne osobe
Iako neki deepfakeovi mogu izgledati bezazleno, pitanje etike često dolazi u prvi plan. Internetom su kružili deepfake videozapisi s preminulim glumcima koji su “oživjeli” za potrebe fan-made filmova. Jedan od primjera bio je “povratak” Carrie Fisher kao princeze Leie u Star Wars: The Rise of Skywalker. Iako su obožavatelji bili oduševljeni, cijela industrija se suočila s pitanjem: Gdje je granica između počasti i iskorištavanja?
4. Pornografski deepfakeovi: Najmračnija strana tehnologije
Jedan od najšokantnijih i najproblematičnijih aspekata deepfake tehnologije je njezina zloupotreba u pornografiji. Stotine slavnih osoba našle su se u lažnim eksplicitnim videozapisima, unatoč tome što nikada nisu snimale takav sadržaj. Ali problem tu ne staje — i obični ljudi postaju mete, a posljedice po žrtve su razorne.
Neki portali i društvene mreže uveli su stroge zabrane deepfake sadržaja, ali borba protiv ove vrste zloupotrebe i dalje traje.
5. Dezinformacije u ratnim zonama: Deepfake kao oružje
Tijekom oružanih sukoba i političkih tenzija, deepfakeovi su postali alat za širenje dezinformacija. Jedan od najpoznatijih primjera dogodio se tijekom rusko-ukrajinskog sukoba, kada je internetom počeo kružiti deepfake video u kojem ukrajinski predsjednik Volodimir Zelenski poziva svoje vojnike da polože oružje. Video je brzo razotkriven kao lažan, ali ne prije nego što je izazvao pomutnju.
Ovakve situacije jasno pokazuju koliko je deepfake tehnologija opasna u kontekstu stvarnih sukoba i propagande.
Zašto ovi skandali nisu samo izolirani incidenti?
Deepfakeovi su prešli put od zabave do alata za manipulaciju, prijevare i javno sramoćenje. Problem je što tehnologija napreduje brže nego zakoni i sigurnosni protokoli. Što znači? Sljedeći skandal možda nije pitanje “hoće li se dogoditi”, nego “kada”.
Deepfake i dezinformacije: Novi alat za širenje lažnih vijesti
U vremenu kada je internet prepun dezinformacija, deepfake tehnologija pojavila se kao opasno moćno oružje za širenje lažnih vijesti. Ono što je započelo kao alat za zabavu i kreativno izražavanje, ubrzo je prešlo granicu i postalo sredstvo za manipulaciju masama, uništavanje reputacija i utjecanje na političke odluke. Danas više nije pitanje mogu li deepfakeovi prevariti ljude, nego koliko su učinkoviti u tome.
Deepfake: Savršen alat za dezinformacije
Deepfake sadržaji kombiniraju dvije opasne stvari — vizualnu uvjerljivost i brzinu širenja putem društvenih mreža. Ljudi su skloni vjerovati onome što vide, pa kad naiđu na videozapis političara koji izgovara nešto šokantno ili slavnu osobu u kompromitirajućim situacijama, rijetko zastanu i zapitaju se: Je li ovo stvarno?
Deepfake tehnologija omogućuje kreiranje videozapisa u kojem bilo tko može reći ili učiniti bilo što — bez da se to ikada dogodilo. Rezultat? Savršen alat za širenje lažnih vijesti koje izgledaju autentično.
Političke manipulacije: Kada laži postanu “činjenice”
Politički deepfakeovi već su postali globalni problem. Tijekom izbora, prosvjeda i ratnih sukoba, deepfakeovi se koriste za diskreditaciju protivnika, širenje panike ili poticanje društvenih podjela.
Primjer: Tijekom predsjedničkih izbora u SAD-u, pojavili su se deepfake videozapisi u kojima su kandidati izgovarali kontroverzne izjave koje nikad nisu rekli. Iako su ti videozapisi kasnije razotkriveni kao lažni, šteta je već bila učinjena — milijuni ljudi vidjeli su ih prije nego što su uklonjeni.
Slično se dogodilo i tijekom ukrajinsko-ruskog sukoba, kada je internetom kružio deepfake video Volodimira Zelenskog kako poziva svoje vojnike na predaju. Iako je brzo demantiran, lažna poruka stigla je do velikog broja ljudi, pokazujući koliko su ovakve manipulacije opasne u kriznim situacijama.
Društvene mreže: Plodno tlo za lažne vijesti
Društvene mreže savršeno su okruženje za širenje deepfake dezinformacija. Algoritmi “guraju” sadržaj koji izaziva emocije — ljutnju, šok ili strah — a deepfakeovi su upravo dizajnirani da izazovu te reakcije.
Problem? Većina korisnika neće provjeravati izvor videa ili tražiti dodatne informacije. Ako video izgleda stvarno, automatski mu vjeruju. Time se deepfake sadržaji brzo šire, postaju viralni i stvaraju lažnu percepciju stvarnosti.
Ekonomija lažnih vijesti: Prava zarada od dezinformacija
Deepfake tehnologija nije samo prijetnja političkoj stabilnosti — ona je i alat za financijske prijevare. Kriminalne skupine koriste deepfakeove za ucjene, krađu identiteta i financijske prevare. Bilo je slučajeva u kojima su izvršni direktori multinacionalnih tvrtki “zatražili” hitan transfer novca — iako oni nikad nisu poslali takav zahtjev. Njihovi glasovi su jednostavno generirani korištenjem deepfake tehnologije.
Povjerenje je nova valuta interneta
Deepfake dezinformacije ruše osnovno načelo komunikacije — povjerenje. Kada više ne možete vjerovati vlastitim očima, sve postaje upitno. Lažne vijesti, pogotovo kada su vizualno uvjerljive, imaju moć oblikovati javno mišljenje, destabilizirati političke procese i izazvati paniku.
U svijetu u kojem je istina postala relativna, kritičko razmišljanje i provjera informacija ključni su alati za zaštitu od manipulacija. Jer, koliko god tehnologija napredovala, uvijek postoji jedan “filter” koji deepfake ne može zaobići — zdrava doza sumnje.
