Google je nedavno lansirao AI Overviews, ali iskustva korisnika nisu obećavajuća. Značajka je lansirana u SAD-u prošlog tjedna i očekuje se globalna ekspanzija do kraja 2024. Korisnici društvenih mreža brzo su počeli dijeliti smiješne odgovore, sve dok nisu primijetili da neki odgovori mogu biti zabrinjavajući.
AI Overviews su eksperimentalni alat koji pruža odgovore generirane umjetnom inteligencijom na upite korisnika. Algoritmi strojnog učenja nisu svjesni; oni prepoznaju riječi i fraze u određenim kontekstima i stvaraju odgovore koji bi trebali odgovarati upitu. Ponekad, AI čak izmišlja informacije, kao što je kreiranje lažnih pravnih slučajeva za odvjetnike.
Primjeri pogrešnih odgovora
AI Overviews izvlači svoje odgovore s pravih web stranica, no AI ne može uvijek prepoznati ozbiljne odgovore od satiričnih ili komičnih. Tako se “vijesti” sa satirične web stranice The Onion, koja se bavi stvaranjem lažnih vijesti i komičnih članaka, ili postovi s Reddita miješaju među stvarne informacije. Na primjer, na pitanje “Koliko kamenja trebam pojesti svaki dan?”, AI Overviews citiraju lažne informacije s The Onion, savjetujući jedenje barem jednog malog kamena dnevno. Također, na pitanje kako postići da se sir bolje drži za pizzu, AI preporučuje jestivo ljepilo, što dolazi iz starog posta s Reddita.
Googleov glasnogovornik izjavio je za BBC News da su ovi incidenti rijetki i ne predstavljaju većinu korisničkih iskustava: “Primjeri koje smo vidjeli općenito su vrlo rijetki upiti i nisu reprezentativni za većinu iskustava korisnika.”
Opasne dezinformacije i rizici
No, problem nije samo u smiješnim odgovorima. Sustav širi dezinformacije koje mogu biti opasne. Primjerice, tvrdnja da je Barack Obama bio prvi muslimanski predsjednik SAD-a nije istinita – Obama je protestantski kršćanin. Google pretraživanje također navodi “zdravstvene koristi” pušenja i trčanje sa škarama kao korisne aktivnosti, što je netočno i opasno.
Jedan od prijedloga kako očistiti perilicu rublja uključuje korištenje klorovog izbjeljivača i octa, no ne upozorava na to da ih ne treba miješati, jer to stvara otrovni plin klor.
Googleov AI Gemini također pravi ozbiljne greške. Nedavno je zamijenio smrtonosnu gljivu (Amanita bisporigera) s bijelim šampinjonom, što može dovesti do trovanja.
Što dalje s AI-jem?
Postavlja se pitanje koja je svrha AI-a ako informacije moramo sami provjeravati. Google tvrdi da AI može olakšati pretraživanje, ali rizik od širenja dezinformacija je visok, posebno za one koji nemaju vremena ili znanja za provjeru izvora. Osim toga, AI ima značajan ugljični otisak, što dodatno komplicira situaciju. Microsoft, također veliki igrač u AI području, nedavno je prozvan zbog neispunjavanja svojih ekoloških obećanja upravo zbog AI tehnologije.
Na kraju, AI Pregledi pružaju i komične savjete, poput tvrdnje da jedenje stražnjice ima zdravstvene koristi, što je još jedan primjer kako AI može izvući bizarne informacije s interneta.
Ako želite točne informacije, najbolje je da sami provjeravate izvore i ne oslanjate se potpuno na AI.