Prije nego što umjetna inteligencija može zaista zavladati svijetom, suočava se s ključnim problemom koji treba riješiti. Radi se o takozvanim halucinacijama koje generira AI.
Čarolija alata koji pokreće AI, poput ChatGPT-a, leži u njihovoj impresivnoj sposobnosti generiranja odgovora sličnih ljudskima, često uvjerljivo odgovarajući na raznovrsne upite. Međutim, kako se ova tehnologija sve više integrira u zadatke koji se kreću od pomoći u obrazovanju i istraživanju na radnom mjestu do upita vezanih za zdravlje, pojavljuje se značajan razlog za zabrinutost: AI sustavi često generiraju informacije koje nisu točne.
Hallucinations in LLM are due to the Auto-Regressive prediction.
— Yann LeCun (@ylecun) June 9, 2023
I think what I call "Objective Driven AI" will solve the problem: systems that plan their answer by optimizing a number of objective functions *at inference time* https://t.co/JcR5hItwzJ
Ovaj fenomen, nazvan halucinacijom od strane stručnjaka, privukao je pažnju mnogih. Neke kritike idu toliko daleko da AI chatbotove nazivaju “patološkim lažljivcima”.
No, ovi epiteti proizlaze iz ljudske sklonosti da pripisujemo ljudske osobine radnjama strojeva, tvrdi Suresh Venkatasubramanian, profesor Sveučilišta Brown. U stvarnosti, Venkatasubramanian sugerira da je temeljna tehnologija, veliki jezični model poput onog koji pokreću ChatGPT, jednostavno usmjeren na stvaranje odgovora koji zvuče vjerodostojno, bez obzira na njihovu točnost. “Tu nema spoznaje o istini”, pojašnjava on.
Pomažući u stvaranju bolje analogije, Venkatasubramanian uspoređuje generirani izlaz AI-a s tendencijom dječjeg pričanja priča. Baš kao što dijete iznova i iznova stvara priče, AI modeli stvaraju odgovore bez oslanjanja na činjenice.
I dok su kreatori AI-a implementirali zaštitne mehanizme kako bi ublažili takve halucinacije, rasprava unutar AI zajednice i dalje traje o tome može li se ovo pitanje potpuno riješiti.
AI halucinacija događa se kada AI generira sadržaj koji odstupa od stvarnosti, kako objašnjava Jevin West sa Sveučilišta Washington’s Center for an Informed Public. To čini sa zapanjujućom razinom samopouzdanja, a tadase čini da su informacije točne. Ova karakteristika otežava korisnicima razlikovanje istine od neistine kada traže odgovore od umjetne inteligencije.
Već su se pojavili neki istaknuti slučajevi AI halucinacija koji su privukli pažnju. Googleov Bard, konkurencija ChatGPT-u, pogrešno je odgovorio na pitanje o otkrićima teleskopa James Webb. Odvjetnik iz New Yorka našao se u nevolji kada je pravno mišljenje koje je stvorio pomoću ChatGPT-a sadržavalo izmišljene slučajeve. Čak su i ugledne vijesti poput CNET-a morale izdati ispravke nakon što je sadržaj generiran pomoću AI-a pružio iznimno netočne financijske savjete.
Međutim, suočavanje s AI halucinacijama predstavlja višeslojan izazov, kako napominje Venkatasubramanian. Složenost modela obuke, uključujući ogromne skupove podataka i kombinaciju automatskih i ljudskih procesa, čini ih istovremeno snažnim i krhkim. Minijaturne varijacije u unosima mogu dovesti do drastičnih promjena u izlazu, a to je značajka koja otežava prepoznavanje potencijalnih problema.
Unatoč nastojanjima, moguće je da će te poteškoće biti nemoguće otkloniti, kako to opisuje West. U međuvremenu, skeptičan pristup odgovorima generiranima pomoću AI-a bit će i više nego opravdan.
I dok AI alati briljiraju u kreativnim područjima kao što je pisanje poezije, njihova nepouzdanost ostaje problematična kada se traže činjenične informacije, posebno u domenama poput zdravlja i donošenja odluka.
U konačnici, suočavanje s AI halucinacijama pokazuje se kao izazov koji zahtijeva pažljivo razmatranje, kontinuirano istraživanje i razumijevanje urođenih ograničenja trenutne tehnologije.