{"id":21051792,"date":"2023-08-30T10:08:04","date_gmt":"2023-08-30T08:08:04","guid":{"rendered":"https:\/\/geek.hr\/?p=21051792"},"modified":"2023-09-14T17:08:37","modified_gmt":"2023-09-14T15:08:37","slug":"veliki-problem-s-umjetnom-inteligencijom-je-da-voli-izmisljati-cinjenice","status":"publish","type":"post","link":"https:\/\/geek.hr\/clanak\/veliki-problem-s-umjetnom-inteligencijom-je-da-voli-izmisljati-cinjenice\/","title":{"rendered":"Veliki problem s umjetnom inteligencijom je da voli izmi\u0161ljati \u010dinjenice"},"content":{"rendered":"\n
Prije nego \u0161to umjetna inteligencija<\/a> mo\u017ee zaista zavladati svijetom, suo\u010dava se s klju\u010dnim problemom koji treba rije\u0161iti. Radi se o takozvanim halucinacijama koje generira AI.<\/p>\n\n\n\n \u010carolija alata koji pokre\u0107e AI, poput ChatGPT-a, le\u017ei u njihovoj impresivnoj sposobnosti generiranja odgovora sli\u010dnih ljudskima, \u010desto uvjerljivo odgovaraju\u0107i na raznovrsne upite. Me\u0111utim, kako se ova tehnologija sve vi\u0161e integrira u zadatke koji se kre\u0107u od pomo\u0107i u obrazovanju i istra\u017eivanju na radnom mjestu do upita vezanih za zdravlje, pojavljuje se zna\u010dajan razlog za zabrinutost: AI sustavi \u010desto generiraju informacije koje nisu to\u010dne.<\/p>\n\n\n\n Hallucinations in LLM are due to the Auto-Regressive prediction. Ovaj fenomen, nazvan halucinacijom od strane stru\u010dnjaka, privukao je pa\u017enju mnogih. Neke kritike idu toliko daleko da AI chatbotove nazivaju “patolo\u0161kim la\u017eljivcima”.<\/p>\n\n\n\n No, ovi epiteti proizlaze iz ljudske sklonosti da pripisujemo ljudske osobine radnjama strojeva, tvrdi Suresh Venkatasubramanian, profesor Sveu\u010dili\u0161ta Brown. U stvarnosti, Venkatasubramanian sugerira da je temeljna tehnologija, veliki jezi\u010dni model poput onog koji pokre\u0107u ChatGPT, jednostavno usmjeren na stvaranje odgovora koji zvu\u010de vjerodostojno, bez obzira na njihovu to\u010dnost. “Tu nema spoznaje o istini”, poja\u0161njava on.<\/p>\n\n\n\n Poma\u017eu\u0107i u stvaranju bolje analogije, Venkatasubramanian uspore\u0111uje generirani izlaz AI-a s tendencijom dje\u010djeg pri\u010danja pri\u010da. Ba\u0161 kao \u0161to dijete iznova i iznova stvara pri\u010de, AI modeli stvaraju odgovore bez oslanjanja na \u010dinjenice.<\/p>\n\n\n\n I dok su kreatori AI-a implementirali za\u0161titne mehanizme kako bi ubla\u017eili takve halucinacije, rasprava unutar AI zajednice i dalje traje o tome mo\u017ee li se ovo pitanje potpuno rije\u0161iti.<\/p>\n\n\n\n AI halucinacija doga\u0111a se kada AI generira sadr\u017eaj koji odstupa od stvarnosti, kako obja\u0161njava Jevin West sa Sveu\u010dili\u0161ta Washington's Center for an Informed Public. To \u010dini sa zapanjuju\u0107om razinom samopouzdanja, a tadase \u010dini da su informacije to\u010dne. Ova karakteristika ote\u017eava korisnicima razlikovanje istine od neistine kada tra\u017ee odgovore od umjetne inteligencije<\/a>.<\/p>\n\n\n
I think what I call "Objective Driven AI" will solve the problem: systems that plan their answer by optimizing a number of objective functions *at inference time* https:\/\/t.co\/JcR5hItwzJ<\/a><\/p>— Yann LeCun (@ylecun) June 9, 2023<\/a><\/blockquote>\n\n\n\n