Pratite nas

Pozdrav, koji sadržaj vas zanima?

Umjetna inteligencija

Mora li se rizik od AI-ja tretirati jednako ozbiljno kao i klimatska kriza? Evo što o tome misli Hassabis

Mora li se rizik od AI-ja tretirati jednako ozbiljno kao i klimatska kriza?
Shutterstock

Svijet mora tretirati rizike od umjetne inteligencije jednako ozbiljno kao i klimatsku krizu i ne može si priuštiti odgađanje svog odgovora, upozorio je jedan od vodećih ljudi u tehnologiji.

Govoreći uoči samita o sigurnosti AI-ja koji organizira britanska vlada, Demis Hassabis rekao je da nadzor industrije može početi tijelom sličnim Međuvladinom panelu o klimatskim promjenama (IPCC).

Hassabis, britanski izvršni direktor Googleove AI jedinice, rekao je da svijet mora odmah djelovati u suočavanju s opasnostima tehnologije, što uključuje pomoć u stvaranju biološkog oružja i egzistencijalnu prijetnju koju predstavljaju superinteligentni sustavi.

“Moramo shvatiti rizike od AI-ja jednako ozbiljno kao i druge velike globalne izazove, poput klimatskih promjena”, rekao je. “Međunarodnoj zajednici trebalo je previše vremena da koordinira učinkovit globalni odgovor na to, i sada živimo s posljedicama toga. Ne možemo si priuštiti isto odgađanje s AI-jem.”

Hassabis, čija je jedinica stvorila revolucionarni program AlphaFold koji prikazuje strukture proteina, rekao je da bi AI mogao biti “jedna od najvažnijih i najkorisnijih tehnologija ikada izumljenih”.

AI
Shuttesrtock

Međutim, rekao je Guardianu da je potreban režim nadzora i da bi vlade trebale crpiti inspiraciju iz međunarodnih struktura poput IPCC-a.

“Mislim da moramo početi s nečim poput IPCC-a, gdje je to znanstveni i istraživački sporazum s izvješćima, i onda graditi odatle.”

Dodao je: “Zatim bih volio vidjeti ekvivalent Cernu za sigurnost AI-ja koji se bavi istraživanjima u tom smjeru – ali međunarodno. A možda jednog dana postoji nešto poput IAEA-e koja zapravo provodi revizije takvih stvari.”

Međunarodna agencija za atomsku energiju (IAEA) je tijelo UN-a koje promiče sigurnu i mirnu upotrebu nuklearne tehnologije u nastojanju da spriječi širenje nuklearnog oružja, uključujući inspekcije.

Međutim, Hassabis je rekao da nijedna od regulatornih analogija korištenih za AI nije “izravno primjenjiva” na tehnologiju, iako se “vrijedne lekcije” mogu izvući iz postojećih institucija.

Prošlog tjedna Eric Schmidt, bivši izvršni direktor Googlea, i Mustafa Suleyman, suosnivač DeepMinda, pozvali su na stvaranje panela poput IPCC-a o AI-ju. Iako britanski dužnosnici podržavaju takav potez, smatra se da vjeruju da bi njegovo stvaranje trebalo biti provedeno pod okriljem UN-a.

Hassabis je rekao da AI može donijeti “nevjerojatne prilike” u područjima poput medicine i znanosti, ali je priznao egzistencijalne brige oko tehnologije. One se temelje na mogućem razvoju opće umjetne inteligencije (AGI) – sustavi s ljudskom ili iznad ljudske razine inteligencije koji bi mogli izbjeći ljudsku kontrolu.

Hassabis je bio jedan od potpisnika otvorenog pisma u svibnju koje upozorava da bi prijetnja izumiranja od AI-ja trebala biti smatrana rizikom na razini društva usporedivim s pandemijama i nuklearnim ratom.

“Trebali bismo početi razmišljati i istraživati sada. Mislim jučer, zapravo”, rekao je. “Zato sam potpisao, i mnogi su ljudi potpisali, to pismo. Jer smo željeli dati kredibilitet tome da je to razumno pitanje za raspravu.”

Neki stručnjaci iz tehnološke industrije zabrinuti su da bi AGI ili “božanski” AI mogao biti samo nekoliko godina udaljen od pojavljivanja – iako postoji i mišljenje da su strahovi o egzistencijalnoj prijetnji pretjerani.

Hassabis je rekao da je svijetu još dugo vremena do razvoja AGI sustava, ali “vidimo put do tamo, pa bi trebali razgovarati o tome sada”.

Rekao je da trenutačni AI sustavi “nisu rizični, ali slijedeće generacije mogu biti kada imaju dodatne sposobnosti poput planiranja i pamćenja i drugih stvari… Bit će fenomenalni za dobre uporabne slučajeve, ali također će imati i rizike.”

Samit 1. i 2. studenog u Bletchley Parku, bazi za dekodere iz Drugog svjetskog rata, uključujući Alana Turinga, fokusirat će se na prijetnju naprednim AI sustavima koji pomažu u stvaranju biološkog oružja, izvođenju paralizirajućih sajber napada ili izbjegavanju ljudske kontrole. Hassabis će biti jedan od prisutnih, zajedno s izvršnim direktorima vodećih AI firmi, uključujući OpenAI, razvojnog programera iz San Francisca ChatGPT.

Jedinica Hassabisa postigla je značajna otkrića u tehnologiji AI-ja, poput stvaranja programa AlphaGo AI koji je pobijedio najboljeg igrača na svijetu u Go-u, kineskoj igri na ploči, i revolucionarnog projekta AlphaFold koji predviđa kako proteini prelaze u 3D oblike, proces koji je otvorio put za proboje u raznim područjima, uključujući borbu protiv bolesti.

Hassabis je rekao da je optimističan zbog AI-ja zbog njegovog potencijala da revolucionira područja poput medicine i znanosti, ali da treba pronaći “srednji put” za upravljanje tehnologijom.

AI je skočio na političku agendu nakon javnog puštanja prošle godine ChatGPT-a, chatbota koji je postao senzacija zbog svoje sposobnosti da proizvodi vrlo uvjerljive tekstualne odgovore na ljudske unose, od proizvodnje dugih akademskih eseja do recepata i molbi za posao, pa čak i pomoći ljudima da opozovu kazne za parkiranje.

Alati za generiranje slika AI-ja poput Midjourneyja također su zapanjili promatrače stvaranjem realističnih slika, uključujući notornu “fotografiju” pape u jakni s naduvavanjem, zbog čega su se pojavile brige da bi zločesti akteri mogli koristiti AI alate za masovnu proizvodnju dezinformacija.

Te su se brige hranile zabrinutostima zbog potencijalne moći sljedeće generacije AI modela. Hassabis, čija jedinica radi na novom AI modelu zvanom Gemini koji će generirati sliku i tekst, rekao je da predviđa sustav nalik Kitemarku za modele koji će se pojaviti.

Ove godine britanska vlada pokrenula je radnu skupinu Frontier AI, koja ima za cilj stvoriti smjernice za testiranje najnovijih AI modela i mogla bi postati mjerilo za međunarodne napore u testiranju.

Hassabis je rekao: “Mogu zamisliti da će u budućnosti postojati ovaj niz od 1.000 testova, ili moglo bi biti 10.000 testova, i onda dobijete sigurnosni Kitemark iz toga.”

Ostavi komentar

Možda će vas zanimati

Tech

U Moskvi se održavaju tečajevi iz oralnog seksa za djevojke koje žele usavršiti svoje sposobnosti oralnog zadovoljavanja. Cijena tečaja je 3500 ruskih rublja (608kn)...

Tech

Što bi se dogodilo ako uronite ruku u posudu tekućeg dušika? Bi li vam se ruka smrzla do ozeblina? Bi li se razbila čim...

Internet

Sigurno ste do sad naletjeli na neke od bizarnosti na koje je Googleovo auto naletjelo pri snimanju, a u ovom videu pogledajte kompilaciju najčudnijih...

Tech

Trebate izračunati postotak od nekog broja, a ne znate kako? Pročitajte ovaj jednostavan članak i naučite kako se računa postotak. Postotci se koriste za...

Tech

1995. godine grupa znanstvenika NASA-e napravila je testove o tome kako pojedine droge utječu na paukovu sposobnost da izgradi mrežu.

Internet

Odmah da vam kažemo – neizbježan kraj dogodio bi se iznenađujuće brzo. Ako je zapremnina prosječnog lijesa 886 litara, a prosječan volumen ljudskog tijela...

Automoto

Tvrtka Laser Power Systems razvila je automobil pogonjen nuklearnom energijom. Napokon je pronađen način koji će vašem automobilu omogućiti vječni rad bez punjenja. No...

Tech

Rudnik dijamanata Mir u Siberu jedna je od najvećih rupa u tlu koju je čovjek napravio. Duboka je 525 metara i široka 1200m. Let...