Pratite nas

Pozdrav, koji sadržaj vas zanima?

Tech

Bivši zaposlenici AI tvrtki upozoravaju na pogubne rizike umjetne inteligencije

Pismo priznaje dobrobiti koje napredak umjetne inteligencije može dati društvu, ali također prepoznaje brojne nedostatke koje navodi

Foto: Shutterstock.com / Montaža: GeeK.hr

Bivši zaposlenici vrhunskih AI tvrtki iz Silicijske doline, kao što su OpenAI, Googleov DeepMind i Anthropic, potpisali su otvoreno pismo, šaljući oštro upozorenje o rizicima umjetne inteligencije i kako bi mogla čak dovesti do izumiranja ljudi. Pismo je potpisalo 13 takvih djelatnika. Neel Nanda iz DeepMinda jedini je među njima koji je još uvijek zaposlen u jednoj od AI tvrtki protiv kojih su pisali.

Kako bi pojasnio svoje stajalište o tom pitanju, Neel je također postavio objavu na Twitteru u kojoj je napisao da samo želi da tvrtke jamče da će zaposlenici, ako postoji zabrinutost u vezi s određenim AI projektom, moći upozoriti na to bez posljedica, tj. bez da ih se označi “zviždačima”. Nadalje je dodao da ne postoji neposredna prijetnja na koju želi upozoriti, te da je pismo samo korak predostrožnosti za budućnost.

Pismo upozorenja

Pismo priznaje dobrobiti koje napredak umjetne inteligencije može dati društvu, ali također prepoznaje brojne nedostatke koje navodi.

Istaknuti su sljedeći rizici:

  • Širenje dezinformacija
  • Manipuliranje masama
  • Sve veća nejednakost u društvu
  • Gubitak kontrole nad umjetnom inteligencijom mogao bi dovesti do izumiranja ljudi

Ukratko, sve što vidimo u apokaliptičnim znanstveno-fantastičnim filmovima (kao što su Arrival i Blade Runner 2049) može oživjeti. U pismu se također tvrdi da tvrtke koje se bave umjetnom inteligencijom ne čine dovoljno da ublaže te rizike. Očigledno, imaju dovoljno “financijskog poticaja” da se više usredotoče na inovacije i za sada ignoriraju rizike. U najmanju ruku – zabrinjavajuće.

Također se dodaje da tvrtke s umjetnom inteligencijom moraju poticati transparentnije radno okruženje, u kojem bi zaposlenike trebalo poticati da izraze svoje brige umjesto da budu kažnjeni za to. Ovo se odnosi na najnoviju kontroverzu u OpenAI-ju, gdje su zaposlenici bili prisiljeni birati između gubitka svog stečenog kapitala ili potpisivanja “Sporazuma o neomalovažavanju” (Non-disparagement agreement) koji bi zauvijek bio obvezujući za njih. Tvrtka je kasnije povukla ovaj potez, rekavši da se protivi njezinoj kulturi i onome što tvrtka zastupa, ali šteta je već bila učinjena.

Među svim tvrtkama koje se spominju u pismu svakako se ističe OpenAI, zbog niza skandala u koje je u posljednje vrijeme upao. Primjerice, u svibnju ove godine OpenAI je raspustio tim koji je bio odgovoran za istraživanje dugoročnih rizika umjetne inteligencije manje od godinu dana nakon što je formiran.

Međutim, vrijedno je napomenuti da je tvrtka pretprošlog tjedna osnovala novi Odbor za sigurnost. Vodit će ga CEO, Sam Altman. Nedavno je OpenAI napustilo i nekoliko rukovoditelja na visokoj razini, uključujući suosnivača Ilyju Sutskevera. Dok su neki otpušteni bez da su rekli “a”, drugi poput Jana Leikea otkrili su da je OpenAI odstupio od svojih izvornih ciljeva i više ne daje sigurnost kao prioritet.

Što je OpenAI odgovorio na pismo?

Govoreći o gore spomenutom pismu, glasnogovornik OpenAI-ja rekao je da tvrtka razumije zabrinutost oko umjetne inteligencije i čvrsto vjeruje da je zdrava rasprava o ovom pitanju ključna. Nadalje, rekli su da će OpenAI nastaviti surađivati s američkom vladom, stručnjacima iz industrije i zajednicama diljem svijeta na sigurnom i održivom razvoju AI-ja.

Nedavno je OpenAI prekinuo pet tajnih operacija podržanih od strane Kine, Irana, Izraela i Rusije koje su pokušavale zloupotrijebiti sadržaj generiran umjetnom inteligencijom i otkloniti pogreške na web stranicama i botovima za širenje svoje zlonamjerne propagande. Govoreći o davanju zaposlenicima slobode da izraze svoje brige, OpenAI je naglasio da već ima otvorenu anonimnu telefonsku liniju za svoje radnike upravo iz tog razloga, tj. svatko može prijaviti svoju zabrinutost u vezi s poslovanjem tvrtke bez otkrivanja svog identiteta.

Iako bi ovaj odgovor OpenAI-ja nekima mogao zvučati umirujuće, Daniel Ziegler, bivši zaposlenik OpenAI-ja koji je bio pokretač pisma, rekao je da je još uvijek važno ostati skeptičan. Unatoč onome što tvrtka kaže o poduzimanju mjera usmjerenih na sigurnost, nikada u potpunosti ne znamo što se zapravo događa. Ovo je možda najstrašniji dio – da možda nikada nećemo saznati koji će biti ključan pogrešan korak u razvoju umjetne inteligencije dok ne bude prekasno.

Ostavi komentar

Možda će vas zanimati

Tech

Što bi se dogodilo ako uronite ruku u posudu tekućeg dušika? Bi li vam se ruka smrzla do ozeblina? Bi li se razbila čim...

Internet

Sigurno ste do sad naletjeli na neke od bizarnosti na koje je Googleovo auto naletjelo pri snimanju, a u ovom videu pogledajte kompilaciju najčudnijih...

Tech

Trebate izračunati postotak od nekog broja, a ne znate kako? Pročitajte ovaj jednostavan članak i naučite kako se računa postotak. Postotci se koriste za...

Tech

1995. godine grupa znanstvenika NASA-e napravila je testove o tome kako pojedine droge utječu na paukovu sposobnost da izgradi mrežu.

Internet

Odmah da vam kažemo – neizbježan kraj dogodio bi se iznenađujuće brzo. Ako je zapremnina prosječnog lijesa 886 litara, a prosječan volumen ljudskog tijela...

Automoto

Tvrtka Laser Power Systems razvila je automobil pogonjen nuklearnom energijom. Napokon je pronađen način koji će vašem automobilu omogućiti vječni rad bez punjenja. No...

Tech

Rudnik dijamanata Mir u Siberu jedna je od najvećih rupa u tlu koju je čovjek napravio. Duboka je 525 metara i široka 1200m. Let...

Tech

Bumerang je jedan od najstarijih letećih objekata koje je ljudska ruka stvorila. Svi znamo da su ih koristili Aboridžini, no malo je poznato je...