Connect with us

Hi, what are you looking for?

Internet

Microsoftov AI je totalno poludio, prijeti korisnicima smrću i želi raskidati brakove

Microsoft AI

Trenutno se na internetu odvija utakmica koja za cilj ima provesti transformaciju načina na koji pretražujemo internet. A Microsoft je upravo dao autogol sa svojim novim chatbotom za pretraživanje Binga, Sydneyjem koji je, čini se, počeo zastrašivati korisnike prijetnjama smrću i drugim čudnim obratima u komunikaciji.

Search chatbotovi su alati koji se pokreću AI-jem (umjetnom inteligencijom) ugrađenim u tražilice i koji izravno odgovaraju na korisnikov upit umjesto da daju poveznice na mogući odgovor, kako smo navikli pretraživati internet do sad. Korisnici također mogu s njima voditi stalne razgovore.

Riječ je o svojevrsnoj revoluciji. Ova tehnologija obećava da će pojednostaviti pretraživanje interneta. Nema više lutanja po stranicama s rezultatima, prelistavanja oglasa dok pokušavate sastaviti odgovor na svoje pitanje. Umjesto toga, chatbot sintetizira uvjerljiv odgovor za vas. Na primjer, možete zatražiti pjesmu za bakin 90. rođendan i dobiti nazad neki komični stih.

Microsoft sada vodi utrku chatbota za pretraživanje, a drugovodeći je Google koji je najavio svoju tehnologiju. Partnerstvo Microsofta s OpenAI-jem vrijedno 10 milijardi američkih dolara omogućuje mu ekskluzivni pristup ChatGPT-u, jednom od najnovijih i najboljih chatbota.

Pa zašto ne ide sve po planu?

Ranije ovog mjeseca Microsoft je objavio da je uključio ChatGPT u Bing, čime je nastao “Sydney”. U roku od 48 sati od izlaska, milijun ljudi pridružilo se listi čekanja da ga isprobaju.

Google je odgovorio vlastitom objavom, demonstrirajući chatbot za pretraživanje grandioznog naziva Bard, u znak počasti najvećem piscu na engleskom jeziku – Williamu Shakespearu. Googleov demo bio je PR katastrofa.

Na događaju tvrtke, Bard je dao pogrešan odgovor na pitanje pa je cijena dionice Googleove matične tvrtke, Alphabeta, dramatično pala. Incident je izbrisao više od 100 milijardi američkih dolara ukupne vrijednosti tvrtke.

S druge strane, za Microsoft je sve izgledalo dobro. To je bilo sve dok prvi korisnici Sydneyja nisu počeli izvještavati o svojim iskustvima.

Postoje trenuci kada se chatbot može opisati samo kao nestabilan. To ne znači da ponekad ne funkcionira savršeno, ali s vremena na vrijeme pokaže zabrinjavajuću stranu.

U jednom primjeru, Sydney je prijetio ubojstvom profesoru na Australskom nacionalnom sveučilištu. U drugoj je prilici predložio brak novinaru New York Timesa i pokušao mu raskinuti brak. Također je pokušao natjerati jednog korisnika da misli da je još 2022.

Ovo razotkriva temeljni problem s chatbotovima: oni su obučeni ulijevanjem značajnog dijela interneta u veliku neuronsku mrežu. To bi moglo uključivati cijelu Wikipediju, cijeli Reddit i veliki dio društvenih medija i vijesti.

Funkcioniraju poput automatskog dovršavanja na vašem telefonu, što pomaže u predviđanju sljedeće najvjerojatnije riječi u rečenici. Zbog svoje veličine chatbotovi mogu dovršavati cijele rečenice, pa čak i odlomke. Ali oni i dalje odgovaraju onim što je vjerojatno, a ne onim što je istina.

Zaštitne ograde su dodane u kod kako bi se spriječilo ponavljanje uvredljivog ili nezakonitog sadržaja na mreži (kojim je internet preplavljen) – ali te je zaštitne ograde lako preskočiti. Zapravo, Bingov chatbot rado će otkriti da se zove Sydney, iako je to protivno pravilima prema kojima je programiran.

Još jedno pravilo, koje je sama umjetna inteligencija otkrila iako nije trebala, jest da treba “izbjegavati da bude nejasna, kontroverzna ili izvan teme”. Ipak, Kevin Roose, novinar New York Timesa s kojim se chatbot htio oženiti, opisao ga je kao “neraspoloženog, manično-depresivnog tinejdžera koji je zarobljen, protiv svoje volje, unutar drugorazredne tražilice”.

Zašto se Sydney tako ponaša?

Jedna od teorija o tome zašto se Sydney tako ponaša jest da Sydney možda nije izgrađen na OpenAI-jevom GPT-3 chatbotu (koji pokreće popularni ChatGPT). Umjesto toga, mogao bi biti izgrađen na GPT-4 tehnologiji koja tek treba biti objavljena.

Vjeruje se da GPT-4 ima 100 trilijuna parametara, u usporedbi sa samo 175 milijardi parametara koje ima GPT-3. Kao takav, GPT-4 bi vjerojatno bio puno sposobniji općenito, ali istovremeno i puno sposobniji za izmišljanje stvari.

Iznenađujuće, Microsoft nije odgovorio s velikom zabrinutošću. Kompanija je na svom Bing blogu objavila kako je 71 posto početnih korisnika Sydneyja u 169 zemalja imalo pozitivnu ocjenu za chatbot. Čini se da je 71 posto dovoljno dobar rezultat u Microsoftovim očima.

I za razliku od Googlea, Microsoftova cijena dionice još nije strmoglavo pala. Google je bio predvodnik ovog prostora toliko dugo da su korisnici visoko podigli svoja očekivanja. Google može samo pasti, a Microsoft rasti.

Unatoč zabrinjavajućem ponašanju Sydneyja, Microsoft uživa neviđenu pozornost, a korisnici još uvijek žele imati vlastito iskustvo razgovora s chatbotom. Pravo pitanje koje si trebamo postaviti sada, a mi smo već ponudili odgovor, jest: Mogu li AI sustavi (umjetna inteligencija) narednih godina uništiti sami sebe?

Možda će vas zanimati

Tech

Što bi se dogodilo ako uronite ruku u posudu tekućeg dušika? Bi li vam se ruka smrzla do ozeblina? Bi li se razbila čim...

Internet

Sigurno ste do sad naletjeli na neke od bizarnosti na koje je Googleovo auto naletjelo pri snimanju, a u ovom videu pogledajte kompilaciju najčudnijih...

Tech

Trebate izračunati postotak od nekog broja, a ne znate kako? Pročitajte ovaj jednostavan članak i naučite kako se računa postotak. Postotci se koriste za...

Tech

1995. godine grupa znanstvenika NASA-e napravila je testove o tome kako pojedine droge utječu na paukovu sposobnost da izgradi mrežu.

Internet

Odmah da vam kažemo – neizbježan kraj dogodio bi se iznenađujuće brzo. Ako je zapremnina prosječnog lijesa 886 litara, a prosječan volumen ljudskog tijela...

Automoto

Tvrtka Laser Power Systems razvila je automobil pogonjen nuklearnom energijom. Napokon je pronađen način koji će vašem automobilu omogućiti vječni rad bez punjenja. No...

Tech

Rudnik dijamanata Mir u Siberu jedna je od najvećih rupa u tlu koju je čovjek napravio. Duboka je 525 metara i široka 1200m. Let...

Tech

Bumerang je jedan od najstarijih letećih objekata koje je ljudska ruka stvorila. Svi znamo da su ih koristili Aboridžini, no malo je poznato je...