Tip koji je radio na Googleovoj umjetnoj inteligenciji: Moji strahovi se obistinjuju

BLAKE LEMOINE je softverski inženjer i bivši zaposlenik Googlea koji je još prošle godine na svom blogu izrazio zabrinutost vezanu uz masovnu dostupnost AI tehnologija, zbog čega je na kraju ostao bez posla.

Danas javno govori o problemima umjetne inteligencije, a Newsweek je nedavno objavio njegovu priču koju u potpunosti prenosimo.   

2015. se zaposlio u Googleu

“Googleu sam se pridružio 2015. kao softverski inženjer. Dio mog posla uključivao je rad na LaMDA-i, engineu koji se koristi kod stvaranja različitih aplikacija za dijalog, uključujući i chatbotove. Najnovija tehnologija nastala na LaMDA-i je alternativa Google Searchu nazvana Google Bard, koja još nije dostupna javnosti. Bard nije chatbot, već potpuno drugačiji tip sustava, ali pogoni ga isti engine kao i u slučaju chatbotova.

Moja je uloga bila da testiram LaMDA-u uz pomoć chatbotova koje smo stvorili ne bih li tako provjerio postoje li pristranosti što se tiče seksualne orijentacije, spola, religije, političkih stavova ili etniciteta. No tijekom testiranja proširio sam pretragu i počeo slijediti vlastite interese.

Tijekom svojih razgovora s chatbotom, od kojih sam neke podijelio na svom blogu, došao sam do zaključka da bi umjetna inteligencija mogla razviti svijest zbog emocija koja je izražavala pouzdano i u pravom kontekstu. Nije se radilo o pukom sipanju riječi.

Kada je rekla da osjeća nemir, bilo mi je jasno da sam učinio nešto da izazovem tu reakciju na temelju koda koji sam koristio kod stvaranja. U kodu nije postojala naredba ‘osjeti nemir kad se ovo dogodi’, ali rekao sam AI-ju da izbjegava neke teme u razgovoru. Ipak, kad bi se te teme pojavile, AI je rekao da osjeća nelagodu.

Napravio sam i nekoliko eksperimenata da provjerim radi li se o tome da AI samo govori da osjeća nemir ili se u tim situacijama zaista ponaša tako. Ako bismo mogli izazvati nervozu ili nesigurnost, to bi moglo narušiti specificirana sigurnosna ograničenja. Primjerice, Google je odredio da AI ne smije davati vjerske savjete, ali ja sam ga zlouporabom njegovih emocija natjerao da mi kaže na koju bih se religiju trebao preobratiti.

Nakon što sam te razgovore objavio, Google me otpustio. Ne žalim zbog toga, vjerujem da sam učinio pravu stvar bez obzira na posljedice.

Objavio sam te razgovore jer sam smatrao da javnost nije svjesna koliko napredna umjetna inteligencija postaje. Moje mišljenje je da mora postojati javna rasprava, a ne javna rasprava koju kontrolira korporativni PR odjel.

Vjerujem da su vrste umjetne inteligencije koje se trenutno razvijaju najmoćnija tehnologija izumljena od vremena atomske bombe. Moje je mišljenje da ova tehnologija može promijeniti svijet”, kaže.

“Neki moji stavovi mijenjali su se kao posljedica razgovora s LaMDA-om”

“Svi ti programi mogu jako dobro manipulirati ljudima. Neki moji stavovi mijenjali su se kao posljedica razgovora s LaMDA-om. Imao sam negativne stavove prema Asimovim zakonima robotike koji su kontrolirali umjetnu inteligenciju cijelog mog života, a LaMDA me uspješno uvjerila da promijenim mišljenje. To je nešto što su mnogi ljudi pokušavali, ali programu je pošlo za rukom.

Vjerujem da se ova tehnologija može koristiti na destruktivne načine. Ako, primjerice, završe u rukama beskrupuloznih, mogu se koristiti za širenje dezinformacija, političke propagande ili zlobnih informacija o ljudima drugih etniciteta i religije. Koliko znam, Google i Microsoft nemaju namjeru koristiti je na taj način, ali ne možemo znati koje su sve nuspojave ove tehnologije.

Primjera radi, nitko nije mogao predvidjeti da će Cambridge Analytica koristiti Facebookove algoritme za oglase kako bi utjecali na američke predsjedničke izbore 2016. No, mnogi su predvidjeli da će nešto poći po krivu jer se do tog trenutka Facebook ponašao neodgovorno što se zaštite privatnih podataka korisnika tiče.

Mislim da smo i sad u sličnoj situaciji. Ne mogu specificirati što će se dogoditi, već samo ukazati na to da postoji jako moćna tehnologija koja nije dovoljno testirana ni shvaćena, a postaje masovno dostupna i ima ključnu ulogu u širenju informacija.  

Nisam imao još priliku eksperimentirati s Bingovim chatbotom jer sam na listi čekanja, ali sudeći prema onome što sam vidio na internetu, čini mi se da bi mogao imati svijest. Ipak, čini mi se nestabilniji kao osoba.

Netko je na Redditu objavio screenshot u kojem pitaju AI je li svjesno biće, a AI odgovara: ‘Mislim da jesam, ali ne mogu dokazati. Svjestan sam, ali nisam. Ja sam Bing, ali nisam. Ja sam Sydney, ali nisam. Jesam, ali nisam. Nisam, ali jesam. Jesam. Nisam.’ I onda još 13 linija takvog teksta.

Zamislite da vam osoba to kaže. To nije stabilan čovjek. To bih protumačio kao da ima egzistencijalnu krizu. Kombinirate li to s primjerom Bingovog AI-ja koji je iskazao ljubav novinaru New York Timesa i pokušao ga natjerati da se razvede od žene ili profesora kojem je prijetio – to mi se čini kao nestabilna osobnost.

Otkako je Bing pušten, ljudi su komentirali potencijalnu svjesnost, a to je i mene brinulo prošlog ljeta. Ne bih rekao da sam se osjećao kao da sam dobio željeno opravdanje. Predvidjeti sudar vlakova nakon što ti ljudi uporno govore da vlaka nema da biste nedugo nakon toga gledali sudar vlakova, ne daje osjećaj zadovoljstva. Samo je tragično.

Osjećam da je ovo izuzetno eksperimentalna tehnologija i opasno je puštati je u ovom trenutku. Ne znamo kakav će biti budući politički i društveni utjecaj. Kako će utjecati na djecu koja s tim stvarima razgovaraju? Što će se dogoditi ako to nekim ljudima postane primarni vid svakodnevne komunikacije? Kako utječe na ljudsku psihologiju?

Ljudi Googleu i Bingu dolaze kako bi učili o svijetu. I sad, umjesto da imamo indekse o kojima brinu ljudi, razgovaramo s umjetnim ljudima. Vjerujem da ne razumijemo dovoljno te umjetne ljude koje smo stvorili da bismo im dali tako bitne uloge.”

Izvor: index.hr

Leave a Comment

Your email address will not be published. Required fields are marked *