Ponedjeljak 14 Listopad 2024

Pretraga

Može li umjetna inteligencija pobjeći kontroli i Uništiti nas?

01 Lip 2019
(Reading time: 8 - 15 minutes)
Zvjezdica neaktivnaZvjezdica neaktivnaZvjezdica neaktivnaZvjezdica neaktivnaZvjezdica neaktivna
 

„Počelo je prije tri i pol milijarde godina u bazenu blata, kada je prva molekula napravila kopiju sebe i tako postala konačni predak cijelog zemaljskog života. Počelo je prije četiri milijuna godina, kada se volumen mozga brzo počeo penjati u hominidnoj liniji. Prije pedeset tisuća godina s usponom Homo sapiensa. Prije deset tisuća godina s izumom civilizacije. Prije pet stotina godina s izumom tiskarskog stroja. Prije pedeset godina s izumom računala. Za manje od trideset godina, to će se završiti. "
Jaan Tallinn naišao je na te riječi 2007. godine, u on-line eseju nazvanom "Pogled u Singularnost". "To" je ljudska civilizacija. Čovječanstvo će prestati postojati, predviđa autora eseja, s pojavom superinteligencije, ili AI-a koji nadilazi ljudski intelekt u širokom nizu područja.
Talin, računalni programer rođen u Estoniji, ima iskustvo u fizici i gaji ideju da je život jedan veliki programerski problem. Godine 2003. postaje suosnivač je Skype-a, razvijajući pozadinu aplikacije. Unovčio je svoje dionice nakon što je eBay kupio Skype dvije godine kasnije, a sada je traži nešto ćemu će posvetiti svoje vrijeme. "Gledanje u Singularnost" zgnječilo je računalni kod, kvantnu fiziku i Calvinova i Hobbesova razmišljanja, potpuno ga je preuzela ideja. Zakačio se...

Tallinn 0

Talin je ubrzo otkrio da je autor eseja, samouki teoretičar Eliezer Yudkowsky, napisao više od 1000 članaka i postova na svom blogu, od kojih su mnogi bili posvećeni superinteligenciji. Tallinn je napisao program za iskopavanje spisa Yudkowskoga s interneta, poredao ih kronološki i formatirao za svoj iPhone. Onda je proveo veći dio godine čitajući ih.

Pojam "umjetna inteligencija", ili simulacija inteligencije u računalima ili strojevima, skovana je još 1956., samo desetljeće nakon stvaranja prvih elektroničkih digitalnih računala. Nada u razvitak nečega takvog u početku je bila visoka, ali do 1970-ih, kada se rana predviđanja nisu ostvarila, počela je "zima AI-a". Kad je Tallinn pronašao eseje Yudkowskoga, AI je prolazio kroz renesansu. Znanstvenici su razvijali umjetnu inteligenciju koja se isticala u određenim područjima, kao što je rasturanje u šahu, čišćenju kuhinjskog poda i prepoznavanju ljudskog govora. Takve "uske" AI mogućnosti, kako se zovu, imaju nadljudske sposobnosti, ali samo u njihovim specifičnim područjima dominacije. AI koji igra šah ne može očistiti pod ili vas odvesti iz točke A u točku B. No, super-inteligentna AI, vjeruje Tallinn, kombinirat će širok raspon vještina u jednom entitetu. Još mračnije, također može koristiti podatke generirane od strane pametnih ljudi da bi se istaknula u društvenoj manipulaciji.
Čitajući članke Yudkowskija, Tallinn se uvjerio da bi superinteligencija mogla dovesti do eksplozije ili "probijanja" umjetne inteligencije koja bi mogla ugroziti ljudsko postojanje - da će ultrazvučna inteligencija zauzeti naše mjesto na evolucijskoj ljestvici i dominirati na način na koji sada mi dominiramo majmunima. Ili, još gore, uništiti nas.
Nakon što je završio posljednje eseje, Tallinn je poslao poruku e-pošte Yudkowskijem - sve u malim slovima, kakav je bio njegov stil. "Ja sam, jedan od osnivača skypea", napisao je. Na kraju je došao do točke: "Slažem se da ... priprema za događaj da opća AI-e nadilazi ljudsku inteligenciju je jedan od glavnih zadataka za čovječanstvo." Htio je pomoći. Kada je odletio u Bay area u Kaliforniji na neke sastanke, ubrzo nakon toga, upoznao je Yudkovskog u okrugu Panera u Millbraeu, u Kaliforniji, blizu mjesta gdje živi. Njihova druženja protezala su se na četiri sata. "On je zapravo razumio temeljne koncepte i detalje", prisjeća se Yudkowsky. "Ovo je vrlo rijetko." Nakon toga, Tallinn je napisao ček od 5000 dolara Institutu za umjetnu inteligenciju Singularity, neprofitnom društvu u kojem je Yudkowsky bio istraživač. (Organizacija je promijenila ime u Machine Intelligence Research Institute ili MIRI, 2013.) Tallinn je s obzirom na to dao više od 600.000 dolara svojeg novca na kraju ukupno.

SiN 106 1200x640

Eliezer Yudkowsky, slika iznad.

Susret s Yudkowskijem donio je svrhu Talinu, poslat je na misiju da nas spasi od naših vlastitih tvorevina. Dok je povezivao to pitanje s drugim teoretičarima i računalnim znanstvenicima, krenuo je na životno putovanje, držeći predavanja širom svijeta o prijetnji koju predstavlja superinteligencija. Uglavnom je, međutim, počeo financirati istraživanja metoda koje bi čovječanstvu mogle dati izlaz: takozvane prijateljske AI-jeve. To ne znači da je stroj ili agent posebno vješt u razgovoru o vremenu, ili da pamti imena vaše djece - premda bi super-inteligentna AI mogla učiniti obje stvari. To ne znači da je motiviran altruizmom ili ljubavlju. Uobičajena zabluda je pretpostavka da AI ima ljudske nagone i vrijednosti. "Prijateljski" znači nešto mnogo temeljitije: da nas strojevi sutrašnjice neće izbrisati u potrazi za postizanjem njihovih ciljeva.
Devet godina nakon sastanka s Yudkowskim, Tallinn mu se pridružio u objedovanju u blagovaonici sveučilišta Cambridge University - Isusovačke katedre. Crkveni prostor ukrašen je vitražnim prozorima, zlatnim kalupima i uljanim slikama muškaraca u perikama. Tallinn je sjedio za stolom od teškog mahagonija, odjeven u ležernu odjeću Silikonske doline: crne traperice, majicu kratkih rukava i tenisice.

Sa 46 godina, Tallinn je na neki način vaš poduzetnički vodić u udžbenicima. On misli da će zahvaljujući napretku u znanosti (i pod uvjetom da nas AI ne uništi) živjeti još "mnogo, mnogo godina". Njegova zabrinutost oko superinteligencije je uobičajena među njegovom kohortom. Zaklada suosnivača tvrtke PayPal, predvođena Peterom Thielom, dala je MIRI-u 1,6 milijuna dolara, a 2015. godine osnivač Tesle Elon Musk donirao je 10 milijuna dolara Institutu za budućnost života, organizaciji za tehnološku sigurnost u Cambridgeu, Massachusetts. Talinov ulazak u taj razrijeđeni svijet došao je iza Željezne zavjese 1980-ih, kada je otac jednog njegovog školskog kolege koji je radio u Sovjetskoj vladi omogućio nekolicini sjajnih dječaka pristupu glavnim računalima tadašnjeg SSSR-a. Nakon što je Estonija postala neovisna, osnovao je tvrtku za videoigre. Danas Talin još uvijek živi u glavnom gradu Estonije, koji se slučajnošću naziva Talin - sa suprugom i najmlađom od šestero djece. Kad se želi susresti s istraživačima, često jednostavno odleti u baltičku regiju.
Njegova strategija davanja je metodična, kao i gotovo sve drugo što radi. Raspoređuje svoj novac među 11 organizacija, od kojih svaka radi na različitim pristupima sigurnosti inteligencije, u nadi da bi se jedna mogla proslaviti. Godine 2012. suosnivač je Cambridge Centra za proučavanje egzistencijalnog rizika (CSER) s početnim budžetom od gotovo 200.000 USD.

termionatore1
Egzistencijalni rizici - ili X-rizici, kako ih Talin naziva - predstavljaju prijetnju opstanku čovječanstva. Osim AI, 20-ak istraživača u CSER-u proučavaju klimatske promjene, potencijalne posljedice nuklearnog rata i biološko oružje. No, u Tallinnu, druge discipline uglavnom pomažu legitimiranju prijetnji od umjetne inteligencije. "To je zapravo samo droga", kaže Tallin. Zabrinutost zbog šire prihvaćenih prijetnji, kao što su klimatske promjene, nada se da će privući nove mlade ljude u istraživanje. Užas super-inteligentnih strojeva koji preuzimaju svijet, nada se, uvjerit će ih da ostanu u istraživanju. On sada predaje na konferencijama jer želi da akademska zajednica ozbiljno shvati AI sigurnost.
Mnogi suputnici su slučajni asortiman posjetitelja konferencija, uključujući ženu iz Hong Konga koja studira robotiku i britanca, čovjeka koji je diplomirao na Cambridgeu 1960-ih. Stariji muškarac pita sve za stolom gdje su pohađali sveučilište. (Tallinnov odgovor, Estonijsko sveučilište u Tartuu, ne impresionira ga.) Zatim nastoji usmjeriti razgovor prema vijestima. Tallinn ga je pogledao prazno. "Ne zanimaju me kratkoročni rizici", kaže on.
Tallinn mijenja temu u prijetnju superinteligencije. Kada nije razgovarao s drugim programerima, on je davao metafore, a sada prolazi kroz svoj paket njih: Napredna AI nas može riješiti jednako brzo kao što ljudi sijeku drveće. Superinteligencija je za nas ono što smo mi gorilama. Na latinskom je iznad njegove glave ispisan redak iz Psalma 133: "Koliko je dobro i kako je ugodno braći živjeti zajedno u jedinstvu."

AI će trebati tijelo koje će preuzeti, kaže stariji muškarac. Bez neke vrste fizičkog kućišta, kako bi mogao dobiti fizičku kontrolu? Tallinn ima spremnu još jednu metaforu: "Stavite me u podrum s internetskom vezom, i ja bih mogao učiniti mnogo štete", kaže on. Zatim uzima zalogaj rižota.
Bilo da je riječ o Roombi ili jednom od njenih nadmoćnih svjetskih potomaka, AI je vođen ishodima. Programeri dodjeljuju ove ciljeve, zajedno s nizom pravila o tome kako ih slijediti. Napredna AI ne bi nužno trebala imati cilj svjetske dominacije kako bi se to postiglo - to bi se moglo dogoditi sasvim slučajno. A povijest računalnog programiranja prepuna je malih pogrešaka koje su izazvale katastrofe. U 2010., na primjer, trgovac koji je radio za tvrtku za zajedničko ulaganje Waddell & Reed prodao je tisuće futures ugovora. Softver tvrtke je izostavio ključnu varijablu iz algoritma koji je pomogao izvršiti trgovinu. Rezultat je bio gubitak milijardi dolara u SAD-u.
Istraživači iz Talina vjeruju da ako struktura nagrađivanja nadljudskog AI-a nije pravilno programirana, čak i benigni ciljevi mogu imati podmukle ciljeve. Jedan dobro poznati primjer, koji je filozof iz Oxfordskog sveučilišta Nick Bostrom izložio u svojoj knjizi Superinteligencija, fiktivni je agent usmjeren na stvaranje što više spajalica. AI može odlučiti da će se atomi u ljudskim tijelima bolje iskoristiti kao sirovina za nešto drugo.

termionatore2

Talinovi stavovi imaju svoj udio kritičara, čak i među zajednicom ljudi zabrinutih za sigurnost umjetne inteligencije. Neki prigovaraju da je prerano brinuti o ograničavanju super-inteligentne AI-je kada je još ne razumijemo. Drugi kažu da se usredotočivanje na nepoštene tehnološke aktere skreće pozornost s najhitnijih problema s kojima se suočava područje, poput činjenice da su većinu algoritama osmislili bijeli ljudi ili su bazirani na podacima sklonim prema njima. "U opasnosti smo izgraditi svijet u kojem ne želimo živjeti ako se kratkoročno ne pozabavimo tim izazovima", kaže Terah Lyons, izvršni direktor Partnerstva za AI, organizacija s više dionika usmjerena na AI sigurnost i druga pitanja. (Nekoliko instituta koje Talins podupire su članovi.) Ali, dodaje, neki od kratkoročnih izazova s kojima se suočavaju istraživači - kao što je uklanjanje algoritamske pristranosti - prethodnici su onima koje bi čovječanstvo moglo vidjeti sa super-inteligentnim AI.
Tallinn nije tako uvjeren. Smatra da super-inteligentna AI donosi jedinstvene prijetnje. Na kraju se nada da bi zajednica AI mogla slijediti vodstvo anti-nuklearnog pokreta 1940-ih. Nakon bombardiranja Hirošime i Nagasakija, znanstvenici su se udružili kako bi pokušali ograničiti daljnje nuklearne testove. "Znanstvenici Projekta Manhattan mogli su reći:" Gledajte, mi ovdje radimo inovacije, a inovacije su uvijek dobre, pa hajde samo da se bacimo naprijed ", kaže mi on. "Ali bili su odgovorniji od toga." A i svi znamo kako je na kraju sve završilo i koliko je tetova obavljeno, bez obzira na to što su znansvenici pričali.
Tallinn upozorava da će svaki pristup AI-u biti teško ostvariti. Ako je AI dovoljno pametan, objašnjava on, on bi mogao bolje razumjeti ograničenja od njegovih tvoraca. Zamislite, kaže on, "buđenje u zatvoru kojeg je izgradila gomila slijepih 5-godišnjaka". To bi moglo rezultirati buđenjem super-inteligentne AI koja je ograničena ljudima i koja će na ljude gledati sam Bog zna kako.

161007 omron robot 1 100686633 poster

Yudkowsky, teoretičar, pronašao je dokaze da bi to moglo biti istinito kada je, počevši od 2002. godine, vodio chat sesije u kojima je igrao ulogu AI-a zatvorenog u kutiji, dok je rotacija drugih ljudi igrala vratara zaduženog za čuvanje AI Tri od pet puta, Yudkowsky - obični smrtnik - kaže da je uvjerio vratara da ga pusti. Međutim, njegovi eksperimenti nisu obeshrabrili istraživače da pokušaju osmisliti bolju kutiju.
Istraživači iz Tallinnovih fondova provode široku paletu strategija, od praktičnih do naizgled pretjeranih. Neki teoretiziraju o boksanju umjetne inteligencije, bilo fizički, izgradnjom stvarne strukture koja će je sadržavati, ili programiranjem u granicama onoga što može učiniti. Drugi pokušavaju naučiti AI pridržavati se ljudskih vrijednosti. Nekoliko ih radi na prekidaču za isključivanje. Jedan od istraživača koji se bavi sa sve tri stvari je matematičar i filozof Stuart Armstrong sa Instituta za budućnost čovječanstva Sveučilišta u Oxfordu, koji Tallinn naziva "najzanimljivijim mjestom u svemiru AI-a".
Jednog popodneva na kavi u kafiću u Oxfordu na ruci nosi košulju ragbija otkopčan na ovratniku i izgleda kao netko tko svoj život provodi iza platna, s blijedim licem uokvirenim neredom pješčane kose. Svoja objašnjenja obrađuje dezorijentirajućom mješavinom referenci popularne kulture i matematike. Kad ga pitaju kako bi moglo izgledati da uspiju u AI sigurnosti, on kaže: “Jeste li vidjeli film Lego? Sve je strašno. "

Jedna vrsta Armstrongovog istraživanja bavi se specifičnim pristupom boksanju nazvanim “Oracle” AI. U dokumentu iz 2012. godine s Nickom Bostromom, koji je suosnivač FHI-a, predložio je ne samo prekrivanje superinteligencije u tankerskom spremištu - fizičkom strukturom - nego i ograničavanje odgovaranja na pitanja, poput stvarno pametne Ouija ploče. Čak i uz ove granice, AI bi imala ogromnu moć da preoblikuje sudbinu čovječanstva suptilno manipulirajući svojim ispitivačima. Da bi se smanjila mogućnost da se to dogodi, Armstrong je predložio vremenska ograničenja za razgovore ili zabranu pitanja koja bi mogla nadograditi trenutni svjetski poredak.
Naposljetku, vjeruje Armstrong, moglo bi biti potrebno stvoriti, kako on to naziva, u jednom dokumentu, "veliki crveni gumb": ili fizički prekidač, ili mehanizam programiran u AI-u za automatsko isključivanje u slučaju bijega. No projektiranje takvog prekidača nije nimalo lako. Ne samo da je napredni AI zainteresiran za samoodržanje, nego može spriječiti pritiskanje gumba. Također bi mu moglo postati zanimljivo zašto su ljudi osmislili gumb, aktivirali ga da vide što će se dogoditi i učiniti ga time beskorisnim. U 2013. programer po imenu Tom Murphy VII osmislio je AI koji se mogao naučiti igrati igre Nintendo Entertainment Systema. Odlučan da ne izgubi u Tetrisu, AI je jednostavno pritisnuo stanku - i održao igru ​​zamrznutom. "Doista, jedini pobjednički potez nije bilo igranje", kazao je Murphy u novinama o svom stvorenju.
Da bi strategija uspjela, AI mora biti nezainteresirana za gumb, ili, kako to Tallinn kaže, "mora dodijeliti jednaku vrijednost svijetu u kojem ne postoji i svijetu u kojem postoji." Ali čak i ako istraživači mogu postići to, postoje i drugi izazovi. Što ako se AI kopira nekoliko tisuća puta preko interneta?

Pristup kojim većina istraživača istražuje pronalazi način da se AI prilagodi ljudskim vrijednostima - ne programiranjem istih, nego poučavanjem umjetnih inteligencija da ih nauče. U svijetu u kojem dominira partizanska politika, ljudi se često oslanjaju na načine na kojima se naši principi razlikuju. No, bilješke u Tallinnu, ljudi imaju mnogo toga zajedničkog: „Skoro svatko cijeni desnu nogu". Jednostavno ne razmišljamo o tome. ”Nada je da bi se AI mogao naučiti razlikovati takva nepromjenjiva pravila".
U tom procesu, AI bi trebala učiti i cijeniti više ljudsku/humanu stranu, a manje onu logičku stranu ljudi: da, često kažemo jednu stvar, a mislimo sasvim nešto drugo, da su neke od naših sklonosti u sukobu s drugima i da su ljudi manje pouzdani kada su pijani. No, tragovi podataka koje ostavljamo u aplikacijama i na društvenim mrežama mogu pružiti vodič. Unatoč izazovima, vjeruje Tallinn, moramo pokušati jer su ulozi tako visoki. "Moramo razmisliti nekoliko koraka naprijed", kaže on. "Stvaranje umjetne inteligencije koja ne dijeli naše interese bila bi užasna pogreška."

Krajnji cilj istraživanja u sigurnosti umjetne inteligencije je stvoriti strojeve koji su, kako je to jednom rekao Cambridgeov filozof i suosnivač CSER-a Huw Price, "etički i kognitivno nadljudski". Drugi su postavili pitanje: ako ne želimo AI da dominira nama, želimo li dominirati njime? Drugim riječima, ima li AI prava? Tallinn kaže da je to nepotrebna antropomorfizacija. Pretpostavlja se da je inteligencija jednaka svijesti - pogrešno shvaćanje koje nervira mnoge istraživače AI.
U podrumu jednom prilikom, Tallinn kaže da su posljedice ispod poante: "Uzmite primjer termostata. Nitko ne bi rekao da je svijestan, ali tko bi se želio suočiti s njim u podrumskoj prostoriji kad je podešen na recimo -30 stupnjeva".
"Bilo bi lijepo brinuti o svijesti", kaže on, "ali nećemo imati luksuz da brinemo o svijesti ako nismo najprije riješili tehničke izazove sigurnosti."

U konačnici ljudi su previše zaokupljenime pitanjem kako bi trebala izgledati umjetna inteligencija, no više bi se trebali brinuti činjenicom da ona "puštena" van može u sekundi preuzeti kontrolu nad vojskom jedne države ili čak svih država istovremeno, izgenerirati lansirne kodove za nuklearke i uništiti nas u roku par sati. Vrlo je bitno kojim ćemo putem usmjeravati AI, još uvijek imamo vremena da se ne sje...o!

 

Izvori slika i ideja za tekst:

Edge.org

Tech.eu

dailystar.co.uk

Wikipedia

O autoru
Danijel Folnegović
Author: Danijel FolnegovićWebsite: http://fx-files.comEmail: Ova e-mail adresa je zaštićena od spambota. Potrebno je omogućiti JavaScript da je vidite.
Owner
Danijel Folnegović je oduvijek bio zainteresiran za sve što ima veze s paranormalnim. Zarazio se time tamo davne 1993. gledajući prvu epizodu serije Dosije X. Voli pisati o bilo ćemu zanimljivom od NLO-a, vanzemaljaca, teorija urote, teorije o drevnim vanzemaljcima i nerješenim misterijama. Također, ima strast prema SF serijama i filmovima, ali i nogometu. Pokretač je ove stranice i brine o njenom neometanom radu. Povremeno se pojavljuje kao gost u nekim TV i radio emisijama.
Nedavni članci:

Comments powered by CComment

WMD hosting

wmd dno