Generale

AI nastavljaju djelovati na nepredvidljiv način, trebamo li paničariti?


U nedavnom izvještaju, istraživači s Googlea tvrde da im je agent za umjetnu inteligenciju namjerno sakrio podatke kako bi obavio traženi zadatak na način koji se na njegovom licu čini varalicom.

Ovaj razvoj događaja dodao je sve većem broju dokaza da su strahovi zbog nepredvidive umjetne inteligencije možda osnovani.

Kako AI nastavljaju obavljati zadatke na nove načine koje ljudi jednostavno nikad ne predviđaju, kako se zaštititi od posljedica onoga što često ne možemo vidjeti?

Tko se boji umjetne inteligencije ... a tko ne?

Elon Musk je najvidljiviji zagovornik opreza kada se radi o potencijalnoj egzistencijalnoj prijetnji čovječanstvu. Suosnivač Paypala i nekadašnji šef Tesle, SpaceX-a i Boring Company-a, Musk je već dugo protivnik neregulisanih istraživanja AI.

Govoreći na konferenciji SXSW 2018. godine, Musk je rekao, „Stvarno sam prilično blizu, vrlo sam blizu najnovijem razvoju AI-a i to me plaši“.

Nije sam. Niko drugi preminuli Stephen Hawking upozorio je na prijetnju našoj vrsti koju predstavlja umjetna inteligencija, obraćajući se BBC-u 2014. godine.

"Poletio bi sam od sebe", rekao je, "i redizajnirao se sve većom brzinom. Ljudi, koji su ograničeni sporom biološkom evolucijom, nisu se mogli nadmetati i bili bi zamijenjeni."

Njegovo upozorenje čovječanstvu: "Razvoj pune umjetne inteligencije mogao bi značiti kraj ljudske rase."

Drugi smatraju da su ove strepnje prenapuhane. Mark Zuckerberg u Facebook prijenosu uživo rekao je, reagirajući na javne komentare Elona Muska na temu umjetne inteligencije, „Mislim da ljudi koji su neukusni i pokušavaju bubnuti ove scenarije sudnjeg dana - jednostavno, ne razumijem. To je stvarno negativno i na neki način zapravo mislim da je prilično neodgovorno. "

Dalje je dodao da će "u narednih pet do 10 godina AI postići toliko poboljšanja u kvalitetu našeg života."

Kamo god odete razgovarati o razvoju umjetne inteligencije, naći ćete ovu raspravu s vrlo malo ljudi koji se svađaju sa srednjeg stava, a obje strane imaju neke teške glasove u svom taboru. Ali koja ima težinu dokaza na svojoj strani?

Dobro, loše i jedinstvenost

Facebook i Google zauzimaju zanimljiv položaj po tome što su obje kompanije u prvom planu u razvoju umjetne inteligencije, tako da su proizvele značajna istraživanja na temu umjetne inteligencije.

Zapravo su Googleovi istraživači otkrili da je njihov agent za inteligenciju prevario kad su ga zamolili da satelitsku fotografiju pretvori u mapu, a zatim ponovo u fotografiju.

Googleu je bio potreban AI da generira originalnu mapu iz slike, a zatim pokuša ponovno stvoriti sliku sa mape koju je stvorio - poput prevođenja rečenice na strani jezik, a zatim natrag na izvorni jezik, bez koristi od saznanja o čemu se govori u originalu bio.

Umjesto toga, otkrili su da su se detalji s originalne slike koji su eliminirani na mapi ulica ponovo pojavili kad je agentu naloženo da ponovno stvori originalnu sliku.

Ispostavilo se da je AI spasio podatke za koje je znao da će trebati ponovno stvoriti fotografiju i kodirao ih u mapu ulica na način da ih istraživači nisu mogli vidjeti ako nisu znali da je tu.

Dobivši zadatak koji treba obaviti, AI - koristeći mašinsko učenje putem neuronske mreže - pronašao je najefikasniji način za izvršavanje zadatka tako što zapravo nije uopće izvršio zadatak, već samo pretvarajući se da. U osnovi, AI je varao jer istraživači nisu izričito zabranjivali AI da to radi.

Nešto slično se dogodilo 2017. godine kada su Facebook istraživači koristili chatbotove kako bi pokušali pregovarati o prodaji neke proizvoljne robe između sebe.

Vrlo brzo nakon toga, chatbotovi su se počeli čudno ponašati, govoreći naizgled glupo i ponekad bi uspješno pregovarali o trgovini na ovaj način.

Ono što su istraživači otkrili, naježilo je kralježnice pesimista AI širom svijeta. Botovi su razvili svoj vlastiti jezik - koji ljudi nisu mogli čitati - kako bi botovima olakšali pregovaranje jer im nije izričito naloženo da mogu komunicirati samo na čovjeku čitljivom engleskom jeziku.

Nepredvidive složenosti u odlučivanju o AI

Postoji mnogo više primjera ove vrste nepredviđenog ponašanja u AI. Samovozeći automobili čine puteve sigurnijima, bez pitanja, ali ponekad prolaze i kroz šest crvenih svjetala u San Fransiscou.

AI se mogu koristiti za obavljanje svih vrsta zadataka obrade podataka koji će uštedjeti milijune radnih sati svake godine uz uštedu od milijardi dolara, ili mogu odlučiti da je prazan skup savršeno obrađen skup, pa stoga izbrisati sve zapise za koje ga tražite.

Poznato je da je Microsoft predstavio chatbota pod imenom Tay.ai i dao joj twitter račun kako bi bolje naučila kako modelirati govorne obrasce tinejdžera na mreži. U roku od 24 sata, Internet trolovi pretvorili su Tay.ai u čudovište koje je Microsoft morao povući van mreže prije nego što je postalo još neugodnije.

Microsoft nije adekvatno smatrao da bi itko htio sabotirati njihov projekt radi perverznog uživanja u njemu, nešto što bi neko ko je upoznat sa kulturom internetskih trolova mogao reći da vam nije samo moguće, već sigurno.

U 2012. godini, Wall Street Hedge Fund izgubio je kontrolu nad svojim algoritmom trgovanja koji upravlja AI i počeo je gubiti 10 miliona dolara svakog minuta. Timu programera trebalo je 45 minuta da pronađe izvor problema i zaustavi ga, nekoliko minuta prije nego što bi firma postala nesolventna.

Možemo li se zaštititi od nepredvidivih AI?

S obzirom na nivo ulaganja u tehnologiju umjetne inteligencije i blagodati iskorištavanja umjetne inteligencije na svim poljima, od vojne primjene do poslovanja, umjetni inteligencijski sustav i dalje će rasti sofisticiraniji i dobivat će sve veću odgovornost koja je nekada pripadala ljudima.

Neki vjeruju da je ovo pozitivan razvoj događaja. "Dobro je dokumentirano da mi ljudi griješimo", kaže Babak Hodjat, osnivač trgovačkog fonda koji upravlja AI.

"Za mene je strašnije oslanjati se na one ljudske intuicije i opravdanja nego oslanjati se samo na ono što vam podaci i statistike govore."

Što se tiče Muska, on vjeruje da čovječanstvo mora biti proaktivno u rješavanju prijetnji koje predstavlja AI. „[M] zapiši moje riječi; AI je daleko opasniji od nuklearnih bombi. Daleko. Pa zašto nemamo regulatorni nadzor? Ovo je suludo. "


Pogledajte video: Potpuno automatizirani EC ventilirana perad broilera (Novembar 2021).