NavMenu

Veštačka inteligencija veća pretnja čovečanstvu od nuklearnog rata? - AI ekspert predlaže radikalne poteze

Izvor: eKapija Utorak, 04.04.2023. 12:05
Komentari
Podeli
Ilustracija (Foto: Freepik / rawpixel.com)Ilustracija
Razvoj veštačke inteligencije i njena (moguća) pretnja za čovečanstvo poslednjih meseci nesumnjivo je "tema svih tema" u naučnim krugovima, ali i šire. I dok s jedne strane ima onih kojima se AI za sada doima miroljubivo, mogu se čuti i brojni apeli i upozorenja da se sa razvojem veštačke inteligencije uspori. Tu su i oni treći, koji predlažu dramatičnije poteze - momentalno gašenje, ako treba i uz pretnju nuklearnim napadom!

Najglasniji među njima je Eliezer Judkovski, američki filozof i jedan od osnivača Instituta za istraživanje veštačke inteligencije MIRI, koji smatra da nedavno potpisan moratorijum na razvoj sistema veštačke inteligencije nije dovoljan, i da bi predstojeći koraci morali biti znatno drastičniji, pominjući i nuklearne napade.

Judkovski je u tekstu "Pauza u razvoju veštačke inteligencije nije dovoljna. Moramo sve to da ugasimo" objavljenom u časopisu Tajm, naveo da svet mora biti voljan da uništi GPU klastere koji obučavaju veštačku inteligenciju vazdušnim napadima, kao i da preti nuklearnim napadima onim zemljama koje ne prestanu da istražuju novu tehnologiju.

Ovaj čovek, koji u ovoj oblasti nikako nije neuki šarlatan - mada nema formalnog srednjeg ni višeg obrazovanja - pozvao je svet da bude izričit da se u "međunarodnoj diplomatiji scenarija za sprečavanje smaka sveta usled delovanja AI smatraju prioritetom u odnosu na izbegavanje opšte nuklearne razmene", kao i "da savezničke nuklearne zemlje budu spremne da rizikuju nuklearnu razmenu ako je to ono što je potrebno da bi se smanjio rizik od velikih obuka AI."

Tek kada je suočen sa javnim kritikama zbog zagovaranja nuklearnog obračuna kako bi se pod svaku cenu zaustavila veštačka inteligencija, Judkovski, je na Tviteru poručio da njegov članak ne sugeriše nuklearne udare.

- Moj članak u Tajmu nije sugerisao nuklearne udare na zemlje koje odbijaju da potpišu globalni sporazum protiv velikih obuka AI. Rečeno je da, ako zemlja koja nije potpisnica gradi centar podataka koji bi mogao da ubije sve na Zemlji, trebalo bi da budete spremni da preventivno uništite taj centar podataka - napisao je na Tviteru.

Judkovski je u tekstu i dramatično upozorio da je "verovatan rezultat suočavanja čovečanstva sa suprotstavljenom nadljudskom inteligencijom potpuni gubitak".

- Da biste vizuelizovali neprijateljsku nadljudsku veštačku inteligenciju, nemojte zamišljati beživotnog mislioca koji ima knjiško znanje, koji je zarobljen na internetu i šalje zlonamerne mejlove. Zamislite čitavu vanzemaljsku civilizaciju, koja razmišlja milionima puta brže od ljudi. Dovoljno inteligentna AI neće dugo ostati ograničena na računare - naveo je u članku.

Treba istaći da Judkovski nije usamljen u tezi da je brzi razvoj veštačke inteligencije opasan po čovečanstvo. Nedavno su ključne ličnosti u oblasti razvoja veštačke inteligencije potpisale otvoreno pismo u kojem zagovaraju obustavljanje obuke moćnih sistema AI na najmanje šest meseci, upravo zbog straha od pretnje čovečanstvu.

Među onima koji navode da je trka za razvoj sistema veštačke inteligencije izmakla kontroli su i vlasnik Tvitera Ilon Mask, suosnivač Epla Stiv Voznijak, kao i istraživači u DipMajndu.

I. Ž.

Komentari
Vaš komentar
Potpuna informacija je dostupna samo komercijalnim korisnicima-pretplatnicima i neophodno je da se ulogujete.

Zaboravili ste šifru? Kliknite OVDE

Za besplatno probno korišćenje, kliknite OVDE

Pratite na našem portalu vesti, tendere, grantove, pravnu regulativu i izveštaje.
Registracija na eKapiji vam omogućava pristup potpunim informacijama i dnevnom biltenu
Naš dnevni ekonomski bilten će stizati na vašu mejl adresu krajem svakog radnog dana. Bilteni su personalizovani prema interesovanjima svakog korisnika zasebno, uz konsultacije sa našim ekspertima.