NavMenu

Vještačka inteligencija veća prijetnja čovječanstvu od nuklearnog rata? - AI ekspert predlaže radikalne poteze

Izvor: eKapija Srijeda, 05.04.2023. 10:11
Komentari
Podeli
Ilustracija (Foto: Freepik / rawpixel.com)Ilustracija
Razvoj vještačke inteligencije i njena (moguća) prijetnja za čovječanstvo poslednjih mjeseci nesumnjivo je "tema svih tema" u naučnim krugovima, ali i šire. I dok s jedne strane ima onih kojima se AI za sada doima miroljubivo, mogu se čuti i brojni apeli i upozorenja da se sa razvojem vještačke inteligencije uspori. Tu su i oni treći, koji predlažu dramatičnije poteze - momentalno gašenje, ako treba i uz prijetnju nuklearnim napadom!

Najglasniji među njima je Eliezer Judkovski, američki filozof i jedan od osnivača Instituta za istraživanje vještačke inteligencije MIRI, koji smatra da nedavno potpisan moratorijum na razvoj sistema vještačke inteligencije nije dovoljan, i da bi predstojeći koraci morali biti znatno drastičniji, pominjući i nuklearne napade.

Judkovski je u tekstu "Pauza u razvoju vještačke inteligencije nije dovoljna. Moramo sve to da ugasimo" objavljenom u časopisu Tajm, naveo da svijet mora biti voljan da uništi GPU klastere koji obučavaju vještačku inteligenciju vazdušnim napadima, kao i da prijeti nuklearnim napadima onim zemljama koje ne prestanu da istražuju novu tehnologiju.

Ovaj čovjek, koji u ovoj oblasti nikako nije neuki šarlatan - mada nema formalnog srednjeg ni višeg obrazovanja - pozvao je svijet da bude izričit da se u "međunarodnoj diplomatiji scenarija za sprečavanje smaka svijeta usljed djelovanja AI smatraju prioritetom u odnosu na izbjegavanje opšte nuklearne razmjene", kao i "da savezničke nuklearne zemlje budu spremne da rizikuju nuklearnu razmjenu ako je to ono što je potrebno da bi se smanjio rizik od velikih obuka AI."

Tek kada je suočen sa javnim kritikama zbog zagovaranja nuklearnog obračuna kako bi se pod svaku cijenu zaustavila vještačka inteligencija, Judkovski, je na Tviteru poručio da njegov članak ne sugeriše nuklearne udare.

- Moj članak u Tajmu nije sugerisao nuklearne udare na zemlje koje odbijaju da potpišu globalni sporazum protiv velikih obuka AI. Rečeno je da, ako zemlja koja nije potpisnica gradi centar podataka koji bi mogao da ubije sve na Zemlji, trebalo bi da budete spremni da preventivno uništite taj centar podataka - napisao je na Tviteru.

Judkovski je u tekstu i dramatično upozorio da je "vjerovatan rezultat suočavanja čovječanstva sa suprotstavljenom nadljudskom inteligencijom potpuni gubitak".

- Da biste vizuelizovali neprijateljsku nadljudsku vještačku inteligenciju, nemojte zamišljati beživotnog mislioca koji ima knjiško znanje, koji je zarobljen na internetu i šalje zlonamjerne mejlove. Zamislite čitavu vanzemaljsku civilizaciju, koja razmišlja milionima puta brže od ljudi. Dovoljno inteligentna AI neće dugo ostati ograničena na računare - naveo je u članku.

Treba istaći da Judkovski nije usamljen u tezi da je brzi razvoj vještačke inteligencije opasan po čovječanstvo. Nedavno su ključne ličnosti u oblasti razvoja vještačke inteligencije potpisale otvoreno pismo u kojem zagovaraju obustavljanje obuke moćnih sistema AI na najmanje šest mjeseci, upravo zbog straha od prijetnje čovječanstvu.

Među onima koji navode da je trka za razvoj sistema veštačke inteligencije izmakla kontroli su i vlasnik Tvitera Ilon Mask, suosnivač Epla Stiv Voznijak, kao i istraživači u DipMajndu.

I. Ž.

Komentari
Vaš komentar
Potpuna informacija je dostupna samo komercijalnim korisnicima-pretplatnicima i neophodno je da se ulogujete.

Zaboravili ste šifru? Kliknite OVDJE

Za besplatno probno korišćenje, kliknite OVDJE

Pratite na našem portalu vijsti, tendere, grantove, pravnu regulativu i izveštaje.
Registracija na eKapiji vam omogućava pristup potpunim informacijama i dnevnom biltenu
Naš dnevni ekonomski bilten će stizati na vašu mejl adresu krajem svakog radnog dana. Bilteni su personalizovani prema interesovanjima svakog korisnika zasebno, uz konsultacije sa našim ekspertima.