Stručnjaci: „Veštačka inteligencija opasna kao pandemija i nuklearni rat“

od strane | maj 31, 2023 | Tech | 0 Komentara

Centar za bezbednost veštačke inteligencije (CAIS) je juče objavio novo otvoreno pismo, koje su potpisali, između ostalih, direktori kompanija OpenAI i DeepMind, koje upozorava da bi veštačka inteligencija i njen razvoj mogli da dovedu do istrebljenja čovečanstva.

Kratko pismo, koje je prema rečima CAIS-a namenjeno kako bi se otvorila diskusija o “širokom sprektru važnih i hitnih rizika koje nameće razvoj veštačke inteligencije”, glasi jednostavno ovako:

“Smanjenje rizika od istrebljenja čovečanstva zbog veštačke inteligencije bi trebalo da bude globalni prioritet pored drugih rizika na nivou društva, kao što su pandemije i nuklearni rat.”

Među potpisnicima našli su se i CEO OpenAI-ja, Sem Altman, kao i direktor Google DeepMind-a Demis Hasabis, ali i profesori sa Berklija, Stenforda i MIT-ja, piše Ars Technica.

Otvoreno pismo dolazi u trenutku kada Altman putuje po svetu, sastaje se sa državnim zvaničnicima kako bi vodio dijaloge o veštačkoj inteligenciji i njenim potencijalnim opasnostima. Nedavno je Altman pred američkim senatom tražio veću regulaciju industrije u kojoj je, pa jednostavno rečeno, njegova kompanija trenutno glavna.

Ipak, CAIS-ovo pismo je značajno i zbog onoga što se ne spominje. Na primer, ne precizira se ni u jednom trenutku šta se tačno podrazumeva kada se koristi termin “veštačka inteligencija”, s obzirom na to da ovaj termin može da se odnosi na širok spektar različitih stvari. Tehnički gledano, i igra Pac-Man koristi veštačku inteligenciju. Pismo, takođe, ne sugeriše koji su koraci koji će smanjiti rizike od istrebljenja čovečanstva, samo da bi to pitanje trebalo da bude “globalni prioritet”.

U saopštenju za medije koje je stiglo uz otvoreno pismo, CAIS kaže da želi da “postavi ograde i osnuje institucije kako nas veštačka inteligencija ne bi iznenadila”, a uporedili su i upozorenja Roberta Openhajmera kada je govorio o potencijalnim efektima atomske bombe.

Drugi stručnjaci su skeptični o novom otvorenom pismu

Ovo nije prvo otvoreno pismo o hipotetičkim, globalnim rizicima veštačke inteligencije koje smo videli ove godine. U martu, Institut za budućnost života objavio je detaljnije pismo, koje su potpisali i Ilon Mask i Stiv Voznijak, u kojem se tražila šestomesečna pauza u razvoju velikih jezičkih modela, kakav je ChatGPT. I ovo pismo je naišlo na široku medijsku pažnju, ali i na skeptičan odgovor od nekih u zajednici mašinskog učenja.

Veštačka inteligencija između dve rukeShutterstock

Mnogi smatraju da su ovo samo pokušaji da se pažnja skrene sa važnijih problema koji nisu hipotetički i koji su trenutno prisutni, kao što je rasna pristrasnost veštačke inteligencije, problemi oko autorskih prava i slično.

Da naglasimo, i skeptici koji kritikuju ova otvorena pisma ne misle da je veštačka inteligencija bezopasna, samo tvrde da stavljanje prioriteta na neke hipotetičke pretnje služi kao odvraćanje od problema koje trenutni AI sistemi imaju. To su problemi koje, deluje, velike AI kompanije žele da zaboravimo.

Dakle, iako je moguće da će jednog dana napredan oblik veštačke inteligencije možda predstavljati pretnju čovečanstvu, kritičari smatraju da nije konstruktivno niti korisno fokusirati se na neodređeni scenario sudnjeg dana, dok se u međuvremenu ignorišu stvarni problemi koje veštačka inteligencija već ima i koji već utiču na živote ljudi širom sveta.

Opširnije

Izvor: Benchmark.rs