Regulacija veštačke inteligencije: Balans između odgovornosti i inovacije
Summary
Veštačka inteligencija (VI) predstavlja sve veći izvor zabrinutosti jer stručnjaci upozoravaju na potencijalne rizike koje ona nosi. Ranije ove godine, mnogi stručnjaci za veštačku inteligenciju potpisali su pismo u kojem su istakli da bi rizik od izumiranja usled VI trebalo […]

Veštačka inteligencija (VI) predstavlja sve veći izvor zabrinutosti jer stručnjaci upozoravaju na potencijalne rizike koje ona nosi. Ranije ove godine, mnogi stručnjaci za veštačku inteligenciju potpisali su pismo u kojem su istakli da bi rizik od izumiranja usled VI trebalo da bude globalni prioritet. Čak su i izvršni direktori kompanija za veštačku inteligenciju izjavili da smatraju da su sistemi veštačke inteligencije pametniji od ljudi najveća pretnja postojanju čovečanstva i da postoji 10% do 25% šanse da izazove katastrofu globalnih razmera. Jasno je da su ovi rizici verovatni i vredni ozbiljnog razmatranja.
Međutim, postavlja se pitanje kako bismo trebali da se nosimo sa ovim rizicima i da li postoje adekvatni mehanizmi za njihovo kontrolisanje. U ovom trenutku, veštačka inteligencija se razvija bez velike mere opreza i strpljenja. Neke moćne kompanije za veštačku inteligenciju trkaju se ka stvaranju sistema koji bi mogli imati „božansku“ moć, ulazujući milijarde dolara u njihov razvoj.
Postoje rešenja javnih politika koja bi mogla značajno smanjiti ovu neodgovornu trku ka katastrofi izazvanoj veštačkom inteligencijom. Međutim, do sada kompanije koje se bave veštačkom inteligencijom ne zagovaraju ova rešenja – čak se mogu naći dokazi da se aktivno suprotstavljaju njihovoj primeni.
Kako bi donekle ublažili rizike, neke kompanije smatraju da bi trebalo da budu dozvoljene da nastave trku, ukoliko se obavežu da će sprovesti testove koji bi pomogli u identifikaciji opasnih sistema. Međutim, postoje tri ključna problema sa ovim planom.
Prvo, katastrofalne rizike bi trebalo da upravljaju vlade, a ne velike tehnološke kompanije. Ne postoji ništa loše u tome da kompanije dobrovoljno preuzmu odgovornost. Međutim, ne bi trebalo da koriste dobrovoljne preuzete obaveze kao opravdanje za izbegavanje uključivanja vlada. Kada su rizici tako visoki, društvo prepoznaje da bi vlade trebalo da se uključe i da obezbede nadzor.
Drugo, plan se oslanja na testove koji ne postoje. U drugim oblastima, znamo kako da merimo opasnost. Na primer, avioindustrija i nuklearna energetika već imaju detaljne protokole za merenje opasnosti. Međutim, u oblasti bezbednosti veštačke inteligencije, zaostajemo za napretkom. Naučnici nemaju sveobuhvatnu listu kritično opasnih funkcionalnosti sistema veštačke inteligencije.
Treće, kompanije će se odreći tih planova ako budu zabrinute da bi „neodgovorne“ konkurente moglo prerasti u trci za dostizanje „božanske“ veštačke inteligencije. RSP-ovi su dobrovoljni, a kompanije čak priznaju da će ih prekršiti.
Da bismo rešili ovaj problem, potrebna je regulacija Veštačke inteligencije koja uspostavlja ravnotežu između odgovornosti i inovacija. Vlade bi trebalo da preuzmu kontrolu nad regulacijom i da se međunarodno usklade. Predložena su neka rešenja koja bi mogla pomoći.
Prvo, postoje predlozi za globalno ograničenje resursa računanja, tj. zabranu daljeg razvoja VI koji prevazilazi određenu količinu resursa. To bi bio najsigurniji način da se ograniči razvoj opasnih sistema veštačke inteligencije, uz istovremeno omogućavanje društvu da uživa u prednostima postojećih sistema.
Drugo, u Sjedinjenim Američkim Državama, neki senatori su predložili agenciju za dodelu licenci za sisteme veštačke inteligencije. Agencija bi omogućila vladinim regulatorima da zabrane razvoj i upotrebu sistema, osim ako kompanije ne pokažu da su dovoljno sigurni. Takva agencija bi takođe imala ovlašćenja u slučaju vanrednih situacija, što bi omogućilo da se uvede ograničenje resursa računanja na nacionalnom nivou u slučaju vanredne situacije izazvane VI ili dokaza o neposrednim rizicima.
Treće, neki zagovaraju stvaranje organizacije slične Međunarodnoj agenciji za atomsku energiju, koja bi regulisala razvoj opasnih sistema veštačke inteligencije kao što društvo reguliše opasne nuklearne tehnologije. Grupa prognozera je nedavno predložila sličnu ideju putem međunarodnog sporazuma.
Ova rešenja postavljaju važna pitanja o koncentraciji razvoja veštačke inteligencije, tome kojim stranama treba dozvoliti razvoj ovakvih opasnih tehnologija i načinu na koji međunarodna zajednica može da sarađuje na rešavanju ovog problema.