Некатегоризовано

Primena veštačke inteligencije: Očekuju se pravila koja će zaštititi javni interes

Summary

Prošlog meseca je predsednik Biden izdao izvršnu uredbu o veštačkoj inteligenciji, najambiciozniji pokušaj vlade da uspostavi osnovna pravila za ovu tehnologiju. Uredba se fokusira na uspostavljanje najboljih praksi i standarda za modele veštačke inteligencije, sa ciljem da ograniči sklonost Silicijumske […]

Primena veštačke inteligencije: Očekuju se pravila koja će zaštititi javni interes

Prošlog meseca je predsednik Biden izdao izvršnu uredbu o veštačkoj inteligenciji, najambiciozniji pokušaj vlade da uspostavi osnovna pravila za ovu tehnologiju. Uredba se fokusira na uspostavljanje najboljih praksi i standarda za modele veštačke inteligencije, sa ciljem da ograniči sklonost Silicijumske doline da lansira proizvode pre nego što budu potpuno testirani – da „brzo se kreću i razbijaju stvari“.

Međutim, uprkos obimu ove uredbe – ima 111 strana i pokriva razne teme, uključujući industrijske standarde i građanske slobode – dve očigledne izostave mogu umanjiti njenu efikasnost.

Prva je da uredba ne rešava prazninu koju omogućava Sekcija 230 Zakona o pristojnosti komunikacija. Veliki deo zabrinutosti oko veštačke inteligencije odnosi se na potencijal za dubinske laži – ubedljive video, audio i slikovne prevare – i dezinformacije. Uredba uključuje odredbe za označavanje AI sadržaja kako bi ljudi bar znali kako je generisan. Ali šta se dešava ako sadržaj nije označen?

Veliki deo AI-generisanog sadržaja biće distribuiran na društvenim mrežama kao što su Instagram i X (nekadašnji Tviter). Potencijalna šteta je zastrašujuća: Već je došlo do eksplozije dubinskih lažnih golih fotografija, uključujući tinejdžerke. Ipak, Sekcija 230 štiti platforme od odgovornosti za većinu sadržaja koji postavljaju treće strane. Ako platforma nema odgovornost za distribuciju AI-generisanog sadržaja, koju ima ili ne označenog, kakvu ima motivaciju da ga ukloni? Stavljanje odgovornosti samo na proizvođača AI sadržaja, a ne na distributera, neće biti efikasno u suzbijanju dubinskih laži i dezinformacija jer proizvođač sadržaja može biti teško identifikovati, van jurisdikcije ili nesposoban da plati ako se utvrdi odgovornim. Zasnovana na Sekciji 230, platforma može nastaviti da širi štetan sadržaj i čak dobiti prihod od toga ako je u obliku reklame.

Bipartizanski zakon, koji su predložili senatori Ričard Blumental (demokrata iz Konektikata) i Džoš Houli (republikanac iz Misurija), pokušava da reši ovu pravnu prazninu u odgovornosti uklanjanjem imuniteta Sekcije 230 „za tužbe i optužbe u vezi sa generativnom veštačkom inteligencijom“. Međutim, predloženi zakon se ne čini da rešava pitanje kako raspodeliti odgovornost između kompanija za veštačku inteligenciju koje generišu sadržaj i platformi koje ga hostuju.

Druga zabrinjavajuća izostava iz naredbe o veštačkoj inteligenciji odnosi se na uslove korišćenja, dosadne fine štampe koja muči internet i iskače sa svakim preuzimanjem. Iako većina ljudi pritisne „prihvati“ bez čitanja ovih uslova, sudovi su zaključili da mogu biti obavezujući ugovori. Ovo je još jedna pravna praznina za kompanije koje prave proizvode i usluge na bazi veštačke inteligencije: One mogu jednostrano nametnuti dugačke i kompleksne jednostrane uslove koji dozvoljavaju ilegalne ili neetičke prakse i onda tvrde da smo pristali na njih.

Na taj način, kompanije mogu zaobići standarde i najbolje prakse utvrđene od strane savetodavnih panela. Razmislite o tome šta se dogodilo sa Web 2.0 (eksplozijom sadržaja generisanog od strane korisnika koji dominira društvenim mrežama). Praćenje na internetu i prikupljanje podataka su bile etički i pravno sporne prakse koje su bile suprotne društvenim i poslovnim normama. Međutim, Facebook, Google i drugi su se mogli braniti tvrdeći da korisnici „pristanu“ na ove invazivne prakse kada su kliknuli na prihvatanje uslova korišćenja.

U međuvremenu, kompanije puštaju AI proizvode u javnost, neki bez adekvatnog testiranja i podstiču potrošače da isprobaju njihove proizvode besplatno. Potrošači možda ne shvataju da njihovo „besplatno“ korišćenje pomaže treniranje ovih modela i da njihovi napori su suštinski neplaćeni rad. Takođe, možda ne shvataju da odustaju od važnih prava i preuzimaju pravnu odgovornost. Na primer, uslovi korišćenja Open AI-a navode da se usluge pružaju „kakve jesu“, bez ikakve garancije, i da će korisnik „braniti, obeštetiti i osloboditi od odgovornosti“ Open AI od „svih zahteva, gubitaka i troškova (uključujući troškove advokata)“ koji proizlaze iz korišćenja usluga. Uslovi takođe zahtevaju od korisnika da odreknu pravo na suđenje porotom i tužbu u kolektivnom postupku. Loše kao što ovakva ograničenja mogu delovati, ona su standardna u industiji. Neki čak tvrde široku licencu za AI sadržaj kreirane od strane korisnika.

Bidenov potez za veštačku inteligenciju je uglavnom pohvaljen zbog pokušaja da postigne ravnotežu između zaštite javnog interesa i inovacije. Ali da bi ove odredbe imale snagu, mora postojati mehanizam za njihovo sprovođenje i pretnja tužbom. Pravila koja će biti uspostavljena pod naredbom bi trebala izričito ograničiti imunitet Sekcije 230 i uključiti standarde usklađenosti za platforme. Ovi standardi mogu uključivati procedure za pregledavanje i uklanjanje sadržaja, mehanizme za prijavljivanje problema kako unutar kompanije tako i spolja, i minimalna vremena za odgovor kompanija na spoljne brige. Takođe, kompanijama ne bi trebalo dozvoliti da koriste uslove korišćenja (ili druge oblike „saglasnosti“) za zaobilaženje industrijskih standarda i pravila.

Treba obratiti pažnju na pouke koje smo naučili tokom poslednje dve decenije kako bismo izbegli ponavljanje istih grešaka. Samoregulacija za velike tehnološke kompanije jednostavno ne funkcioniše, a široki imunitet za kompanije koje se bave profitom stvara društveno štetne podsticaje za rast po svaku cenu. U trci da dominiraju na izuzetno konkurentnom polju veštačke inteligencije, kompanije su skoro sigurne da će prioritet dati rastu i zanemariti bezbednost. Industrijski lideri su izrazili podršku propisima, testiranju i standardizaciji, ali da bi se dobili da se pridržavaju, biće potrebno više od njihovih dobrih namera – biće potrebna pravna odgovornost.

Kako izvršna uredba o veštačkoj inteligenciji utiče na zaštitu javnog interesa?

Izvršnom uredbom se nastoje uspostaviti pravila i standarde za modele veštačke inteligencije kako bi se zaštitio javni interes. Ograničava se sklonost tehnoloških kompanija da lansiraju proizvode pre nego što budu potpuno testirani. Cilj je osigurati da se AI tehnologija koristi na način koji je siguran i koristan za javnost.

Koje su glavne izostave u uredbi o veštačkoj inteligenciji?

Glavne izostave u uredbi odnose se na nedostatak adresa sledećih problema: pravna praznina koju omogućava Sekcija 230 Zakona o pristojnosti komunikacija i nedostatak regulacije uslova korišćenja. Ove izostave mogu dovesti do širenja štetnog sadržaja generisanog od strane veštačke inteligencije i mogu omogućiti kompanijama da zaobiđu standarde i prakse utvrđene od strane savetodavnih panela.

Koje mere mogu biti preduzete za rešavanje izostava u uredbi?

Da bi se rešile izostave u uredbi, trebalo bi uspostaviti posebne mere. To može uključivati ograničavanje imuniteta Sekcije 230, uključivanje standarda usklađenosti za platforme, uspostavljanje mehanizama za pronalaženje i uklanjanje štetnog sadržaja, obavezno prijavljivanje problema i definisanje minimalnih vremena za odgovor kompanija na spoljne brige. Takođe, trebalo bi sprečiti kompanije da koriste uslove korišćenja za zaobilaženje standarda i pravila industrije.