Некатегоризовано

Objave u SAD-u zahtijevaju transparentnost i odgovornost za AI, dok tvrtke unapređuju svoje standarde

Summary

Nekoliko velikih tehnoloških kompanija fokusiranih na umjetnu inteligenciju u posljednje dvije sedmice dodalo je nove politike i alate kako bi izgradile povjerenje, izbjegle rizike i poboljšale pravnu usklađenost u vezi sa generativnom AI. Meta će zahtijevati da političke kampanje otkriju […]

Objave u SAD-u zahtijevaju transparentnost i odgovornost za AI, dok tvrtke unapređuju svoje standarde

Nekoliko velikih tehnoloških kompanija fokusiranih na umjetnu inteligenciju u posljednje dvije sedmice dodalo je nove politike i alate kako bi izgradile povjerenje, izbjegle rizike i poboljšale pravnu usklađenost u vezi sa generativnom AI. Meta će zahtijevati da političke kampanje otkriju kada koriste AI u oglasima, dok YouTube dodaje sličnu politiku za kreatore koji koriste AI u prijenosu videozapisa. IBM je upravo najavio nove alate za upravljanje AI. Shutterstock je nedavno predstavio novi okvir za razvoj i implementaciju etičke AI.

Ti napori ne sprečavaju američke zakonodavce da nastave s prijedlozima za ublažavanje raznih rizika koje predstavljaju veliki jezički modeli i druge vrste AI. Ovog srijede, grupa američkih senatora predstavila je novi zakon koji bi postavio nove standarde transparentnosti i odgovornosti za AI. „Zakon o umjetnoj inteligenciji za istraživanje, inovacije i odgovornost 2023.“ je su-sponzorisan od tri demokrata i tri republikanca, uključujući senatora Amy Klobuchar (D-Minn) i John Thune (R-S.D.) i još četiri osobe.

Prema riječima senatora Klobuchar: „Umjetna inteligencija dolazi s mogućnošću velikih koristi, ali i ozbiljnih rizika, i naši zakoni trebaju biti u koraku s tim. Ovaj zakon je jedan važan korak ka adresiranju potencijalnih šteta.“

IBM je nedavno najavio novi alat koji pomaže u otkrivanju rizika AI, predviđanju potencijalnih budućih problema i praćenju stvari poput pristranosti, točnosti, pravičnosti i privatnosti. Iako će se alat prvobitno koristiti za IBM-ove vlastite AI modele, plan je proširiti alate sljedeće godine kako bi se integrirali s LLM-ovima drugih kompanija. Cilj je omogućiti pregled različitih AI modela putem interoperabilnosti.

Također, Shutterstock ima za cilj ugraditi etičke principe u temelje svoje AI platforme. Prošle sedmice, ova vodeća platforma za slike najavila je novi TRUST okvir, koji označava „obuku, licence, poboljšanje, zaštitu i transparentnost“. Inicijativa je dio dvogodišnjeg napora da se etika ugradi u temelje AI platforme i adresira mnoge probleme poput pristranosti, transparentnosti, nadoknade kreatora i štetnog sadržaja. Također će podići standarde za AI u cjelini.

Neki stručnjaci za AI tvrde da samoocjenjivanje može ići samo do određene granice. Ashley Casovan, direktorica AI Governance Centra pri Međunarodnoj asocijaciji profesionalaca za privatnost, ističe da je odgovornost i transparentnost izazovnija kada kompanije same „kreiraju svoje testove i provjeravaju svoje zadatke“. Dodaje da bi stvaranje vanjske organizacije koja nadzire standarde moglo pomoći, ali to bi zahtijevalo razvoj dogovorenih standarda i načina za reviziju AI na vrijeme i bez visokih troškova.

Računajući na AI i razumijevanje njegovih mogućnosti i ograničenja, a istovremeno izbjegavajući nepotrebne rizike također predstavlja zabrinutost za tržišne stručnjake. Kongres o marketingu, održan prije nekoliko sedmica, donio je konsenzus o tome kako ne zaostati za AI, a istovremeno izbjeći previše rizika.

Iako će YouTube i Meta zahtijevati objave, mnogi stručnjaci ukazuju da nije uvijek lako otkriti što je AI generisano. Ipak, koraci koje su preduzele Google i Meta „općenito idu u pravom smjeru“, kaže Alon Yamin, suosnivač Copyleaks-a, koji koristi AI za otkrivanje AI-generisanih tekstova.

Identifikacija AI je slična antivirusnom softveru, kaže Yamin. Čak i ako su alati dostupni, neće uhvatiti sve. Međutim, pregled tekstualnih transkripata videozapisa mogao bi pomoći, zajedno s dodavanjem načina za provjeru autentičnosti videozapisa prije njihovog prijenosa.

„Zaista ovisi o tome kako mogu identifikovati ljude ili kompanije koje zapravo ne navode da koriste AI, čak i ako to čine“, rekao je Yamin. „Mislim da moramo osigurati da imamo prave alate za otkrivanje toga i osigurati da možemo držati ljude i organizacije odgovorne za širenje generisanih podataka bez priznanja.“