Generativna veštačka inteligencija: Kako zaštititi podatke i poboljšati pratnju podacima u korporativnom AI razvoju?
Summary
Integracija veštačke inteligencije u svakodnevni rad zaposlenih u organizacijama, od rukovodstva do radnika na prvoj liniji, obećava povećanje produktivnosti u zadacima kao što su pisanje beleški, razvoj softvera i kreiranje marketing kampanja. Međutim, kompanije opravdano brinu o rizicima deljenja podataka […]

Integracija veštačke inteligencije u svakodnevni rad zaposlenih u organizacijama, od rukovodstva do radnika na prvoj liniji, obećava povećanje produktivnosti u zadacima kao što su pisanje beleški, razvoj softvera i kreiranje marketing kampanja. Međutim, kompanije opravdano brinu o rizicima deljenja podataka sa AI servisima trećih strana, kao u slučaju Samsung zaposlenog koji je izložio zaštićene kompanijske informacije učitavanjem na ChatGPT platformu.
Ulazak AI sistema u naš radni prostor nam donosi niz novih izazova. Prethodno smo iskusili prelazak na cloud computing i sa njim stigli problemi vezani sigurnost i vlasništvo nad podacima. Danas menadžeri slobodno koriste zrelije cloud computing usluge koje se pridržavaju propisa i poslovnih zahteva u vezi sa sigurnošću, privatnošću i vlasništvom podataka. AI usluge, posebno generativna AI, još uvek ne dostižu takav nivo zrelosti. Jedan od razloga je jer je reč o ranoj fazi razvoja, ali i zato što ovi sistemi imaju gotovo neiscrpnu potrebu za podacima za treniranje.
Veliki jezički modeli (LLM), poput OpenAI-jevog ChatGPT, obučeni su na ogromnim korpusima pisanih sadržaja sa interneta, ne mareći za vlasništvo tih podataka. Kompanija se sada suočava sa tužbom od strane grupe najprodavanijih autora, uključujući i Džordža R.R. Martina, zbog korišćenja njihovih autorskih dela bez dozvole, čime je LLM omogućen da generiše kopije tih dela. Tradicionalni medijski izvori su, u cilju zaštite svojih podataka, ušli u pregovore o licenciranju sa AI developerima; pregovori između OpenAI-a i The New York Times-a, međutim, su propali tokom leta.
Međutim, mnogo važnije od toga je kako kompanije koje eksperimentišu sa generativnom AI mogu bezbedno istraživati nove primene LLM modela koji se oslanjaju na interne podatke, s obzirom na to da sve što se učita u komercijalne LLM usluge može biti snimljeno kao podaci za treniranje. Kako menadžeri mogu bolje zaštititi svoje zaštićene podatke i poboljšati praćenje podataka u okviru razvoja korporativne AI prakse, kako bi stekli i očuvali poverenje klijenata?
Open-Source rešenje
Očigledno rešenje za pitanja vlasništva nad podacima jeste izgradnja sopstvenih generativnih AI rešenja na lokalnom nivou umesto slanja podataka trećoj strani. Ali kako to može biti praktično, s obzirom na to da je Microsoft potrošio stotine miliona dolara samo na izgradnju hardverske infrastrukture za ChatGPT, ne spominjući stvarne troškove razvoja? Nekako, ne možemo svi sebi priuštiti izgradnju takvih osnovnih modela od početka.
FAQs:
Q: Šta je generativna veštačka inteligencija?
A: Generativna veštačka inteligencija (Generative AI) je grana veštačke inteligencije koja se bavi razvojem sistema koji mogu generisati originalne sadržaje, kao što su tekstovi, slike i zvuci.
Q: Šta su veliki jezički modeli?
A: Veliki jezički modeli (Large Language Models) su AI modeli obučeni na velikoj količini pisanih teksta i sposobni da generišu ljudski sličan tekst ili odgovore na pitanja.
Q: Šta je cloud computing?
A: Cloud computing je model pružanja računarskih resursa preko interneta, omogućavajući pristup infrastrukturi, platformama i softverima kao uslugama.
Q: Šta je podaci za treniranje?
A: Podaci za treniranje su skupovi ulaznih podataka koji se koriste za obuku veštačke inteligencije ili mašinskog učenja kako bi naučili prepoznati obrasce i donosili odluke.