ОпенАИ-јев чет-бот суочава се са преиспитивањем због проблема са личним подацима: шта треба да знате
Summary
ОпенАИ-јев генеративни текстуални цхат бот, ЦхатГПТ, стекао је огромну популарност у последњих шест месеци, али расте забринутост због ризика да систем буде обучен на основу личних података усисаних са веба. Регулатори података у различитим земљама сада истражују како је ОпенАИ […]

ОпенАИ-јев генеративни текстуални цхат бот, ЦхатГПТ, стекао је огромну популарност у последњих шест месеци, али расте забринутост због ризика да систем буде обучен на основу личних података усисаних са веба. Регулатори података у различитим земљама сада истражују како је ОпенАИ прикупио податке које користи за обуку својих великих језичких модела, тачност одговора које даје о људима и друге правне проблеме у вези са употребом својих генеративних текстуалних система.
У Европи, ГДПР закони захтевају од компанија и организација да покажу законите разлоге за руковање личним подацима, омогућавајући појединцима приступ информацијама о њима, информисање о томе како се њихове информације користе и захтевајући да се грешке исправе. Употреба личних података људи у подацима о обуци била је прва област забринутости за регулаторе ЕУ.
Док су људи експериментисали са ЦхатГПТ-ом, наишли су на низ потенцијалних проблема. ОпенАИ упозорава да цхатбот може пружити нетачне информације, а људи су открили да он чини послове и хобије, стварајући лажне новинске чланке за које су се чак и наводни људски аутори питали да су стварни. ЦхатГПТ је такође генерисао нетачне изјаве о појединцима, што је изазвало тужбе за клевету.
Компаније попут Самсунга забраниле су запосленима да користе генеративне АИ алате, делимично због забринутости око складиштења података на спољним серверима и ризика од откривања тајни компаније другим корисницима. Као одговор на испитивање, ОпенАИ је увео алате и процесе који омогућавају људима већу контролу над својим подацима.
ОпенАИ је сада увео образац Захтева за уклањање личних података првенствено за захтев да се информације уклоне из одговора које ЦхатГПТ пружа корисницима, а не из својих података о обуци. ОпенАИ је такође представио нову поставку која омогућава свима да престану да се њихова историја ћаскања користи у будућим великим језичким моделима као подаци за обуку. То значи да се сви подаци које унесете у ЦхатГПТ, као што су информације о себи, свом животу и раду, неће поново појавити у будућим итерацијама ОпенАИ-јевих великих језичких модела.
Међутим, неки стручњаци верују да се промене ОпенАИ-а баве само „плодом на ниском нивоу“ када је у питању заштита података. Даниел Леуфер, виши аналитичар политике у непрофитној организацији за дигитална права Аццесс Нов, каже да сложеније, системско питање о томе како су подаци људи коришћени за обуку ових модела није адекватно решено. „Појединци такође могу имати право да приступе, исправе, ограниче, избришу или пренесу своје личне податке који могу бити укључени у наше информације о обуци“, каже се на страници центра за помоћ ОпенАИ. Међутим, људи који су већ затражили своје податке од ОпенАИ-а нису били импресионирани његовим одговорима, а италијански регулатор података каже да ОпенАИ тврди да је „технички немогуће“ исправити нетачности у овом тренутку.