Самсунг забрањује запосленима да користе генеративне АИ алате након цурења ЦхатГПТ-а
Summary
Самсунг, водећа технолошка компанија, недавно је забранила својим запосленима да користе генеративне АИ алате као што су ЦхатГПТ или Гоогле Бард. Ово долази након неколико ненамерних цурења података у којима су запослени више пута случајно пропуштали Самсунгове поверљиве информације у […]

Самсунг, водећа технолошка компанија, недавно је забранила својим запосленима да користе генеративне АИ алате као што су ЦхатГПТ или Гоогле Бард. Ово долази након неколико ненамерних цурења података у којима су запослени више пута случајно пропуштали Самсунгове поверљиве информације у ЦхатГПТ. Меморандум који је процурио особљу Самсунга о новим политикама употребе вештачке интелигенције на радном месту известио је Блоомбергов Марк Гурман, а Самсунг је од тада потврдио одлуку да запосленима забрани коришћење генеративних алата за вештачку интелигенцију.
Ненамерно цурење података навело је Самсунг да предузме мере како би спречио да се слични инциденти поново догоде. У априлу је објављено да су запослени у Самсунгу користили ЦхатГПТ да поправе грешке кодирања и идентификују грешке у својим чиповима. Нажалост, подаци унети у цхат бот постали су део огромне гомиле података на којима се обучава ЦхатГПТ-ов ГПТ-4 модел, доводећи Самсунгове поверљиве информације у опасност да буду откривене јавности. У посебном случају, запослени у Самсунг-у је користио ЦхатГПТ да претвори белешке са састанка у презентацију. Међутим, још једном, подаци унети у цхат бот постали су део корисничких података које ОпенАИ прикупља, што они експлицитно наводе у својим условима коришћења, доводећи Самсунгове информације у опасност да буду изложене јавности.
Ненамерно цурење података од стране запослених у Самсунгу наглашава безбедносне ризике повезане са коришћењем генеративних АИ алата на радном месту. Као одговор на цурење информација, Самсунг је наводно спровео интерну анкету која је открила да се 65% испитаника слаже да генеративна вештачка интелигенција и слични алати представљају озбиљан безбедносни ризик. Овај резултат анкете је вероватно утицао на одлуку да се забрани употреба ових алата.
Да бисте остали безбедни док користите ЦхатГПТ, Гоогле Бард или било који алат за вештачку интелигенцију, неопходно је запамтити да се подаци скоро увек негде чувају. Иако компаније почињу да мењају начин на који рукују овим подацима, најбољи метод је да никада не кажете или укуцате било шта у цхат бот што би вам било непријатно да други људи знају. На пример, ЦхатГПТ сада има опцију да онемогући историју ћаскања и обуку, бришући разговоре након 30 дана, али је кључно да будете опрезни у вези са информацијама које делите.
У закључку, Самсунг-ова одлука да забрани запосленима коришћење генеративних АИ алата као што су ЦхатГПТ или Гоогле Бард наглашава безбедносне ризике повезане са коришћењем ових алата на радном месту. Кључно је бити свестан ризика повезаних са коришћењем АИ алата и предузети мере предострожности за заштиту осетљивих информација. Како технологија вештачке интелигенције наставља да се развија, вероватно је да ће све више компанија применити сличне политике за спречавање ненамерног цурења података и заштиту поверљивих информација.