Извршни директор ОпенАИ позива лиценцирање и регулацију компанија за вештачку интелигенцију да умање ризике
Summary
Извршни директор ОпенАИ, Сем Алтман, позвао је на успостављање посебног ентитета за лиценцирање компанија са вештачком интелигенцијом, наглашавајући потребу за регулаторном интервенцијом како би се одговорило на ризике које представљају све моћнији модели вештачке интелигенције. На недавном саслушању у Сенату, […]

Извршни директор ОпенАИ, Сем Алтман, позвао је на успостављање посебног ентитета за лиценцирање компанија са вештачком интелигенцијом, наглашавајући потребу за регулаторном интервенцијом како би се одговорило на ризике које представљају све моћнији модели вештачке интелигенције. На недавном саслушању у Сенату, Алтман је истакао потенцијал вештачке интелигенције да побољша различите аспекте наших живота, али је такође нагласио озбиљне ризике повезане са њом.
Алтман је указао на мрачнију страну АИ технологије, наводећи бројне неетичке употребе ОпенАИ-јевог четбота за генерисање текста, ЦхатГПТ. АИ је искоришћен за производњу лажног садржаја, укључујући задатке и испитне радове за студенте, као и стварање лажних слика, видео снимака и гласова. Поред тога, било је извештаја о хакерима који користе ЦхатГПТ за ширење злонамерног софтвера на платформама друштвених медија. Ове злоупотребе су допринеле неочекиваном успеху ЦхатГПТ-а, чак су и изненадиле његове креаторе у ОпенАИ.
Импликације АИ технологије изазвале су узбуну међу образовним институцијама и изазвале завист међу Биг Тецх компанијама. Адвокати, писци говора, програмери и новинари, између осталих, жељно ишчекују разорни потенцијал који ЦхатГПТ може донети.
Према извештају ЦНН-а, Алтман је позвао законодавце да регулишу вештачку интелигенцију због потенцијално незаконите природе њених апликација. Он је упоредио тренутни процват АИ технологије са „тренутом штампарске машине“, наглашавајући потребу за заштитним мерама. Алтман је нагласио да је регулаторна интервенција влада од суштинског значаја за ублажавање ризика повезаних са све снажнијим АИ моделима, јер њихова злоупотреба може имати значајне последице.
Алтман је признао да ОпенАИ генеративна АИ има потенцијал да се бави значајним глобалним изазовима, као што су климатске промене и лечење рака. Међутим, он је нагласио да је регулаторна интервенција кључна за ублажавање забринутости у вези са дезинформацијама, сигурношћу посла и другим потенцијалним опасностима.
Током саслушања пододбора Сената за правосуђе, посланици су изразили дубоку забринутост у вези са развојем АИ. Сенатор Ричард Блументал отворио је сесију користећи компјутерски генерисани глас који је веома личио на његов, читајући текст који је написао АИ бот. Блументал је нагласио да АИ технологије више нису само истраживачки експерименти или фантазије научне фантастике, већ стварне и присутне технологије.
Алтман је предложио да америчка влада размотри комбинацију захтева за лиценцирање и тестирање за издавање моћних АИ модела, са могућношћу опозива дозвола у случајевима кршења правила. Такође је предложио означавање и повећање глобалне координације у успостављању правила за АИ технологију. Штавише, Алтман се залагао за стварање наменске америчке агенције одговорне за руковање вештачком интелигенцијом, истовремено наглашавајући важност глобалне сарадње у решавању изазова везаних за вештачку интелигенцију.
Међу Алтмановим областима од највеће забринутости био је потенцијал да се АИ искористи за манипулисање бирачима и ширење дезинформација, посебно са предстојећим изборима на хоризонту. Он је истакао континуирано побољшање АИ модела и потребу за проактивним решавањем ових ризика.
Укратко, Сем Алтман, извршни директор ОпенАИ-а, позвао је на успостављање посебног ентитета за лиценцирање компанија са вештачком интелигенцијом и нагласио неопходност регулаторне интервенције како би се ублажили ризици повезани са све моћнијим моделима вештачке интелигенције. Алтманови предлози укључују захтеве за лиценцирање, протоколе тестирања, обележавање, глобалну координацију и стварање наменске америчке агенције која ће надгледати вештачку интелигенцију. Потенцијална злоупотреба технологије вештачке интелигенције, као што су манипулација гласачима и дезинформације, кључна је брига која се мора решити како би се обезбедила одговорна и корисна примена АИ система.