Извршни директор ОпенАИ-а позива на регулацију вештачке интелигенције, док индустријска реклама прикрива стварне опасности
Summary
У храбром потезу, извршни директор ОпенАИ Сем Алтман обратио се у уторак Сенатском одбору за правосуђе, захтевајући регулативу за саму индустрију у којој је његова компанија лидер. Алтман је нагласио потенцијал за катастрофалне последице ако технологија вештачке интелигенције крене по […]

У храбром потезу, извршни директор ОпенАИ Сем Алтман обратио се у уторак Сенатском одбору за правосуђе, захтевајући регулативу за саму индустрију у којој је његова компанија лидер. Алтман је нагласио потенцијал за катастрофалне последице ако технологија вештачке интелигенције крене по злу и изразио посвећеност ОпенАИ да сарађује са владом како би се спречили такви исходи.
Током свог сведочења, Алтман је истакао опасности вештачке интелигенције, упозоравајући да алати као што је ОпенАИ ЦхатГПТ могу довести до померања посла упркос нади да ће створити нове могућности за запошљавање. Он је отишао корак даље препоручивши оснивање наменске агенције за регулисање вештачке интелигенције, наглашавајући важност проактивних мера.
За разлику од прошлих конгресних технолошких саслушања која су се често претварала у конфронтацију, седница у уторак била је изненађујуће срдачна. На ову атмосферу вероватно је утицала Алтманова вечера са око 60 посланика претходне вечери, током које је наводно приказао могућности ЦхатГПТ-а. Сведоци присутни на саслушању изгледали су задивљени демонстрацијама, описујући их као да су сведоци магичне представе, а не технолошке презентације.
„Мислио сам да је фантастично“, похвалио је представник Тед Лиеу (Д-ЦА), док је представник Мике Јохнсон (Р-ЛА) приметио: „Пружио је фасцинантне демонстрације у реалном времену“. Такве позитивне реакције одражавале су значајан утицај Алтмановог сведочења.
Међутим, Алтманово саслушање није било једини догађај везан за вештачку интелигенцију тог дана. На горњим спратовима исте зграде, Сенатски одбор за унутрашњу безбедност и владина питања је истовремено одржао одвојено саслушање о вештачкој интелигенцији, на којем су били истакнути говорници из различитих домена. Иако се ова сесија бавила применама вештачке интелигенције у стварном свету и њеним утицајем на друштво, добила је знатно мање пажње, остављајући кључне расправе непримећене.
Овај уски фокус на генеративну вештачку интелигенцију, подстакнут глобалном фасцинацијом системима машинског учења који су способни за креирање садржаја, може довести до тога да превидимо стварне опасности вештачке интелигенције и оставимо себе рањивим на штету. Доминација генеративне вештачке интелигенције, коју су илустровали ОпенАИ ЦхатГПТ и друге сличне технологије као што су Бард, Мидјоурнеи и ДАЛЛ-Е, изазвала је огромну рекламу и узвишена обећања. Међутим, овај тренд се показао штетним за раднике, јер су медијске компаније попут Инсајдера и Буззфееда прибегле великим језичким моделима (ЛЛМ) и потом отпуштале запослене.
Употреба вештачке интелигенције у процесу писања такође је изазвала спорове између Удружења писаца Америке и Алијансе филмских и телевизијских продуцената, што је довело до штрајка. Многа предузећа су већ почела да замењују ауторе текстова и графичке дизајнере са ЛЛМ и генераторима слика. У стварности, генеративна вештачка интелигенција има инхерентна ограничења, упркос тврдњама Алтмана и других личности из индустрије. Изражена је забринутост да ослањање на АИ може довести до потцењивања људске креативности и генијалности.
Стручњаци као што су Суреш Венкатасубраманијан, директор Центра за техничку одговорност Универзитета Браун, и Емили М. Бендер, професорка лингвистике на Универзитету у Вашингтону, деле ову забринутост. Они виде Алтманово сведочење као маркетиншки трик, а не као истинско заговарање регулације вештачке интелигенције. Док Алтман јавно подржава регулацију, недостатак транспарентности ОпенАИ-а у вези са скупом података за обуку ЦхатГПТ-а и његово оклевање да одобри приступ апликацијама трећих страна изазивају сумњу у њихов прави став о регулацији.
„Не тражимо од пиромана да буду задужени за ватрогасну службу“, рекао је Венкатасубраманијан. Такође је истакао да, иако генеративна АИ привлачи значајну пажњу, други облици АИ који су годинама активно штетили људима остају недовољно дискутовани. Примене АИ у откривању превара, одлукама у кривичном правосуђу, процесима запошљавања и здравственим третманима изазивају етичка питања која захтевају хитну пажњу.
Алтманов позив на регулацију можда није сасвим истинит, али наглашава потребу за акцијом. Венкатасубраманиан је коаутор Нацрта за АИ Повељу о правима, пружајући смернице за безбедну и одговорну примену алгоритама машинског учења како би се заштитила приватност података. Иако овај оквир тек треба да добије снагу у Конгресу, неке државе, попут Калифорније, већ предлажу законе инспирисане њиме.
Док је Алтман предложио стварање посебне агенције посвећене регулацији вештачке интелигенције, Бендер је тврдио да постојећа управљачка тела поседују неопходна овлашћења да ефикасно регулишу компаније са вештачком интелигенцијом. Недавно су Федерална трговинска комисија, Министарство правде, Биро за финансијску заштиту потрошача и Комисија за једнаке могућности запошљавања објавили заједничко саопштење у којем се појашњава да вештачка интелигенција није изузета од прописа.
Остаје питање да ли ће се значајне промене политике материјализовати. Док Конгрес историјски споро реагује на нове технологије, саслушање у уторак је показало опрезну отвореност за регулацију вештачке интелигенције. Међутим, Бендер верује да је фокус на Алтманово сведочење скренуо пажњу са других критичних аспеката. Она је упозорила да не будемо претерано импресионирани способностима вештачке интелигенције, подсећајући нас да задржимо критичку перспективу јер заинтересоване стране у индустрији имају за циљ да продају своје производе и идеје.