Гоогле даје предност генеративној вештачкој интелигенцији над етиком, кажу запослени
Summary
Гуглова посвећеност одговорној вештачкој интелигенцији доведена је у питање од стране 18 садашњих и бивших радника који су разговарали са Блумбергом. Они тврде да компанија жртвује етичка разматрања како би одржала корак са ривалима као што је ОпенАИ, чији је […]

Гуглова посвећеност одговорној вештачкој интелигенцији доведена је у питање од стране 18 садашњих и бивших радника који су разговарали са Блумбергом. Они тврде да компанија жртвује етичка разматрања како би одржала корак са ривалима као што је ОпенАИ, чији је чет-бот покренут у новембру 2022. Један запослени у Гуглу описао је компанијског Бард цхатбот-а као „патолошког лажова“, док је други тврдио да даје савете о роњењу на дах „који вероватно ће довести до озбиљних повреда или смрти.“ Интерна документација поткрепљује тврдње.
Гугл је обећао да ће удвостручити свој тим који проучава етику вештачке интелигенције и уложити више ресурса у процену потенцијалне штете од технологије. Међутим, лансирање ОпенАИ-јевог цхат бота у новембру 2022. послало је Гуглу да се труди да интегрише генеративну вештачку интелигенцију у своје најважније производе за неколико месеци. Група која ради на етици коју је Гугл обећао да ће ојачати сада је обесправљена и деморализована, према садашњим и бившим радницима. Особље одговорно за безбедност и етичке импликације нових производа је речено да не сметају или покушавају да убију било који од генеративних алата АИ у развоју.
Гугл настоји да ревитализује свој посао претраге најсавременијом технологијом која би могла да уведе генеративну вештачку интелигенцију у милионе домова и телефона широм света, идеално пре него што ОпенАИ, који подржава Мицрософт, победи компанију. Компанија је била опрезна у погледу моћи генеративне вештачке интелигенције и етичких разматрања која иду руку под руку са уграђивањем технологије у претрагу и друге производе, али брзи темпо развоја могао би имати дубок друштвени утицај.
Мередит Витакер, председница Фондације Сигнал и бивша менаџерка Гугла, рекла је: „Етика вештачке интелигенције је отишла у позадину. Ако етика није постављена да има предност над профитом и растом, она на крају неће функционисати.“ Гоогле пориче ту тврдњу и каже да одговорна АИ остаје главни приоритет у компанији.
Одговорни АИ тим је реорганизован под Мариан Цроак, који се обавезао да ће удвостручити његову величину и ојачати своје везе са остатком компаније. Међутим, у Гуглу је тешко радити на етичкој вештачкој интелигенцији. Један бивши запосленик је рекао да су тражили да раде на правичности у машинском учењу и да су били рутински обесхрабрени до те мере да је то утицало на њихову ревизију учинка. Менаџери су протестовали што им то омета „право посао“, рекла је та особа.
Запослени су забринути што брзина развоја не дозвољава довољно времена за проучавање потенцијалне штете. Етичке рецензије производа и функција вештачке интелигенције, рекла су два запослена, су скоро у потпуности добровољне у компанији, са изузетком истраживачких радова и процеса прегледа који је спровео Гоогле Цлоуд о понудама купаца и производима за објављивање.
Пре црвеног кода, Гоогле инжењерима је било тешко да се дочепају најнапреднијих АИ модела компаније, рекао је други бивши запослени. Инжењери би често почели да размишљају тако што би се поигравали са генеративним АИ моделима других компанија како би истражили могућности технологије пре него што би смислили начин да се то оствари унутар бирократије, рекао је бивши запослени.
Сами Бенгио, компјутерски научник који је надгледао Гугл-ов тим за етичку вештачку интелигенцију, и неколико других истраживача напустили би компанију ради конкуренције у годинама које долазе. Менаџмент компаније тежи да говори о хипотетичким будућим сценаријима о свемоћној технологији коју људска бића не могу контролисати, а не о свакодневним сценаријима који већ имају потенцијал да буду штетни.