Некатегоризовано

Извршни директор ОпенАИ Сем Алтман суочава се са надзором Сената о вештачкој интелигенцији: балансирање опасности и обећања

Summary

Извршни директор ОпенАИ Сем Алтман ће сведочити пред Сенатским правосудним подкомитетом за приватност, технологију и закон, док сенатори желе да стекну дубље разумевање опасности и обећања вештачке интелигенције (АИ) и истраже потребу за регулаторним мерама. Ово јавно саслушање у конгресу […]

Извршни директор ОпенАИ Сем Алтман ће сведочити пред Сенатским правосудним подкомитетом за приватност, технологију и закон, док сенатори желе да стекну дубље разумевање опасности и обећања вештачке интелигенције (АИ) и истраже потребу за регулаторним мерама. Ово јавно саслушање у конгресу означава Алтманово прво појављивање као сведока, након напора лидера већине у Сенату Цхуцка Сцхумера да развије регулаторни нацрт и текућих дискусија међу члановима Представничког дома и Сената у вези са успостављањем смерница за АИ.

Чланови пододбора су изразили намеру да обезбеде безбедно и одговорно коришћење АИ. Сенатор Џош Холи, водећи републиканац у подкомитету, изразио је забринутост због потенцијалног утицаја вештачке интелигенције у будућим изборним циклусима. Он је поставио питање да ли вештачка интелигенција може да контролише информације до те мере да би бирачи добијали све на кашичицу кроз алгоритаме које контролише неколико појединаца, чиме би угрозили слободне и поштене изборе. Хавлеи је такође покренуо питање потенцијалног економског преокрета и губитка радних мјеста као резултат интеграције АИ, што посебно утиче на раднике са плавим овратницима.

Холијев скептицизам проширио се и на велике технолошке компаније, јер је истакао њихову евиденцију неповерљивог понашања, наводећи негативан утицај друштвених медија на децу и друштво у целини. Примедбе сенатора наглашавају потребу за свеобухватним прописима о вештачкој интелигенцији како би се спречиле сличне последице.

Сенатор Ричард Блументал, председавајући пододбора, нагласио је хитност спровођења правила и заштитних мера за вештачку интелигенцију како би се искористио њен огроман потенцијал и истовремено се бавио њеним замкама. Саслушање служи као почетни корак пододбора ка надгледању и разумевању напредних алгоритама и моћне технологије вештачке интелигенције. Блументал је изразио своју посвећеност сарадњи са колегама на успостављању разумних стандарда и принципа за навигацију овом неистраженом територијом.

Сенаторка Марша Блекбурн, још један члан подкомитета, намерава да се фокусира на утицај вештачке интелигенције на креаторе садржаја, посебно у музичкој индустрији. Она тражи појашњење од Алтмана у вези са заштитом права креатора садржаја, укључујући песме, слике и уметност заштићене ауторским правима који се користе за обуку АИ модела или коришћење њиховог гласа и сличности. Блекбурн је нагласио важност обезбеђивања да платформе вештачке интелигенције, укључујући ОпенАИ, поштују и штите права интелектуалне својине, наводећи забринутост због неовлашћеног коришћења садржаја заштићеног ауторским правима од стране главних технолошких платформи попут ИоуТубе-а.

Алтману се придружују као сведоци на саслушању Кристина Монтгомери, највиши званичник ИБМ-а за приватност и поверење, и Гери Маркус, професор емеритус Универзитета у Њујорку. Алтман ће такође одржати брифинг за затворена врата члановима Дома о вештачкој интелигенцији, додатно наглашавајући значај ових дискусија.

Алтманова претходна посета високог профила Вашингтону укључивала је позив Беле куће потпредседнице Камале Харис да разговарају о вештачкој интелигенцији заједно са извршним директорима Гоогле-а, Мицрософт-а и Антхропиц-а. Читање са тог састанка открило је изненађујуће појављивање председника Џоа Бајдена, наглашавајући фундаменталну одговорност компанија да обезбеде безбедност и сигурност својих АИ производа пре постављања или јавног објављивања. На састанку је наглашена важност разматрања етичких и регулаторних аспеката развоја вештачке интелигенције.

Док се Алтман припрема да сведочи и сарађује са законодавцима, ово саслушање означава кључни моменат у обликовању будућности регулативе вештачке интелигенције и одговорне примене.