Двопартијски закон има за циљ да спречи АИ да покрене нуклеарни напад
Summary
Група посланика, укључујући три демократе и једног републиканца, представила је у Представничком дому предлог закона који има за циљ да спречи да системи вештачке интелигенције (АИ) напредују до тачке у којој могу самостално да покрену нуклеарни напад. Двостраначка мера законодавца […]

Група посланика, укључујући три демократе и једног републиканца, представила је у Представничком дому предлог закона који има за циљ да спречи да системи вештачке интелигенције (АИ) напредују до тачке у којој могу самостално да покрену нуклеарни напад. Двостраначка мера законодавца настоји да кодификује постојећу политику Пентагона која захтева да човек буде „у току” за било какве одлуке у вези са употребом нуклеарног оружја. Предлог закона би забранио употребу вештачке интелигенције за распоређивање нуклеарног оружја без људског ланца командовања и контроле, што је непромишљено, опасно и требало би да буде забрањено, каже представник Кен Бак, Р-Цоло.
Предлог закона би превентивно блокирао све будуће политичке одлуке Министарства одбране које би могле довести до тога да АИ буде способна да сама испали нуклеарно оружје. Ово долази када АИ постаје све заступљенији, а законодавци и званичници се боре и са позитивним и опасностима. Лидер већине у Сенату Чак Шумер објавио је широк оквир раније овог месеца позивајући компаније које развијају вештачку интелигенцију да дозволе спољним стручњацима да прегледају њихову технологију пре него што она постане јавно доступна за употребу. Пентагон такође тражи 1,8 милијарди долара искључиво за истраживање и развој АИ способности у свом буџету за фискалну 2024. годину.
Заступник Тед Лиеу, Д-Калифорнија, који је гласно говорио о опасностима дозвољавања вештачкој интелигенцији да се брзо развија неконтролисано, рекао је: „Наш је посао као чланова Конгреса да имамо одговорно предвиђање када је у питању заштита будућих генерација од потенцијално разорног последице“. Он је даље нагласио да би допуштање вештачкој интелигенцији да доноси одлуке у вези са употребом нуклеарног оружја могло довести до катастрофалних исхода и да овај закон настоји да обезбеди да људски надзор остане кључна компонента процеса доношења одлука.
Док војска види АИ као алат који може помоћи људима да схвате податке и усмере их у правом смеру, Пентагон верује да „мора и да ће увек имати човека у петљи који доноси коначну одлуку“, рекао је Шајлер Мур, шеф технологије у ЦЕНТЦОМ-у. Двопартијски закон настоји да осигура да људски надзор остане кључна компонента процеса доношења одлука о употреби нуклеарног оружја.
Заступник Бак је у интервјуу за „Америца’с Невсроом“ у петак ујутро наговестио да Капитол Хил има нешто да надокнади. „АИ је овде, и нажалост, Конгрес се већ дуго није бавио тим питањем“, рекао је он. „Желимо да будемо сигурни да постоји човек у овом процесу лансирања нуклеарног оружја, ако у било ком тренутку будемо морали да лансирамо нуклеарно оружје. Дакле, гледате научно-фантастичне филмове, а свет је измакао контроли јер је вештачка интелигенција преузела – имаћемо људе у овом процесу.“
Двопартијски закон настоји да осигура да људски надзор остане кључна компонента процеса доношења одлука о употреби нуклеарног оружја. Подвлачи потребу да се задржи контрола над технологијом вештачке интелигенције и наглашава важност разматрања потенцијалних ризика развоја вештачке интелигенције.