Некатегоризовано

Ризици и изазови неограниченог развоја вештачке интелигенције: зашто то треба да регулишемо

Summary

Вештачка интелигенција (АИ) убрзано напредује, а забринутост због њеног негативног потенцијала расте. Чак и шеф Гугла, Сундар Пицхаи, признаје да је изгубио сан због ризика од вештачке интелигенције, а Елон Муск је критиковао суоснивача Гугла Ларија Пејџа јер не схвата […]

Вештачка интелигенција (АИ) убрзано напредује, а забринутост због њеног негативног потенцијала расте. Чак и шеф Гугла, Сундар Пицхаи, признаје да је изгубио сан због ризика од вештачке интелигенције, а Елон Муск је критиковао суоснивача Гугла Ларија Пејџа јер не схвата довољно озбиљно безбедност АИ. Хиљаде потписника писма Института за будућност живота позвало је на шестомесечни мораторијум на стварање „џиновских“ АИ моћнијих од ГПТ-4, система који подржава ЦхатГПТ и четбот интегрисаног са Мицрософт-овим претраживачем Бинг, наводећи потенцијални „губитак контроле над нашом цивилизацијом“.

Ризици које представља вештачка интелигенција нису ограничени на штетне дезинформације или превару, већ се протежу на развој „боголике вештачке интелигенције“ и „вештачке опште интелигенције“ (АГИ), система који може самостално да учи и еволуира, генеришући ново знање како иде. АГИ би могао довести до ефекта „замајца“, где се способност система побољшава све брже, потенцијално достижући висине незамисливе за човечанство или одступајући од људских моралних вредности.

Сирова снага врхунске вештачке интелигенције може је учинити једном од неколико технологија „двокласне“ технологије, попут нуклеарне енергије или биохемије, које имају довољно деструктивног потенцијала да чак и мирољубива употреба вештачке интелигенције треба да се контролише и надгледа. Док компаније са вештачком интелигенцијом као што је ОпенАИ покушавају да ускладе интересе и акције својих система са људским вредностима, лакоћа којом корисници могу да заобиђу систем показује његова ограничења.

Решавање проблема поравнања могло би бити хитно, јер водећи истраживачи брину да би АГИ могао да се појави раније него што мислимо. Ијан Хогарт, инвеститор и коаутор годишњег извештаја о стању вештачке интелигенције, упозорава да би АГИ могао да се појави раније него што мислимо, и да водећи истраживачи брину да бисмо могли бити веома блиски. Чак и Пицхаи признаје да Гугл не разуме у потпуности како његова АИ производи одређене одговоре и да је тешко разумети како системи вештачке интелигенције постижу своје резултате. То значи да се АГИ може постићи брже него што се очекивало.

Регулисање развоја вештачке интелигенције је од суштинског значаја. Док се неки залажу против мораторијума на развој вештачке интелигенције, обе стране се слажу да мора постојати регулација развоја вештачке интелигенције како би се контролисали моћни системи вештачке интелигенције и осигурало да су њихове употребе и резултати усклађени са људским вредностима. Конор Лихи, извршни директор Цоњецтуре, истраживачке компаније посвећене безбедном развоју вештачке интелигенције и још један потписник писма Института за будућност живота, каже да проблем нису специфични сценарији, већ немогућност контроле система који су створени.

АИ компаније покушавају да ускладе своје системе са људским вредностима, али мора постојати последице ако АИ пређе границу. Пицхаи је указао на потребу за глобалним оквиром у стилу нуклеарног оружја, а Писано, извршни директор Мила – Института за вештачку интелигенцију у Квебеку – навео је да имамо „разговор на међународном нивоу, сличан ономе што смо урадили са нуклеарном енергијом“. Ризици које представља вештачка интелигенција су довољно значајни да чак и мирољубива употреба вештачке интелигенције треба да се контролише и надгледа, слично нуклеарној енергији или биохемији.