Контроверзе око ЦхатГПТ-а: Да ли владе треба да забране АИ програм?
Summary
ЦхатГПТ, популарни програм вештачке интелигенције који је развио ОпенАИ, хваљен је као супермоћан АИ систем са потенцијалом да трансформише различите индустрије. Међутим, то је такође изазвало забринутост због академског непоштења, измештања послова и политичке пристрасности, што је навело неке владе […]

ЦхатГПТ, популарни програм вештачке интелигенције који је развио ОпенАИ, хваљен је као супермоћан АИ систем са потенцијалом да трансформише различите индустрије. Међутим, то је такође изазвало забринутост због академског непоштења, измештања послова и политичке пристрасности, што је навело неке владе да предузму драстичне мере да га забране.
Недавна италијанска забрана ЦхатГПТ-а навела је неколико других земаља, укључујући Француску, Ирску, Немачку и Канаду, да размотре сличне политике. Италијанско тело за заштиту података навело је забринутост због масовног прикупљања и складиштења личних података без икакве правне основе и дало ОпенАИ 20 дана да одговори променама или се суочи са великом казном од више милиона долара. У међувремену, лидери индустрије попут Елона Маска позивају на „паузу АИ“.
Међутим, реакције као што су ове забране можда неће донети много друштвене користи. Уместо тога, владе би требало да се усредсреде на ублажавање непосредне штете, као што су дезинформације и клевете, док такође процењују како се системи вештачке интелигенције у настајању повезују са законом.
Цхатботови као што је ЦхатГПТ спадају под окриље генеративне АИ, која ствара различите облике медија користећи системе за машинско учење. Док су се амерички регулатори бавили питањима везаним за алгоритамску пристрасност, генеративна АИ поставља нова питања и изазове. На пример, Далл-Е може да произведе реалистичне слике и уметност на основу корисничких упутстава, изазивајући забринутост око приватности и присвајања.
Међутим, забране претпостављају проблеме са технологијом у развоју пре него што буду у потпуности дефинисани, занемарујући позитивне примене генеративне вештачке интелигенције, као што је повећање ефикасности и продуктивности. Здравствени стручњаци предвиђају да се генеративна АИ може користити у административне сврхе и побољшати искуство пацијената. Ако се забрана успешно примени, Италија и друге земље које следе само ће спречити кориснике да користе популарни програм и обесхрабрити домаће истраживаче да развијају генеративне системе вештачке интелигенције.
Националне забране такође утичу на грађане који поштују закон, а не само на лоше актере који користе технологију у зле сврхе. Разумни и циљани прописи могу ублажити постојеће штете, као што су дезинформације и клевете, којима је ЦхатГПТ склон. Иако је цхатбот склон да генерише људске одговоре, можда им недостају дубина и тачност, што доводи до озбиљних последица попут клевете. На пример, у Аустралији, градоначелник кога је ЦхатГПТ лажно оптужио за подмићивање размишља о тужби против ОпенАИ-а, што би био први случај клевете против цхат бота.
Законодавци би требало да процене како се нови системи вештачке интелигенције повезују са законом, а да притом не ометају развој програма који милиони сматрају корисним. Што се тиче ЦхатГПТ-а, постоји значајан диспаритет између перцепције јавности о цхатбот-у и његових стварних способности и тачности. Његово „учење“ много више личи на имитацију и мимикрију него на истинско разумевање. Иако је програм склон да генерише наизглед људске одговоре, њима може недостајати дубина и, у најгорем случају, бити измишљене чињенице. Упркос овим недостацима, многи корисници не проверавају истинитост ЦхатГПТ одговора и уместо тога их третирају као истину засновану на подацима.
У закључку, иако је ЦхатГПТ изазвао забринутост због својих потенцијалних негативних утицаја, забране можда нису решење за решавање новонастале технологије. Уместо тога, владе би требало да се усредсреде на циљане прописе како би ублажиле тренутне штете, док би такође требало да процене како се нови системи вештачке интелигенције повезују са законом.