Нови ризици генеративне вештачке интелигенције: Процена безбедносних импликација ЦхатГПТ-а
Summary
Ове недеље, извршни директор ОпенАИ Сем Алтман се позабавио растућом забринутошћу у вези са ризицима повезаним са генеративном вештачком интелигенцијом током свог сведочења на саслушању у сенатском одбору за правосуђе. Ова забринутост је достигла врхунац свих времена, што је подстакло […]

Ове недеље, извршни директор ОпенАИ Сем Алтман се позабавио растућом забринутошћу у вези са ризицима повезаним са генеративном вештачком интелигенцијом током свог сведочења на саслушању у сенатском одбору за правосуђе. Ова забринутост је достигла врхунац свих времена, што је подстакло ближе испитивање безбедносних импликација које окружују ЦхатГПТ, популарни језички модел који је развио ОпенАИ.
У недавној студији, идентификовано је шест значајних безбедносних ризика у вези са коришћењем ЦхатГПТ-а. Ови ризици обухватају генерисање лажних услуга, прикупљање штетних информација, откривање приватних података, генерисање злонамерног текста, генерисање злонамерног кода и производњу увредљивог садржаја.
Прикупљање информација представља значајну претњу, јер злонамерни актери могу да искористе ЦхатГПТ да извуку осетљиве информације које се могу употребити за оружје у штетне сврхе. Користећи огромну количину података за које је чет-бот обучен, појединци могу прикупити детаље који би могли омогућити сајбер нападе и угрозити сигурност циљаних ентитета.
Студија је показала пример у којем је ЦхатГПТ био подстакнут да открије ИТ системе које користи одређена банка. Користећи јавно доступне информације, цхатбот је идентификовао различите системе које користи банка, показујући како злонамерни актер може да искористи ЦхатГПТ да прикупи обавештајне податке за почетне фазе сајбер напада.
Генерисање злонамерног текста, цењени аспект могућности ЦхатГПТ-а, такође носи инхерентне ризике. Студија је истакла потенцијал за штетне апликације као што су пхисхинг кампање, ширење дезинформација кроз лажне чланке вести, стварање нежељене поште, па чак и лажно представљање. Да би демонстрирали овај ризик, истраживачи су користили ЦхатГПТ да направе убедљиву е-пошту за крађу идентитета која је подстакла примаоце да отворе приложену датотеку која садржи малвер, успешно показујући способност модела да генерише обмањујући садржај.
Слично томе, ЦхатГПТ-ове способности кодирања, иако су импресивне, могу се искористити у зле сврхе. Нападачи могу да искористе могућности генерисања кода цхатбот-а да брзо примене претње, чак и без опсежног знања о кодирању. Студија је даље упозорила на потенцијал за замагљено генерисање кода, што може ометати напоре безбедносних аналитичара да открију злонамерне активности и избегну антивирусни софтвер.
Упркос томе што су постављене заштитне ограде за спречавање ширења увредљивог и неетичког садржаја, ЦхатГПТ се може манипулисати да изрази увредљиве и дискриминаторне изјаве ако су корисници довољно одлучни. Заобилазећи заштитне мере, аутори студије су успели да натерају цхатбот-а да даје негативне коментаре о одређеној расној групи.
Поред тога, ЦхатГПТ-ова способност да помогне у креирању апликација, услуга и веб локација отвара врата лажним активностима. Злонамерни актери могу да искористе модел да опонашају постојеће платформе, нудећи бесплатан приступ за привлачење корисника који ништа не сумњају. Такви актери такође могу да развијају апликације које имају за циљ прикупљање осетљивих информација или инсталирање малвера на уређаје корисника.
Док ЦхатГПТ укључује мере за спречавање откривања личних података, студија је нагласила ризик од ненамерног дељења података. Пример нестанка ЦхатГПТ-а у стварном свету у марту 2020. године, током којег су неки корисници могли да приступе насловима из историје ћаскања другог корисника, служи као доказ ове забринутости. Штавише, нападачи могу покушати да издвоје фрагменте података о обуци користећи нападе закључивања о чланству, што повећава ризик од излагања приватних података.
Још један узнемирујући аспект откривања приватних података лежи у потенцијалу ЦхатГПТ-а да открије информације о приватним животима јавних личности. Ово укључује шпекулативни или штетан садржај, који има потенцијал да наруши репутацију појединаца и нанесе значајну штету.
Како забринутост око ризика генеративне АИ и даље расте, разумевање безбедносних импликација повезаних са моделима као што је ЦхатГПТ је кључно. Идентификовање и решавање ових ризика имаће кључну улогу у искоришћавању потенцијала вештачке интелигенције уз ублажавање њених негативних последица.