Некатегоризовано

Generativna AI za jačanje kibernetičke sigurnosti

Summary

Analitičari više ne mogu efikasno da se suprotstave sve bržim i kompleksnijim kibernetičkim napadima. Količina podataka je jednostavno prevelika da bi se ručno pregledala. Generativna AI, najtransformišući alat našeg vremena, omogućava vrstu digitalne ju-ji-ći. Ona omogućava kompanijama da preokrenu silu […]

Generativna AI za jačanje kibernetičke sigurnosti

Analitičari više ne mogu efikasno da se suprotstave sve bržim i kompleksnijim kibernetičkim napadima. Količina podataka je jednostavno prevelika da bi se ručno pregledala.

Generativna AI, najtransformišući alat našeg vremena, omogućava vrstu digitalne ju-ji-ći. Ona omogućava kompanijama da preokrenu silu podataka koja preti da ih preplavi u silu koja čini da njihove odbrane budu jače.

Poslovni lideri izgledaju spremni za priliku koja je pred njima. U nedavnom istraživanju, CEO-ovi su naveli da je kibernetička sigurnost jedna od njihovih tri najveće brige, i vide generativnu AI kao vodeću tehnologiju koja će doneti konkurentske prednosti.

Generativna AI donosi i rizike i beneficije. U ranijem blogu su navedena šest koraka za početak procesa obezbeđivanja enterprise AI.

Evo tri načina na koja generativna AI može ojačati kibernetičku sigurnost.

Započnite sa razvojnim inženjerima

Prvo, dajte razvojnim inženjerima pomoć u oblasti sigurnosti.

Svi igraju ulogu u sigurnosti, ali ne svi su stručnjaci za sigurnost. Zato je ovo jedno od najstrateškijih mesta za početak.

Najbolje mesto za početak jačanja sigurnosti je na početku, tamo gde inženjeri pišu softver. AI-om pokretan asistent, obučen kao sigurnosni stručnjak, može im pomoći da se uvere da njihov kod sledi najbolje prakse u sigurnosti.

AI softverski asistent može postajati sve pametniji svaki dan ako mu se šalje prethodno pregledani kod. Može naučiti na osnovu prethodnog rada kako bi pomogao razvojnim inženjerima u vezi sa najboljim praksama.

Da bi korisnicima pružio prednost, NVIDIA kreira radni tok za izgradnju takvih saučesnika ili čat-bota. Ovaj određeni radni tok koristi komponente iz NVIDIA NeMo, okvira za izgradnju i prilagođavanje velikih modela jezika (LLM).

Da li korisnici prilagođavaju svoje sopstvene modele ili koriste komercijalnu uslugu, sigurnosni asistent je samo prvi korak u primeni generativne AI u kibernetičkoj sigurnosti.

Agent za analizu ranjivosti

Drugo, neka generativna AI pomogne u snalaženju u moru poznatih ranjivosti softvera.

U svakom trenutku, kompanije moraju da biraju između hiljada zakrpi kako bi smanjile poznate zloupotrebe. To je zato što svaki komad koda može imati korene u desetinama, čak i hiljadama različitih softverskih grana i projekata otvorenog koda.

LLM fokusiran na analizu ranjivosti može pomoći u prioritetizaciji kojih zakrpa bi kompanija trebalo prva da implementira. To je posebno moćan sigurnosni asistent jer čita sve softverske biblioteke koje kompanija koristi, kao i njene politike o funkcijama i API-jima koje podržava.

Da bi testiranju ovog koncepta, NVIDIA je izgradila pipeline za analizu softverskih kontejnera za ranjivosti. Agent je sa visokom tačnošću prepoznao oblasti koje je trebalo zakrpati, čime se ubrzao rad ljudskih analitičara do 4x.

Jasna poruka je sledeća. Vreme je da generativna AI bude angažovana kao prvi odgovor na analizu ranjivosti.

Popunite praznine u podacima

Napokon, koristite LLM-ove kako biste pomogli u popunjavanju sve veće praznine u podacima u kibernetičkoj sigurnosti.

Korisnici retko dele informacije o povredama podataka jer su one toliko osetljive. To otežava predviđanje zloupotreba.

Tu na scenu stupaju LLM-ovi. Modeli generativne AI mogu stvarati sintetičke podatke kako bi simulirali ranije neviđene obrasce napada. Takvi sintetički podaci mogu takođe popuniti praznine u obuci podataka tako da sistemi mašinskog učenja nauče kako da se brane od zloupotreba pre nego što se one dogode.

Izvođenje sigurnih simulacija

Ne čekajte da napadači pokažu šta je moguće. Kreirajte sigurne simulacije kako biste saznali kako bi mogli da pokušaju da prođu kroz korporativne odbrane.

Ovakva proaktivna odbrana je obeležje snažnog programa sigurnosti. Protivnici već koriste generativnu AI u svojim napadima. Vreme je da korisnici iskoriste ovu moćnu tehnologiju za odbranu kibernetičke sigurnosti.

Da bismo pokazali šta je moguće, drugi AI radni tok koristi generativnu AI kako bi se odbranio od kuljačkih napada putem elektronske pošte – pažljivo ciljane lažne poruke e-pošte koje su kompanijama same u 2021. godini koštale oko 2,4 milijarde dolara.

Ovaj radni tok je generisao sintetičke e-poruke kako bi se osigurao da ima dovoljno dobrih primera kuljačkih poruka putem e-pošte. AI Model obučen na tim podacima je naučio da razume nameru dolaznih e-poruka kroz sposobnosti obrade prirodnog jezika u NVIDIA Morpheus, okviru za AI-pokretanu kibernetičku sigurnost.

Rezultirajući model je uhvatio 21% više kuljačkih e-poruka od postojećih alata. Pogledajte naš blog za programere ili pogledajte video ispod da biste saznali više.

Gde god korisnici izaberu da započnu ovaj rad, automatizacija je ključna, s obzirom na nedostatak stručnjaka za kibernetičku sigurnost i na hiljade korisnika i upotrebnih slučajeva koje kompanije treba da zaštite.

Ova tri alata – softverski asistenti, virtuelni analitičari ranjivosti i simulacije sintetičkih podataka – su odlična početna tačka za primenu generativne AI u sigurnosnom putovanju koje se nastavlja svakodnevno.

Prijavite se za vebinare za više detalja o tome kako početi.