Kako veštačka inteligencija menja vojnu strategiju SAD-a
Summary
Pentagonov glavni digitalni i glavni oficir za veštačku inteligenciju, Kreg Martel, zabrinut je zbog potencijala generativnih veštačko-inteligentnih sistema poput ChatGPT-a da obmanjuju i šire dezinformacije. Njegov govor o ovoj tehnologiji na DefCon hacker konvenciji u avgustu bio je veliki hit. […]

Pentagonov glavni digitalni i glavni oficir za veštačku inteligenciju, Kreg Martel, zabrinut je zbog potencijala generativnih veštačko-inteligentnih sistema poput ChatGPT-a da obmanjuju i šire dezinformacije. Njegov govor o ovoj tehnologiji na DefCon hacker konvenciji u avgustu bio je veliki hit. Ipak, on je sve samo ne ljut na pouzdanu veštačku inteligenciju.
Martel, koji nije vojnik već naučnik, vodio je mašinsko učenje u kompanijama poput LinkedIn-a, Dropbox-a i Lyft-a pre nego što je preuzeo ovaj posao prošle godine.
Okupljanje vojnih podataka SAD-a i određivanje koje se veštačke inteligencije može verovati da bi se upotrebile u borbi predstavljaju veliki izazov u sve nestabilnijem svetu u kojem se mnoge zemlje trkaju da razviju smrtonosno autonomno oružje.
Intervju je skraćen zbog dužine i jasnoće.
P: Koji je vaš glavni zadatak?
O: Naš posao je da omogućimo širenje prednosti u donošenju odluka od odborničke sale do bojnog polja. Ne smatram da naš zadatak treba da se bavi nekoliko posebnih zadataka, već razvijanjem alata, procesa, infrastrukture i politika koje omogućavaju celom odeljenju da se proširi.
P: Dakle, cilj je globalna dominacija informacija? Šta vam je potrebno za uspeh?
O: Konačno se približavamo mrežnom ratovanju – kako pravim podacima obezbediti pravo mesto i pravo vreme. Postoji hijerarhija potreba: kvalitetni podaci na dnu, analitika i metrike u sredini, a veštačka inteligencija na vrhu. Da bi ovo funkcionisalo, najvažniji su visokokvalitetni podaci.
P: Kako bismo trebali razmišljati o upotrebi veštačke inteligencije u vojnim aplikacijama?
O: Sva veštačka inteligencija je u osnovi prebrojavanje prošlosti kako bi se predvideo budući događaj. Ne mislim da se moderni talas veštačke inteligencije razlikuje od toga.
P: Planeri Pentagona kažu da pretnja Kine čini razvoj veštačke inteligencije hitnim. Da li Kina vodi trku u veštačkoj inteligenciji?
O: Mislim da je ta metafora donekle pogrešna. Kada smo imali trku u nuklearnom naoružanju, imali smo posla s monolitnom tehnologijom. Veštačka inteligencija nije tako. Nije ni Pandorina kutija. To je skup tehnologija koje primenjujemo na osnovu slučaja po slučaj i proveravamo zasnovano na iskustvu da li su efikasne ili ne.
P: Američka vojska koristi AI tehnologiju za pomoć Ukrajini. Kako pomažete?
O: Naš tim nema veze s Ukrajinom osim što pomaže u izgradnji baze podataka o tome kako saveznici pružaju pomoć. Zove se Skyblue. Samo pomažemo da to bude organizovano.
P: Mnogo se raspravlja o autonomnom smrtonosnom oružju, poput napadačkih dronova. Konsenzus je da će ljudi na kraju biti redukovani na nadzornu ulogu – biti u mogućnosti da prekinu misije, ali uglavnom neće se mešati. Da li je to tačno?
O: U vojsci se treniramo s tehnologijom dok ne razvijemo opravdano poverenje. Razumemo granice sistema, znamo kada funkcioniše i kada ne funkcioniše. Kako ovo može biti primenjeno na autonomne sisteme? Evo mog automobila. Verujem adaptivnom tempomatu. Tehnologija koja bi trebalo da spreči vozilo da promeni traku, s druge strane, je loša. Zato nemam opravdano poverenje u taj sistem i ne koristim ga. Izvedite to na vojsku.
P: Program „loyal wingman“ Vazduhoplovstva koji je u razvoju podrazumeva da dronovi lete zajedno s borbenim avionima koji ih upravljaju ljudi. Da li je kompjuterska vizija dovoljno dobra da razlikuje svoje od neprijateljskih?
O: Kompjuterska vizija je napravila neverovatan napredak u poslednjih 10 godina. Da li je korisna u određenoj situaciji, to je empirijsko pitanje. Moramo odrediti preciznost koju smo spremni da prihvatimo za svaku situaciju i graditi na osnovu tih kriterijuma – i testirati. Ne možemo generalizovati. Voleo bih da prestanemo govorimo o tehnologiji kao o monolitu i da umesto toga govorimo o sposobnostima koje želimo.
P: Trenutno izučavate generativnu veštačku inteligenciju i modele s velikim jezikom. Kada se mogu koristiti u Ministarstvu odbrane?
O: Komercijalni modeli s velikim jezikom definitivno nisu ograničeni da pričaju istinu, tako da sam skeptičan. Međutim, kroz Task Force Lima (lansirana u avgustu), proučavamo više od 160 slučajeva upotrebe. Želimo da odlučimo šta je niskog rizika i sigurno. Ovde ne postavljam službenu politiku, već govorim kao hipotezu. Niski rizik bi mogao biti nešto poput generisanja prvih nacrta u pisanju ili kodiranju. U takvim slučajevima, ljudi će ih editovati, ili u slučaju softvera, kompajlirati. Takođe bi moglo raditi za pretragu informacija – gde se činjenice mogu potvrditi kako bi se osigurala njihova tačnost.
P: Veliki izazov s veštačkom inteligencijom je zapošljavanje i zadržavanje potrebnih talenata za testiranje i evaluaciju sistema i označavanje podataka. Data znanstvenici za veštačku inteligenciju zarađuju mnogo više nego što je Pentagon tradicionalno plaćao. Koliki je ovaj problem?
O: To je veliki problem. Upravo smo stvorili kancelariju za upravljanje digitalnim talentima i usredsredili se na to kako da popunimo potpuno novi set radnih uloga. Na primer, da li zaista trebamo zapošljavati ljude koji žele ostati u Ministarstvu odbrane 20-30 godina? Verovatno ne. Ali šta ako ih možemo dobiti na tri ili četiri godine? Šta ako plaćamo njihovo školovanje, a oni plaćaju te tri ili četiri godine, a onda odlaze s tim iskustvom i budu zaposleni u Silicijskoj dolini? Razmišljamo kreativno poput ovoga. Možemo li biti deo raznolovne ekipe? Rekrutovati na HBCU-ima (istorijskim crnačkim koledžima i univerzitetima)?