Некатегоризовано

Da li vaš robot-usisivač može ubiti vašeg kućnog ljubimca… ili vas?

Summary

Razmišljam o ovome jer su inherentne opasnosti veštačke inteligencije (AI) i njenih vozila trenutno predmet mnogo rasprava. Međutim, o tim ozbiljnijim posledicama, kao što je smrt od strane robota, čuje se vrlo malo u poređenju sa vestima o najnovijim AI […]

Da li vaš robot-usisivač može ubiti vašeg kućnog ljubimca… ili vas?

Razmišljam o ovome jer su inherentne opasnosti veštačke inteligencije (AI) i njenih vozila trenutno predmet mnogo rasprava. Međutim, o tim ozbiljnijim posledicama, kao što je smrt od strane robota, čuje se vrlo malo u poređenju sa vestima o najnovijim AI problemima. Nažalost, ubistva izvršena od strane robota su često česta pojava. Od prvog ubistva 1979. godine, više od 50 ljudi je izgubilo život nakon što su bili zgazeni ili na neki drugi način napadnuti od strane destruktivnih mašina. Istraživanje smrtnih slučajeva od 1991. do 2017. godine zabeležilo je 42 takva ubistva, ali postoji verovatnoća da su se dogodili i drugi slučajevi van tog vremenskog okvira.

Zanimam se za ovu temu iz dva glavna razloga. Prvo, AI se čini ograničenom u svojoj stvarnoj korisnosti, poput čišćenja kuće i kontrole unutrašnje klime. Drugo, izgleda da ne postoji mnogo istraživanja o etičkim i pravnim implikacijama van komercijalne dobiti.

Da bih ilustrovao sličan dilemu, setimo se šta se desilo nakon što je američki fizičar Robert Oppenheimer vodio izumu atomske bombe četrdesetih godina prošlog veka. Njegove sumnje u vojnu kontrolu daljeg razvoja nuklearnog oružja dovele su do beskrajnih globalnih nuklearnih sporova. Nakon rata, usled američkog antikomunističkog pokreta Mekartiizma, Oppenheimer je praktično optužen za izdaju i iako je proglašen lojalnim svojoj zemlji, bio je isključen iz vladinih uloga koje zahtevaju sigurnosnu proveru. Ta lov na veštice je mnogim naučnicima koji su poštovali Oppenheimera, uključujući Alberta Ajnštajna, nanela štetu i dovela ga do sukoba sa Edwardom Tellerom, glavnim razvijateljem mnogo destruktivnije termonuklearne bombe. Da li se suočavamo sa sličnom oštrim, ali na kraju plodonosnom raspravom o AI? Čini se da to ide u tom pravcu.

Posebno je uzbudljiva debata u Sjedinjenim Američkim Državama uoči sledećih predsedničkih izbora, gde se učesnici i stručnjaci prepiru o opasnostima lažnih slika i dokumenata koje stvara veštačka inteligencija. Ove kontroverze u tom posebnom području nisu ništa novo. Sećam se jednog dana 1973. godine kada je jedan besan vozač kamiona upao u moj kancelariju u listu Taranaki Herald i zatražio da povučemo vest koja je pokazivala da je prekršio zakon. Nije priznao da je prešao centar mosta dok je pregovarao o mostu između New Plymoutha i Inglewooda, tvrdeći da smo mi koristili trikove u tamnoj sobi kako bismo pomerili njegov kamion. Nismo to uradili i sumnjam da je tada postojao neki način da se to uradi. Slična tvrdnja je izneta i pri kraju toga desetleća kada je „New Zealand Herald“ objavio fotografiju bikova koji su pobegli iz kamiona za prevoz stoke i morali da se uhvate na prilazima mostu u Aucklandu. Ta slika je pokazivala životinju sa svim četiri kopita iznad puta, ali bez senke ispod nje. Očigledno, slika bika je bila nalepljena, tvrdili su izrevoltirani čitaoci. Nije, ali oni nisu odustajali. Koliko znam, takvi trikovi su postali široko dostupni u Sjedinjenim Američkim Državama sredinom osamdesetih godina. Bio sam na obilasku najboljih američkih novina i kada sam stigao u „Los Angeles Times“, prikazali su mi takav razvoj obrade slika. Fotografisali su me, a zatim mi na računaru pokazali kako mi propusnica koju sam imao na jakni može nestati. To je danas lako sa programom Adobe Photoshop i njegovim sličnim programima, ali je bilo novo 1986. godine. Bio sam zadivljen, ali sam se zapitao o etičkim rizicima. Nema problema, rekao je urednik ilustracija: „Nismo dozvoljeni da to koristimo za uredničke svrhe. Samo je za odeljenje oglasa…“

Glavni mediji širom sveta mogu se pozvati na različite interne kodekse koji ograničavaju takvo manipulisanje, ali većina, ako ne i svi takvi smernicama, su samo vodiči koji se dobrovoljno primenjuju, podložni samo posledicama industrije pod nadzorom od strane industrijom vođene agencije i skupog zakonskog nadzora koji će verovatno biti postavljeni u skladu sa brzorastućom ulogom veštačke inteligencije. Iako je to barem bolje od onoga što prolazi kao „sakupljanje vesti“ na društvenim medijima. Kao što vidite, skeptičan sam prema veštačkoj inteligenciji i pokazao sam da je samo primitivno pismena. Saglasan sam sa Gvin Dajerom – fokus AI je i dalje usmeren na uska područja i komercijalnost. U međuvremenu, radnici na pakovanju će nastaviti da umiru „nečijim“ rukama, odnosno rukama robota. I deo ljudi će nastaviti da koristi infinitive.

FAQ:

1. Koliko ljudi je poginulo od robota?

Od prvog ubistva izvršenog od strane robota 1979. godine, preko 50 ljudi je izgubilo život nakon što su bili uništeni od strane ovih mašina.

2. Koliko smrtnih slučajeva je zabeleženo između 1991. i 2017. godine?

Studija je zabeležila 42 smrtna slučaja izazvana robotima u ovom periodu.

3. Da li postoje etička istraživanja o veštačkoj inteligenciji?

Iako postoji mnogo diskusija o komercijalnoj koristi veštačke inteligencije, čini se da nedostaje istraživanja o etičkim implikacijama.

4. Da li postoji opasnost od lažnih slika i dokumenata koje stvara veštačka inteligencija?

Rasprave o opasnostima lažnih slika i dokumenata koje stvara veštačka inteligencija su naročito intenzivne uoči predsedničkih izbora u Sjedinjenim Američkim Državama.