Tvorci veštačke inteligencije postaju paranoični

0
654

Čega se plaše tvorci veštačke inteligencije

Tvorci veštačke inteligencije postaju paranoični. Život je postao lagodniji od 2012. godine, kada su proboji u mašinskom učenju izazvali ulaganja u veštačku inteligenciju. Prepoznavanje govora funkcioniše već odredjeno vreme. Takodje možete otključati novi iPhone skeniranjem lica. Ljudi koji imaju veštine da izgrade takve sisteme imaju velike koristi od svog znanja i umeća. Oni postaju najtraženiji od svih tehnoloških radnika. Ali novi izveštaj upozorava da treba posvetiti više pažnje teškim moralnim opterećenjima stvorenim njihovim radom.

Dokument na 99 strana donosi spisak zlonamerne upotrebe veštačke inteligencije. Zahteva hitnu i aktivnu diskusiju o tome kako bi AI tehnologija mogla biti zloupotrebljena. Primeri scenarija obuhvataju stvaranje robota koji se koriste za atentat na političare ili kriminalce koji pokreću automatizovane i visoko personalizovane phishing kampanje.

Zaštitne mere protiv kriminalaca i hakera

Zbog toga istraživači AI postaju sve paranoičniji i manje otvoreni. U izveštaju se kaže da ljudi i kompanije koje rade na veštačkoj inteligenciji moraju razmišljati o zaštitnim merama protiv kriminalaca ili hakera u svojoj tehnologiji. Čak se razmišlja i o tome da javnost ne bude obaveštena o napretku veštačke inteligencije.

Novi izveštaj ima više od dvadesetak autora iz raznih institucija. To uključuje univerzitete Oxford i Cambridge, institut OpenAI koji finansira Elon Musk, grupa za digitalna prava, Electronic Frontier Foundation, kompjuterska sigurnosna kompanija Endgame i Centar za novu Ameriku.

Tvorci veštačke inteligencije
Ovakvog scenarija se svet plaši. Kada se spomene veštačka inteligencija prvo se pomisli na ovako nešto

Etika je postala glavna tema diskusije u mašinskom učenju tokom protekle godine. Diskusija je delimično pokrenuta korišćenjem algoritama vlade za donošenje odluka koje utiču na građane, kao što su optuženi za krivična dela, i incidenti u kojima sisteme za učenje u mašineriji pokazuju pristrasnost. Microsoft i IBM su nedavno morali da preusmeravaju usluge za analizu lica koje prodaju kompanijama, jer su bili znatno tačniji u identifikaciji pola ljudi sa tamnijom kožom.

Izveštaj se bavi višestrukim štetama koje mogu nastati zbog toga što softver AI postaje mnogo sposobniji i prodorniji, na primer u autonomnim automobilima ili softver koji može automatizovati komplikovanije poslove. Izveštaj upozorava da se takvi sistemi lako mogu modifikovati na kriminalne ili čak smrtonosne ciljeve.

Kompromisano autonomno vozilo može se koristiti za isporuku eksploziva ili namernog sudara, na primer. Rad na stvaranju softvera koji može da hakuje drugi softver, na primer sponzoriran od strane Pentagona, može pomoći kriminalcima da uspostavljaju moćniji i prilagodljiviji malver.

Tvorci veštačke inteligencije rade sa političarima

Glavna preporuka izveštaja je da ljudi i kompanije koje razvijaju AI tehnologiju aktivnije i otvoreno razgovaraju o sigurnosti i bezbednosti. To uključuje i političare. Ona takođe traži od istraživača AI da usvoje paranoičniji način razmišljanja. A i razmotre kako neprijatelji ili hakeri mogu ponovo koristiti njihove tehnologije pre nego što ih upotrebe.

Ako se uzme u obzir, ta preporuka bi ugušila neobičnu otvorenost koja je postala zaštitni znak istraživanja AI.  Izveštaj potvrđuje da je teško napraviti liniju izmedju onoga što treba pustiti u javnost i onoga što ne treba. Ali tvrdi da su bezbednost računara, biotehnologija i odbrambene zajednice pokazale da je moguće razviti i primeniti norme oko odgovornog otkrivanja opasnih ideja i alata.

Razer sprema svoju platformu za kupovinu igara

Kreatori ovog izveštaja tvrde da je u nekim slučajevima zajednica AI blizu te linije. Oni ukazuju na istraživanje od strane Google-a kako im stati na put. U svetlu dogadjaja kada su ruski operativci pokušali da manipulišu na predsedničkim izborima 2016. godine.
Internet kompanije, uključujući Reddit, već se bore sa navodim porno snimcima poznatih ličnosti. Taj materijal je kreiran pomoću softvera za učenje na otvorenom kodu poznatog kao Deepfakes.

Štetno korišćenje veštačke inteligenicje

Neki ljudi koji rade na veštačkoj inteligenciji već pokušavaju da otvore oči i budućim stručnjacima veštačke inteligencije za potencijalno štetno korištenje onoga što grade. Ion Stoica, profesor na Univerzitetu u Kaliforniji Berkey, koji nije bio uključen u ovaj izveštaj, kaže da aktivnije sarađuje sa kolegama u kompjuterskoj sigurnosti i razmišlja o javnoj politici. Bio je vodeći autor nedavnog istraživanja o tehničkim izazovima u AI. On je identifikovao bezbednost i sigurnost kao glavne teme istraživanja i briga.

Izvor:Wired

POSTAVI ODGOVOR

Please enter your comment!
Please enter your name here

Ово веб место користи Акисмет како би смањило непожељне. Сазнајте како се ваши коментари обрађују.