Američka tvrtka za umjetnu inteligenciju (AI) Anthropic traži stručnjaka za kemijsko oružje i eksplozive kako bi pokušala spriječiti katastrofalnu zlouporabu svog softvera.
Drugim riječima, boje se da bi njihovi alati umjetne inteligencije mogli nekome reći kako napraviti kemijsko ili radioaktivno oružje i želi stručnjaka koji će osigurati da se to ne dogodi.
U oglasu za posao na LinkedInu, tvrtka navodi da kandidati trebaju imati najmanje pet godina iskustva u obrani od kemijskog oružja i/ili eksploziva, kao i znanje o radiološkim uređajima za raspršivanje – poznatim kao prljave bombe. Anthropic nije jedina tvrtka za umjetnu inteligenciju koja usvaja ovu strategiju.
Sličnu poziciju želi popuniti i OpenAI. Na svojoj web stranici naveli su da imaju slobodno radno mjesto za istraživača u području bioloških i kemijskih rizika, s plaćom do 455.000 dolara (394.485 eura), gotovo dvostruko više od one koju nudi Anthropic. No neki stručnjaci su uznemireni ovim pristupom, upozoravajući da se tako alatima umjetne inteligencije daju informacije o oružju – čak i ako im je rečeno da ne koriste te informacije.
“Je li ikada sigurno koristiti AI sustave za rukovanje osjetljivim informacijama o kemikalijama i eksplozivima, uključujući prljave bombe i drugo radiološko oružje? Ne postoji međunarodni ugovor ili drugi propis za ovu vrstu rada i korištenje umjetne inteligencije s ovim vrstama oružja”, rekla je dr. Stephanie Hare, tehnološka istraživačica i suvoditeljica BBC-jeve TV emisije AI Decoded.
Industrija umjetne inteligencije kontinuirano je upozoravala na potencijalne egzistencijalne prijetnje koje predstavlja njezina tehnologija, ali nije bilo pokušaja usporavanja njezina napretka. To upozorenje je sada još značajnije s obzirom na to da američka vlada traži pomoć tvrtki za umjetnu inteligenciju dok istovremeno ratuje u Iranu i provodi vojne operacije u Venezueli.
Anthropic pokreće pravne postupke protiv američkog Ministarstva obrane, koje ga je označilo kao rizik za lanac opskrbe kada je tvrtka inzistirala da se njezini sustavi ne smiju koristiti ni u potpuno autonomnom oružju ni u masovnom nadzoru Amerikanaca, prenosi BBC.
Pročitajte još:
Suosnivač Anthropica, Dario Amodei, rekao je u veljači da ne misli da je tehnologija još dovoljno dobra i da se ne bi trebala koristiti u te svrhe. Iz Bijele kuće su izjavili da američkom vojskom neće upravljati tehnološke tvrtke. Oznaka rizika stavlja američku tvrtku u isti položaj kao i kinesku telekomunikacijsku tvrtku Huawei, koja je isto tako stavljena na crnu listu zbog rizika za nacionalnu sigurnost.
OpenAI je izjavio da se slaže sa stavom Anthropica, ali je potom pregovarao o vlastitom ugovoru s američkom vladom. Anthropicov AI asistent, nazvan Claude, još nije ukinut i trenutačno je još uvijek ugrađen u sustave koje osigurava Palantir i koje SAD koriste u američko-izraelsko-iranskom ratu.













