Anthropic objavio detalje o hakerskim pokušajima zloupotrebe njihovog asistenta Claude AI

Ilustracija: Igor Omilaev / Unsplash

Američka kompanija za umjetnu inteligenciju Anthropic u srijedu je priopćila da je otkrila i blokirala hakere koji su pokušavali zloupotrijebiti njihov chatbot Claude AI za kreiranje tzv. phishing e-mailova, stvaranje malicioznih programa, te zaobilaženje sigurnosnih filtera.

Rezultate Anthropicove istrage kompanija je javno objavila, a radi se o problem koji stvara sve veću zabrinutost javnosti jer se alati umjetne inteligencije (AI) sve više koriste za online kriminalne radnje, zbog čega su i sve glasniji pozivi da tehnološka poduzeća i regulatorna tijela ojačaju kontrole i zaštitne mjere, u trenutku u kojem se primjena AI tehnologija rapidno širi.

U Anthropicovom izvješću navodi se da su interni sustavi kompanije zaustavili napade, te da su odlučili javno podijeliti analizu tih slučajeva – iz kojih se vidi kako su napadači pokušali koristiti Claude za štetan sadržaj – da bi pomogli drugim kompanijama u razumijevanju takvih opasnosti.

U izvješću se navode pokušaji upotrebe Claudea za izradu posebno prilagođenih phishing e-mailova za krađu identiteta, za pisanje ili popravljanje komadića zlonamjernog programskog koda, ili za zaobilaženje ugrađenih zaštitnih mjera kroz ponavljanje naredbi, tzv. promptova.

Također se opisuje pokušaji skriptiranja influenserskih kampanja, masovnim kreiranjem uvjerljivih objava, i pomaganjem hakera s niskim vještinama u postupnim uputama.

Anthropic, iza kojeg stoje Amazon i vlasnik Googlea Aphabet, nije objavio tehničke indkatore, poput IP adresa ili kriminalnih promptova, ali je rekao da je blokirao korisničke naloge uključeni u te incidente, te pooštrio sigurnosne filtere, nakon što su otkrivene sumnjive aktivnosti.

Stručnjaci kažu da se kriminalci sve više okreću umjetnoj inteligenciji (AI) kako bi online prevare učinile uvjerljivijima, i kako bi ubrzale pokušaje hakiranja. AI alati mogu pomoći pri pisanju realističnih phishing poruka za krađu identiteta, mogu automatizirati dio razvoja malicioznog softvera, te čak potencijalno asistirati pri planiranju hakerskih napada.

Eksperti za sigurnost upozoravaju da će, uz jačanje sve snažnijih modela umjetne inteligencije, rizik od zloupotrebe i dalje rasti ako kompanije i vlade ne reagiraju na vrijeme. Iz Anthropica su rekli da slijede stroge sigurnosne prakse, uključujući i redovita testiranja i vanjske revizije, te da namjeravaju i dalje planira objavljivati izvješća kada naiđe na velike ugroze.

OpenAI, kojeg podržavaju Microsoft i SoftBank, te Google sve više dolaze pod lupu javnosti zbog bojazni da bi njihovi AI modeli mogli biti korišteni za hakiranje ili prevare. Vlade također rade na razvoju regulative za AI tehnologiju – Europska unije primjerice radi na svojem zakonu o umjetnoj inteligenciji (AIA), dok u SAD-u vlada traži od velikih kompanija da se dobrovoljno samoreguliraju.

Odgovori

Vaša adresa e-pošte neće biti objavljena. Obavezna polja su označena sa * (obavezno)

Popularno

Novi broj magazina „Financije.hr” donosi brojne ekskluzivne poslovne priče, intervjue i događaje iz regije i svijeta…

Komentari