
Bilo je pitanje vremena: Hakeri počeli da koriste AI za napad na vještačku inteligenciju
01.04.2025. | 21:05Bilo je samo pitanje vremena kada će hakeri početi da koriste vještačku inteligenciju za napad na vještačku inteligenciju – i taj trenutak je konačno stigao.
Novo istraživačko otkriće učinilo je napade ubrizgavanjem promptova bržim, lakšim i zastrašujuće efikasnim, čak i protiv navodno sigurnih sistema poput Gugl Gemini modela.Napadi ubrizgavanjem promptova predstavljaju jedan od najpouzdanijih načina za manipulaciju velikim jezičkim modelima (LLM). Ubacivanjem zlonamjernih instrukcija u tekst koji AI čita – poput komentara u bloku koda ili sakrivenog teksta na veb stranici – napadači mogu natjerati model da ignoriše svoja prvobitna pravila.
To može značiti curenje privatnih podataka, davanje pogrešnih odgovora ili izvršavanje drugih neželjenih ponašanja. Međutim, problem je što napadi ubrizgavanjem promptova tipično zahtijevaju mnogo “ručnih” pokušaja i grešaka da bi uspjeli, posebno kod modela zatvorene arhitekture kao što su GPT-4 ili Gemini, gdje programeri ne mogu da vide izvorni kod ili podatke za treniranje