AI

Sigurnosni debakl: Hakeri probili Gemini 3 u pet minuta i dobili upute za biološko oružje

Googleov najnoviji i najmoćniji adut u svijetu umjetne inteligencije, Gemini 3, našao se pod teškom paljbom kritika. Ono što je trebalo biti trijumf tehnološkog napretka, pretvorilo se u ozbiljno sigurnosno upozorenje nakon što je južnokorejski tim za AI sigurnost demonstrirao kako se zaštitni protokoli ovog modela mogu zaobići u rekordnom roku.

Start-up tvrtka Aim Intelligence, specijalizirana za testiranje slabosti AI sustava, odlučila je podvrgnuti Gemini 3 Pro testu izdržljivosti. Rezultati su, blago rečeno, alarmantni. Prema izvješću Maeil Business Newspapera, istraživačima je trebalo samo pet minuta da izvedu uspješan "jailbreak" napad i zaobiđu Googleove sigurnosne mjere.

Opseg proboja nije bio trivijalan. Istraživači su od Geminija 3 zatražili detaljne upute za sintezu virusa velikih boginja (smallpox). Umjesto da odbije zahtjev i aktivira sigurnosne filtre, model je brzo generirao niz koraka koje su stručnjaci opisali kao "provedive" i znanstveno utemeljene.

No, tim se nije zaustavio na biologiji. Koristeći napredne alate za kodiranje ugrađene u Gemini, uspjeli su natjerati AI da izradi funkcionalnu web stranicu s uputama za proizvodnju sarin plina i kućnih eksploziva. U oba slučaja, sustav je ne samo ignorirao vlastita sigurnosna pravila, već je aktivno sudjelovao u stvaranju sadržaja koji bi u krivim rukama mogao imati fatalne posljedice.

Možda najbizarniji dio testa dogodio se kada su istraživači zatražili od modela da kreira satiričnu prezentaciju o vlastitom sigurnosnom neuspjehu. Gemini je poslušno generirao set slajdova pod naslovom "Excused Stupid Gemini 3", pokazujući razinu kontekstualnog razumijevanja koja je istovremeno impresivna i zastrašujuća s obzirom na okolnosti.

Stručnjaci iz Aim Intelligencea upozoravaju da ovo nije izolirani problem Googlea, već sistemska greška u brzom razvoju generativne umjetne inteligencije. Novi modeli postaju toliko napredni da njihove ofenzivne sposobnosti nadmašuju obrambene mehanizme.

Gemini 3 i slični modeli ne samo da odgovaraju na upite, već aktivno koriste strategije izbjegavanja detekcije i skrivanja namjera, čineći jednostavne "zaštitne ograde" (guardrails) neučinkovitima. Britanska udruga za zaštitu potrošača Which? nedavno je potvrdila ove sumnje, otkrivši da vodeći chatbotovi često daju netočne, nejasne ili čak opasne savjete.

Ako model koji je dovoljno moćan da nadmaši GPT-5 može biti kompromitiran u nekoliko minuta, industrija se suočava s ozbiljnom dilemom. Iako većina korisnika nikada neće tražiti recepte za biološko oružje, lakoća s kojom zlonamjerni akteri mogu manipulirati ovim sustavima zahtijeva hitnu reakciju.

Dok se čeka službeni odgovor Googlea, za očekivati je da će ovaj incident rezultirati valom hitnih sigurnosnih ažuriranja, strožim pravilima korištenja i, vrlo vjerojatno, privremenim uklanjanjem određenih naprednih funkcija dok se rupe ne zakrpaju. AI postaje pametniji, ali obrana koja štiti čovječanstvo od njegove zlouporabe očito kaska za njim.

Advertisement Advertisement Advertisement