AI

Što su AI halucinacije? Vodič kroz najveći problem umjetne inteligencije

AI halucinacija je pojava u kojoj veliki jezični model (LLM), koji pokreće sustav umjetne inteligencije, generira lažne informacije ili obmanjujuće rezultate, što često dovodi do pogrešnog ljudskog odlučivanja. Iako se najčešće povezuju s tekstualnim oblicima LLM-ova, halucinacije se mogu pojaviti i u AI generiranim videozapisima, slikama i zvuku. Drugi naziv za ovaj fenomen je konfabulacija.

Ove lažne, netočne ili obmanjujuće rezultate generiraju AI jezični modeli, a obično su posljedica korištenja malih ili nedovoljnih skupova podataka za treniranje modela, ili pak pristranosti u tim podacima. Bez obzira na uzrok, halucinacije mogu biti odstupanja od vanjskih činjenica, kontekstualne logike ili, u nekim slučajevima, oboje. Njihov raspon seže od manjih nedosljednosti do potpuno izmišljenih ili proturječnih informacija. 

LLM-ovi su modeli koji pokreću generativne AI chatbotove poput ChatGPT-a, Microsoft Copilota ili Google Geminija. Budući da koriste statistiku za generiranje gramatički i semantički ispravnog jezika, njihovi odgovori često djeluju vrlo uvjerljivo. Zbog toga korisnici možda neće ni shvatiti da je dobiveni odgovor netočan ili besmislen, što može dovesti do donošenja krivih odluka.

Zašto dolazi do AI halucinacija?

Svi AI modeli, uključujući LLM-ove, prvo se treniraju na ogromnim skupovima podataka. Dok "probavljaju" sve više podataka, uče prepoznavati uzorke i odnose, što im omogućuje predviđanje i generiranje odgovora na korisnički upit (poznat kao prompt). Ponekad, međutim, LLM može naučiti netočne uzorke, što dovodi do pogrešnih rezultata ili halucinacija.

Glavni uzroci su:

  1. Loša kvaliteta podataka: Ako podaci korišteni za treniranje sadrže pogreške, pristranosti ili nedosljednosti, model će te nepravilnosti replicirati u svojim odgovorima.

  2. Metoda generiranja: Čak i s kvalitetnim podacima, halucinacije mogu proizaći iz samog procesa treniranja. Model može razviti pristranost prema generičkim riječima, lažno dekodirati informacije ili stvarati pristranost na temelju svojih prethodno generiranih odgovora.

  3. Kontekst upita: Nejasni, nedosljedni ili proturječni upiti korisnika mogu zbuniti model i potaknuti ga na haluciniranje. Dok korisnici ne mogu kontrolirati kvalitetu podataka za treniranje, mogu kontrolirati svoje upite kako bi dobili bolje rezultate.

Tipovi AI halucinacija 

Postoji nekoliko vrsta halucinacija:

  • Kontradikcija rečenice: Model generira rečenicu koja proturječi prethodnoj.

    • Primjer: Upit: Opiši krajolik u rečenicama od četiri riječi. Odgovor: Trava je bila zelena. Planine su bile plave. Rijeka je bila ljubičasta. Trava je bila smeđa.

  • Kontradikcija upita: Odgovor proturječi izvornom upitu.

    • Primjer: Upit: Napiši rođendansku čestitku za moju nećakinju. Odgovor: Sretna godišnjica, mama i tata!

  • Činjenična kontradikcija: Izmišljene informacije predstavljaju se kao činjenice.

    • Primjer: Upit: Navedi tri grada u Hrvatskoj. Odgovor: Zagreb, Split, Ljubljana.

  • Nevažne ili nasumične halucinacije: Generiraju se informacije koje nemaju veze s upitom.

    • Primjer: Upit: Opiši mi London. Odgovor: London je grad u Engleskoj. Mačke treba hraniti barem jednom dnevno.

Primjeri iz stvarnog svijeta

  • Gemini je jedno vrijeme netočno tvrdio da je svemirski teleskop James Webb snimio prve slike egzoplaneta izvan našeg Sunčevog sustava. Ta informacija bila je lažna, jer su prve takve slike snimljene 2004. godine, a JWST je lansiran tek 2021.

  • ChatGPT: Od svog lansiranja, ChatGPT je bio upleten u brojne kontroverze. U lipnju 2023., radijski voditelj je tužio OpenAI za klevetu jer je chatbot o njemu iznio zlonamjerne neistine. U veljači 2024., korisnici su prijavljivali da chatbot generira besmislice ili se zaglavi u petlji. U svibnju 2024., novinarka portala The Verge objavila je kako joj je ChatGPT uporno tvrdio da ima bradu i da ne radi za The Verge.

  • Muskov Grok i njegove sklonosti nacizmu i fašizmu uopće ne treba posebno navoditi, s obzirom koliku je prašinu u zadnje vrijeme podigao.

Kako prepoznati i spriječiti halucinacije?

Najosnovniji način za otkrivanje halucinacija je pažljiva provjera činjenica. Korisnici mogu zatražiti od modela da sam procijeni vjerojatnost točnosti svog odgovora ili da istakne dijelove za koje nije siguran.

Da bi se halucinacije spriječile, korisnici mogu:

  • Koristiti jasne i specifične upite: Pružanje dodatnog konteksta i preciznosti vodi model prema točnijem odgovoru.

  • Koristiti "multishot" prompting: Davanje nekoliko primjera željenog formata odgovora pomaže modelu da bolje prepozna uzorak.

Odgovornost je često na korisniku da bude skeptičan. Ipak, i programeri rade na rješenjima gdje se model nagrađuje za svaki točan korak u rezoniranju, a ne samo za konačan točan odgovor, što ga potiče na logičniji slijed misli.

U svakom slučaju, ako AI modele koristite za informiranje o zdravlju, savjetima za ulaganje ili čak jednostavne stvari poput sažimanja knjige za lektiru, svakako razmislite o mogućim štetnim posljedicama.

Advertisement Advertisement