AI Top teme

Kako ChatGPT zapravo funkcionira?

Prije nego što su AI chatbotovi postali dio naše svakodnevice, alati poput Googleove tražilice radili su na jednostavnom principu: korisnik unosi upit, a sustav vraća popis rezultata ili konkretan izračun. ChatGPT i slični alati (Google Gemini, Claude) donijeli su fundamentalnu promjenu – sposobnost razumijevanja namjere iza pitanja i generiranja potpuno novih, suvislih odgovora temeljenih na golemom korpusu digitalno dostupnih informacija.

Da bismo razumjeli kako to postižu, potrebno je zaviriti "ispod haube" i istražiti dvije ključne faze rada te temeljnu tehnologiju koja sve to omogućuje.

Dvije faze rada: Trening i zaključivanje

Pojednostavljeno rečeno, rad ChatGPT-a može se podijeliti u dvije glavne faze, slično kao što i Google funkcionira:

  1. Faza pred-treniranja (Pre-training): Ovo je ekvivalent Googleovom indeksiranju interneta. U ovoj fazi, AI model se "hrani" ogromnim količinama tekstualnih podataka s interneta – knjigama, člancima, web stranicama. Cilj nije zapamtiti odgovore, već naučiti obrasce, strukturu, gramatiku, sintaksu i semantičke veze unutar jezika.

  2. Faza zaključivanja (Inference): Ovo je faza interakcije s korisnikom. Kada postavite pitanje, model ne pretražuje bazu podataka za gotov odgovor. Umjesto toga, koristi svoje naučeno "znanje" o jeziku kako bi predvidio i generirao najvjerojatniji i najrelevantniji slijed riječi koji odgovara vašem upitu.

Ključni iskorak koji je omogućio AI revoluciju dogodio se upravo u metodi pred-treniranja.

Ključna inovacija: Nenadzirano učenje

Do pojave generativne umjetne inteligencije, većina AI sustava koristila je nadzirano učenje (supervised learning). To je proces u kojem se model trenira na "označenom" skupu podataka, gdje je svaki ulazni podatak povezan s točno određenim izlaznim podatkom (npr. pitanje kupca i točan odgovor agenta). Takav pristup je spor, zahtijeva ogroman ljudski rad na označavanju podataka i vrlo je ograničen u opsegu znanja.

ChatGPT, s druge strane, koristi nenadzirano učenje (unsupervised learning), i to je ono što je promijenilo igru. U ovom pristupu, model se trenira na neoznačenim podacima, bez unaprijed definiranih točnih odgovora. Njegov zadatak je samostalno otkriti temeljne strukture i obrasce u jeziku. To mu omogućuje da stekne naizgled neograničeno znanje jer programeri ne moraju predvidjeti svako moguće pitanje, već samo trebaju osigurati što veći i raznovrsniji skup podataka za trening.

Upravo ovdje leži i izvor kontroverzi kada su AI tvrtke u procesu treninga koristile i informacije zaštićene autorskim pravima bez dopuštenja, što je dovelo do tužbi velikih medijskih kuća poput New York Timesa.

Arhitektura koja sve omogućuje: Transformeri i samopažnja

Tehnologija koja stoji iza ovog procesa učenja naziva se transformatorska arhitektura (Transformer architecture). To je vrsta neuronske mreže, računalnog sustava inspiriranog radom ljudskog mozga, koja obrađuje podatke kroz slojeve međusobno povezanih čvorova.

Ključni mehanizam unutar transformatora naziva se samopažnja (self-attention). To je sposobnost modela da procijeni važnost svake riječi unutar rečenice ili niza podataka kako bi razumio kontekst. Slično kao što čovjek ponovno pročita prethodnu rečenicu kako bi bolje razumio značenje nove riječi, transformator "gleda" sve riječi u nizu kako bi shvatio njihove međusobne odnose. Ovaj mehanizam omogućuje umjetnoj inteligenciji da generira tekst koji nije samo gramatički ispravan, već i kontekstualno relevantan i koherentan.

Izazovi: Pristranost i "zaštitne ograde"

Iako je ova tehnologija iznimno moćna, ona sa sobom nosi i rizike. Budući da AI uči iz podataka koje su stvorili ljudi, on može naučiti i replicirati postojeće društvene predrasude i pristranosti. Tvrtke koje razvijaju ove modele pokušavaju implementirati "zaštitne ograde" kako bi spriječile generiranje štetnog ili pristranog sadržaja, no to je iznimno težak zadatak jer ono što jedna skupina smatra zaštitom, druga može smatrati cenzurom i pristranošću.

Advertisement Advertisement