Iza GPT-5: Sljedeća granica temeljnih modela

22 lipnja, 2025
Beyond GPT-5: The Next Frontier of Foundation Models

Temeljni modeli poput OpenAI-jevog GPT-4 već su transformirali način na koji pišemo, programiramo i komuniciramo. Dok AI zajednica s nestrpljenjem iščekuje GPT-5, očekivanja daleko nadmašuju skromnu nadogradnju – vizija je potpuni pomak u načinu na koji suradnjujemo s inteligentnim strojevima seniorexecutive.com. U ovom izvješću istražujemo što leži iza GPT-5, dajući pregled novih napredaka u sposobnostima AI modela, strategijama treniranja, istraživačkim smjernicama i širem društvenom okruženju. Svaki odjeljak osvjetljava iduću granicu temeljnih modela: od tehničkih proboja (rezoniranje, multi-modalnost, memorija itd.) do novih pristupa treniranju, otvorene demokratizacije izvornog koda, etičkih/regulatornih izazova, pa čak i špekulativnih vizija GAI-a (opće umjetne inteligencije). Cilj je pružiti pristupačan, ali pronicljiv pregled za sve zainteresirane za budućnost AI-ja.

Očekivani tehnološki napretci nakon GPT-5

Izvršni direktor OpenAI-ja Sam Altman nagovijestio je da će GPT-5 donijeti značajne nadogradnje – uključujući multimodalno razumijevanje, trajnu memoriju, više „agenskog” ponašanja i poboljšano rezoniranje seniorexecutive.com. Gledajući unaprijed, možemo očekivati da će temeljni modeli napredovati na nekoliko područja:

  • Jače rezoniranje i rješavanje problema: Budući modeli bit će bolji u logičkom rezoniranju, složenom planiranju i praćenju višekorakih uputa bez gubljenja niti. To znači manje besmislenih odgovora i više pouzdanih, na činjenicama temeljenih odgovora. Unaprjeđenje rezoniranja je već glavni cilj; na primjer, Microsoftovi istraživači koristili su nove tehnike (poput Monte Carlo pretrage stabla i pojačano učenje za logiku) kako bi dramatično poboljšali rješavanje matematičkih problema u manjim modelima microsoft.com. Općenito, modeli nove generacije imat će manje halucinacija i lakše će rješavati teže zadatke razmišljajući strukturirano, korak po korak yourgpt.ai.
  • Izvorna multimodalnost: Dok je GPT-4 uveo unos slike, sljedeća granica je prava multimodalna AI koja tečno rukuje tekstom, slikama, zvukom, videom i više. Očekuje se da će GPT-5 izvorno podržavati audio (govor) uz tekst i slike yourgpt.ai. Modeli će dalje integrirati različite modalitete bez teškoća – npr. analizirati grafikon, raspravljati ga i generirati nariranu sažetak u isto vrijeme. Googleov Gemini AI je rani primjer: njegova najnovija verzija prihvaća slike, video i zvuk kao unos i može čak kreirati rezultate poput generiranih slika ili izgovorenih odgovora blog.google. Ukratko, AI sutrašnjice će vidjeti, slušati i govoriti, omogućujući mnogo prirodnije interakcije (zamislite glasovne asistente koji doista razumiju što vide, ili AI koji uređuje videozapise razumijevajući sadržaj).
  • Proširena memorija i kontekst: Današnji modeli imaju ograničenu memoriju razgovora ili dokumenta, ali nadolazeći će moći zapamtiti mnogo više. Prema glasinama, GPT-5 će moći obraditi više od 1 milijun tokena konteksta yourgpt.ai yourgpt.ai – praktički pamteći cijele knjige ili razgovore koji traju više dana odjednom. Već i trenutni sustavi guraju ovu granicu: Claude model iz Anthropica uveo je prozor od 100.000 tokena (otprilike 75.000 riječi), što mu omogućuje da „probavi” stotine stranica i zapamti detalje satima kasnije anthropic.com anthropic.com. Ovaj prošireni kontekst, kao i prava trajna memorija kroz više sesija, otvara vrata AI-ju koji „pamti” vas. Zamislite AI asistenta koji se prisjeća vaših preferencija, prošlih razgovora ili osobnih bilješki bez potrebe za ponovnim upućivanjem – što je sposobnost koju dizajneri GPT-5 posebno ciljaju seniorexecutive.com. Takva dugoročna memorija čini interakcije koherentnijima i osobnijima.
  • Učenje u stvarnom vremenu i prilagodba: Budući temeljni modeli možda neće ostati statični nakon treniranja; umjesto toga, prilagođavat će se u stvarnom vremenu. Današnji modeli su „zamrznuti” u trenutku objave, ali istraživači proučavaju kontinuirano učenje kako bi AI sustavi mogli ažurirati znanje novim podacima ili povratnim informacijama odmah. Vizija je AI koji uči iz svake interakcije, kontinuirano se poboljšava (unutar sigurnih okvira), umjesto da čeka veliku reprenju. To bi značilo prijelaz „od krutih, unaprijed definiranih shema ka dinamičnijem, automatiziranom i fleksibilnijem pristupu” – omogućujući modelima korištenje najaktualnijih podataka i konteksta dok rade dataversity.net. U praksi, AI nakon GPT-5 mogao bi naučiti novi sleng odmah, ažurirati svoju bazu znanja kad se pojavi novi znanstveni rad ili vijest, i prilagoditi stil pojedinačnim korisnicima bez velikog programiranja. Postići to bez „katastrofičnog zaborava” (gubitka starog znanja) je aktualan istraživački izazov arxiv.org, ali napredak je već vidljiv.
  • Personalizacija i agensko ponašanje: Uz bolju memoriju i učenje u hodu dolazi personalizacija. Temeljni modeli moći će se prilagoditi potrebama i preferencijama svakog korisnika. OpenAI-jev plan za GPT-5 uključuje mogućnost „pamćenja korisnika i sesija – otključavajući pravu personalizaciju tijeka rada” yourgpt.ai. Vaš AI pisac mogao bi imitirati vaš ton, vaš suvozač za programiranje prilagoditi se vašem stilu kodiranja, a chatbotovi za korisničku podršku odmah se sjetiti povijesti klijenta. Paralelno, modeli postaju sve agenskiji – ne odgovaraju samo na pitanja već samostalno izvršavaju naredbe kad im to zatražite. GPT-5 se opisuje kao korak prema „autonomnom agentu koji planira i izvršava” zadatke seniorexecutive.com. To znači da AI može samostalno delegirati podzadatke specijaliziranim alatima ili API-jima. Na primjer, napredni model mogao bi isplanirati putovanje i zapravo rezervirati letove i hotele putem online alata, kao odgovor na visoko-nivoznu korisničku uputu seniorexecutive.com seniorexecutive.com. Ovaj proaktivni, alatima vičan AI znači zaokret u odnosu na reaktivne chatbotove prošlosti – pretvara se u suradničkog digitalnog asistenta ili suvozača za stvarne zadatke.

Trendovi u pristupu treniranju

Postizanje ovih napredaka ne traži samo više podataka ili parametara, već i nove strategije treniranja i arhitekture. Istraživači i inženjeri istražuju nekoliko obećavajućih pristupa izvan standardnog recepta „predtreniraj ogromni Transformer na velikoj količini teksta”:

  • Arhitekture mješavine eksperata (MoE): Jedan način efikasnog skaliranja modela je korištenje mješavine eksperata, gdje mnogo podmreža („eksperata”) specijalizira različite ulaze. Umjesto jedne monolitne mreže, MoE model šalje svaki upit nekoliko relevantnih eksperata. Ova tehnika omogućuje ogromnu kapacitet modela bez proporcionalnog povećanja troškova računanja – model je više „rijedak” u aktivaciji. Zapravo, MoE slojevi su, navodno, korišteni i u GPT-4 i drugim najnaprednijim sustavima developer.nvidia.com. Otvoreno-izvorna zajednica također prihvaća MoE; primjerice, Mistral Mix-8B koristi osam ekspertskih komponenti na osnovnim 7B-parametrima developer.nvidia.com. Privlačnost je očita: MoE može učinkovito povećati broj parametara i sposobnosti modela bez da svaki upit bude ekstremno skup. Na primjer, NVIDIA analiza pokazala je da MoE model sa 46 milijardi ukupnih parametara može aktivirati samo oko 12B parametara po tokenu, štedeći računske resurse u odnosu na jednako veliki gusti model developer.nvidia.com. Ova efikasnost izračuna (flop-efficiency) znači da, s istim budžetom, MoE modeli mogu biti trenirani na više podataka ili ostvariti bolje rezultate developer.nvidia.com. Kako treniranje gigantskih modela (poput Meta LLaMA 2 s 70B parametara, za koji je procijenjeno da je potrebno 3,3 milijuna GPU-sati developer.nvidia.com) postaje iznimno skupo, očekujte da će MoE dizajni dobivati na važnosti za GPT-5++ i dalje. Oni obećavaju pametniji model, a jeftiniju izradu.
  • Pojačano učenje i treniranje na temelju povratne informacije: Još jedan trend je uključivanje pojačanog učenja (RL) za fino podešavanje modela, posebice za usklađivanje s ljudskim preferencijama ili logičkim ciljevima. OpenAI je popularizirao ovo s RLHF (Reinforcement Learning from Human Feedback) u instruct modelima poput ChatGPT-a. Ubuduće ćemo vidjeti RL korišten u još kreativnijim načinima. Primjer je treniranje modela za rješavanje problema metodom pokušaja i pogreške: Microsoftov Logic-RL projekt, primjerice, nagrađivao je model samo kad su i rezoniranje i konačan odgovor bili točni na logičkim zagonetkama, čime je bio prisiljen izbjegavati prečace i biti rigorozniji microsoft.com. Ovaj pristup više nego udvostručio je točnost na nekim matematičkim testovima za 7B model microsoft.com. Pojačano učenje također može poboljšati korištenje alata – npr. AI agent uči koje sekvence akcija (API poziva, izvođenja koda) daju najbolji rezultat. Očekujemo da će modeli iduće generacije biti trenirani kombinacijom nadziranog učenja, ljudske povratne sprege i RL-a u simuliranim okruženjima, kako bi stekli bolje donošenje odluka. Ukratko, modeli nakon GPT-5 neće samo predviđati jezik, već će i eksperimentirati i prilagođavati se kroz povratnu informaciju, slično u učenju kroz rad.
  • Kontinuirano i cjeloživotno učenje: Klasično učenje modela je jednodimenzionalno: nakon što model „proguta” ogromnu količinu statičnih podataka, parametri se zamrznu. No, stvarni svijet je neprestano promjenjiv; stoga je nova granica omogućiti modelima kontinuirano učenje bez zaborava starog znanja. Znanstvenici sada istražuju “CL za LLM-ove” (Kontinuirano učenje za velike jezične modele) arxiv.org. Izazov je izbjeći katastrofičan zaborav, kad učenje novih zadataka ili podataka narušava prethodne vještine arxiv.org. Predložena rješenja uključuju: inkrementalno treniranje specifično za domenu (redovito ažuriranje novim informacijama), adapter module koji se mogu zamijeniti za nove domene, i tehnike ponavljanja memorije za očuvanje temeljnih znanja. Pregledna literatura sugerira dijeljenje kontinuiranog učenja na vertikalni (od općeg prema specijaliziranom) i horizontalni (podatci kroz vrijeme) pristup arxiv.org. U praksi već viđamo prve korake; na primjer, servisi koji omogućuju fino podešavanje GPT-stil modela na osobnim ili poslovnim podacima nakon implementacije. Gledajući unaprijed, temeljni model mogao bi se rutinski ažurirati novim znanstvenim istraživanjima, ili bi osobni AI asistent mogao nadograđivati razumijevanje korisnika tijekom mjeseci, sve bez ponovnog treniranja od nule. Ostvarenje pravog cjeloživotnog učenja još je neriješen znanstveni izazov, ali široko se smatra ključnim za dosezanje više inteligencije nalik ljudskoj.
  • Neuralno-simboličke i hibridne metode: Zanimljivo područje je kombinacija neuronskih mreža sa simboličkim rezoniranjem ili eksplicitnim znanjem. Čisto duboko učenje ponekad posrće kod rigorozne logike, aritmetičke preciznosti ili faktualne dosljednosti. Neuralno-simbolički pristupi žele dati najbolje od oba svijeta: kreativnost neuronskih mreža uz pouzdanost formalnih metoda. Na primjer, sustav zvan LIPS (LLM-based Inequality Prover) spaja prepoznavanje uzoraka jezičnog modela s simboličkim rješavačem matematike za dokazivanje matematičkih nejednakosti microsoft.com. LLM upravlja fleksibilnim dijelovima (kako pristupiti dokazu) dok strogu algebru delegira simboličkom stroju – što daje vrhunske rezultate u rješavanju teških matematičkih problema bez dodatnih podataka microsoft.com. Općenito, viđamo niz-pomisli promptanje koje usred odgovora aktivira vanjske alate (poput izvršavanja Python koda ili upita baze znanja). Buduće treniranje moglo bi eksplicitno učiti modele kada i kako koristiti simboličke alate. Također, generiranje sintetičkih podataka uz pomoć formalne logike koristi se za treniranje modela – Microsoftova „neuro-simbolička generacija podataka” automatski stvara nove matematičke zadatke mutiranjem simboličkih formula i preformuliranjem pomoću LLM-a microsoft.com. Svi ovi napori vode prema temeljnim modelima koji spajaju različite paradigme rezoniranja: mogli bi interno simulirati kod, manipulirati grafovima znanja ili osigurati logička ograničenja tijekom generiranja odgovora. To bi drastično poboljšalo dosljednost i faktualnu preciznost u područjima poput prava, znanosti i programiranja. U biti, modeli granica mogli bi učiti algoritme i pravila, a ne samo statističke korelacije – korak bliže robusnom AI rezoniranju.

Novi pravci istraživanja i promjene paradigme

Osim konkretnih tehnika ili značajki, AI krajolik sam se razvija na načine koji će oblikovati modele nakon GPT-5. Izdvaja se nekoliko ključnih trendova:

  • Open-source modeli i demokratizacija umjetne inteligencije: U prošlosti su najnapredniji jezični modeli dolazili samo od nekoliko tehnoloških divova i bili su vlasnički zatvoreni. To se promijenilo kada je Meta (Facebook) 2023. objavila LLaMA-u, a sada još i više. Open-source AI zajednica brzo smanjuje jaz s zatvorenim modelima about.fb.com. Prema CEO-u Mete Marku Zuckerbergu, njihov model LLaMA 3 (2024) već je bio “konkurentan najnaprednijim modelima”, a očekuju da će budući otvoreni modeli predvoditi u mogućnostima about.fb.com. U hrabrom potezu, Meta je nedavno objavila kao open-source Llama 3.1 s 405 milijardi parametara – prvi zaista frontier-scale otvoreni model about.fb.com. Posljedice su ogromne: istraživači, startupovi pa čak i hobisti mogu eksperimentirati s vrhunskim mogućnostima bez potreba za milijardama dolara za izračune. Svjedočimo eksploziji inovacija koje pokreće zajednica – od chatbota treniranih na uputama poput Vicune (koji je izgrađen na otvorenim LLaMA tezima) do stručnjaka iz različitih područja koji dodatno prilagođavaju modele za medicinu, pravo i drugo. Velike kompanije također stvaraju partnerstva kako bi podržale ovaj ekosustav: Amazon, Databricks i drugi nude usluge za pomoć ljudima pri finoj prilagodbi i implementaciji vlastitih modela baziranih na LLaMA-i i sličnima about.fb.com. Čak je i OpenAI, usprkos svom imenu, dosad bio zatvorenog koda; ali je važno napomenuti da, uz očekivano lansiranje GPT-5, OpenAI planira objaviti odvojeni open-source model kako bi potaknuo transparentnost i istraživanje yourgpt.ai yourgpt.ai. Svi ti događaji upućuju na budućnost gdje je umjetna inteligencija daleko pristupačnija. Umjesto da nekoliko kompanija kontrolira najjače modele, mogli bismo imati bogat otvoreni AI ekosustav – poput onoga kako je open-source Linux na kraju nadmašio vlasnički Unix about.fb.com about.fb.com. Ova demokratizacija pomaže osigurati da širok raspon glasova i ideja doprinosi razvoju umjetne inteligencije, i omogućuje organizacijama prilagodbu modela bez predaje svojih podataka trećim stranama about.fb.com about.fb.com. Ukratko, sljedeći pomak na granici nije samo u većim modelima – već u široko dijeljenim modelima, napretku kojeg pokreće zajednica i umjetnoj inteligenciji s kojom bilo tko može eksperimentirati kako bi riješio probleme.
  • Manji, specijalizirani modeli (nije uvijek veće bolje): Zanimljivo je da trend prema sve većim općim modelima prati i trend prema specijalizaciji. Modeli temeljeni na specifičnim domenama mogu nadmašiti univerzalne u svojoj niši – često s puno manje parametara. Izvrsna ilustracija toga je BloombergGPT, model od 50 milijardi parametara skrojen za financije. Treniran na velikom korpusu financijskih podataka (plus nešto općeg teksta), BloombergGPT je znatno nadmašio opće LLM-ove u financijskim zadacima, “za značajnu razliku” dok se i dalje dobro nosio na općim jezičnim benchmark testovima arxiv.org arxiv.org. To pokazuje da ciljano treniranje omogućuje stručnu AI bez potrebe za gigantskim modelom od 500 milijardi parametara. Vjerojatno ćemo vidjeti još više vertikalnih modela: zamislite, naprimjer, model specifičan za onkologiju za medicinsko istraživanje, ili pravni model koji zna sve presedane napamet. Takvi modeli mogli bi biti manji i učinkovitiji pa ih je lakše implementirati (npr. medicinski model od 7 milijardi parametara mogao bi raditi lokalno u bolnici zbog privatnosti). Štoviše, raste pokret za kompresiju i optimizaciju modela tako da mogu raditi na rubu – na prijenosnicima ili pametnim telefonima, a ne samo u oblaku. Tehnike kao što je kvantizacija na 4 bita omogućile su nekim GPT-3-klase modelima da rade na potrošačkom hardveru. Ovakav “malo je lijepo” pristup dodatno pomaže demokratizaciji: ne može si svatko priuštiti hostanje modela od 175 milijardi parametara, ali dobro izrađen model od 6 milijardi, prilagođen točnoj zadaći, može biti široko korišten. U budućnosti bismo mogli koristiti konstelaciju specijaliziranih modela u pozadini, a ne jedan model za sve. Čak i strategija OpenAI-a nagovještava to, s razmatranjem GPT-5 ekosustava u kojem bi mogao postojati i manji otvoreni model i razne fino podešene varijante yourgpt.ai yourgpt.ai. Ukratko, očekujte bogatiju raznolikost temeljnih modela – velike univerzalce i manje stručnjake – u suradnji u aplikacijama, svaki u onome u čemu je najbolji.
  • Novi akteri i suradnja u AI istraživanju: Granica umjetne inteligencije više nije isključivo u rukama nekoliko laboratorija iz Silicijske doline. Akademske institucije, neprofitni istraživački kolektivi i novi startupovi svi pomiču granice. Projekti poput EleutherAI-a i konzorcija BigScience stvorili su velike modele (npr. 176 milijardi parametara BLOOM) kroz međunarodnu suradnju. Kompanije poput Anthropic-a (koju čine bivši zaposlenici OpenAI-a) uvele su inovativne ideje poput Ustavne umjetne inteligencije (Constitutional AI) kako bi modeli bili usklađeni s etičkim načelima. Također svjedočimo prelijevanju znanja između područja: na primjer, DeepMind (sada dio Google DeepMind-a) prenio je iskustvo iz potkrepljujućeg učenja (AlphaGo, itd.) u jezične modele, i navodno doprinio razvoju Googleovog Gemini modela. Također je uočen sve veći spoj istraživanja jezika, vida i robotike. Laboratorij koji radi na uzetvorenoj umjetnoj inteligenciji (roboti ili agenti koji djeluju u fizičkom svijetu) može donijeti tehnike za memoriju i učenje u stvarnom vremenu koje kasnije koriste modeli temeljeni samo na jeziku. Svjedočimo plodnom razdoblju razmjene, s konferencijama i časopisima ispunjenima radovima o efikasnijim, transparentnijim i ljudskijim modelima. Sve to znači da će krajolik nakon GPT-5 oblikovati šira zajednica – ne samo uslijed nove verzije OpenAI-a, već kao višesmjerni iskorak pogonjen raznolikim naporima diljem svijeta.

Društvene, etičke i regulatorne implikacije

Kako temeljni modeli postaju moćniji i sveprisutniji, njihov utjecaj na društvo produbljuje se – donoseći ogromne prilike zajedno s značajnim zabrinutostima. Gledajući dalje od GPT-5, ključno je razmotriti kako ćemo odgovorno integrirati ove modele. Ključne implikacije i izazovi su:

  • Transformacija rada i svakodnevnog života: Napredni AI asistenti mogli bi povećati produktivnost i kreativnost u bezbroj područja – pisanje koda, izrada dokumenata, analiza podataka, automatizacija korisničke podrške, podučavanje učenika itd. To je izazvalo optimizam o gospodarskom rastu i rješavanju složenih problema, ali i zabrinutost zbog gubitka radnih mjesta. Mnogi rutinski ili čak stručni poslovi mogli bi biti poboljšani ili automatizirani sustavima nakon GPT-5. Društvo će se morati prilagoditi: radnici će možda trebati usvojiti nova znanja i prijeći na uloge gdje su ljudska prosudba i “ljudski dodir” neophodni. Neki su čak predložili politike poput pilot projekata univerzalnog temeljnog dohotka za podršku onima koje pogađa automatizacija pogonjena umjetnom inteligencijom ncsl.org. S druge strane, ti modeli mogu djelovati kao “pojačalo ljudske domišljatosti”, kako kaže OpenAI – osnažujući pojedince sposobnostima koje su prije bile nedostižne openai.com. Jedna osoba s pametnim AI asistentom mogla bi napraviti posao za više ljudi ili raditi stvari koje inače nije moguće (npr. liječnik koristi AI za usporedbu tisuća znanstvenih radova u sekundi kako bi pronašao novi tretman). Ukupni učinak na društvo ovisit će o tome kako upravljamo ovom tranzicijom, osiguravajući da koristi budu široko raspodijeljene i umanjujući negativne strane openai.com.
  • Dezinformacije, pristranost i etički rizici: Snažniji generativni modeli olakšat će stvaranje hiperealističnog lažnog sadržaja (tekst, slike, video pa čak i glasovi) u velikom opsegu. To povećava rizike od dezinformacija i prijevara. Primjerice, budući multimodalni GPT mogao bi stvoriti uvjerljiv video u kojem svjetski lider izgovara nešto što nikada nije rekao – noćna mora za integritet informacija. Suočavanje s tim vjerojatno će zahtijevati tehnička i politička rješenja: istraživači rade na vodotiscima za AI-generirani sadržaj ili na alatima za detekciju (neka zakonodavstva čak zahtijevaju otkrivanje AI sadržaja po zakonu ncsl.org). Pristranost je još jedan dobro dokumentiran problem – ako modeli uče na internetskim podacima, mogu odražavati društvene predrasude prisutne u tim podacima. Kako modeli sve više utječu na donošenje odluka (zapošljavanje, kreditiranje, policiju itd.), etičke implikacije pristranih izlaza su ozbiljne. Kontinuirani rad na pravednosti umjetne inteligencije i smanjenju pristranosti bit će presudan kako bi se izbjegla diskriminacija. Tehnike uključuju pažljiviji odabir podataka za treniranje i testove pristranosti, do finog podešavanja s instrukcijama koje modelu eksplicitno ukazuju da izbjegava mržnju i predrasude. Tvrtke istražuju i metode transparentnosti kako bi odluke modela bile objašnjivije. Kad dobijemo GPT-6 ili -7, možda ćemo vidjeti industrijske standarde za revizije pristranosti i objavu ograničenja modela. Najvažnije, sljedeći modeli će biti usklađeni ne samo da budu korisni, već i da se pridržavaju ljudskih vrijednosti i normi sigurnosti. Pristupi poput Anthropicove “Ustavne umjetne inteligencije” (gdje se AI trenira da slijedi skup etičkih načela bez izravnog ljudskog primjera za svaki slučaj) mogli bi postati standard, stvarajući AI koji je siguran i pošten po dizajnu anthropic.com.
  • Regulatorni odgovor i upravljanje: Brzi napredak temeljnih modela potaknuo je žestoke rasprave među zakonodavcima. Vlade se sada bore kako osigurati sigurnost i odgovornost umjetne inteligencije bez gušenja inovacija. Europska unija predvodi put s AI Aktom EU, koji je 2024. uveo nova pravila posebno za temeljne modele. Akt klasificira velike AI sustave opće namjene (danas tzv. “GPAI modeli”) i nameće obveze poput transparentnosti o podacima za treniranje, procjene rizika i smanjenje štetnih izlaza ibanet.org ibanet.org. Akt čak razlikuje “sistemske” temeljne modele – one najveće s najširim utjecajem – koji će biti podložni strožem nadzoru (po uzoru na način na koji su veliki koncerni ili javne usluge posebno regulirani) ibanet.org. U SAD-u i drugdje aktivno se raspravlja o revizijama AI modela, licenciranju za treniranje vrlo moćnih modela i odgovornosti za štetu uzrokovanu AI-em. Zanimljivo je da je 2023. otvoreno pismo, potpisano od strane mnogih tehnoloških lidera, pozvalo na moratorij na treniranje bilo kojeg AI-ja jačeg od GPT-4 na šest mjeseci, kako bi zakonodavni okvir stigao prilagoditi se ncsl.org. Iako dovoljni moratorij nije proveden, pismo je istaknulo raširenu zabrinutost čak i unutar tehnološke industrije oko nekontroliranog razvoja AI-ja. Od tada, vidjeli smo inicijative poput osnutka Frontier Model Foruma (koalicije vodećih AI tvrtki za promicanje sigurnog razvoja AI-ja) i vladinih AI savjetodavnih vijeća. Regulatori postaju sve precizniji: u Kaliforniji je predložen zakon (“Sigurna i sigurna inovacija za granične AI modele”) koji bi zahtijevao od kreatora vrlo naprednih modela da implementiraju “prekidač” – mogućnost hitnog zaustavljanja rada modela ako se pojavi opasno ponašanje – i detaljan sigurnosni plan prije početka treniranja ncsl.org. Globalno, u tijeku su rasprave preko UN-a i G7 o usklađivanju AI standarda. Do trenutka kada stignu modeli poslije GPT-5, vjerojatno ćemo imati bitno razvijeniji regulatorni okvir za AI: očekujte zahtjeve za dokumentacijom o izgradnji modela, evaluaciju za ekstreme ili pristranost, pa možda i certifikaciju modela koji zadovoljavaju određene sigurnosne standarde. Glavni je izazov uravnotežiti inovaciju i zaštitu. Uz razumno reguliranje, društvo može uživati koristi snažne umjetne inteligencije uz ograničavanje rizika poput dezinformacija, kršenja privatnosti ili izmakle autonomije sustava.
  • Sigurnost i zabrinutost oko zloupotrebe: Kako AI modeli postaju sposobniji, zlonamjernici ih mogu zloupotrebljavati – za kibernetičke napade (npr. pisanje naprednog malwarea ili phishing kampanja), pa čak i za pomoć u naoružanju (postoje nagađanja o AI-u u biotehnologiji ili vojnom kontekstu). To otvara pitanja nacionalne sigurnosti. Vlade počinju tretirati naprednu umjetnu inteligenciju kao tehnologiju dvostruke namjene. Na primjer, izvozna ograničenja na vrhunske čipove (potrebne za treniranje velikih modela) jedan su od načina da se nekim državama onemogući prednost u graničnoj umjetnoj inteligenciji. Možda ćemo vidjeti sporazume slične kontroli oružja za AI: dijeljenje istraživanja o sigurnosti otvoreno, dok bi se izuzetno opasna istraživanja moglo ograničiti. Još jedna zabrinutost je privatnost – modeli trenirani na podacima s interneta mogu nenamjerno pohraniti osobne podatke, a mogućnost generiranja ljudski nalik teksta može navesti ljude da otkriju osjetljive informacije. Potreban je snažan okvir zaštite podataka i vjerojatno novi pristupi (poput treniranja na sintetiziranim podacima ili učenja koje štiti privatnost). Ukratko, društvo će morati proaktivno predviđati zloupotrebe i osnaživati obranu (od digitalnih vodenih žigova na AI sadržaju do smjernica za upotrebu AI-a u kritičnoj infrastrukturi).

Ukupno gledajući, društvene implikacije temeljnih modela iznad GPT-5 su goleme. Moramo pronaći put povjerenja, transparentnosti i sigurnosti kako bismo u potpunosti iskoristili pozitivni potencijal ovih tehnologija. Ohrabrujuće je što su ti razgovori – među etičarima, tehnolozima i kreatorima politika – već duboko otpočeli, paralelno s tehničkim napretkom.

Spekulativne vizije: Prema AGI-ju i dalje

Napokon, gledajući još dalje u budućnost, mnogi se pitaju kako bi se ovi trendovi mogli na kraju kulminirati u AGI – Umjetnoj Općoj Inteligenciji, često definiranoj kao AI koji se podudara ili nadmašuje ljudske kognitivne sposobnosti kroz širok raspon zadataka. Iako AGI i dalje ostaje spekulativan koncept, kontinuirani skokovi u mogućnostima temeljnih modela učinili su ovu raspravu konkretnijom. Ovdje razmatramo nekoliko vizionarskih ideja o tome što bi svijet omogućene AGI-jem nakon GPT-5 mogao sadržavati, na temelju trenutnih razvojnih putanja:

  • AGI kao kolektivna inteligencija: Jedna od novih vizija jest da AGI možda neće biti jedan monolitni super-moždani sustav, već kolektiv specijaliziranih modela i alata koji rade u skladu. Već sada vidimo naznake toga: modeli iz GPT-5 ere mogli bi stvoriti ekosustave “super-agenta” – jedan AI razbija kompleksan problem na dijelove i delegira ih stručnim pod-agentima (jedan za kodiranje, drugi za istraživanje, itd.) seniorexecutive.com. Ekstrapolirajući, AGI bi mogao funkcionirati kao dobro organizirani odbor AI-jeva, od kojih svaki ima ljudsku razinu sposobnosti u svojoj domeni i koordiniran je meta-modelom. Takav sustav mogao bi postići opću inteligenciju putem agregacije – cjelina je veća od zbroja dijelova. Ova ideja povezuje se s arhitekturom mješavine stručnjaka na široj skali i odražava način na koji ljudske organizacije rješavaju probleme kroz timski rad. Također se poklapa s pojmom AI usluga dostupnih putem API-ja: budući AGI mogao bi manje sličiti jednom programu, a više internetskoj mreži mnogih modela i baza podataka koji dinamički surađuju kako bi odgovorili na svako pitanje ili zadatak. Ovaj koncept “društva uma” (izvornik: Marvin Minsky, pionir umjetne inteligencije) mogao bi se ostvariti temeljnih modelima koji briljiraju u suradnji i korištenju alata.
  • Kontinuirane petlje samopoboljšanja: Pravi opći AI vjerojatno bi bio sposoban za autonomno učenje i samopoboljšanje. Načinjeni su prvi koraci u projektima gdje AI koristi AI za optimizaciju AI-ja – primjerice, jedan model stvara podatke za učenje ili povratne informacije za drugi model. Inženjeri OpenAI-ja razmatraju “rekurzivno samopoboljšanje” jednom kada AI sustavi postignu dovoljnu naprednost. Spekulativni scenarij je AI koji može prepisivati vlastiti kod ili osmisliti učinkovitije neuronske mreže, što dovodi do pozitivne povratne petlje pojačanja inteligencije. Dok su postojeći modeli daleko od prepisivanja svog izvornog koda, već sada mogu pisati nove programe. AGI bi mogao koristiti tu sposobnost za simulaciju tisuća eksperimenata na svojim varijantama i odabrati najbolju, proces višestruko brži nego što inženjeri ljudi mogu dostići. Ovo otvara duboka pitanja (uključujući klasičnu debatu “AI preuzimanja”), zbog kojih čak i tvrtke koje jure prema snažnoj umjetnoj inteligenciji zagovaraju oprez pri razvoju AGI-ja openai.com openai.com. Ipak, ideja AI-ja koji uči učiti bolje logičan je produžetak današnjih trendova u meta-učenju i automatiziranom strojnome učenju. Do vremena “poslije GPT-5,” zamislivo je da će postojati rane forme AI-ja koji se samostalno podešavaju – možda ograničeni na sigurne domene – i na taj način pokazivati put prema sustavima koji se poboljšavaju s minimalnom ljudskom intervencijom.
  • Integracija AI-ja s fizičkim svijetom: Dosad, temeljni modeli uglavnom žive u digitalnom području teksta i slika. Vizija za AGI uključuje ukorjenjivanje tih modela u fizički svijet putem robotike ili Interneta stvari (IoT). AI koji može gledati kroz kamere, pokretati aktuatorske naprave i eksperimentirati u stvarnim okruženjima stekao bi vrstu utjelovljenog razumijevanja kakvu imaju ljudi. Neki stručnjaci smatraju da je utjelovljenje ključno za opću inteligenciju – učenje kroz rad, stjecanje zdravog razuma iz fizičkih interakcija. Već postoje rani multimodalni agenti (poput DeepMindovog Gata, koji je 2022. bio treniran za zadatke od igranja video igara do upravljanja robotskom rukom). Granica će se još pomaknuti: zamislite AI koji čita o kuhanju, gleda videozapise o kuhanju (vizija), razgovara s kuharima (jezik), i zapravo može upravljati robotiziranim rukama kuhara kako bi pripremio jelo (akcija) – učeći i usavršavajući vještinu metodom pokušaja i pogreške. Takav agent integrirao bi viziju, jezik, zvuk (zvuk prženja itd.) i motoričku kontrolu – daleko od chatbotova i znatno bliže opće inteligentnom biću. Iako je ovo izvan dosega GPT-5 u skorije vrijeme, istraživanje ide tim smjerom. Tvrtke poput Tesle rade na humanoidnim robotima, a OpenAI ima odjel za robotiku. Razumno je pretpostaviti da će AGI budućnosti biti podjednako robot koliko i chatbot – ili barem imati aktuatorske mogućnosti za izravno djelovanje na svijet. To će otvoriti nove granice u proizvodnji, zdravstvu (robotski asistenti) i svakodnevnom životu (zaista pametni kućni sustavi), uz podizanje novih sigurnosnih razmatranja.
  • Ljudsko-AI suradnja i kognitivno unaprjeđenje: Umjesto da se AI razvija izolirano, vrlo privlačna vizija je kako AI može pojačati ljudsku inteligenciju. U svijetu nakon GPT-5, svatko od nas mogao bi imati izuzetno personaliziranog AI asistenta koji intimno poznaje naše ciljeve, snage i slabosti. Ti asistenti bi nam mogli pomagati u učenju novih vještina (kao tutor/trener), biti sugovornik za ideje, preuzimati dosadne zadatke, pa čak i djelovati kao kreativni partner. Neki tehnolozi govore o “IA” (Intelligence Augmentation, pojačanje inteligencije) kao blizancu AI-ja. Na primjer, medicinski asistent na razini AGI-ja mogao bi omogućiti liječnicima dijagnosticiranje i liječenje pacijenata s nadljudskom preciznošću kombinirajući liječničku stručnost s trenutnom analizom svih dostupnih medicinskih časopisa i zapisa pacijenata. U obrazovanju, AI tutor opće inteligencije mogao bi se prilagoditi svakom stilu učenja i omogućiti personalizirane kurikulume u velikom opsegu, potencijalno demokratizirajući vrhunsko obrazovanje diljem svijeta. Postoji i nagađanje o izravnijoj integraciji – sučeljima mozak-računalo koja bi AI sustavima omogućila povezivanje s ljudskim neuronskim procesima (no to za sada ostaje spekulativno i opterećeno etičkim pitanjima). U svakom slučaju, optimistična vizija je AGI koji proširuje naše sposobnosti i radi s nama, a ne kao tuđinski super-um protiv ili odvojen od čovječanstva. Da bi se to postiglo, bit će potrebno pažljivo usklađivati AI ciljeve s ljudskim vrijednostima, o čemu se puno istražuje i raspravlja.
  • Superinteligencija i nepoznato: Neki futurologi smatraju AGI pretečom ASI-ja (Umjetne Superinteligencije) – AI-ja koji ne samo da dostiže ljudski intelekt, već ga daleko nadmašuje. Predviđanja o tome kada (ili hoće li uopće) doći do toga variraju od desetljeća do samo nekoliko godina, a tema ostaje na samom rubu spekulacija. Kad bi AI mogao ubrzati znanstvena otkrića (kao što GPT-slični modeli već rade u područjima poput savijanja proteina ili matematike), mogli bismo ući u razdoblje izuzetno brzog napretka. Ova situacija “eksplozije inteligencije” razlog je zbog kojeg su osobe poput Elona Muska i pokojnog Stephena Hawkinga upozoravale na AI. Stav OpenAI-ja, kako ga izražava Altman, jest da bi superinteligencija doista mogla biti na horizontu, te da bi društvo trebalo biti spremno i uspostaviti zaštitne mehanizme techcrunch.com openai.com. Sljedeća granica stoga uključuje ne samo tehnološke izazove, već i filozofske: osigurati da ASI, ako se pojavi, ima ciljeve usklađene s ljudskim napretkom i da postoje robustni mehanizmi kontrole. Pojmovi poput međunarodnog upravljanja AGI-jem pa čak i ugovori, mogli bi iz znanstvene fantastike preći u stvarnost. Vrijedi napomenuti da mnogi AI stručnjaci ostaju oprezni – napredak, iako brz, još uvijek može naići na temeljna ograničenja ili zahtijevati nove paradigme koje još nismo otkrili. Neki uspoređuju naše sadašnje modele s rano pokušajima letenja: GPT-4/5 su kao avioni braće Wright – zapanjujući početak, ali daleko od džambo-jeta, za koji su trebala desetljeća inženjerskih inovacija. Po toj analogiji, pravi AGI mogao bi zahtijevati teorijske proboje (možda nove algoritme ili čak novi računalni hardver kao što su kvantna računala ili čipovi inspirirani mozgom). Ne treba pretpostavljati da je trenutačna ekspanzija Transformera jednostavan put do AGI-ja. Ipak, svaki model na granici donosi nas korak bliže razumijevanju inteligencije, a možda i stvaranju njezina strojnog ekvivalenta.

Zaključak
Obzor iza GPT-5 je i uzbudljiv i zastrašujuć. Tehnološki, očekujemo AI modele s bogatijim razumijevanjem, više modaliteta, većom (i duljom) memorijom i više autonomije u učenju i djelovanju. Nove metode treniranja i napredna otvorena zajednica ubrzavaju taj napredak do sada neviđenom brzinom. Istodobno, sve veća moć temeljnih modela tjera nas da se suočimo s teškim pitanjima o njihovoj ulozi u društvu – kako iskoristiti prednosti tih sustava, a istovremeno spriječiti njihovu zloupotrebu, kako ih etički i pravedno integrirati u naše živote i, naposljetku, kako koegzistirati s inteligencijama koje bi jednog dana mogle biti ravne nama ili nas nadmašiti.

U navigaciji ovom budućnošću, stalna je tema suradnja: suradnja između ljudi i AI-ja (da dobijemo najbolje od svakog), među različitim AI sustavima (stručnjaci koji rade zajedno, kao u modelu mješavine stručnjaka ili AI agenata s alatima) i, najvažnije, među dionicima društva. Vlade, tehnološke tvrtke, istraživači i građani morat će raditi zajedno. Granica umjetne inteligencije nije samo tehničko područje, već i društveno – mi, kolektivno, ovim modelima učimo što nam je vrijedno putem naših povratnih informacija i smjernica. Ako to učinimo ispravno, sljedeće generacije temeljnih modela mogu postati duboki instrumenti napretka – otkriti nova izlječenja, demokratizirati znanje, riješiti klimatske izazove i unaprijediti ljudsku kreativnost na načine koje jedva možemo zamisliti.

Danas, na pragu GPT-5, jasno je da se približavamo davnom snu (ili strahu) AGI-ja. Došao on za deset godina ili i dalje ostao nedostižan, put prema njemu već preobražava naš svijet. Sljedeća granica testirat će našu domišljatost ne samo u stvaranju pametnijih strojeva, već i u korištenju mudrosti i predviđanja kako bismo osigurali da ti strojevi zaista služe čovječanstvu. Kako idemo izvan GPT-5, pitanje nije samo što će temeljni modeli moći učiniti, već tko želimo postati u partnerstvu s njima. Sljedeće poglavlje priče o umjetnoj inteligenciji pisat ćemo svi zajedno – a ono obećava biti jedno od najznačajnijih i najfascinantnijih našega doba.

Izvori:

  • Altman, S. (2025). Stručnjaci za umjetnu inteligenciju predviđaju kako će GPT-5 promijeniti način na koji radimo. SeniorExecutive Media – Ističući očekivanu multimodalnost, poboljšanja memorije i agentičnosti GPT-5 seniorexecutive.com seniorexecutive.com.
  • Kranen, K. & Nguyen, V. (2024). Primjena Mixture of Experts u arhitekturama LLM-a. NVIDIA Technical Blog – Raspravlja se o MoE u GPT-4 i dobicima učinkovitosti pri skaliranju modela developer.nvidia.com developer.nvidia.com.
  • Microsoft Research (2024). Nove metode poboljšavaju zaključivanje u malim i velikim jezičnim modelima – Opisuje Logic-RL i neuronsko-simboličke tehnike koje poboljšavaju sposobnost zaključivanja microsoft.com microsoft.com.
  • Anthropic (2023). Predstavljamo 100K kontekstualnih prozora – Demonstrira kontekst od 100k tokena (“memorija” od 75.000 riječi) u Claude modelu i njegove prednosti za duge dokumente anthropic.com anthropic.com.
  • YourGPT.ai (2025). GPT-5: Sve što trebate znati – Sažetak očekivanih značajki GPT-5 poput konteksta s više od milijun tokena, zvučne modalnosti, trajne memorije za personalizaciju yourgpt.ai yourgpt.ai.
  • Zuckerberg, M. (2024). AI otvorenog koda je pravi smjer. Meta Newsroom – Najava Llama 3.1 (405B) i tvrdnja da otvoreni modeli brzo sustižu, a možda će uskoro i nadmašiti, najmodernije modele about.fb.com about.fb.com.
  • Wu, S. et al. (2023). BloombergGPT: Veliki jezični model za financije. arXiv preprint – 50B model nadmašuje opće LLM-ove u financijskim zadacima bez gubitka općih sposobnosti arxiv.org.
  • Genna, I. (2024). Regulacija temeljnih modela u EU AI Aktu. International Bar Association – Objašnjava kako EU AI Akt tretira “AI opće namjene” modele i nameće obveze transparentnosti i smanjenja rizika ibanet.org ibanet.org.
  • NCSL (2024). AI zakonodavstvo 2024 – Navodi rezoluciju koja poziva na moratorij na treniranje AI-ja moćnijeg od GPT-4 na 6 mjeseci radi razvoja sustava upravljanja ncsl.org, i zakon u Kaliforniji koji od razvojnih inženjera zahtijeva ugradnju mehanizma za gašenje radi sigurnosti ncsl.org.
  • OpenAI (2023). Planiranje za AGI i dalje – Izlaže OpenAI-jevu viziju sigurnog kretanja prema AGI-ju i važnost široke raspodjele koristi te pažljivog postavljanja sve naprednije umjetne inteligencije openai.com openai.com.

Odgovori

Your email address will not be published.

Don't Miss

Agents of Change: How Autonomous AI Agents Are Revolutionizing the Enterprise

Agenti promjena: Kako autonomni AI agenti revolucioniraju poduzeća

Umjetna inteligencija ulazi u novu fazu u poduzećima: pojavu autonomnih
Dublin Real Estate 2025: Surging Prices, Scarce Supply & Bold Market Predictions

Dublinsko tržište nekretnina 2025.: Rastuće cijene, oskudna ponuda i hrabre tržišne prognoze

Tržište nekretnina u Dublinu doživljava dramatičan uzlet u 2025. godini,