Modely založené na pevných základoch ako OpenAI GPT-4 už zásadne zmenili spôsob, akým píšeme, programujeme a komunikujeme. Ako AI komunita očakáva GPT-5, očakávania siahajú ďaleko za skromný upgrade – predpokladajú paradigmatický posun v tom, ako spolupracujeme s inteligentnými strojmi seniorexecutive.com. V tejto správe skúmame, čo leží za hranicou GPT-5, a mapujeme nové pokroky v schopnostiach AI modelov, tréningových stratégiách, výskumných smerovaniach a v širšom spoločenskom kontexte. Každá sekcia osvetľuje ďalšiu hranicu modelov založených na pevných základoch: od technických prelomov (racionálne uvažovanie, multimodalita, pamäť a pod.) po nové tréningové prístupy, demokratizáciu otvoreného zdroja, etické/regulačné výzvy a dokonca aj špekulatívne vízie AGI (Artificial General Intelligence – všeobecná umelá inteligencia). Cieľom je poskytnúť zrozumiteľný, ale informatívny prehľad pre každého, koho zaujíma budúcnosť AI.
Očakávané technologické pokroky za hranicou GPT-5
Generálny riaditeľ OpenAI Sam Altman naznačil, že GPT-5 prinesie významné vylepšenia – vrátane multimodálneho porozumenia, perzistentnej pamäti, „agentného“ správania a pokročilejšieho uvažovania seniorexecutive.com. Pri pohľade ešte ďalej môžeme očakávať, že základné modely pokročia na viacerých frontoch:
- Silnejšie uvažovanie a riešenie problémov: Budúce modely budú lepšie logicky uvažovať, plánovať komplexné úlohy a sledovať viacstupňové inštrukcie bez toho, aby sa stratili. To znamená menej nezmyselných odpovedí a viac spoľahlivých odpovedí založených na faktoch. Vylepšené uvažovanie je veľkou prioritou; napríklad výskumníci z Microsoftu použili nové techniky (ako Monte Carlo tree search a reinforcement learning pre logiku), aby dramaticky zvýšili schopnosť menších modelov riešiť matematické úlohy microsoft.com. Celkovo by ďalšia generácia modelov mala halucinovať menej a riešiť zložitejšie úlohy štruktúrovanejším, krok za krokom myslením yourgpt.ai.
- Narodená multimodalita: Kým GPT-4 zaviedol vstupy vo forme obrázkov, ďalšou hranicou je naozajstná multimodálna AI, ktorá plynulo zvládne text, obrázky, zvuk, video a ďalšie modality. Samotný GPT-5 by mal natívne podporovať audio (hlas) okrem textu a obrázkov yourgpt.ai. Okrem toho budú modely modality hladko integrovať – napríklad model vie analyzovať graf, viesť o ňom konverzáciu a vytvoriť hovorené zhrnutie v jednom slede. Google AI Gemini je skorým príkladom: najnovšia verzia prijíma ako vstup obrázky, video aj zvuk, a vie generovať výstupy ako obrázky či hovorené odpovede blog.google. Stručne: AI zajtrajška bude vidieť, počuť a hovoriť, čo otvorí cestu omnoho prirodzenejším interakciám (predstavte si hlasových asistentov, ktorí naozaj chápu, čo vidia, alebo AI, ktorá upraví video na základe pochopenia jeho obsahu).
- Rozšírená pamäť a kontext: Dnešné modely majú obmedzenú pamäť na konverzáciu alebo dokument, ale tie budúce si zapamätajú oveľa viac. Povráva sa, že GPT-5 zvládne cez 1 milión tokenov kontextu yourgpt.ai yourgpt.ai – teda v princípe si naraz zapamätá celé knihy alebo viacdňové chaty. Už dnešné systémy posúvajú túto hranicu: model Claude od Anthropic zaviedol okno 100 000 tokenov (cca 75 000 slov), čo mu umožňuje „prehltnúť“ stovky strán a pamätať si detaily aj po hodinách anthropic.com anthropic.com. Takto rozšírený kontext spolu s ozajstnou perzistentnou pamäťou medzi reláciami otvárajú dvere AI, ktorá si „pamätá“ používateľa. Predstavte si AI asistenta, ktorý si spomenie na vaše preferencie, predchádzajúce rozhovory alebo osobné poznámky bez potreby opakovaného zadávania – schopnosť, ktorú tvorcovia GPT-5 výslovne sľubujú seniorexecutive.com. Takáto dlhodobá pamäť robí interakcie plynulejšími a osobnejšími.
- Učenie v reálnom čase a adaptácia: Budúce modely neostanú po tréningu statické, ale budú sa prispôsobovať v reálnom čase. Dnešné modely sú po vydaní „zmrazené“, no výskumníci skúmajú nepretržité učenie, vďaka ktorému sa AI môže okamžite aktualizovať na základe nových dát alebo spätnej väzby od používateľov. Víziou je AI, ktorá sa z každej interakcie učí a neustále sa zlepšuje (v určených medziach), namiesto čakania na veľký re-tréning. To by znamenalo prechod „od pevných, vopred definovaných schém k dynamickejším, automatizovaným a pružnejším implementáciám“ – modely by mohli v priebehu práce integrovať najnovšie dáta a kontext dataversity.net. Prakticky by AI po ére GPT-5 mohla okamžite zachytiť nový slang, aktualizovať vedomostnú bázu pri každom novom vedeckom článku či správe a prizpôsobiť štýl konkrétnemu používateľovi bez potreby veľkého preprogramovania. Docieliť to bez „katastrofického zabúdania“ (straty starých znalostí) je aktívna výskumná výzva arxiv.org, ale postupný pokrok je už vidieť.
- Personalizácia a agentné správanie: S lepšou pamäťou a učením na mieste prichádza personalizácia. Modely založené na pevných základoch sa budú viac prispôsobovať potrebám a preferenciám každého používateľa. Plán OpenAI pre GPT-5 obsahuje schopnosť „pamätať si používateľov a relácie — čo znamená reálnu personalizáciu pracovných postupov“ yourgpt.ai. Váš AI asistent na písanie môže imitovať váš tón, váš programátorský kopilot si prizpôsobí štýl vášho projektu a zákaznícke čety si okamžite vybavia históriu klienta. Paralelne sa modely stávajú viac agentné – nielen odpovedajú na otázky, ale aj autonómne vykonávajú úlohy. O GPT-5 sa hovorí, že smeruje k „autonómnemu agentovi, ktorý plánuje a vykonáva“ úlohy seniorexecutive.com. To znamená, že AI by mohla sama delegovať podúlohy špecializovaným nástrojom alebo API. Napríklad pokročilý model naplánuje cestovnú trasu a následne zarezervuje lety a hotely cez online nástroje, to všetko na základe krátkeho zadania od používateľa seniorexecutive.com seniorexecutive.com. Takáto proaktívna, nástroje využívajúca AI znamená kvalitný posun od reaktívnych chatbotov minulosti – v podstate evolucionuje na spolupracujúceho digitálneho asistenta či kopilota pre reálne úlohy.
Trendy v tréningových prístupoch
Dosiahnutie týchto pokrokov si nevyžaduje len viac dát či parametrov, ale aj nové tréningové stratégie a architektúry. Výskumníci a inžinieri skúmajú niekoľko sľubných prístupov za hranicou štandardného receptu „predtrénuj obrovský Transformer na tony textu“:
- Architektúry Mixture-of-Experts (MoE): Jeden zo spôsobov, ako efektívne škálovať modely, je mixture-of-experts, kde sa viacero podsietí („expertov“) špecializuje na rôzne vstupy. Namiesto jedného veľkého modelu MoE model smeruje každý dotaz len k relevantným expertom. Táto technika umožňuje obrovskú kapacitu modelu bez priameho zvyšovania výpočtových nákladov – je „riedka“. MoE vrstvy vraj používa už GPT-4 aj ďalšie špičkové systémy developer.nvidia.com. Aj komunita open source prijala MoE; napríklad model Mistral Mix-8B využíva osem expertov v základni so 7 miliardami parametrov developer.nvidia.com. Hlavnou výhodou je, že MoE modely vedia efektívne navýšiť počet parametrov a kapacitu bez toho, aby každé vyhodnotenie bolo extrémne nákladné. Analýza NVIDIA napríklad ukázala, že MoE model so 46 miliardami parametrov aktivuje na jeden token iba asi ~12 miliárd, čo šetrí výpočty oproti klasickému hustému modelu developer.nvidia.com. Táto flop-efektivita znamená, že pri pevnom rozpočte sa MoE modely vedia trénovať na viac dátach alebo dosiahnuť vyšší výkon developer.nvidia.com. Ako je tréning obrovských modelov (napr. Meta LLaMA 2 s 70 miliardami parametrov, ktorá na predtrénovanie potrebovala odhadom 3,3 milióna GPU-hodín developer.nvidia.com) čoraz drahší, môžeme očakávať, že návrhy MoE získajú veľkú popularitu u GPT-5++ a ďalej. Sľubujú viac inteligencie za menej nákladov.
- Reinforcement Learning a tréning založený na spätnej väzbe: Ďalším trendom je začlenenie reinforcement learning (RL) na doladenie modelov, hlavne na ich zosúladenie s ľudskými preferenciami alebo logickými cieľmi. OpenAI toto preslávil vďaka RLHF (Reinforcement Learning from Human Feedback) v modeloch typu ChatGPT. Do budúcna uvidíme RL využívané ešte kreatívnejšie. Príkladom je trénovanie modelov na riešenie problémov metódou pokus-omyl-uvažovania: Microsoftov projekt Logic-RL napríklad odmeňoval model len vtedy, keď bola správna samotná argumentácia aj výsledná odpoveď v logických úlohách – to ho donútilo vyhýbať sa skratkám a byť dôsledný microsoft.com. Na istých matematických benchmarkoch týmto spôsobom viac než zdvojnásobili presnosť 7-miliardového modelu microsoft.com. RL môže poháňať aj používanie nástrojov – napr. agent sa naučí, ktoré sekvencie (API volania, kód) vedú k najlepšiemu výsledku. Očakávame, že ďalšia generácia modelov bude trénovaná kombináciou učiaceho sa pod dozorom, spätných väzieb a RL v simulovaných prostrediach pre lepšie rozhodovanie. Stručne: modely po GPT-5 nebudú len predvídať jazyk, ale budú sa učiť a prispôsobovať spätnou väzbou, ako keď človek skúša a robí.
- Priebežné a celoživotné učenie: Klasické trénovanie je jednorazové: po natrénovaní na veľkom statickom datasete sú váhy zamrazené. Lenže svet sa neustále mení, preto je ďalšou hranicou umožniť modelom učiť sa priebežne, bez straty starších znalostí. Výskumníci sa teraz venujú problematike „CL for LLMs“ (priebežné učenie pre veľké jazykové modely) arxiv.org. Výzvou je vyhnúť sa katastrofickému zabúdaniu, keď učenie nových úloh alebo dát zmarí predchádzajúce znalosti arxiv.org. Navrhované riešenia sú: inkrementálne doménové učenie (pravidelná aktualizácia na základe nových informácií), adaptačné moduly pre nové domény a rehearsal metódy pre udržanie jadrovej bázy. Prehľady rozdeľujú priebežné učenie na vertikálne (adaptácia od všeobecného po špecializované) a horizontálne (vývojové dáta v čase) arxiv.org. V praxi už pribúdajú služby, ktoré umožňujú doladiť GPT modely na firemné či osobné dáta aj po nasadení. Do budúcnosti by základný model mohol rutinne „načítať“ novú odbornú literatúru alebo AI asistent by sa mohol učiť používateľa dlhé mesiace, bez potreby re-trénovania od nuly. Pravé celoživotné učenie je stále otvorený výskumný problém, avšak široko vnímaný ako kľúčový pre dosiahnutie ľudskejšej inteligencie.
- Neuro-symbolické a hybridné metódy: Fascinujúcou cestou je kombinácia neurónových sietí so symbolickým uvažovaním či explikovaným poznaním. Samotné hĺbkové učenie má niekedy problémy s presnou logikou, aritmetikou alebo faktickou konzistenciou. Neuro-symbolické prístupy chcú ponúknuť to najlepšie zo sveta: flexibilitu neurónových sietí v kombinácii so spoľahlivosťou formálnych metód. Napríklad systém LIPS (LLM-based Inequality Prover) spája rozpoznávanie vzorov v LLM s formálnym riešičom matematických nerovností microsoft.com. LLM rieši neformálne (napr. ako sa postaviť k dôkazu), symbolický engine zvládne striktnú algebru – výsledkom je najmodernejšie riešenie zložitých matem. úloh bez potreby ďalších dát microsoft.com. Vo všeobecnosti vidíme chain-of-thought prompting, kde model uprostred odpovede vyvoláva externé nástroje (napr. vykoná Python kód alebo dopyt do bázy znalostí). Budúci tréning môže explicitne učiť modely kedy a ako použiť takéto nástroje. Navyše, na učenie modelov sa využíva aj generovanie syntetických dát so symbolickou logikou – Microsoftova platforma na „neuro-symbolickú generáciu dát“ automaticky vytvárala nové matematické úlohy mutovaním symbolických vzorcov a ich verbálnym preformulovaním cez LLM microsoft.com. Všetky tieto snahy smerujú k modelom, ktoré spájajú rôzne formy uvažovania: môžu vo vnútri simulovať kód, manipulovať s grafmi alebo vynucovať logické obmedzenia počas generovania odpovedí. To môže dramaticky zlepšiť presnosť a konzistenciu v práve, vede či programovaní. Inými slovami, hraničné modely by mohli skutočne učiť algoritmy a pravidlá, nielen štatistické korelácie – čo je krok bližšie k robustnému AI uvažovaniu.
Vznikajúce výskumné smery a posuny paradigmy
Okrem konkrétnych techník či funkcií sa sama AI krajina mení spôsobmi, ktoré ovplyvnia modely po ére GPT-5. Vyniká niekoľko kľúčových trendov:
- Open-source modely a demokratizácia AI: V minulosti pochádzali najpokročilejšie jazykové modely len od niekoľkých technologických gigantov a boli držané v súkromí. To sa zmenilo, keď Meta (Facebook) v roku 2023 vydala LLaMA, a ešte výraznejšie teraz. Komunita okolo open-source AI rýchlo uzatvára medzeru medzi otvorenými a uzavretými modelmi about.fb.com. Podľa CEO Metay Marka Zuckerberga bol ich model LLaMA 3 (2024) už „konkurencieschopný s najpokročilejšími modelmi“ a očakávajú, že budúce otvorené modely budú dominovať vo svojich možnostiach about.fb.com. Meta nedávno v odvážnom kroku otvorila zdrojový kód Llama 3.1 s 405 miliardami parametrov – prvý skutočný frontier-scale otvorený model about.fb.com. Dôsledky sú obrovské: výskumníci, startupy a dokonca aj hobbyisti môžu experimentovať na špici vývoja bez potreby miliardových rozpočtov na výpočtovú techniku. Sme svedkami explózie inovácií vedených komunitou – od chatbotov doladených na základe inštrukcií ako Vicuna (ktorý bol postavený na open-source váhach LLaMA), až po odborníkov z rôznych oblastí doladujúcich modely pre medicínu, právo a ďalšie odvetvia. K podpore tohto ekosystému sa pridávajú aj veľké firmy: Amazon, Databricks a ďalší ponúkajú služby pre doladenie a nasadenie vlastných modelov na báze LLaMA a podobných základov about.fb.com. Dokonca aj OpenAI, napriek svojmu názvu, bolo zatiaľ uzavretým zdrojom; no pozoruhodné je, že popri očakávanom spustení GPT-5 plánuje OpenAI vydať samostatný open-source model na podporu transparentnosti a výskumu yourgpt.ai yourgpt.ai. Všetky tieto udalosti naznačujú budúcnosť, kde bude AI oveľa dostupnejšia. Namiesto toho, aby najsilnejšie modely ovládalo len niekoľko korporácií, môžeme mať bohatý otvorený AI ekosystém – podobne ako open-source Linux nakoniec prekonal proprietárny Unix about.fb.com about.fb.com. Táto demokratizácia zabezpečí, že do rozvoja AI prispeje širšie spektrum názorov a nápadov, a organizáciám umožní prispôsobovať modely bez toho, aby museli odovzdávať svoje dáta tretej strane about.fb.com about.fb.com. Zhrnuté, ďalší pokrok nebude len o väčších modeloch – ide o modely široko zdieľané, komunitne poháňaný pokrok a AI, s ktorou ktokoľvek môže experimentovať a riešiť problémy.
- Menšie, špecializované modely (Nie vždy je väčšie lepšie): Zaujímavosťou je, že preteky za stále väčšími všeobecnými modelmi sú dopĺňané trendom k špecializácii. Základné modely zamerané na konkrétne oblasti môžu vo svojom segmente prekonať všeobecné modely – a často s oveľa menším počtom parametrov. Skvelým príkladom je BloombergGPT, 50-miliardový model prispôsobený pre financie. Trénovaný na obrovskom korpuse finančných údajov (plus niektorých všeobecných textoch) dosiahol BloombergGPT v oblasti finančných úloh výsledky, ktoré „výrazne prekonali“ všeobecné LLM, zatiaľ čo na všeobecných jazykových benchmarkoch si zachoval konkurencieschopnosť arxiv.org arxiv.org. To ukazuje, že cieľové trénovanie môže priniesť AI na expertnú úroveň v danej oblasti aj bez 500-miliardového giganta. Pravdepodobne uvidíme viac vertikálnych modelov: napríklad model pre onkológiu vo vedeckom výskume medicíny alebo právnický model, ktorý ovláda všetky precedensy naspamäť. Takéto modely môžu byť menšie a efektívnejšie, čo uľahčuje ich nasadenie (napríklad 7-miliardový medicínsky model môže bežať lokálne v nemocnici kvôli ochrane súkromia). Rastie tiež snaha o komprimáciu a optimalizáciu modelov tak, aby bežali na hrane – teda na notebookoch alebo smartfónoch – a nielen v cloude. Techniky ako 4-bitová kvantizácia umožnili spustenie niektorých modelov triedy GPT-3 aj na bežnom spotrebiteľskom hardvéri. Tento prístup „malé je krásne“ podporuje aj demokratizáciu: nie každý si môže dovoliť prevádzkovať 175-miliardový model, ale kvalitný 6-miliardový model vyladený na konkrétnu úlohu sa môže široko používať. Do budúcnosti pravdepodobne využijeme súhvezdie špecializovaných modelov, nie jeden všeovládajúci model. Aj stratégia OpenAI tomu nasvedčuje – okrem GPT-5 zvažuje menší otvorený model aj rôzne doladené varianty yourgpt.ai yourgpt.ai. Zhrnuté, môžeme očakávať bohatšiu paletu základných modelov – veľkých všeobecných aj malých expertov – spolupracujúcich v aplikáciách, pričom každý bude najlepší tam, kde má byť.
- Noví hráči a spolupráca vo výskume AI: Hranice AI už nie sú exkluzívne len pre niekoľko laboratórií v Silicon Valley. Akademické inštitúcie, neziskové výskumné kolektívy a nové startupy všetky posúvajú limity. Projekty ako EleutherAI a BigScience konzorcium vyprodukovali veľké modely (napríklad BLOOM s 176 miliardami parametrov) vďaka medzinárodnej spolupráci. Firmy ako Anthropic (založené bývalými zamestnancami OpenAI) prišli s novými myšlienkami ako Constitutional AI na zosúladenie modelov s etickými princípmi. Dochádza aj k prepájaniu disciplín: napríklad DeepMind (dnes súčasť Google DeepMind) preniesol svoje skúsenosti z reinforcement learningu (AlphaGo a pod.) do jazykových modelov, čo údajne ovplyvnilo vývoj Google Gemini. Zároveň rastie konvergencia výskumu v oblastiach jazyka, videnia a robotiky. Laboratórium vyvíjajúce embodovanú AI (roboty alebo agenti, čo interagujú s fyzickým svetom) môže prispieť technikami pre pamäť a učenie v reálnom čase, ktoré budú užitočné aj pre čisto jazykové modely. Sme svedkami plodného obdobia výmeny poznatkov; konferencie a časopisy sú zahltené výskumom zameraným na efektivitu, transparentnosť a ľudskosť AI. To všetko znamená, že obdobie po GPT-5 bude formované širšou komunitou – nepôjde len o vyššiu verziu od OpenAI, ale o mnohasmerný skok vďaka rôznym iniciatívam po celom svete.
Spoločenské, etické a regulačné dôsledky
Ako základné modely rastú na sile a rozšírení, ich dopad na spoločnosť sa prehlbuje – prinášajúc obrovské príležitosti spolu s vážnymi obavami. Pri pohľade za GPT-5 je kľúčové zamyslieť sa nad tým, ako zodpovedne začleniť tieto modely. Medzi hlavné dôsledky a otázky patria:
- Transformácia práce a každodenného života: Pokročilí AI asistenti môžu zvýšiť produktivitu a tvorivosť v nespočetnom množstve oblastí – písanie kódu, vypracovávanie dokumentov, analyzovanie dát, automatizovaná zákaznícka podpora, doučovanie študentov a podobne. To vyvoláva optimizmus ohľadom ekonomického rastu a riešenia zložitých problémov, no aj obavy zo straty pracovných miest. Mnohé rutinné, ale aj kvalifikované úlohy môžu byť augmentované alebo automatizované systémami po GPT-5. Spoločnosť sa bude musieť prispôsobiť: zamestnanci budú musieť rozvíjať nové zručnosti a prejsť na pozície, kde je ľudský úsudok a „ľudský dotyk“ nenahraditeľný. Niektorí dokonca navrhujú politiky ako pilotné projekty univerzálneho základného príjmu na podporu tých, ktorých AI-automatizácia zasiahne ncsl.org. Na druhej strane môžu tieto modely pôsobiť ako „zosilňovač ľudskej vynaliezavosti“, ako hovorí OpenAI – dávajúc jednotlivcom schopnosti, ktoré boli kedysi nedosiahnuteľné openai.com. Jeden človek so smart AI asistentom môže vykonať prácu niekoľkých, alebo robiť úplne nové veci (napríklad lekár využívajúci AI na prehľadanie tisícov vedeckých článkov v priebehu sekúnd kvôli novému poznatku k liečbe). Konečný dopad na spoločnosť bude závisieť od toho, ako túto transformáciu zvládneme, či dokážeme zabezpečiť spravodlivé rozdelenie benefitov a minimalizovať nevýhody openai.com.
- Dezinformácie, zaujatosť a etické riziká: Výkonnejšie generatívne modely výrazne uľahčia tvorbu hyper-realistického falošného obsahu (text, obrázky, video, dokonca aj hlasy) vo veľkom rozsahu. To zvyšuje hrozbu dezinformácií a podvodov. Príkladom môže byť, že budúci multimodálny GPT vygeneruje presvedčivé video významného svetového lídra, ktorý povie niečo, čo nikdy nevyslovil – nočná mora pre dôveryhodnosť informácií. Riešenie si zrejme vyžiada technické aj legislatívne opatrenia: vedci pracujú na vodoznakoch pre AI-generovaný obsah aj na detekčných nástrojoch (niektoré jurisdikcie už plánujú povinné označovanie alebo detekciu AI obsahu podľa zákona ncsl.org). Zaujatosť je ďalším dobre zdokumentovaným problémom – ak sa modely učia z internetových dát, môžu preberať spoločenské predsudky či stereotypy. Keďže modely sú čoraz viac využívané pri rozhodovaní (pri nábore, poskytovaní pôžičiek či polícii), etické dôsledky zaujatých výstupov sú zásadné. Pokračujúca práca v oblasti férovosti AI a zmierňovaní zaujatosti bude kľúčová, aby základné modely nechtiac nešírili diskrimináciu. Používajú sa rôzne techniky: od starostlivejšie vybraných tréningových údajov a testov na zaujatosť až po doladenie na inštrukcie, ktoré model explicitne učia vyhýbať sa nenávistnému či predsudkovému obsahu. Firmy skúmajú aj metódy transparentnosti, vďaka ktorým by rozhodnutia modelov boli lepšie vysvetliteľné. V čase príchodu GPT-6 či -7 môžeme očakávať priemyselné štandardy pre audity zaujatosti a zverejňovanie limitov modelov. Dôležité je, že ďalšia generácia modelov bude zosúladená nielen na to, aby bola nápomocná, ale aj aby rešpektovala ľudské hodnoty a bezpečnostné normy. Prístupy ako „Constitutional AI“ od Anthropicu (kde AI učia sledovať etické princípy bez toho, aby jej pre každý prípad dali ľudský príklad) sa môžu stať štandardom a prinesú AI, ktorá bude neškodná a poctivá už podľa návrhu anthropic.com.
- Regulačná odpoveď a správa AI: Rýchly pokrok v základných modeloch AI vyvolal intenzívnu diskusiu medzi tvorcami politík. Vlády teraz riešia, ako zabezpečiť bezpečnosť a zodpovednosť AI bez zadusenia inovácií. Európska únia je lídrom v tejto oblasti s Zákonom o AI (EU AI Act), ktorý od roku 2024 zaviedol nové pravidlá špecificky pre základné modely. Akt klasifikuje veľké všeobecné AI systémy (teraz nazývané „GPAI modely“) a ukladá im povinnosti ako transparentnosť ohľadne tréningových dát, hodnotenie rizík a opatrenia na zmiernenie škodlivých výstupov ibanet.org ibanet.org. Dokonca rozlišuje „systémové“ základné modely – teda extrémne veľké modely so širokým dosahom – ktoré budú podliehať prísnejšiemu dohľadu (podobne ako sú špeciálne regulované veľké banky či strategické infraštruktúry) ibanet.org. V USA a inde sa aktuálne riešia AI audity, licencie na tréning extrémne výkonných modelov a zodpovednosť za škody spôsobené AI. Spomeňme aj otvorený list z roku 2023, ktorý podpísali mnohé osobnosti technológií a ktorý požadoval moratórium na tréning AI výkonnejšej než GPT-4 na šesť mesiacov, aby právne rámce dobehli vývoj ncsl.org. Dobrovoľná pauza sa síce neuskutočnila, no poukázala na široko rozšírené obavy z nekontrolovaného vývoja AI aj vo vnútri samotného odvetvia. Odvtedy sme svedkami krokov ako vznik Frontier Model Forum (koalícia popredných AI firiem na podporu bezpečného vývoja AI) a vládnych poradných rád pre AI. Regulačné kroky sú stále konkrétnejšie: v Kalifornii čaká návrh zákona („Safe and Secure Innovation for Frontier AI Models Act“), ktorý bude vyžadovať od vývojárov extrémne pokročilých modelov implementáciu „kill-switchu“ – schopnosti okamžite zastaviť prevádzku modelu pri nebezpečnom správaní – a vypracovanie detailného bezpečnostného plánu ešte pred spustením tréningu ncsl.org. Globálne už prebiehajú rokovania v OSN a G7 o koordinovaných AI štandardoch. Keď dorazia modely po GPT-5, pravdepodobne už bude existovať oveľa prepracovanejší politický režim pre AI: očakávajte požiadavky na dokumentáciu spôsobu tvorby modelov, hodnotenia extrémizmu či zaujatosti, a možno aj certifikáciu modelov spĺňajúcich určité bezpečnostné kritériá. Hlavnou výzvou bude rovnováha medzi inováciou a ochranou. Premyslenou reguláciou môžeme využívať výhody silnej AI a minimalizovať riziká ako dezinformácie, porušenie súkromia alebo zneužitie autonómnych systémov.
- Bezpečnostné a zneužívacie riziká: Ako modely AI získavajú viac schopností, môžu byť zneužívané – napríklad na kyberútoky (písanie sofistikovaných škodlivých kódov alebo phishingových kampaní) alebo dokonca pri vývoji zbraní (spekuluje sa o AI v biotechnológii či armáde). To otvára otázky národnej bezpečnosti. Vlády začínajú považovať pokročilú AI za technológiu dvojakého použitia. Napríklad exportné obmedzenia na špičkové čipy (potrebné na trénovanie veľkých modelov) sú jedným z nástrojov, ako zabrániť určitým krajinám získať náskok v oblasti frontier AI. Môžeme sa dočkať aj dohôd podobných kontrole zbraní: otvorená výmena bezpečnostného výskumu, no možno obmedzenie extrémne nebezpečného výskumu schopností. Ďalším problémom je súkromie – modely trénované na dátach z internetu môžu nechtiac absorbovať osobné informácie a ich schopnosť generovať ľudsky pôsobiaci text môže ľudí oklamať k zvereniu citlivých údajov. Bude potrebné prijať prísne pravidlá na ochranu údajov a možno nové paradigmy (napríklad tréning na syntetických dátach alebo učenie chrániace súkromie). Zhrnuté, spoločnosť bude musieť proaktívne predchádzať zneužitiu a posilňovať obranu (od digitálnych vodoznakov na AI obsahu až po usmernenia pri nasadzovaní AI v kritickej infraštruktúre).
Celkovo sú spoločenské dôsledky základných modelov po ére GPT-5 obrovské. Musíme sa orientovať v otázkach dôvery, transparentnosti a bezpečnosti, aby sme naplno využili pozitívny potenciál týchto technológií. Dobrou správou je, že tieto diskusie – medzi etickými expertmi, technológmi i politikmi – už intenzívne prebiehajú ruka v ruke s technickým pokrokom.
Špekulatívne vízie: Smerom k AGI a ďalej
Napokon, pri pohľade ešte ďalej do budúcnosti sa mnohí pýtajú, ako by tieto trendy mohli nakoniec vyústiť do AGI – všeobecnej umelej inteligencie, ktorá je často definovaná ako AI s kognitívnymi schopnosťami zodpovedajúcimi alebo presahujúcimi úroveň ľudí v širokom spektre úloh. Hoci AGI zatiaľ zostáva špekulatívnym pojmom, neustály skok vo výkonnosti základných modelov robí túto diskusiu konkrétnejšou. Tu sa zamyslíme nad niekoľkými vizionárskymi myšlienkami o tom, ako by mohol vyzerať svet po GPT-5 umožnený AGI, založený na súčasných trendoch:
- AGI ako kolektívna inteligencia: Jedna z nastupujúcich vízií je, že AGI nebude jediný monolitický supermozog, ale kolektív špecializovaných modelov a nástrojov, ktoré spolupracujú. Už teraz vidíme náznaky tohto smeru: modely éry GPT-5 by mohli viesť k ekosystémom „super-agentov“ – jedna AI rozdelí komplexný problém na časti a pridelí ich expertom-subagentom (jeden na programovanie, druhý na výskum atď.) seniorexecutive.com. Pri extrapolácii by AGI mohlo fungovať ako vysoko organizovaný výbor AI, kde každý model má ľudskú úroveň schopností vo svojej oblasti a je koordinovaný meta-modelom. Takýto systém by mohol dosiahnuť všeobecnú inteligenciu agregáciou – celok prekonáva súčet častí. Táto myšlienka je spätá s architektúrou mixture-of-experts vo väčšom meradle a odráža spôsob, akým ľudské organizácie riešia problémy tímovou prácou. Zodpovedá to tiež predstave AI služieb prístupných cez API: budúca AGI môže vyzerať viac ako internetová sieť mnohých modelov a databáz, ktoré dynamicky spolupracujú pri riešení akejkoľvek otázky či úlohy. Tento koncept „spoločnosti mysle“ (pôvodne predstavený AI priekopníkom Marvinom Minsky) by sa mohol uskutočniť vďaka základným modelom, ktoré vynikajú v spolupráci a používaní nástrojov.
- Kontinuálne samouzlepšovacie slučky: Skutočne všeobecná AI by pravdepodobne bola schopná autonómne sa učiť a zdokonaľovať. Už vidíme náznaky v projektoch, ktoré používajú AI na optimalizáciu AI – napríklad jeden model generuje tréningové dáta či spätnú väzbu pre iný. Inžinieri z OpenAI uvažovali o „rekurzívnom samouzlepšovaní“ akonáhle AI dosiahnu dostatočnú úroveň. Špekulatívnym scenárom je AI, ktorá dokáže prepisovať svoj vlastný kód alebo navrhovať efektívnejšie neurónové siete, čo by viedlo k pozitívnej spätnej väzbe zvyšovania inteligencie. Hoci súčasné modely majú ešte ďaleko k prepisovaniu svojho zdrojového kódu, už dokážu písať nové programy. AGI by túto schopnosť mohla využiť na simulovanie tisícov experimentov na svojich variantoch a výber tých najlepších, pričom tento proces by bol oveľa rýchlejší ako akýkoľvek ľudský inžinier. To otvára zásadné otázky (vrátane klasickej debaty o „AI takeoff“), a preto aj firmy súťažiace o vývoj silných AI hovoria o prístupe k AGI opatrne openai.com openai.com. Napriek tomu je predstava AI, ktorá sa učí lepšie učiť, logickým vyústením dnešných trendov v meta-učení a automatizovanom strojovom učení. Je možné, že „po GPT-5“ už existujú rané formy samonastaviteľných AI – možno obmedzené na bezpečné domény – ukazujúce cestu k systémom, ktoré sa zlepšujú s minimálnou ľudskou intervenciou.
- Integrácia AI s fyzickým svetom: Doteraz základné modely prevažne žijú v digitálnom svete textu a obrázkov. Vízia AGI však zahŕňa ukotvenie týchto modelov vo fyzickom svete prostredníctvom robotiky alebo IoT (Internet vecí). AI, ktorá vie „vidieť“ cez kamery, pohybovať aktuátormi a experimentovať v reálnom prostredí, by získala ten typ stelesneného chápania, aký majú ľudia. Niektorí odborníci veria, že stelesnenie je kľúčom k všeobecnej inteligencii – učenie sa konaním, získavanie zdravého rozumu cez fyzickú interakciu. Už máme prvé multimodálne agentov (ako DeepMindov Gato, ktorý bol v roku 2022 trénovaný na úlohy od hrania videohier po ovládanie robotickej ruky). Hranica sa bude posúvať ďalej: predstavte si AI, ktorá číta o varení, sleduje videá o varení (vizuálne vnemy), rozpráva sa s kuchármi (jazyk) a dokáže skutočne ovládať ramená robotického kuchára, aby pripravila jedlo (akcia) – pričom si svoje schopnosti zlepšuje pokusmi a omylmi. Takýto agent by zlúčil víziu, jazyk, zvuk (zvuk syčania a pod.) aj motorickú kontrolu – čo je veľký rozdiel oproti chatbotom a je oveľa bližšie k všeobecne inteligentnej bytosti. Hoci je to ešte mimo dosahu GPT-5, výskum smeruje týmto smerom. Spoločnosti ako Tesla pracujú na humanoidných robotoch a OpenAI má robotickú divíziu. Je možné, že AGI budúcnosti bude rovnako robotom ako chatbotom – alebo aspoň bude mať aktuátory schopné priamo zasahovať do sveta. To otvorí fronty vo výrobe, zdravotníctve (robotickí asistenti) a každodennom živote (skutočne inteligentné domácnosti), no zároveň vznesie nové otázky bezpečnosti.
- Spolupráca človeka a AI a kognitívne posilnenie: Namiesto toho, aby sa AI vyvíjala izolovane, je pôsobivou víziou jej schopnosť zosilňovať ľudskú inteligenciu. Vo svete po GPT-5 by sme mohli mať každý vysoko personalizovaného AI asistenta, ktorý dôverne pozná naše ciele, silné i slabé stránky. Títo asistenti by nám mohli pomáhať učiť sa nové zručnosti (ako tútor/tréner), brainstormovať nápady, preberať zdĺhavé úlohy alebo byť kreatívnym partnerom. Niektorí technologickí lídri hovoria o „IA“ (inteligentnej augmentácii) ako o dvojčaťom cieli k AI. Napríklad AGI medicínsky asistent by mohol umožniť lekárom diagnostikovať a liečiť pacientov s nadľudskou presnosťou spojením odbornosti lekára s okamžitou analýzou všetkých dostupných lekárskych žurnálov a záznamov pacientov. Vo vzdelávaní by AI tútor s všeobecnou inteligenciou mohol prispôsobiť výučbu akémukoľvek študentskému štýlu a poskytovať personalizované učebné plány v globálnom meradle, čo by mohlo demokratizovať špičkové vzdelanie na celom svete. Špekuluje sa tiež o priamejšej integrácii – rozhrania mozog-počítač, ktoré by AI umožnili pracovať s ľudskými nervovými procesmi (hoci to zatiaľ zostáva veľmi špekulatívne a zaťažkané etickými otázkami). V každom prípade je nádejnou víziou AGI, ktorá rozširuje naše schopnosti a pracuje s nami, nie cudzia super-myseľ pracujúca proti alebo mimo ľudstva. Dosiahnutie tohto cieľa si bude vyžadovať dôkladné zosúladenie cieľov AI s hodnotami ľudí, čo je predmetom rozsiahleho výskumu a debát.
- Superinteligencia a neznáme: Niektorí futuristi považujú AGI za predstupeň ASI (umelá superinteligencia) – AI, ktorá nielen dorovnáva, ale aj ďaleko presahuje ľudský intelekt. Predpovede, kedy (alebo či vôbec) sa tak stane, sa rôznia od desaťročí po roky a je to oblasť čistej špekulácie. Ak by AI urýchlila vedecké objavy (ako už začínajú GPT modely v oblastiach ako skladanie proteínov či matematika), mohli by sme vstúpiť do éry extrémne rýchleho pokroku. Tento scenár „explózie inteligencie“ je dôvodom, prečo osobnosti ako Elon Musk a zosnulý Stephen Hawking vydali varovania pred AI. OpenAI, podľa Altmanových vyjadrení, uznáva, že superinteligencia môže byť na obzore a spoločnosť sa musí pripraviť a nastaviť jasné pravidlá techcrunch.com openai.com. Ďalšia hranica tak zahŕňa nielen technologické, ale aj filozofické výzvy: zabezpečiť, že ASI, ak sa objaví, bude mať ciele zosúladené s ľudskou prosperitou a že budú robustné kontrolné mechanizmy. Pojmy ako medzinárodná správa AGI a dokonca aj zmluvy môžu prejsť zo science fiction do reality. Stojí za zmienku, že mnohí AI experti zostávajú opatrní – pokrok je síce rýchly, no stále môže naraziť na fundamentálne limity alebo si vyžiadať nové koncepcie, ktoré ešte nepoznáme. Niektorí prirovnávajú naše dnešné modely k prvým pokusom o lietanie: GPT-4/5 sú ako Wrightovci a ich lietadlo – pozoruhodný začiatok, ale ďaleko od jumbo jet-u, na ktorý bolo treba desaťročia inžinierskych objavov. Podľa tejto analógie si skutočná AGI môže vyžiadať teoretické prelomové objavy (možno nové algoritmy alebo dokonca nové výpočtové hardvéry, ako kvantové počítače alebo čipy inšpirované mozgom). Netreba predpokladať, že škálovanie Transformátorov je priamou cestou k AGI. Napriek tomu každý ďalší model nás približuje k pochopeniu inteligencie – a možno jej vytvoreniu v stroji.
Záver
Obzor za GPT-5 je zároveň vzrušujúci aj znepokojujúci. Z technologického pohľadu očakávame AI modely s bohatším porozumením, viacerými modalitami, väčšou (a dlhšou) pamäťou a väčšou autonómiou v tom, ako sa učia a konajú. Nové tréningové metódy a rozvíjajúca sa otvorená výskumná komunita tieto pokroky urýchľujú bezprecedentným tempom. Súčasne nás rastúca sila základných modelov núti riešiť ťažké otázky o ich úlohe v spoločnosti – ako ich výhody využiť, no zároveň predísť zneužitiu, ako ich začleniť do našich životov eticky a spravodlivo, a napokon, ako koexistovať s inteligenciou, ktorá môže raz konkurovať alebo aj presiahnuť tú našu.
Pri navigovaní tejto budúcnosti je opakujúcou sa témou spolupráca: spolupráca medzi človekom a AI (aby sme využili to najlepšie z oboch), medzi rôznymi AI systémami (špecialisti spolupracujúci, ako napríklad agenti využívajúci nástroje alebo architektúru mixture-of-experts), a kľúčovo medzi aktérmi v spoločnosti. Vlády, technologické firmy, výskumníci a občania budú musieť spolupracovať. Hranica AI nie je len technická oblasť, ale aj spoločenská – spoločne týmto modelom cez spätnú väzbu a smernice ukazujeme, čo je pre nás hodnotné. Ak to zvládneme, budúce generácie základných modelov sa môžu stať hlbokými nástrojmi pokroku – pomáhať objavovať nové lieky, demokratizovať poznanie, riešiť klimatické výzvy a rozširovať ľudskú tvorivosť spôsobmi, ktoré si dnes sotva dokážeme predstaviť.
Stojac dnes na prahu GPT-5 je jasné, že sa postupne približujeme k dlho snívanému (alebo obávanému) AGI. Či AGI príde o desať rokov alebo sa bude naďalej vyhýbať, cesta k nej už dnes pretvára náš svet. Ďalšia hranica preverí našu vynaliezavosť nielen v konštruovaní múdrejších strojov, ale aj v používaní múdrosti a prezieravosti, aby tieto stroje skutočne slúžili ľudstvu. Ako budeme kráčať za GPT-5, otázkou nie je len čo tieto základné modely dokážu, ale kým chceme byť v partnerstve s nimi. Príbeh ďalšej kapitoly AI budeme písať všetci spolu – a sľubuje, že bude jedným z najvýznamnejších a najfascinujúcejších našej doby.
Zdroje:
- Altman, S. (2025). Odborníci na AI predpovedajú, ako GPT-5 zmení spôsob našej práce. SeniorExecutive Media – Poukazuje na očakávanú multimodalitu GPT-5, vylepšenú pamäť a agentické schopnosti seniorexecutive.com seniorexecutive.com.
- Kranen, K. & Nguyen, V. (2024). Použitie Mixture of Experts v architektúrach LLM. NVIDIA Technical Blog – Diskusia o MoE v GPT-4 a úsporách efektivity pri škálovaní modelov developer.nvidia.com developer.nvidia.com.
- Microsoft Research (2024). Nové metódy zvyšujú schopnosti uvažovania v malých a veľkých jazykových modeloch – Popisuje Logic-RL a neuro-symbolické techniky, ktoré zlepšujú výkonnosť modelov pri uvažovaní microsoft.com microsoft.com.
- Anthropic (2023). Predstavujeme 100K kontextové okná – Demonštrácia kontextu s 100 000 tokenmi (75-tisíc slovná „pamäť“) v modeli Claude a jeho výhody pri práci s dlhými dokumentmi anthropic.com anthropic.com.
- YourGPT.ai (2025). GPT-5: Všetko, čo by ste mali vedieť – Súhrn očakávaných funkcií GPT-5 ako kontext nad 1M tokenov, zvuková modalita a trvalá pamäť pre personalizáciu yourgpt.ai yourgpt.ai.
- Zuckerberg, M. (2024). Otvorený zdroj AI je správna cesta. Meta Newsroom – Oznámenie Llama 3.1 (405B) a tvrdenie, že otvorené modely rýchlo dobiehajú a môžu čoskoro predbehnúť najmodernejšie riešenia about.fb.com about.fb.com.
- Wu, S. et al. (2023). BloombergGPT: Veľký jazykový model pre financie. arXiv preprint – 50B model prekonávajúci bežné LLM vo finančných úlohách bez straty všeobecnej schopnosti arxiv.org.
- Genna, I. (2024). Regulácia základných modelov v európskom AI Acte. International Bar Association – Vysvetľuje, ako sa v AI Acte EÚ pristupuje k modelom „General Purpose AI“ a aké sú povinnosti týkajúce sa transparentnosti a zmiernenia rizík ibanet.org ibanet.org.
- NCSL (2024). AI legislatíva 2024 – Uvádza rezolúciu vyzývajúcu na moratórium na trénovanie AI výkonnejšej ako GPT-4 na 6 mesiacov za účelom vypracovania systémov správy ncsl.org a kalifornský návrh zákona vyžadujúci od vývojárov frontier-modelov implementáciu mechanizmu na okamžité vypnutie kvôli bezpečnosti ncsl.org.
- OpenAI (2023). Plánovanie AGI a čo bude potom – Načrtáva víziu OpenAI pre bezpečnú cestu k AGI a dôležitosť širokého zdieľania benefitov a opatrného nasadzovania čoraz pokročilejšej AI openai.com openai.com.