OpenAI:n GPT-4:n kaltaiset perustavaa laatua olevat mallit ovat jo mullistaneet tapaamme kirjoittaa, koodata ja kommunikoida. Kun AI-yhteisö odottaa GPT-5:tä, odotukset ulottuvat paljon pelkkää maltillista päivitystä pidemmälle – näkyvissä on paradigman muutos siinä, miten teemme yhteistyötä älykkäiden koneiden kanssa seniorexecutive.com. Tässä raportissa tutkimme, mitä GPT-5:n jälkeen on odotettavissa, ja kartoitamme uusia kehitysaskeleita tekoälymallien kyvykkyydessä, koulutusstrategioissa, tutkimussuunnissa sekä laajemmassa yhteiskunnallisessa maisemassa. Jokainen osio valaisee perustavamallien seuraavaa rajapyykkiä: teknisistä läpimurroista (päätteleminen, monimodaalisuus, muisti jne.) uusiin koulutusmenetelmiin, avoimen lähdekoodin demokratisointiin, eettisiin/sääntelyllisiin haasteisiin ja jopa AGI:n (Yleinen Keinotekoinen Älykkyys) spekulatiivisiin visioihin. Tavoitteena on tarjota helposti ymmärrettävä ja syvällinen katsaus kaikille, joita tekoälyn suunta kiinnostaa.
Odotetut teknologiset edistysaskeleet GPT-5:n jälkeen
OpenAI:n toimitusjohtaja Sam Altman on vihjannut, että GPT-5 tuo mukanaan merkittäviä parannuksia – kuten monimodaalista ymmärrystä, pysyvää muistia, enemmän “agenttimaista” käyttäytymistä ja parannettua päättelyä seniorexecutive.com. Katsoessamme vielä pidemmälle voimme odottaa perustavamallien kehittyvän usealla rintamalla:
- Vahvempi päättely & ongelmanratkaisu: Tulevat mallit ovat parempia loogisessa päättelyssä, monimutkaisessa suunnittelussa ja monivaiheisten ohjeiden seuraamisessa kadottamatta punaista lankaa. Tämä tarkoittaa vähemmän järjettömiä vastauksia ja luotettavampia, faktoihin perustuvia tuloksia. Päättelyn parantaminen on ollut suurena kehityskohteena; esimerkiksi Microsoftin tutkijat ovat käyttäneet uusia tekniikoita (kuten Monte Carlo -puuhakua ja vahvistusoppimista logiikan saralla) nostaakseen huomattavasti pienten mallien matemaattista ongelmanratkaisukykyä microsoft.com. Kaiken kaikkiaan seuraavan sukupolven mallien pitäisi hallusinoida vähemmän ja pystyä ratkaisemaan vaikeampia ongelmia askel askeleelta yourgpt.ai.
- Natiivi monimodaalisuus: Siinä missä GPT-4 esitteli kuvien syötteen, seuraava rajapyykki on aidosti monimodaalinen tekoäly, joka hallitsee sujuvasti tekstiä, kuvia, ääntä, videota ja muuta. GPT-5:n odotetaan tukevan natiivisti ääntä (puhetta) tekstin ja kuvien lisäksi yourgpt.ai. Tulevaisuudessa mallit yhdistävät useita modaliteetteja saumattomasti – esimerkiksi analysoivat kaavion, keskustelevat siitä ja tuottavat kertovan yhteenvedon kerralla. Googlen Gemini-tekoäly on tästä varhainen esimerkki: sen uusin versio vastaanottaa kuvia, videoita ja ääntä ja voi tuottaa myös esim. luotuja kuvia tai puhuttuja vastauksia blog.google. Lyhyesti: huomisen tekoäly näkee, kuulee ja puhuu, mikä mahdollistaa paljon luonnollisemman vuorovaikutuksen (ajattele vaikka avustajaa joka oikeasti ymmärtää näkemänsä, tai tekoälyä, joka ymmärtämällä sisältöä editoi videoita).
- Laajennettu muisti & konteksti: Nykyisillä malleilla on rajallinen muisti keskustelusta tai dokumentista, mutta tulevat mallit pystyvät muistamaan paljon enemmän. GPT-5:n huhutaan käsittelevän yli miljoona tokenia kontekstia yourgpt.ai yourgpt.ai – eli käytännössä muistamaan kokonaisia kirjoja tai usean päivän keskusteluja kerralla. Jo nykyiset järjestelmät ovat laajentaneet tätä rajaa: Anthropicin Claude-mallissa on 100 000 tokenin ikkuna (noin 75 000 sanaa), minkä ansiosta se voi ottaa vastaan satoja sivuja ja muistaa yksityiskohtia tuntienkin päästä anthropic.com anthropic.com. Tämä laajennettu konteksti ja aito pysyvä muisti eri istuntojen yli mahdollistaa tekoälyn, joka ”muistaa” käyttäjänsä. Kuvittele tekoälyavustajaa, joka muistaa mieltymyksesi, aiemmat keskustelusi tai muistiinpanosi ilman, että joudut aina erikseen kertomaan ne – juuri tällaista GPT-5:n suunnittelijat tavoittelevat seniorexecutive.com. Pitkäaikainen muisti tekee vuorovaikutuksesta johdonmukaisempaa ja henkilökohtaisempaa.
- Reaaliaikainen oppiminen ja mukautuminen: Tulevaisuuden perustavamallit eivät välttämättä ole staattisia koulutuksensa jälkeen, vaan ne mukautuvat reaaliajassa. Nykyiset mallit ovat ”jäädytettyjä” julkaisun yhteydessä, mutta tutkijat kehittävät jatkuvaa oppimista, jotta tekoäly voi päivittyä uusilla tiedoilla tai käyttäjäpalautteella lennosta. Tavoitteena on tekoäly, joka oppii jokaisesta vuorovaikutuksesta ja paranee (turvallisissa rajoissa) jatkuvasti – ei vasta suurien uudelleenkoulutusten yhteydessä. Tämä siirtymä ”jäykistä, ennalta määritetyistä kaavoista dynaamisiin ja automaattisiin toteutuksiin” mahdollistaa, että mallit voivat käyttää tuoreinta tietoa ja kontekstia toiminnassaan dataversity.net. Käytännössä GPT-5:n jälkeinen tekoäly saattaa oppia uutta slangia heti, päivittää tietopohjaansa kun uusia tieteellisiä julkaisuja tai uutisia ilmestyy, ja hienosäätää tyyliään käyttäjän mukaan ilman suurta uutta ohjelmointia. Tämän saavuttaminen ilman “katastrofaalista unohtamista” (vanhan tiedon menetystä) on aktiivinen tutkimushaaste arxiv.org, mutta edistystä tapahtuu jatkuvasti.
- Personointi & agenttimainen käyttäytyminen: Paremman muistin ja lennossa oppimisen myötä mahdollistuu personointi. Voimme odottaa mallien mukautuvan käyttäjän tarpeisiin ja mieltymyksiin. OpenAI:n suunnitelmissa GPT-5:lle on kyky ”muistaa käyttäjät ja istunnot – mahdollistaen aidon personoinnin työnkulkuun” yourgpt.ai. Kirjoitusavustaja voi matkia kirjoitustyyliäsi, koodikaveri mukautua projektisi syntaksiin, ja asiakaspalvelubotti palauttaa asiakkaan historian mieleen välittömästi. Samaan aikaan mallit muuttuvat yhä agenttimaisemmiksi – eivät vain vastaa kysymyksiin, vaan osaavat toteuttaa toimia itsenäisesti tarvittaessa. GPT-5:n kuvataan siirtyvän kohti “autonomista agenttia, joka suunnittelee ja suorittaa” tehtäviä seniorexecutive.com. Tämä tarkoittaa tekoälyä, joka osaa jakaa tehtävänsä erikoistuneille työkaluille tai API-rajapinnoille itsekseen. Esimerkiksi edistynyt malli voisi suunnitella matkaohjelman ja varata lennot ja hotellit verkon kautta, käyttäjän antaman ylätason pyynnön perusteella seniorexecutive.com seniorexecutive.com. Tämä proaktiivinen, työkalua käyttävä tekoäly on suuri harppaus eilisen reaktiivisista chatteboteista, kehittyen kohti yhteistyöhön perustuvaa digitaalista avustajaa tai co-pilottia todellisiin tehtäviin.
Kehityssuuntia koulutusmenetelmissä
Näiden edistysaskelien saavuttaminen edellyttää enemmän kuin lisää dataa tai parametrejä – tarvitaan uusia koulutusstrategioita ja arkkitehtuureja. Tutkijat ja insinöörit kartoittavat useita lupaavia lähestymistapoja perinteisen “esikoulutetaan jättimäinen Transformer massiivisella tekstidatalla” -reseptin tuolle puolen:
- Asiantuntijoiden yhdistelmäarkkitehtuurit (Mixture-of-Experts, MoE): Yksi tehokas tapa skaalata mallia on käyttää asiantuntijayhdistelmää, jossa monet aliverkot (“asiantuntijat”) erikoistuvat erilaisiin syötteisiin. Yhden suuren verkon sijaan MoE-mallissa jokainen pyyntö ohjautuu muutamalle sopivalle asiantuntijalle. Tekniikka mahdollistaa valtavan mallikapasiteetin ilman vastaavaa laskennan lisäystä – kyse on “harvasta” mallista. MoE-kerroksia käytetään huhujen mukaan jo GPT-4:ssa ja muissa huipputekijöissä developer.nvidia.com. Avoimen lähdekoodin yhteisö on omaksunut MoE:n; esimerkiksi Mistral Mix-8B käyttää kahdeksaa asiantuntijakomponenttia 7B-parametrin rungossa developer.nvidia.com. Mallien koon kasvattamisen houkutus on selvä: MoE:t mahdollistavat parametrimäärän ja kapasiteetin nostamisen ilman, että jokainen pyyntö paisuttaa laskentakustannuksia suhteettomasti. Esimerkiksi yhdessä NVIDIA:n analyysissa MoE-malli, jossa on yhteensä 46 miljardia parametria, saattoi aktivoida vain ~12B niistä per token, mikä säästää laskentakustannuksia tiheään malliin verrattuna developer.nvidia.com. Tämä flop-tehokkuus tarkoittaa, että rajallisella budjetilla MoE-malleja voidaan kouluttaa enemmän datalla tai saavuttaa parempaa suorituskykyä developer.nvidia.com. Kun jättimäisten mallien (esim. Metan 70B-parametrinen LLaMA 2, jonka esikoulutus vei arviolta 3,3 miljoonaa GPU-tuntia developer.nvidia.com) koulutus käy valtavan kalliiksi, MoE:t saavat entistä enemmän jalansijaa GPT-5++-ajan ja sitä pidemmälle. Ne lupaavat skaalattua älyä pienemmillä kuluilla.
- Vahvistusoppiminen ja palautteeseen perustuva koulutus: Toinen suunta on vahvistusoppimisen (RL) hyödyntäminen mallin hienosäätöön, erityisesti ihmisten mieltymysten tai loogisten tavoitteiden mukaiseksi. OpenAI teki tästä tunnetun RLHF:lla (Reinforcement Learning from Human Feedback) ohjemalleissa kuten ChatGPT:ssä. Jatkossa RL:tä sovelletaan yhä luovemmin: esimerkiksi malleja koulutetaan ratkaisemaan ongelmia yrityksen ja erehdyksen kautta. Microsoftin Logic-RL-hanke antoi mallille palkinnon vain kun sekä päättely että lopputulos olivat oikein loogisissa pulmissa, pakottaen välttämään oikoteitä ja panostamaan perusteellisuuteen microsoft.com. Tuloksena tarkkuus yli kaksinkertaistui tietyillä matematiikan benchmarkeilla 7B-mallilla microsoft.com. Vahvistusoppiminen voi myös opettaa työkalujen käyttöä: tekoälyagentti oppii, mitkä toimenpiteiden (API-kutsut, koodisuoritukset) sarjat tuottavat parhaan tuloksen tehtävässä. Odotamme seuraavan sukupolven perustavamallien oppivan ohjatun opetuksen, ihmispalautteen ja RL:n yhdistelmässä simuloiduissa ympäristöissä – näin niille karttuu parempi päätöksenteko. Uudet mallit eivät siis enää pelkästään ennusta kieltä, vaan myös kokeilevat ja mukautuvat palautteen pohjalta, aivan kuten tekemällä oppii.
- Jatkuva ja elinikäinen oppiminen: Perinteinen koulutus on yhden kerran tapahtuva: mallille annetaan valtava tietomassa, jonka jälkeen painot jäädytetään. Todellinen maailma on kuitenkin alati muuttuva; siksi suuri tavoite on tehdä malleista jatkuvasti oppivia ilman, että vanha tieto unohtuu. Nyt ratkotaan “CL for LLMs” -ongelmaa (Continual Learning for Large Language Models) arxiv.org. Haasteena on torjua katastrofaalista unohtamista, jossa uudet asiat pyyhkivät aiemmin opitut pois arxiv.org. Ratkaisuehdotuksia ovat: alakohtaiset inkrementaaliset päivitykset, adapterimoduulit joita voi vaihtaa uusiin aloihin sekä muistin harjoitusmenetelmät perusosaamisen säilyttämiseksi. Kirjallisuudessa jatkuva oppiminen jaetaan vertikaaliin (yleisestä kohti erikoistumista) ja horisontaaliseen (ajan myötä kehittyvä tieto) lähestymistapaan arxiv.org. Käytännössä kehitystä jo tapahtuu – esimerkiksi on palveluita, joissa GPT-tyyppistä mallia voi hienosäätää oman tai yrityksen datalla käyttöönoton jälkeen. Jatkossa perustavamallit voisivat päivittyä itsekseen uusien tutkimusten myötä, tai henkilökohtainen avustaja voisi syventää ymmärrystään käyttäjästä kuukausien varrella – ilman kokonaista uudelleenkoulutusta. Aitoon elinikäiseen oppimiseen pääseminen on ratkaisematon tutkimusongelma, mutta sitä pidetään laajasti välttämättömänä inhimillisemmän tekoälyn kehittämiseksi.
- Neuro-symbolinen ja hybridimenetelmät: Mielenkiintoinen kehityssuunta on neuroverkkojen yhdistäminen symboliseen päättelyyn tai eksplisiittiseen tietämykseen. Puhtaan syväoppimisen heikkouksia ovat loogisen täsmällisyyden, laskennallisen tarkkuuden ja faktapohjaisen johdonmukaisuuden puute. Neuro-symboliset menetelmät pyrkivät yhdistämään neuroverkkojen luovuuden ja formaalien menetelmien luotettavuuden. Esimerkiksi järjestelmä nimeltä LIPS (LLM-based Inequality Prover) yhdistää kielimallin mallin tunnistuksen ja symbolisen matematiikkaratkaisijan todistaakseen matemaattisia epäyhtälöitä microsoft.com. LLM hoitaa joustavat osat (esim. miten lähestyä todistusta), kun taas tiukka algebra jätetään symbolikoneelle – tuloksena ennätystasoa vaativissa matemaattisissa ongelmissa ilman lisädataa microsoft.com. Yleisemmin näkyy ajatusketju-promptausta, jossa vastauksen aikana käynnistetään ulkopuolisia työkaluja (kuten Python-suoritus tai tietohaut). Tulevassa koulutuksessa malleille voidaan opettaa nimenomaan milloin ja miten käyttää näitä symbolisia työkaluja. Microsoftilla neuro-symbolinen datagenerointi luo automaattisesti uusia matematiikkatehtäviä muuntelemalla kaavoja ja pyytämällä LLM:ää muotoilemaan ne luonnolliselle kielelle microsoft.com. Kaikki nämä pyrkimykset tähtäävät perustavamalleihin, jotka yhdistävät monia päättelytapoja: ne voivat sisäisesti simuloida koodia, käsitellä tietograafeja tai tarkistaa loogisia rajoituksia vastauksia laatiessaan. Näin faktapohjaisuus ja johdonmukaisuus voivat parantua huomattavasti mm. lakitieteessä, tieteessä ja ohjelmoinnissa. Pohjimmiltaan nämä rajapyykin mallit oppivat algoritmeja ja sääntöjä, eivät vain tilastollisia yhteyksiä – askel kohti vahvempaa tekoälypäättelyä.
Nousevat tutkimussuunnat ja paradigman muutokset
Yksittäisiä tekniikoita ja ominaisuuksia laajempana myös tekoälymaisema kehittyy tavoilla, jotka määrittävät GPT-5:n jälkeisiä malleja. Useat avaintrendit erottuvat:
- Avoimen lähdekoodin mallit ja tekoälyn demokratisoituminen: Aiemmin kehittyneimmät kielimallit tulivat vain muutamalta teknologiajätiltä ja pidettiin suljettuina. Tämä muuttui, kun Meta (Facebook) julkaisi LLaMA:n vuonna 2023 – ja vielä enemmän nyt. Avoimen lähdekoodin tekoäly-yhteisö on nopeasti kuromassa umpeen eroa suljettuihin malleihin about.fb.com. Metan toimitusjohtajan Mark Zuckerbergin mukaan heidän LLaMA 3 -mallinsa (2024) oli jo ”kilpailukykyinen kehittyneimpien mallien kanssa”, ja he odottavat tulevien avoimien mallien johtavan kyvykkyyksissä about.fb.com. Rohkeana liikkeenä Meta open-sourcetti äskettäin Llama 3.1:n, jossa on 405 miljardia parametria – ensimmäinen todellinen fronttier-tason avoin malli about.fb.com. Vaikutukset ovat valtavat: tutkijat, startupit ja jopa harrastajat voivat kokeilla huippuosaamista ilman miljardiluokan laskentabudjettia. Näemme yhteisölähtöisen innovaation räjähdysmäistä kasvua – aina ohjeistettavista chatboteista, kuten Vicuna (joka rakennettiin avoimiin LLaMA-painotuksiin), alan asiantuntijoihin, jotka hienosäätävät malleja lääketieteen, juridiikan ja muiden alojen tarpeisiin. Myös suuret yritykset liittyvät tähän ekosysteemiin: Amazon, Databricks ja muut tarjoavat palveluita auttaakseen ihmisiä hienosäätämään ja ottamaan käyttöön omia mallejaan LLaMA:n ja samankaltaisten pohjimallien päälle about.fb.com. Jopa OpenAI, nimestään huolimatta, on ollut toistaiseksi suljettu; mutta GPT-5:n odotetun julkaisun yhteydessä OpenAI aikoo julkaista erillisen avoimen mallin edistääkseen läpinäkyvyyttä ja tutkimusta yourgpt.ai yourgpt.ai. Kaikki nämä kehitykset osoittavat kohti tulevaisuutta, jossa tekoäly on paljon saavutettavampaa. Sen sijaan, että harvat yritykset kontrolloisivat vahvimpia malleja, meillä voi olla monipuolinen avoin tekoälyekosysteemi – aivan kuten avoimen lähdekoodin Linux lopulta ohitti suljetun Unix-järjestelmän about.fb.com about.fb.com. Tämä demokratisoituminen auttaa varmistamaan, että laajempi joukko ääniä ja ideoita osallistuu tekoälyn kehitykseen, ja mahdollistaa organisaatioille mallien räätälöinnin ilman että dataa tarvitsee luovuttaa kolmannelle osapuolelle about.fb.com about.fb.com. Yhteenvetona voidaan todeta, että seuraava rintama ei ole vain suuremmissa malleissa – kyse on laajasti jaetuista malleista, yhteisölähtöisestä kehityksestä ja tekoälystä, jota kuka tahansa voi itse soveltaa ongelmiinsa.
- Pienemmät, erikoistuneet mallit (ei vain ”mitä isompi, sen parempi”): On mielenkiintoista, että alati suurempien yleiskäyttöisten mallien kilpailua täydentää suuntaus kohti erikoistumista. Alakohtaiset perustamallit voivat päihittää yleismallit erikoisalallaan – usein paljon pienemmällä parametrimäärällä. Erinomainen esimerkki on BloombergGPT, 50 miljardin parametrin malli, joka on räätälöity finanssialalle. Se koulutettiin valtavalla finanssidatan (ja yleistekstin) korpuksella ja voitti yleisen tason LLM-mallit finanssitehtävissä ”selvin marginaalein”, mutta pärjäsi edelleen hyvin myös yleiskielisessä arvioinnissa arxiv.org arxiv.org. Tämä osoittaa, että kohdennetulla koulutuksella voidaan saavuttaa alansa asiantuntijatason tekoäly ilman 500 miljardin parametrin valtavaa mallia. Tulemme todennäköisesti näkemään lisää vertikaalisia malleja: esimerkiksi onkologiaan erikoistunut malli lääketieteelliseen tutkimukseen tai juridiikkaan räätälöity, joka tuntee kaikki oikeustapaukset ulkoa. Tällaiset mallit voivat olla pienempiä ja tehokkaampia, mikä helpottaa niiden käyttöönottoa (esim. 7B-parametrin lääketieteellinen malli voi pyöriä paikallisesti sairaalassa yksityisyyden turvaamiseksi). Itse asiassa on kasvava liike mallien pakkaamiseen ja optimointiin niin, että niitä voidaan ajaa reunaresursseissa – kannettavilla tietokoneilla tai älypuhelimilla – eikä vain pilvessä. Tekniikat, kuten 4-bittinen kvantisointi, ovat mahdollistaneet joidenkin GPT-3-luokan mallien ajamisen kuluttajalaitteilla. Tämä ”pieni on kaunista” -lähestymistapa tukee myös demokratisoitumista: kaikilla ei ole varaa ylläpitää 175 miljardin mallia, mutta hyvin suunniteltu 6B-malli, joka on hienosäädetty tiettyyn tehtävään, voi olla laajasti käytössä. Jatkossa saatamme käyttää sovelluksen taustalla joukkoa erikoismalleja yhden hallitsevan sijaan. Myös OpenAI:n strategia vihjaa tähän: GPT-5:n ekosysteemiin saattaa kuulua pienempi avoin malli ja erilaisia hienosäädettyjä versioita yourgpt.ai yourgpt.ai. Yhteenvetona: odotettavissa on monipuolisempi valikoima perustamalleja – suuria yleistaitureita ja pienempiä asiantuntijoita – yhteistyössä sovelluksissa, kutakin käytetään siinä, missä se on paras.
- Uusia toimijoita ja yhteistyötä tekoälytutkimuksessa: Tekoälyn etulinja ei enää ole vain harvojen Piilaakson laboratorioiden hallussa. Akateemiset laitokset, voittoa tavoittelemattomat tutkimuskonsortiot ja uudet startupit ovat kaikki viemässä alaa eteenpäin. Hankkeet, kuten EleutherAI ja BigScience-konsortio, tuottivat suuria malleja (esim. 176 miljardin parametrin BLOOM) kansainvälisen yhteistyön voimin. Yritykset kuten Anthropic (OpenAI:n alumnien perustama) ovat tuoneet uusia ideoita, kuten Constitutional AI, joka pyrkii sovittamaan mallit eettisiin periaatteisiin. Ja kenttien välillä tapahtuu yhä enemmän ristiinpölytystä: esimerkiksi DeepMind (nykyään osa Google DeepMindia) toi vahvistusoppimisen (AlphaGo ym.) osaamistaan kielimalleihin, ja tällä oli ilmeisesti rooli Googlen Geminin kehityksessä. Lisäksi kieli-, näkö- ja robotiikkatutkimus lähentyy. Esimerkiksi embodied AI -laboratorio (robotteja tai fyysisiä agenteja kehittävä) voi kehittää muisti- ja reaaliaikaisen oppimisen tekniikoita, jotka siirtyvät myös puhtaasti tekstuaalisiin malleihin. Olemme todistamassa hedelmällistä kehitysjaksoa, kun konferenssit ja julkaisut ovat täynnä tutkimusta mallien tehon, läpinäkyvyyden ja ihmismäisyyden parantamisesta. Kaikki tämä tarkoittaa, että post-GPT-5-aikakauden maisemaa muovaa huomattavasti laajempi yhteisö – ei vain OpenAI:n uusi malliversio, vaan monisuuntainen harppaus, jota ajavat monimuotoiset ponnistelut maailmanlaajuisesti.
Yhteiskunnalliset, eettiset ja sääntelyyn liittyvät vaikutukset
Kun perustamallit kasvavat yhä voimakkaammiksi ja läpitunkevammiksi, niiden vaikutus yhteiskuntaan syvenee – tuoden mukanaan valtavia mahdollisuuksia mutta myös merkittäviä huolia. GPT-5:n jälkeisessä maailmassa on tärkeää miettiä, miten otamme nämä mallit vastuullisesti käyttöön. Keskeisiä vaikutuksia ja kysymyksiä ovat esimerkiksi:
- Työn ja arjen muutos: Kehittyneet tekoälyavustajat voivat nostaa tuottavuutta ja luovuutta lukemattomilla aloilla – ohjelmoinnissa, asiakirjojen laadinnassa, datan analysoinnissa, asiakaspalvelun automatisoinnissa, opiskelijoiden ohjauksessa ja niin edelleen. Tämä on herättänyt toiveikkuutta talouskasvusta ja vaikeiden ongelmien ratkaisusta, mutta myös huolta työpaikkojen katoamisesta. Monet rutiininomaiset tai jopa ammattitaitoa vaativat tehtävät voidaan tehostaa tai automatisoida GPT-5:n jälkeisillä järjestelmillä. Yhteiskunnan pitää sopeutua: työntekijöiden voi olla opittava uusia taitoja ja siirryttävä rooleihin, joissa ihmisen arvostelukyky ja ”inhimillinen kosketus” ovat olennaisia. Jotkut ovatkin ehdottaneet esimerkiksi perustulokokeiluja tukemaan tekoälyn ajaman automaation vaikutuksiin joutuvia ncsl.org. Toisaalta nämä mallit voivat toimia ”inhimillisen kekseliäisyyden vahvistajina”, kuten OpenAI ilmaisee – antaen yksilöille kyvykkyyksiä, jotka olivat aiemmin saavuttamattomissa openai.com. Yhden ihmisen ja älykkään tekoälyavustajan tiimi saattaa tehdä monen ihmisen työn – tai aivan uusia asioita (esim. lääkäri käy tekoälyn avulla läpi tuhansia tutkimuksia sekunneissa löytääkseen uusia oivalluksia). Yhteiskuntaan kohdistuvan muutoksen lopputulos riippuu siitä, miten hallitsemme tätä siirtymää – jaetaanko edut mahdollisimman laajalti ja torjutaanko haitat openai.com.
- Misinformaatio, vinouma ja eettiset riskit: Tehokkaammat generatiiviset mallit tekevät hyperrealistisen tekaistun sisällön (teksti, kuva, video, jopa äänet) tuottamisesta entistä helpompaa. Tämä kasvattaa misinformaation ja huijausten riskiä. Esimerkiksi tuleva multimodaalinen GPT voisi tuottaa aidolta näyttävän videon, jossa maailman johtaja sanoo jotain, mitä ei koskaan sanonut – tiedon luotettavuuden painajainen. Ratkaisuna tarvitaan sekä teknisiä että poliittisia työkaluja: tutkijat kehittävät digitaalista vesileimausta tekoälyllä tuotetulle sisällölle sekä tunnistusvälineitä (itse asiassa joissain paikoissa ollaan säätämässä lakisääteistä tunnistusvelvoitetta tekoälysisällölle ncsl.org). Vinouma on toinen tunnettu ongelma – jos mallit oppivat internetdatasta, ne voivat omaksua yhteiskunnassa esiintyviä ennakkoluuloja. Kun mallit yleistyvät päätöksenteossakin (rekrytointi, luotonanto, poliisitoiminta jne.), eettiset seuraamukset ovat mittavia. Tekoälyn oikeudenmukaisuus ja vinoumien korjaus tulevat tärkeiksi, jotta perustamallit eivät vahingossa laajenna syrjintää. Keinoja ovat mm. kuratoitu koulutusdata, systemaattiset vinoumatestit sekä ohjaava hienosäätö, jossa mallille opetetaan väkivaltaisen tai syrjivän sisällön välttäminen. Yritykset kehittävät myös läpinäkyvyysmenetelmiä, joiden avulla mallipäätökset ovat selitettävissä. Kun tulemme GPT-6:n tai -7:n aikaan, saatamme saada alalle standardit vinoumatarkastuksille ja mallien rajoitusten julkistamisille. Merkittävästi tulevat mallit sovitetaan paitsi hyödyllisiksi, myös noudattamaan ihmisarvoja ja turvallisuutta. Esim. Anthropicin ”Constitutional AI” (jossa malli opetetaan seuraamaan eettistä ohjekirjaa ilman suoraa ihmisesimerkkiä joka tilanteessa) voi yleistyä – näin syntyy vahingottomia ja rehellisiä malleja rakenteellisesti anthropic.com.
- Sääntely ja hallinta: Perustamallien nopea edistys on synnyttänyt kiivaan keskustelun poliittisilla areenoilla. Hallitukset miettivät nyt, miten turvataan tekoälyn turvallisuus ja vastuullisuus ilman että innovaatio tukahdutetaan. Euroopan unioni on ottanut johtoroolin EU AI Actilla, jossa 2024 tuotiin uudet säännöt erityisesti perustamalleja varten. Laki luokittelee suuret yleiskäyttöiset tekoälyjärjestelmät (nykyisin ”GPAI-mallit”) ja määrää mm. koulutusdatan läpinäkyvyyden, riskien arvioinnin ja haitallisten lopputulosten rajoittamisen velvoitteet ibanet.org ibanet.org. Laki erottelee myös ”systemaattiset” perustamallit – kaikkein suurimmat, joilla on laaja-alaisia vaikutuksia – joita koskee tiukempi valvonta (vastaavasti kuin suuria pankkeja tai kriittisiä infra-aloja valvotaan erityisesti) ibanet.org. USA:ssa ja muualla keskustellaan tekoälymallien auditoinneista, erittäin isojen mallien koulutuksen lupien myöntämisestä ja vastuusta tekoälyn aiheuttamista vahingoista. Merkittävänä käänteenä vuonna 2023 suuri joukko teknologiavaikuttajia allekirjoitti vetoomuksen, jossa vaadittiin kuuden kuukauden taukoa GPT-4:ää tehokkaampien mallien kehityksessä, jotta hallinnan ja muiden rakenteiden annettaisiin saada kiinni teknologista kehitystä ncsl.org. Tauko jäi vapaaehtoiseksi, mutta se osoitti laajaa huolta myös alan sisällä kontrolloimattomasta kehityksestä. Sen jälkeen on perustettu esim. Frontier Model Forum (johtavien tekoälyyritysten koalitio turvallisen kehityksen hyväksi) sekä hallitusten tekoälyneuvostoja. Sääntely tarkentuu myös: Kaliforniassa vireillä oleva laki (”Safe and Secure Innovation for Frontier AI Models Act”) vaatisi erittäin edistyneiden mallien kehittäjiltä ”hätäkatkaisimen” – kyvyn pysäyttää malli välittömästi vaaranpaikassa – ja yksityiskohtaisen turvallisuussuunnitelman ennen koulutuksen alkua ncsl.org. Kansainvälisesti käydään keskusteluja YK:n ja G7:n piirissä tekoälyn standardien koordinoinnista. Kun GPT-5:n jälkeiset mallit julkaistaan, meillä on todennäköisesti huomattavasti kehittyneempi poliittinen sääntelykehys tekoälylle: odotettavissa ovat vaatimukset mm. siitä, miten mallit rakennetaan, arvioinnit ääriajattelun/vinoumien osalta, ja mahdollisesti mallien sertifiointi turvallisuuskriteerien täyttämiseksi. Suurin haaste on tasapainottaa innovaatio ja suojelu. Harkitulla sääntelyllä yhteiskunta voi nauttia tekoälyn hyödyistä ja minimoida riskit misinformaatiosta, yksityisyyden loukkauksista tai itsenäisten järjestelmien hallitsemattomasta toiminnasta.
- Turvallisuus ja väärinkäytön riskit: Mitä kyvykkäämmiksi tekoälymallit tulevat, sitä todennäköisemmin niitä voidaan käyttää väärin – esim. kyberhyökkäyksissä (monimutkaisen haittaohjelman tai phishingin tekoon), jopa aseistuksen tukena (spekuloidaan tekoälyn roolista bioteknologiassa tai sotilasalalla). Tämä nostaa kansallisen turvallisuuden kysymyksiä. Hallitukset alkavatkin käsitellä huipputekoälyä kaksikäyttöteknologiana. Esimerkiksi vientirajoitukset huippuluokan piirisarjoille (joita tarvitaan suurien mallien koulutukseen) ovat keino estää tiettyjä valtioita saamasta etulyöntiasemaa fronttier-tason tekoälyssä. Näemme mahdollisesti myös sopimuksia, jotka muistuttavat asevalvontaa tekoälyssä: turvallisuustutkimusta jaetaan avoimesti, mutta äärimmäisen vaarallisia kyvykkyyksiä koskevaa tutkimusta rajoitetaan. Toinen huoli on yksityisyyden suoja – julkisesta datasta koulutetut mallit saattavat tahattomasti tallentaa yksityistietoja, ja niiden kyky tuottaa ihmismäistä tekstiä voi erehdyttää ihmisiä paljastamaan luottamuksellisia asioita. Tarvitaan vahvaa tietosuojalainsäädäntöä sekä mahdollisesti uusia malleja (kuten synteettidataan perustuva koulutus tai yksityisyyttä suojaava oppiminen). Yhteenvetona yhteiskunnan on oltava proaktiivinen ennakoidessaan väärinkäyttöä ja vahvistaessaan puolustusta (vesileimat tekoälysisällölle, ohjeet tekoälyn käytölle kriittisessä infrastruktuurissa jne.).
Kaiken kaikkiaan perustamallien yhteiskunnalliset vaikutukset GPT-5:n jälkeen ovat laajat. Meidän on navigoitava luottamuksen, läpinäkyvyyden ja turvallisuuden kysymyksiä, jotta voimme hyödyntää teknologian myönteisen potentiaalin täysimääräisesti. Rohkaisevaa on, että nämä keskustelut – eettikoiden, teknologien ja päättäjien kesken – ovat jo hyvässä vauhdissa ja kulkevat rinnakkain teknisen kehityksen kanssa.
Spekulatiivisia näkymiä: kohti AGI:ta ja sen yli
Lopuksi, kun katsomme vielä pidemmälle tulevaisuuteen, monet pohtivat, miten nämä kehityssuunnat saattavat lopulta huipentua AGI:hin – Keinotekoiseen Yleiseen Älykkyyteen, joka määritellään usein tekoälyksi, joka vastaa tai ylittää ihmisen kognitiiviset kyvyt laajalla tehtäväkentällä. Vaikka AGI pysyy vielä spekulatiivisena käsitteenä, perusteiden mallien kykyjen jatkuva harppaus on tehnyt keskustelusta konkreettisempaa. Tässä pohdimme joitakin tulevaisuusvisioita siitä, millainen maailma voisi olla GPT-5:n jälkeisessä, AGI:n mahdollistamassa todellisuudessa nykyisten kehityskulkujen perusteella:
- AGI kollektiivisena älykkyytenä: Yksi esiin nouseva visio on, että AGI ei ehkä ole yksi monoliittinen superaivot, vaan pikemminkin kollektiivi erikoistuneita malleja ja työkaluja, jotka työskentelevät yhdessä. Näemme tästä jo viitteitä: GPT-5-aikakauden mallit voisivat synnyttää “superagenttien” ekosysteemejä – yksi tekoäly pilkkoo monimutkaisen ongelman osiin ja delegoi asiantuntija-alaliagentille (yksi koodaukseen, toinen tutkimukseen jne.) seniorexecutive.com. Tästä ajatusta extrapoloiden AGI voisi toimia korkeasti orkestroituna tekoälykomiteana, jossa jokainen agentti omaa ihmistasoiset kyvyt omalla erikoisalallaan ja niitä koordinoi metamalli. Tällainen järjestelmä voisi saavuttaa yleisälykkyyden aggregaatiolla – kokonaisuus on enemmän kuin osiensa summa. Tämä ajatus liittyy laajemmin mixture-of-experts-arkkitehtuuriin ja heijastelee, miten ihmisorganisaatiot ratkaisevat ongelmia tiimityöllä. Se myös sopii yhteen ajatuksen kanssa, jossa tekoälypalvelut ovat rajapintojen kautta saatavilla: tulevaisuuden AGI muistuttaa ehkä enemmän internetmäistä mallien ja tietokantojen verkostoa, joka tekee dynaamista yhteistyötä vastaamaan annettuun kysymykseen tai tehtävään. Tämä “mielen yhteiskunta” -konsepti (AI:n pioneeri Marvin Minsky kuvasi tämän aikoinaan) saattaa toteutua perusteiden malleilla, jotka erikoistuvat yhteistyöhön ja työvälineiden käyttöön.
- Jatkuvat itseparantamisen silmukat: Aidosti yleinen tekoäly kykenisi todennäköisesti oppimaan autonomisesti ja kehittämään itseään paremmaksi. Näemme tästä viitteitä hankkeissa, joissa tekoäly optimoi toista tekoälyä – esimerkiksi kun yksi malli tuottaa harjoitusdataa tai palautetta toiselle. OpenAI:n insinöörit ovat pohtineet “rekursiivista itseparantamista”, kun tekoälyt tulevat riittävän kehittyneiksi. Spekulatiivinen skenaario on tekoäly, joka kykenee kirjoittamaan omaa koodiaan uudelleen tai kehittämään tehokkaampia neuroverkkoarkkitehtuureja, johtaen positiiviseen palautekiertoon älykkyyden kasvussa. Tämän hetken mallit ovat kaukana oman lähdekoodinsa uudelleenkirjoittamisesta, mutta ne osaavat jo kirjoittaa uusia ohjelmia. AGI voisi hyödyntää tätä kykyä ajaakseen tuhansia simulaatiokokeita itsensä varianteilla ja valita parhaan — prosessi, johon ihmisinsinöörit eivät kykene yhtä nopeasti. Tämä nostaa esiin perustavanlaatuisia kysymyksiä (mukaan lukien klassinen “AI takeoff”) ja siksi jopa yritykset, jotka kilpailevat raakasti tehokkaan tekoälyn kehittämisestä, puhuvat AGI:n lähestymisestä varovaisesti openai.com openai.com. Silti ajatus tekoälystä, joka oppii oppimaan paremmin, on looginen jatkumo nykyisiin metaoppimisen ja automatisoidun koneoppimisen trendeihin. Kun olemme “yli GPT-5:n”, on uskottavaa, että varhaisia itsevirittäytyviä tekoälyjä ilmestyy – ehkä ensin rajatuilla turvallisilla alueilla – ja ne näyttävät suuntaa järjestelmille, jotka kehittyvät yhä vähemmällä ihmisen ohjauksella.
- AI:n integrointi fyysiseen maailmaan: Tähän asti perusteiden mallit ovat eläneet enimmäkseen tekstin ja kuvien digitaalisessa maailmassa. Näkymä AGI:lle sisältää näiden mallien kiinnittämisen todelliseen fyysiseen maailmaan robotiikan tai IoT:n (esineiden internet) kautta. Tekoäly, joka näkee kameroiden läpi, liikuttaa toimilaitteita ja kokeilee oikeassa ympäristössä, hankkii samanlaista ruumiillista ymmärrystä kuin ihmisillä. Osa asiantuntijoista pitää ruumiillistamista avaimena yleisälykkyyteen – oppimista tekemällä, maalaisjärjen kerryttämistä fyysisistä vuorovaikutuksista. Meillä on jo varhaisia multimodaalisia agentteja (kuten DeepMindin Gato, jonka koulutettiin 2022 sekä pelaamaan videopelejä että ohjaamaan robottikättä). Rajapinta vie yhä pidemmälle: kuvittele tekoäly, joka lukee ruoasta, katsoo ruoanlaittovideoita (näkö), keskustelee kokkien kanssa (kieli) ja osaa lopulta ohjata robottikokin käsiä valmistamaan aterian (toiminta) – oppien ja hioen taitoa kokeilujen ja erehdysten kautta. Tällainen agentti yhdistäisi näköaistin, kielen, audion (paistamisen äänet jne.) ja motorisen kontrollin – hyvin kaukana nykyisistä chatteboteista ja paljon lähempänä yleisälykästä olentoa. Tämä on vielä GPT-5:n tuolla puolen, mutta tutkimus kehittyy tähän suuntaan. Yritykset kuten Tesla panostavat humanoidirobotteihin ja OpenAI:lla on oma robotiikkayksikkö. On uskottavaa, että tulevaisuuden AGI on yhtä lailla robotti kuin chatbot – tai ainakin sillä on toimilaitteita, joilla vaikuttaa fyysiseen maailmaan suoraan. Tämä avaa uusia mahdollisuuksia valmistuksessa, terveydenhuollossa (robottiavustajat) ja arjessa (aidosti älykkäät kodit), mutta samalla herättää uusia turvallisuuskysymyksiä.
- Ihmisen ja tekoälyn yhteistyö ja kognitiivinen vahvistaminen: Sen sijaan, että tekoäly kehittyisi erillään, kiehtova visio liittyy siihen, miten tekoäly vahvistaa ihmisen älykkyyttä. GPT-5:n jälkeisessä maailmassa meillä jokaisella voisi olla korkeasti yksilöllistetty tekoälyavustaja, joka tuntee tavoitteemme, vahvuutemme ja heikkoutemme syvällisesti. Nämä avustajat voisivat auttaa uuden oppimisessa (toimisivat ohjaajana/valmentajana), ideoiden pallottelussa, tylsien tehtävien hoitamisessa ja jopa luovana kumppanina. Osa teknologeista puhuu “IA:sta” (Intelligence Augmentation, älykkyyden vahvistus) tekoälyn rinnakkaistavoitteena. Esimerkiksi AGI-tasoinen lääkäriavustaja voisi voimaannuttaa lääkäreitä diagnosoimaan ja hoitamaan potilaita yli-inhimillisellä tarkkuudella yhdistämällä lääkärin asiantuntemuksen ja salamannopean analyysin kaikista lääketieteellisistä julkaisuista ja potilastiedoista. Koulutuksessa yleisälykäs tekoälyohjaaja voisi mukautua mihin tahansa oppimistyyliin ja tarjota yksilöityjä opetuspolkuja mittakaavassa, joka voisi demokratisoida huippulaatuista opetusta maailmanlaajuisesti. Olisipa myös pohdintaa suoremmasta integraatiosta – aivo-tietokone-rajapinnoista, jotka voisivat mahdollistaa tekoälyjärjestelmien liittymisen ihmisen hermoprosesseihin (tämä on kuitenkin hyvin spekulatiivista ja eettisesti haastavaa). Joka tapauksessa toiveikas visio on AGI, joka laajentaa kykyjämme ja työskentelee kanssamme, ei ihmiskunnasta vieraantuneena supermielenä. Tämän saavuttaminen vaatii huolellista tekoälyjen tavoitteiden linjaamista ihmisen arvoihin, mikä on jatkuvan tutkimuksen ja keskustelun aihe.
- Superälykkyys ja tuntematon: Osa tulevaisuudentutkijoista pitää AGI:tä ASI:n (Artificial Superintelligence, keinotekoinen superälykkyys) esiasteena – tekoälynä, joka ei ainoastaan vastaa ihmistason älyä vaan ylittää sen moninkertaisesti. Ennusteet siitä, milloin (tai tapahtuuko sitä) tämä voisi toteutua vaihtelevat vuosikymmenistä vuosiin, ja tämä on jo spekulaation reunaa. Jos tekoäly kiihdyttää tieteellistä löytämistä (esimerkiksi kuten GPT-tyyppiset mallit ovat alkaneet tehdä proteiinilaskennassa tai matematiikassa), saatamme astua erittäin nopean kehityksen aikakauteen. Tätä “älyräjähdys”-skenaariota ovat mm. Elon Musk ja edesmenneet Stephen Hawking varoittaneet. OpenAI:n kanta, Altmanin sanoin, on että superälykkyys saattaa olla näköpiirissä ja yhteiskunnan tulee varautua ja asettaa suojamekanismit techcrunch.com openai.com. Seuraava rajapinta ei siten sisällä vain teknologisia vaan myös filosofisia haasteita: varmistetaan, että mahdollisen superälyn tavoitteet tukevat ihmisen kukoistusta ja että vankat kontrollimekanismit ovat olemassa. Käsitteet kuten kansainvälinen AGI-hallinta ja jopa sopimukset voivat siirtyä tieteisfiktiosta todellisuuteen. Kannattaa huomata, että monet tekoälyekspertit suhtautuvat silti varovaisesti – kehitys, vaikka nopeaa, voi kohdata perustavanlaatuisia rajoja tai vaatia uusiakin paradigmamuutoksia, joita emme ole vielä löytäneet. Jotkut vertaavat nykyisiä malleja varhaisiin lentoyrityksiin: GPT-4/5 ovat kuin Wrightin veljesten koneet – merkittävä alku, mutta kaukana jumbojetistä, jonka kehitys vei vuosikymmeniä keksintöjä. Vertauksen mukaan aito AGI voi vaatia teoreettisia läpimurtoja (uusia algoritmeja tai jopa uudenlaista laitteistoa, kuten kvanttikoneita tai aivoista inspiroituja neuromorfisia mikropiirejä). Ei ole syytä olettaa, että nykyinen Transformereiden skaalaus on suora tie AGI:hin. Silti jokainen uusi perustemalli vie meitä lähemmäs älykkyyden ymmärtämistä – ja ehkä sellaisen rakentamista koneeseen.
Päätelmä
Horisontti GPT-5:n jälkeen on sekä jännittävä että pelottava. Teknologisesti odotamme tekoälymalleja, jotka omaavat runsaamman ymmärryksen, useampia modaliteetteja, suurempia (ja pidempiä) muistialueita sekä enemmän autonomiaa oppimisessa ja toiminnassa. Uudet opetusmenetelmät ja kukoistava avoimen tutkimuksen yhteisö vauhdittavat kehitystä ennennäkemättömällä nopeudella. Samalla perusteiden mallien kasvava voima pakottaa meidät pohtimaan vaikeita yhteiskunnallisia kysymyksiä – miten hyödyntää näiden edut mutta rajoittaa väärinkäyttöä, miten integroida ne reilusti ja eettisesti elämäämme, ja lopulta miten elää rinnakkain älyjen kanssa, jotka ehkä jonain päivänä haastavat tai ylittävät omamme.
Tämän tulevaisuuden navigoinnissa toistuva teema on yhteistyö: yhteistyö ihmisen ja tekoälyn välillä (saadaksemme parhaat puolet kummastakin), tekoälyjärjestelmien välillä (asiantuntijat työskentelevät yhdessä, kuten mixture-of-experts- tai työvälineagentit), ja ennen kaikkea yhteiskunnan eri sidosryhmien kesken. Hallitusten, teknologiayritysten, tutkijoiden ja kansalaisten tulee toimia yhdessä. Tekoälyn rajapinta ei ole vain tekninen vaan sosiaalinen – opetamme yhdessä malleille, mikä meille on arvokasta palautteemme ja ohjeistustemme kautta. Oikein toteutettuna perusteiden mallit voivat olla mullistavia edistyksen välineitä – auttaa löytämään uusia hoitoja, demokratisoida tietoa, ratkaista ilmastohaasteita ja laajentaa luovuuttamme tavoilla, joita emme osaa vielä edes kuvitella.
Seisomme tänään GPT-5:n kynnyksellä, ja on selvää, että lähestymme pitkään toivottua (tai pelättyä) AGI:tä. Tulipa AGI kymmenessä vuodessa tai pysyykö se edelleen tavoittamattomana, siihen pyrkiminen muuttaa jo nyt maailmaamme. Seuraava rajapinta haastaa meidät paitsi insinööritaitojen osalta, myös siinä, miten käytämme viisautta ja ennakointia varmistaaksemme, että nämä koneet palvelevat ihmiskuntaa. Kun astumme GPT-5:n tuolle puolen, kysymys ei ole vain siitä, mitä nämä perustemallit osaavat, vaan myös siitä, keitä haluamme olla yhteistyössä niiden kanssa. Tekoälyn seuraavan luvun tarinan kirjoitamme me kaikki – ja siitä on tulossa aikamme merkittävimpiä ja kiinnostavimpia kertomuksia.
Lähteet:
- Altman, S. (2025). Tekoälyasiantuntijat ennustavat, miten GPT-5 muuttaa työelämää. SeniorExecutive Media – Nostaa esiin GPT-5:n odotetut multimodaalisuus-, muisti- ja agenttiominaisuuksien parannukset seniorexecutive.com seniorexecutive.com.
- Kranen, K. & Nguyen, V. (2024). Mixture of Experts -ratkaisut LLM-arkkitehtuureissa. NVIDIA Technical Blog – Käsittelee MoE:ta GPT-4:ssä ja tehokkuushyötyjä mallien skaalaamisessa developer.nvidia.com developer.nvidia.com.
- Microsoft Research (2024). Uudet menetelmät parantavat päättelyä kielimalleissa – Esittelee Logic-RL- ja neuro-symbooliset tekniikat, jotka parantavat päättelysuorituskykyä microsoft.com microsoft.com.
- Anthropic (2023). 100K kontekstinäkymä käyttöön – Esittelee Claude-mallin 100 000 tokenin kontekstin (75 000 sanan ”muisti”) ja sen hyödyt pitkiin asiakirjoihin anthropic.com anthropic.com.
- YourGPT.ai (2025). GPT-5: Kaikki, mitä sinun tulee tietää – Tiivistää arvioituja GPT-5:n ominaisuuksia kuten yli miljoonan tokenin kontekstin, äänimodaliteetin ja pysyvän muistin yksilökohtaistamiseen yourgpt.ai yourgpt.ai.
- Zuckerberg, M. (2024). Avoimen lähdekoodin tekoäly on oikea tie eteenpäin. Meta Newsroom – Julkistaa Llama 3.1:n (405B) ja toteaa, että avoimet mallit ovat nopeasti saavuttamassa ja saattavat pian ohittaa huipputason kehityksen about.fb.com about.fb.com.
- Wu, S. et al. (2023). BloombergGPT: Suuri kielimalli talouteen. arXiv-esipainos – 50 miljardin parametriä sisältävä malli päihittää yleiskielimallit taloudellisissa tehtävissä menettämättä yleisiä kykyjä arxiv.org.
- Genna, I. (2024). Perusmallien sääntely EU:n AI-asetuksessa. International Bar Association – Selittää, kuinka EU:n AI-asetus kohtelee ”yleiskäyttöisiä tekoälymalleja” ja asettaa niille avoimuus- ja riskinhallintavelvoitteita ibanet.org ibanet.org.
- NCSL (2024). AI-lainsäädäntöä 2024 – Mainitsee päätöslauselman, jossa kehotetaan koulutustaukoa GPT-4:ää voimakkaampien tekoälyjen kehittämisessä 6 kuukaudeksi hallintojärjestelmien luomiseksi ncsl.org, sekä Kalifornian lain, joka vaatii huippumallien kehittäjiä toteuttamaan sulkupainikkeen turvallisuuden takaamiseksi ncsl.org.
- OpenAI (2023). Suunnitellen AGI:ta ja sen yli – Esittelee OpenAI:n näkemyksen turvallisesta siirtymästä kohti AGI:ta sekä laajojen hyötyjen jakamisen ja kehittyneiden tekoälyjen varovaisen käyttöönoton tärkeydestä openai.com openai.com.