Tekoäly
Tekoäly, joka opettaa itsensä, ei ole enää tieteiskirjallisuutta

Uudet tekoälykehikot ovat siirtymässä radikaaliin loikkaukseen: koneet, jotka parantavat itseään, ilman ihmisen näkemystä.
Vuodesta toiseen, jopa edistyneimmät tekoälymallit ovat olleet passiivisia moottoreita, jotka ennustavat vastauksia koulutusdatasta, jota ne eivät voi muuttaa. Mutta nykyään se ei ole mallin kokoa, joka määrittää seuraavan luvun tekoälyssä; se on siinä, pystyykö malli kehittymään omin avuin.
Hiljattain MIT-tutkijat esittivät uuden tekoälykehikon nimeltä Self-Adapting LLMs (SEAL). Tässä lähestymistavassa suurten kielen mallien (LLM) sallitaan parantaa itseään autonomisesti, mahdollistaen tekoälylle diagnosoida omat rajoitukset ja päivittää omat hermosolmupainot sisäisen palautekehän kautta, jota ohjataan vahvistusoppimisella. Sen sijaan, että tutkijoiden on havaittava virheitä, kirjoitettava uusia ohjeita tai syötettävä lisää esimerkkejä, malli omistaa täysin oman kehityksensä.
”Suuret kielen mallit (LLM) ovat voimakkaita, mutta statisia; niissä ei ole mekanismeja sopeuttaa painojaan uusien tehtävien, tietojen tai esimerkkien mukaisesti”, MIT-tutkijat kirjoittivat blogikirjoituksessa. ”Kokeet tietojen sisällyttämisestä ja vähäshotin generalisoinnista osoittavat, että SEAL on lupaava askel kohti kielen malleja, jotka pystyvät itseohjautuvaan sopeutumiseen uusien tietojen mukaisesti.”
Alkuvaiheen testeissä tämä itseeditoiva silmukka mahdollisti mallien siirtymisen täydellisestä epäonnistumisesta menestykseen monimutkaisissa abstraktissa päättelypulmissa, jolloin ne ylittivät jopa paljon suurempia malleja, kuten GPT-4.1, 72,5 prosentin onnistumisprosentilla, kun perinteiset menetelmät epäonnistuivat. Lisäksi SEAL ilmoitetaan vähentävän ihmisen valvontaa 85 prosentilla samalla kun se lisää tarkin ja sopeutumiskykyä.
Itseoppien tekoälykehikkojen nousu
SEAL on osa laajempaa suuntausta kohti autonomista koneälyä. Esimerkiksi Sakana AI -tutkijat ovat esittäneet Darwin-Gödel-koneen, joka kirjoittaa oman koodinsa avoimilla evoluutiostrategioilla.
”Se luo erilaisia itseparannuksia, kuten patchin validointivaiheen, paremman tiedostonäkymän, parannetut muokkaustyökalut, useiden ratkaisujen luomisen ja arvioinnin parhaan valitsemiseksi, sekä lisäävät historian siitä, mitä on kokeiltu aiemmin (ja miksi se epäonnistui), kun tehdään uusia muutoksia”, Sakana AI kirjoitti blogikirjoituksessa.
Samoin Anthropicin tekoälyagentit, joita ohjaa Claude 4, voivat nyt autonomisesti orkesteroida työvirtoja koodipohjassa ja liiketoimintatyökaluissa.
”Järjestelmä, joka uudelleenkonfiguroi itsensä varastoon, ympäristöön ja historiaan perustuen, mahdollistaa siirtymisen reaktiivisesta vastauksesta jatkuvaan ehkäisevään strategiaan”, Christian Struve, Fracttalin toimitusjohtaja ja perustaja, kertoi minulle. ”Tärkeintä ei ole enää kerrosten tai parametreiden määrä, vaan enemmän autonomia ja hyödyllisyys.”
Näiden pyrkimysten yhteisenä tekijänä on ydinuskonto: tekoäly ei tarvitse kasvaa suuremmaksi, jotta se tulisi älykkäämmäksi. Se tarvitsee kehittyä sopeutuvammaksi.
”Skaalautuminen on tuonut merkittäviä hyötyjä, mutta olemme saavuttamassa siitä, mitä koko yksin voi saavuttaa. Itsesopeutuvat oppimismallit, kuten SEAL, tarjoavat uskatut seuraavat vaiheet, mahdollistaen järjestelmien kasvamisen ja parantamisen ajan myötä”, Jorge Riera, Datacon perustaja ja toimitusjohtaja, kertoi minulle. ”Itsekehittyvät mallit siirtävät myös edistymisen mittareita staattisista mittareista sopeutumisen, oppimisen tehokkuuden ja turvallisen pitkän aikavälin parantamisen mittareiksi. Sen sijaan, että testaisimme, mitä malli tietää käyttöönoton aikana, voimme arvioida, miten hyvin se oppii, säilyttää ja kehittyy ajan myötä.”
Vaikutus tekoälyekosysteemiin ja globaali kilpailu kohti autonomiaa
Tämä autonomian taso uudelleenkirjoittaa myös tekoälyn käyttöönoton taloutta. Kuvitellaanpetosilmiä, jotka päivittävät itseään välittömästi uusien uhkien torjumiseksi, tai tekoälyopettajat, jotka muuttavat opetusstyylinsä oppilaan käyttäytymisen mukaan. Robotiikassa itsesopeutuvat kehikot voivat johtaa autonomisiin koneisiin, jotka oppivat uusia liiketapoja ilman uudelleenohjelmointia.
Lähi-idässä maat, kuten UAE ja Saudi-Arabia, rakentavat nopeasti perusmalleja, jotka on suunniteltu sopeutumista varten. UAE:n Falcon ja G42:n Jais ovat avoimia LLM-malleja, jotka on rakennettu alueellisen merkityksen mukaisesti, kun taas Saudi-Arabian ALLaM ja Aramco Digitalin Metabrain pyrkivät autonomisten tekoälyagenttien pariin älykkäisiin kaupunkeihin, terveydenhuoltoon ja logistiikkaan.
Nämä pyrkimykset eivät vielä ole MIT:n SEAL:n tasolla itseeditoimisen kyvyn suhteen, mutta ne heijastavat yhteistä trajektoriaa: passiivisista tekoälyjärjestelmistä aktiivisiin, kehittyviin agenteihin, jotka voivat navigoida monimutkaisuuden rajoitetun ihmisen ohjauksen alaisena. Ja juuri kuten SEAL, nämä aloitteet on tuettu vankkoilla hallintokehyksillä, korostaa kasvavaa tietoisuutta, että tekoälyn autonomia on oltava yhdistettynä vastuulla.
”Tämä on ensimmäinen askel itsehallinnollisten järjestelmien luomiseksi, jotka voivat muuttaa logiikkaansa ilman jatkuvaa puuttumista”, Struve sanoo. ”Uskon, että tekoäly ei uudelleenmäärittele, mitä älykkyys on, mutta se pakottaa meidät ajattelemaan uudelleen suhdettamme siihen. Tärkeintä ei ole se, että malli kehittyy, vaan se, että se tekee sen ihmisten asettamien tavoitteiden mukaisesti.”
Jeff Townes, Gorilla Logicin CTO, korostaa myös hallinnon merkitystä tekoälyn kehityksen rinnalla: ”Kysymys ei ole siinä, voiko tekoäly kehittyä – vaan voivatko yritykset kehittyä sen mukana. Hallinto on sidottava jokaiseen tekoälysopeutumiseen selkeisiin tuloksiin ja KPI:hin, joita johtajat voivat mitata ja luottaa, jotta innovaatio kehittyy luottamuksella eikä riskin kanssa.”
Olemme kohtaamassa itseoppien tekoälyn?
Provokatiivisin kysymys, jonka SEAL herättää, ei ole tekninen – se on, että jos mallit voivat päättää, miten opettaa itsensä, mikä rooli meillä on muotoilemassa heidän arvojaan, prioriteettejaan ja suuntaansa?
Asiantuntijat varoittavat, että kun itsesopeutuvat tekoälyjärjestelmät saavat autonomian, itseparantamisen kiire ei saa ohittaa eettisten varojen perustamista. ”Uskon, että kaikki tekoälyjärjestelmien on sisällyttävä vähintään kolme perusettistä periaatetta”, sanoo Jacob Evans, Kryterionin CTO.
”Ensinnäkin, ja tämä saattaa olla ilmiselvää, mutta tekoälyjen on tunnistettava itsensä tekoälyksi. Toiseksi, tekoälyjen on oltava ihmiskeskeisiä, täydentäen ja korvaamatta ihmisen arviointia. Ja lopuksi, niiden on tunnustettava rajoitukset ja epävarmuudet, kieltäytyen antamasta tietoa, joka voisi helpottaa vakavaa vahinkoa. Ilman näitä suojauskeinoja tekoäly voi muuttua manipuloinnin välineeksi luotettavan tuen sijaan.”
“Jotta mallit voivat itseparantaa tuotannossa, niiden tarvitsee dynaaminen palautekehä, ei vain staattinen koulutus. Voimakas menetelmä on käyttää ‘digitaalista kaksosta’ tai sofistikoitunutta hiekkalaatikkoa, jossa tekoäly voi turvallisesti testata ja validoida oman itse luoman parantamisensa ennen kuin ne koskaan otetaan käyttöön käyttäjille”, Ganesh Vanama, Automotusin tietokoneen näön insinööri, jakoi.
Hallinnosta Vanama lisäsi, ”ehdoton valvonta on ‘ihmisen silmä’ -valvonta.” Hän sanoi, että vaikka haluamme, että mallit sopeutuvat, ”on oltava jatkuva seuranta havaitsemaan ‘sopimisen siirtymistä’, jossa malli poikkeaa tarkoitetuista tavoitteista tai turvallisuusrajoituksista. Tämän järjestelmän on annettava ihmisen auditoijalle valta vetää tai peruuttaa välittömästi mitkä tahansa autonomiset päivitykset, jotka epäonnistuvat turvallisuuden tai suorituskyvyn tarkastelussa.”
Mutta toiset asiantuntijat uskovat, että on vielä aikaa kehittää näitä suojauskeinoja, väittäen, että todella vankka, yleispätevä, itseparantava tekoälyn luominen on edelleen valtava haaste.
”Nämä mallit puuttuvat edelleen kyvystä uudelleenohjelmoida itsensä luotettavasti reaaliajassa. Avainhaasteita ovat estää virheiden vahvistuminen, välttää katastrofaalinen unohtaminen, varmistaa stabiilius päivitysten aikana ja ylläpitää avoimuutta sisäisten muutosten ympärillä”, Riera sanoo. ”Kunnes nämä on ratkaistu, täydellinen itseohjautuva sopeutuminen on edelleen raja-alue eikä todellisuutta.”
MIT:n tutkijat pitävät SEAL:ia välttämättömänä evoluutiona. Yksi MIT:n johtavista tutkijoista totesi, että tämä kehikko heijastaa vain ihmisen oppimista tarkemmin kuin mikään aiempi.
”Nämä järjestelmät viittaavat siirtymään staattisista, yksittäisistä malleista sopeutuvampiin arkkitehtuureihin, jotka voivat oppia kokemuksesta, hallita muistia ja ajaa tavoitteita ajan myötä. Suunta on selvä: modulaarinen, kontekstiazure intelligence, joka voi mukautua jatkuvasti”, Riera kertoi minulle. ”Vaikka tämä on edelleen kokeellisessa vaiheessa, tämä lähestymistapa on merkittävä askel kohti autonomisempia ja kestävämpiä tekoälyjärjestelmiä.”
Onko tämä johtaa enemmän henkilökohtaisiin järjestelmiin tai täysin uusiin muotoihin koneellisesta toiminnasta, aika näyttää. Itseoppien tekoälyn aika on saapunut – ja se on uudelleenkirjoittamassa sääntöjä siitä, mitä koneet voivat tulla.


