tynkä Pisteiden yhdistäminen: OpenAI:n väitetyn Q-Star-mallin purkaminen - Unite.AI
Liity verkostomme!

Keinotekoinen yleinen älykkyys

Pisteiden yhdistäminen: OpenAI:n väitetyn Q-Star-mallin purkaminen

mm

Julkaistu

 on

Äskettäin tekoälyyhteisössä on käyty huomattavia spekulaatioita OpenAI:n väitetyn Q-star-projektin ympärillä. Huolimatta tästä salaperäisestä aloitteesta saatavilla olevista rajallisista tiedoista, sen sanotaan merkitsevän merkittävää askelta kohti yleistä tekoälyä – älykkyyden tasoa, joka joko vastaa tai ylittää ihmisen kykyjä. Vaikka suuri osa keskustelusta on keskittynyt tämän kehityksen mahdollisiin kielteisiin seurauksiin ihmiskunnalle, Q-tähden luonteen ja sen mahdollisesti tuomien teknisten etujen paljastamiseen on omistettu suhteellisen vähän työtä. Tässä artikkelissa käytän tutkivaa lähestymistapaa ja yritän purkaa tämän projektin ensisijaisesti sen nimen perusteella, jonka uskon tarjoavan riittävästi tietoa oivallusten saamiseksi siitä.

Mysteerin tausta

Kaikki alkoi, kun OpenAI:n johtokunta yhtäkkiä syrjäytettiin Sam Altman, toimitusjohtaja ja toinen perustaja. Vaikka Altman palautettiin myöhemmin, tapahtumiin liittyy edelleen kysymyksiä. Jotkut pitävät sitä valtataisteluna, kun taas toiset katsovat sen johtuvan Altmanin keskittymisestä muihin hankkeisiin, kuten Worldcoiniin. Juoni kuitenkin paksunee, kun Reuters raportoi, että salainen projekti nimeltä Q-star saattaa olla draaman ensisijainen syy. Reutersin mukaan Q-Star on merkittävä askel kohti OpenAI:n AGI-tavoitetta, jonka OpenAI:n työntekijät välittivät johtokunnalle. Tämän uutisen ilmestyminen on herättänyt spekulaatioita ja huolia.

Palapelin rakennuspalikoita

Tässä osiossa olen esitellyt joitain rakennuspalikoita, jotka auttavat meitä ratkaisemaan tämän mysteerin.

  • Q-oppiminen: Vahvistusoppiminen on eräänlainen koneoppiminen, jossa tietokoneet oppivat olemalla vuorovaikutuksessa ympäristönsä kanssa ja vastaanottamalla palautetta palkkioiden tai rangaistusten muodossa. Q-oppiminen on vahvistusoppimisen erityinen menetelmä, joka auttaa tietokoneita tekemään päätöksiä oppimalla eri toimien laadun (Q-arvon) eri tilanteissa. Sitä käytetään laajalti sellaisissa skenaarioissa kuin pelaaminen ja robotiikka, jolloin tietokoneet voivat oppia optimaalisen päätöksenteon yrityksen ja erehdyksen kautta.
  • A-tähti haku: A-tähti on hakualgoritmi, joka auttaa tietokoneita tutkimaan mahdollisuuksia ja löytämään parhaan ratkaisun ongelman ratkaisemiseen. Algoritmi on erityisen merkittävä sen tehokkuudesta löytää lyhimmän polun lähtöpisteestä maaliin kaaviossa tai ruudukossa. Sen vahvuus on solmun saavuttamisen kustannusten älykäs punnitus kokonaistavoitteen saavuttamisen arvioituihin kustannuksiin. Tämän seurauksena A-tähteä käytetään laajasti polun etsintään ja optimointiin liittyvissä haasteissa.
  • AlphaZero: alfanolla, kehittynyt tekoälyjärjestelmä Deepmind, yhdistää Q-oppimisen ja haun (eli Monte Carlo Tree Searchin) strategiseen suunnitteluun lautapeleissä, kuten shakissa ja Gossa. Se oppii optimaaliset strategiat itsepelaamalla, ohjaama hermoverkko liikkeitä ja asennon arviointia varten. Monte Carlo Tree Search (MCTS) -algoritmi tasapainottaa tutkimisen ja hyödyntämisen pelimahdollisuuksien tutkimisessa. AlphaZeron iteratiivinen itsepeli-, oppimis- ja hakuprosessi johtaa jatkuvaan parantamiseen, mikä mahdollistaa yli-inhimillisen suorituskyvyn ja voiton ihmismestareista, mikä osoittaa sen tehokkuuden strategisessa suunnittelussa ja ongelmanratkaisussa.
  • Kielimallit: Suuret kielimallit (LLM:t), kuten GPT-3, ovat tekoälyn muoto, joka on suunniteltu ihmisen kaltaisen tekstin ymmärtämiseen ja luomiseen. He saavat koulutusta laajasta ja monipuolisesta Internet-datasta, joka kattaa laajan kirjon aiheita ja kirjoitustyylejä. LLM:ien erottuva ominaisuus on niiden kyky ennustaa sekvenssin seuraava sana, joka tunnetaan nimellä kielimallinnus. Tavoitteena on antaa ymmärrys siitä, miten sanat ja ilmaukset liittyvät toisiinsa, jolloin malli tuottaa johdonmukaista ja kontekstuaalista tekstiä. Laaja koulutus tekee LLM:t taitavia ymmärtämään kielioppia, semantiikkaa ja jopa kielenkäytön vivahteita. Kun nämä kielimallit on koulutettu, niitä voidaan hienosäätää tiettyjä tehtäviä tai sovelluksia varten, mikä tekee niistä monipuolisia työkaluja luonnollinen kielenkäsittely, chatbotit, sisällön luominen ja paljon muuta.
  • Yleinen tekoäly: Keinotekoinen yleinen älykkyys (AGI) on tekoälyn tyyppi, jolla on kyky ymmärtää, oppia ja suorittaa tehtäviä eri aloilla tasolla, joka vastaa tai ylittää ihmisen kognitiiviset kyvyt. Toisin kuin kapea tai erikoistunut tekoäly, AGI:llä on kyky sopeutua, järkeillä ja oppia itsenäisesti ilman, että se rajoittuu tiettyihin tehtäviin. AGI antaa tekoälyjärjestelmille mahdollisuuden esitellä itsenäistä päätöksentekoa, ongelmanratkaisukykyä ja luovaa ajattelua peilaten ihmisen älykkyyttä. Pohjimmiltaan AGI ilmentää ajatusta koneesta, joka pystyy suorittamaan minkä tahansa ihmisen suorittaman älyllisen tehtävän, mikä korostaa monipuolisuutta ja sopeutumiskykyä eri aloilla.

LLM:n keskeiset rajoitukset AGI:n saavuttamisessa

Suurilla kielimalleilla (LLM) on rajoituksia yleisen tekoälyn (AGI) saavuttamisessa. Vaikka he ovat taitavia käsittelemään ja luomaan tekstiä oppimien mallien perusteella valtavasta datasta, he kamppailevat ymmärtäessään todellista maailmaa, mikä estää tehokkaan tiedon käytön. AGI vaatii maalaisjärkeä päättely- ja suunnittelukykyä arjen tilanteiden käsittelemiseen, jotka LLM:t pitävät haastavina. Huolimatta siitä, että he tuottavat näennäisesti oikeita vastauksia, heillä ei ole kykyä järjestelmällisesti ratkaista monimutkaisia ​​ongelmia, kuten matemaattisia.

Uudet tutkimukset osoittavat, että LLM:t voivat jäljitellä mitä tahansa laskentaa, kuten yleistietokone, mutta niitä rajoittaa laajan ulkoisen muistin tarve. Tietojen lisääminen on elintärkeää LLM:n parantamisen kannalta, mutta se vaatii huomattavia laskennallisia resursseja ja energiaa, toisin kuin energiatehokkaat ihmisaivot. Tämä asettaa haasteita LLM:iden saamiselle laajalti saataville ja skaalautuville AGI:lle. Viimeaikaiset tutkimukset viittaavat siihen, että pelkkä tietojen lisääminen ei aina paranna suorituskykyä, mikä herättää kysymyksen, mihin muuhun kannattaa keskittyä matkalla kohti AGI:tä.

Pisteiden yhdistäminen

Monet tekoälyasiantuntijat uskovat, että suurten kielimallien (LLM) haasteet johtuvat niiden pääasiallisesta keskittymisestä seuraavan sanan ennustamiseen. Tämä rajoittaa heidän ymmärrystä kielen vivahteista, päättelystä ja suunnittelusta. Tämän käsittelemiseksi tutkijat pitävät Yann LeCun suosittele kokeilemaan erilaisia ​​harjoitusmenetelmiä. He ehdottavat, että LLM:t suunnittelevat aktiivisesti sanojen ennustamista, ei vain seuraavaa merkkiä.

AlphaZeron strategian kaltaiseen "Q-tähden" ideaan saattaa sisältyä LLM:ien ohjeistaminen suunnittelemaan aktiivisesti merkkien ennustamista, ei vain seuraavan sanan ennustamista. Tämä tuo jäsenneltyä päättelyä ja suunnittelua kielimalliin, mikä ylittää tavanomaisen keskittymisen seuraavan tunnuksen ennustamiseen. Käyttämällä AlphaZeron inspiroimia suunnittelustrategioita LLM:t voivat ymmärtää paremmin kielen vivahteita, parantaa päättelyä ja tehostaa suunnittelua ja puuttua tavallisten LLM-koulutusmenetelmien rajoituksiin.

Tällainen integraatio luo joustavat puitteet tiedon esittämiselle ja manipuloinnille, mikä auttaa järjestelmää mukautumaan uuteen tietoon ja tehtäviin. Tämä sopeutumiskyky voi olla ratkaisevan tärkeää yleiselle tekoälylle (AGI), jonka täytyy käsitellä erilaisia ​​tehtäviä ja alueita, joilla on erilaiset vaatimukset.

AGI tarvitsee maalaisjärkeä, ja LLM:ien kouluttaminen järkeen voi antaa heille kattavan ymmärryksen maailmasta. Lisäksi AlphaZeron kaltaisten LLM:iden kouluttaminen voi auttaa heitä oppimaan abstraktia tietoa, mikä parantaa siirtooppimista ja yleistämistä eri tilanteissa, mikä edistää AGI:n vahvaa suorituskykyä.

Projektin nimen lisäksi tätä ideaa tukee Reutersin raportti, joka korostaa Q-tähden kykyä ratkaista tiettyjä matemaattisia ja päättelyongelmia menestyksekkäästi.

Bottom Line

Q-Star, OpenAI:n salainen projekti, luo aaltoja tekoälyssä, tavoitteenaan älykkyys ihmisten ulkopuolella. Keskellä keskustelua sen mahdollisista riskeistä, tämä artikkeli syventyy palapeliin yhdistämällä pisteet Q-learningistä AlphaZero- ja Large Language Models (LLM) -malleihin.

Mielestämme "Q-tähti" tarkoittaa älykästä oppimisen ja etsinnän yhdistelmää, joka antaa LLM:ille sysäyksen suunnitteluun ja päättelyyn. Kun Reuters toteaa, että se voi ratkaista hankalia matemaattisia ja päättelyongelmia, se viittaa merkittävään edistymiseen. Tämä vaatii lähempää tarkastelua, mihin tekoälyoppiminen voi olla tulevaisuudessa.

Dr. Tehseen Zia on vakinainen apulaisprofessori COMSATS University Islamabadissa, ja hänellä on tekoälyn tohtori Wienin teknillisestä yliopistosta, Itävallasta. Hän on erikoistunut tekoälyyn, koneoppimiseen, tietotieteeseen ja tietokonenäköön, ja hän on tehnyt merkittävän panoksen julkaisuilla arvostetuissa tieteellisissä aikakauslehdissä. Dr. Tehseen on myös johtanut erilaisia ​​teollisia projekteja päätutkijana ja toiminut tekoälykonsulttina.