Liity verkostomme!

Tekoäly

Miten LLM:t pakottavat meidät määrittelemään älykkyyden uudelleen

mm

On vanha sanonta: Jos se näyttää ankalta, ui kuin ankka ja quacks kuin ankka, se on luultavasti ankka. Tämä yksinkertainen päättelytapa, joka usein yhdistetään indianalaiseen runoilijaan James Whitcomb Rileyyn, on muokannut ajattelutapaamme tekoälystä vuosikymmenten ajan. Ajatus siitä, että käyttäytyminen riittää älykkyyden tunnistamiseen, inspiroi Alan Turingin kuuluisaa "Imitaatiopeliä", jota nykyään kutsutaan nimellä Turingin testi.

Turingin mukaan, jos ihminen ei pysty erottamaan, keskusteleeko hän koneen vai toisen ihmisen kanssa, konetta voidaan kutsua älykkääksi. Sekä ankan että Turingin testi viittaavat siihen, että tärkeää ei ole järjestelmän sisältö, vaan se, miten se käyttäytyy. Vuosikymmenten ajan tämä testi on ohjannut tekoälyn kehitystä. Mutta suurten kielimallien (LLM) myötä tilanne on muuttunut. Nämä järjestelmät pystyvät kirjoittamaan sujuvaa tekstiä, käymään keskusteluja ja ratkaisemaan tehtäviä tavoilla, jotka tuntuvat huomattavan inhimillisiltä. Kysymys ei ole enää siitä, pystyvätkö koneet matkimaan ihmisen keskustelua, vaan siitä, onko tämä matkiminen todellista älykkyyttä. Jos järjestelmä pystyy kirjoittamaan kuten me, päättelemään kuten me ja jopa luomaan kuten me, pitäisikö meidän kutsua sitä älykkääksi? Vai eikö pelkkä käyttäytyminen enää riitä mittaamaan älykkyyttä?

Koneälyn kehitys

Suuret kielimallit ovat muuttaneet tapaamme ajatella tekoälyä. Nämä järjestelmät, jotka aiemmin rajoittuivat luomaan perustekstivastauksia, pystyvät nyt ratkaisemaan logiikkaongelmia, kirjoittamaan tietokonekoodia, luonnostelemaan tarinoita ja jopa auttamaan luovissa tehtävissä, kuten käsikirjoittamisessa. Yksi keskeinen kehitysaskel tässä kehityksessä on niiden kyky ratkaista monimutkaisia ​​ongelmia vaiheittaisen päättelyn avulla, menetelmällä, joka tunnetaan nimellä Ajatusketju päättely. Jakamalla ongelman pienempiin osiin, oikeustieteen maisteri voi ratkaista monimutkaisia ​​matemaattisia ongelmia tai loogisia pulmia tavalla, joka näyttää samankaltaiselta kuin ihmisen ongelmanratkaisu. Tämä kyky on mahdollistanut heidän yltää ihmisen suorituskyvylle tai jopa ylittää sen edistyneissä vertailuarvoissa, kuten MATEMATIIKKA or GSM8KNykyään myös oikeustieteen maistereilla on multimodaalisia ominaisuuksiaHe osaavat työskennellä kuvien kanssa, tulkita lääketieteellisiä skannauksia, selittää visuaalisia pulmia ja kuvailla monimutkaisia ​​kaavioita. Näiden edistysaskeleiden myötä kysymys ei ole enää siitä, pystyvätkö oikeustieteen maisterit matkimaan ihmisen käyttäytymistä, vaan siitä, heijastaako tämä käyttäytyminen aitoa ymmärrystä.

Ihmisen kaltaisen ajattelun jälkiä

LLM-tieteiden menestys määrittelee uudelleen tapamme ymmärtää älykkyyttä. Painopiste on siirtymässä tekoälyn käyttäytymisen ja ihmisten käyttäytymisen yhdenmukaistamisesta Turingin testin ehdottaman mukaisesti siihen, kuinka tarkasti LLM-tieteet heijastavat ihmisen ajattelua tiedonkäsittelytavassaan (eli aidosti ihmisen kaltainen ajattelu). Esimerkiksi Tuoreen tutkimuksenTutkijat vertasivat tekoälymallien sisäistä toimintaa ihmisen aivotoimintaan. Tutkimuksessa havaittiin, että yli 70 miljardin parametrin omaavat oikeustieteen mallit (LLM) eivät ainoastaan ​​saavuttaneet ihmistason tarkkuutta, vaan myös järjestivät tietoa sisäisesti tavoilla, jotka vastasivat ihmisen aivojen toimintamalleja.

Kun sekä ihmiset että tekoälymallit työskentelivät hahmontunnistustehtävien parissa, aivoskannaukset osoittivat samankaltaisia ​​aktiivisuusmalleja ihmisillä ja vastaavia laskennallisia malleja tekoälymalleissa. Mallit ryhmittelivät abstrakteja käsitteitä sisäisiin tasoihinsa tavoilla, jotka vastasivat suoraan ihmisen aivoaaltojen aktiivisuutta. Tämä viittaa siihen, että onnistunut päättely saattaa edellyttää samankaltaisia ​​organisaatiorakenteita, olipa kyseessä sitten biologiset tai keinotekoiset järjestelmät.

Tutkijat ovat kuitenkin tarkkoja ja kiinnittävät huomiota tämän työn rajoituksiin. Tutkimukseen osallistui suhteellisen pieni määrä ihmisiä, ja ihmiset ja koneet lähestyivät tehtäviä eri tavoin. Ihmiset työskentelivät visuaalisten kuvioiden kanssa, kun taas tekoälymallit käsittelivät tekstikuvauksia. Ihmisen ja koneen prosessoinnin välinen korrelaatio on kiehtova, mutta se ei todista, että koneet ymmärtäisivät käsitteitä samalla tavalla kuin ihmiset.

Myös suorituskyvyssä on selkeitä eroja. Vaikka parhaat tekoälymallit lähestyivät ihmisen tasoa olevaa tarkkuutta yksinkertaisissa kuvioissa, ne osoittivat dramaattisempia suorituskyvyn laskuja monimutkaisimmissa tehtävissä verrattuna ihmisosallistujiin. Tämä viittaa siihen, että organisaation samankaltaisuuksista huolimatta ihmisten ja koneiden vaikeiden abstraktien käsitteiden käsittelyssä voi silti olla perustavanlaatuisia eroja.

Skeptinen näkökulma

Näistä vaikuttavista löydöksistä huolimatta on olemassa vahva argumentti siitä, että oikeustieteen maisterit ovat vain erittäin taitavia matkijoita. Tämä näkemys on peräisin filosofi John Searlen "Kiinalainen huone"ajatuskokeita, jotka havainnollistavat, miksi käyttäytyminen ei välttämättä ole sama asia kuin ymmärrys."

Tässä ajatuskokeessa Searle pyytää meitä kuvittelemaan henkilön, joka on lukittu huoneeseen ja osaa puhua vain englantia. Henkilö saa kiinalaisia ​​symboleja ja käyttää englanninkielistä sääntökirjaa manipuloidakseen näitä symboleja ja tuottaakseen vastauksia. Huoneen ulkopuolelta hänen vastauksensa näyttävät täsmälleen samalta kuin äidinkielisen kiinanpuhujan vastaukset. Searle kuitenkin väittää, että henkilö ei ymmärrä kiinasta mitään. Hän vain noudattaa sääntöjä ilman todellista ymmärrystä.

Kriitikot soveltavat samaa logiikkaa oikeustieteen maisteriohjelmiin (LLM). Heidän mukaansa nämä järjestelmät ovat ”stokastiset papukaijat”, jotka tuottavat vastauksia harjoitusdatan tilastollisten kaavojen, eivät aidon ymmärryksen, perusteella. Termi ”stokastinen” viittaa niiden probabilistiseen luonteeseen, kun taas ”papukaija” korostaa niiden matkivaa käyttäytymistä ilman todellista ymmärrystä.

Useat oikeustieteen maisteriohjelmien tekniset rajoitukset tukevat myös tätä väitettä. Oikeustieteen maisteriohjelmat tuottavat usein ”hallusinaatiot"; vastaukset, jotka näyttävät uskottavilta, mutta täysin virheellisiltä, ​​harhaanjohtavilta ja järjettömiltä. Tämä tapahtuu, koska ne valitsevat tilastollisesti uskottavia sanoja sen sijaan, että konsultoisivat sisäistä tietokantaa tai ymmärtäisivät totuuden ja valheen. Nämä mallit myös toistavat ihmisen kaltaisia ​​virheitä ja vinoumia. Ne hämmentyvät epäolennaisesta tiedosta, jonka ihmiset helposti jättäisivät huomiotta. Ne esittävät rotuun ja sukupuoleen liittyviä stereotypioita, koska ne ovat oppineet näitä vinoumia sisältävistä tiedoista. Toinen paljastava rajoitus on "asemavinouma", jossa mallit ylikorostavat pitkien dokumenttien alussa tai lopussa olevaa tietoa ja jättävät huomiotta keskiosan sisällön. Tämä "eksyksissä keskellä” -ilmiö viittaa siihen, että nämä järjestelmät käsittelevät tietoa hyvin eri tavalla kuin ihmiset, jotka pystyvät säilyttämään keskittymisensä koko dokumentin ajan.

Nämä rajoitukset korostavat keskeistä haastetta: vaikka oikeustieteen maisterit (LLM) ovat erinomaisia ​​kielimallien tunnistamisessa ja toistamisessa, se ei tarkoita, että he todella ymmärtäisivät merkityksen tai reaalimaailman kontekstin. He suoriutuvat hyvin syntaksin käsittelystä, mutta ovat edelleen rajoittuneita semantiikan suhteen.

Mikä lasketaan älykkyydeksi?

Keskustelu loppujen lopuksi kiteytyy siihen, miten määrittelemme älykkyyden. Jos älykkyys on kykyä tuottaa johdonmukaista kieltä, ratkaista ongelmia ja sopeutua uusiin tilanteisiin, oikeustieteen maisterit täyttävät jo tämän vaatimuksen. Jos älykkyys kuitenkin edellyttää itsetuntemusta, aitoa ymmärrystä tai subjektiivista kokemusta, nämä järjestelmät jäävät silti vajaaksi.

Ongelmana on, että meillä ei ole selkeää tai objektiivista tapaa mitata ominaisuuksia, kuten ymmärrystä tai tietoisuutta. Sekä ihmisillä että koneilla päättelemme ne käyttäytymisestä. Ankka-testi ja Turingin testi tarjosivat aikoinaan tyylikkäitä vastauksia, mutta oikeustieteen maisteriohjelmat eivät ehkä enää riitä. Niiden kyvykkyys pakottaa meidät harkitsemaan uudelleen, mikä todella lasketaan älykkyydeksi ja pysyvätkö perinteiset määritelmämme teknologisen todellisuuden vauhdissa.

Bottom Line

Suuret kielimallit haastavat tekoälyn määritelmän. Ne voivat matkia päättelyä, tuottaa ideoita ja suorittaa tehtäviä, joita aiemmin pidettiin ainutlaatuisen ihmismäisinä. Niiltä kuitenkin puuttuu tietoisuus ja perusta, jotka muokkaavat aitoa ihmisen kaltaista ajattelua. Niiden nousu pakottaa meidät kysymään paitsi toimivatko koneet älykkäästi, myös mitä älykkyys itsessään todella tarkoittaa.

Dr. Tehseen Zia on vakinainen apulaisprofessori COMSATS University Islamabadissa, ja hänellä on tekoälyn tohtori Wienin teknillisestä yliopistosta, Itävallasta. Hän on erikoistunut tekoälyyn, koneoppimiseen, tietotieteeseen ja tietokonenäköön, ja hän on tehnyt merkittävän panoksen julkaisuilla arvostetuissa tieteellisissä aikakauslehdissä. Dr. Tehseen on myös johtanut erilaisia ​​teollisia projekteja päätutkijana ja toiminut tekoälykonsulttina.