Connect with us

Ajatusjohtajat

Miksi generatiivinen täydentävä hakemisto on tietoanalytiikan seuraava rintama

mm

Kolme neljästä ihmisestä sanoo, että heidän organisaatiot käyttävät tekoälyä. Silti suurin osa toiminnasta keskittyy edelleen rakenteettomaan sisältöön: kokousten tiivistäminen, sähköpostien laatiminen tai asiakastuen automatisointi.

Ironisesti niin paljon tietoa, joka todella ohjaa liiketoimintapäätöksiä – talousraportit, varastotaulukot ja KPI:t – on edelleen pääosin koskematon tekoälyltä.

Syy ei ole puute ambissiosta, vaan puute luottamuksesta. Kun malli kuvittelee lauseen, sen voi usein korjata; kun se kuvittelee luvun, se on katastrofaalista. CFO ei voi hyväksyä vastausta, jonka hän ei voi vahvistaa.

Tänään rakenteinen tieto elää kymmenissä järjestelmissä, kullakin omat säännöt ja suhteet. Tekoälyn saaminen toimimaan oikein tämän monimutkaisuuden yli on haasteellisempi kuin mikään chatbot.

Liiketoiminnat ja niiden tiimit – mukaan lukien ei-tekniset käyttäjät – tarvitsevat mahdollisuuden vuorovaikuttaa tietojensa kanssa yksinkertaisella tavalla, jotta pullotilat voidaan vähentää ja nopeita, tarkkoja oivalluksia voidaan hakea. Ilman SQL:n opettelua.

Joitakin ratkaisuja on kehittynyt – tarkastellaan joitakin merkittäviä esimerkkejä, niiden hyötyjensä ja heikkouksiensa kanssa.

Tekoäly ja rakenteinen tieto – silta liian pitkälle

Viimeisten kahden vuoden aikana on tehty useita yrityksiä yhdistää tekoälynsäätö ja rakenteinen tieto.

Monet niistä tulevat teknologiajäteistä, joilla on merkittävät resurssit ja tieto. Snowflake esimerkiksi esitteli Cortex Analystin, joka yrittää sallia käyttäjien esittää luonnollisen kielen kysymyksiä Snowflaken tietovarastoa vastaan.

Tarkkuuden parantamiseksi Cortexilla on tapa tarjota semanttista metadataa – mutta malli on voimakkaasti rajoitettu. Yhtäältä se on rakennettava manuaalisesti, ja vaikka niin tehdään, se voi toimia enintään 10 taulukon kanssa, mikä ei riitä edes keskikokoiselle yritykselle. Mitä enemmän taulukoita on, sitä enemmän luottamus murtuu, kun tarkkuus laskee.

Tarina toistuu Databricksin yrityksissä, jotka ottivat teksti-SQL-lähestymistavan AI/BI Genie:n kanssa. Tämä ratkaisu voidaan ottaa käyttöön vain pienillä aloilla, ja tarkkuus laskee, kun tietojoukkoja lisätään.

Microsoft Power BI Copilot ottaa pinta-alaiseen generatiiviseen lähestymistapaan, jossa tekoäly upotetaan suoraan dashboardeihin kuvausten kuvaamiseksi, mittareiden ehdottamiseksi ja raporttien luomiseksi. Se parantaa tutkimusta, mutta ei muuta, miten analytiikkaa johdetaan tai vahvistetaan. Jokainen vastaus riippuu edelleen mallin tuomioista, ja kun tuomio epäonnistuu, ei ole audit-reittiä tai determinististä logiikkaa, johon voi turvautua.

Nämä järjestelmät osoittavat oikeaan suuntaan: tekoälyn käyttäminen rakenteisessa yritystiedossa. Ne jakavat kuitenkin kriittisen virheen. Ne riippuvat tekoälymallista, joka luo SQL:ia luonnollisesta kielestä, ja kun tuo SQL on väärä, mikä tapahtuu usein, liiketoimintakäyttäjä jää jumiin. Johtaja, joka ei osaa lukea SQL:ia, ei voi diagnosoida tai korjata tulosta. Keskustelu pysähtyy kylmäksi.

Toinen tapa lähestyä ongelmaa on ennakoida todennäköisiä kysymys-vastaus -parien esittäminen. Adan GARAGe, muun muassa, seuraa tätä menetelmää. Se toimii hyvin kapeilla aloilla, joilla kysymykset ovat ennustettavissa, mutta suorituskyky laskee, kun tietojen monimutkaisuus kasvaa. Kun taulukot ja schemat monistuvat, ennakointi muuttuu nopeasti hallitsemattomaksi.

Erilainen polku: Generatiivinen täydentävä hakemisto

Generatiivinen täydentävä hakemisto (GAR) kääntää nykyisen RAG-lähestymistavan (Retrieval-Augmented Generation etsii relevanttia tietoa ja sisällyttää sen LLM:ään tarkkuuden lisäämiseksi) ylösalaisin.

Sen sijaan, että LLM:ltä pyydettäisiin kirjoittamaan SQL, GAR käyttää generatiivista tekoälyä ymmärtämään käyttäjän kysymyksen tarkoitusta ja luo sitten järkeilyaskelien luomiseksi vastaus.

GAR:ssa kysymykset vuorovaikuttavat suoraan tietokannan kanssa. Ne kootaan muodostettaessa, eikä sama kysymys aina tuota samaa vastausta. GAR:n järkeilyketju on pysyvä, arvosteltavissa oleva artefakti, ei väliaikainen keskustelu, joten koko järkeilyketju voidaan toistaa.

Tämä tarkoittaa, että tulokset ovat eksponentiaalisesti tarkempia kuin yleistetyillä genAI-moottoreilla.

GAR tekee kolme asiaa:

  1. Automaattisesti rakentaa semanttisen kerroksen. GAR käyttää tekoälyä suhteiden ja liiketoimintamäärittelyjen löytämiseen järjestelmien yli, yhdistäen tiedon yhteen malliin
  2. Kääntää liiketoimintatarkoituksen korkean tason analyysikielen. Tämä kieli ottaa kysymyksen liiketoimintakäsitteellä tasolla (“liikevaihto per käynti toimittajalta Q2:lle”) ja kääntää sen suoraan SQL:ksi.
  3. Kirjaa jokaisen järkeilyaskelen seurantaa varten. Jokaisen vastauksen alkuperä on jäljitettävissä.

Miksi tämä on tärkeää

Rajoittamalla järkeilyä yrityksen omiin sisäisiin tietomalliin, GAR voi poistaa kuvitteellisuuden ja toimittaa vastauksia, jotka ovat osoitettavasti oikein.

Määritelmät, mittarit ja kyselymallit kerryvät ajan myötä, mikä tekee tulevista vastauksista entistä enemmän mukautettuja käyttäjälle.

Luottamuksen elementti on oleellinen liiketoimintakäyttäjille, jotka riippuvat rakenteisesta tiedostaan tehdäkseen perusteltuja liiketoimintapäätöksiä. Kun yhä useammat organisaatiot ottavat käyttöön edistyneitä tekoälyratkaisuja, he vaativat kehyksiä, jotka laskevat kuvitteellisuuden ja virheen riskin lähes nollaan.

Tämä tapahtuu, kun kysely yhdistyy suoraan tietoihin, kun tekoäly voi toimia suurilla tietojoukoilla ilman murtumista, ja kun vastaukset annetaan johdonmukaisesti ja todistettavasti.

Rob Giardina on Claritypen perustaja ja toimitusjohtaja, joka kehittää tekoälyjärjestelmiä, jotka tuovat selkeän ja tarkasteltavan raportoinnin yritysten data-analytiikkaan. Aikaisemmin hän toimi Palantir Technologiesin eteen sijoitetun insinöörinä.