Connect with us

Tekoälybuumi on iskeytynyt ratkaisevaan keskipeliin: Mitä yritysten tulee tietää

Ajatusjohtajat

Tekoälybuumi on iskeytynyt ratkaisevaan keskipeliin: Mitä yritysten tulee tietää

mm

Junior high school ei ollut kenenkään paras vaihe – mutta meidän kaikkien piti käydä siitä läpi, kasvukivut ja kaikki, jotta pääsisimme parempaan, kypsymmään versioomme itsestämme.

Nykyinen tekoälybuumi on saapunut omaan vaikeaan murrosikäiseen vaiheeseen, jonka asiantuntijat kutsuvat sotkuiseksi keskivaiheeksi omaksumisen ja kypsymisen välillä. Alkuperäinen hype on haihtunut, ja nyt organisaatiot keskittyvät tekemään tekoälystä tosiasiallisesti toimivan. Mutta tekoäly tulee aikuiseksi haasteellisena aikana. Ennusteet ovat kaikkialla, skeptisyys on korkea sekä yritysten että kuluttajien keskuudessa, ja puhetta laajenevasta tekoälykuplasta on saanut yritysjohtajat reunalla, odottamaan pelättyä plopia.

Tässä ratkaisevassa vaiheessa organisaatioiden on erottava signaali melusta – olipa heidän siirtymässä pyrkimyksensä kokeilusta käytännön soveltamiseen tai skaalaamassa käytännön soveltamista operatiiviseen yleisyyteen. Se vaatii keskittymistä konkreettisiin tekijöihin, joita he voivat hallita, kuten infrastruktuuriin ja tietojen valmiuteen; tuloksien mittaamiseen ja skaalautumisen perustan luomiseen.

Infrastruktuuri-ensin-lähestymistapa

Todellinen tekoälyvalmius edellyttää oikean infrastruktuurin olemassaoloa kestävän tekoälykuormituksen tukemiseksi. Luonnollisesti, tekoäly on lisännyt pilvipalveluiden kysyntää: pilvipalveluiden kulut odotetaan kasvavan 40% tämän vuoden aikana, ja infrastruktuuri muodostaa kalleimman kohteen budjetissa, ja uusia tietokeskuksia avataan jokaisella mantereella tyydyttämään kasvavaa tekoälylaskehtimien kysyntää. Tässä tekoälyn käännekohdassa infrastruktuurivalinnat ovat olemassaolokysymyksiä. Infrastruktuuri määrittää, mikä on turvallista, mikä on mahdollista ja mikä todella hyödyttää liiketoimintaa, sen sijaan, että se aiheuttaisi resursseihin kohdistuvan kuilun.

Kestävä infrastruktuuri määritellään enemmän kuin pelkästään kustannusten ja laskentatehon perusteella. Kun organisaatiot päättävät, minne ja miten he isännöivät tekoälykuormituksiaan, heidän on otettava huomioon resurssitehokkuuden, turvallisuuden, näkyvyyden ja yleisen hinta-suorituskyvyn ongelmat. Tekoäly-infrastruktuuri ei voi olla yksinkertainen yhden kerran sijoitus, vaan prosessi liikkeessä, joka voi kehittyä kunkin projektin vaatimusten mukaan.

Se on selvä poikkeama historiallisista lähestymistavoista pilvikulutuksiin. Ennen nykyistä tekoälybuumia organisaatiot usein riippuivat yhdestä pilvipalveluntarjoajasta – tyypillisesti hyperskaalauttajasta – isännöidäkseen pilvipohjaiset toimintonsa. Nyt tekoälykuormitusten monimutkaisuus ja monimuotoisuus haastavat tämän mallin, erityisesti kun yritykset siirtyvät käytännöllisempiin käyttötapauksiin, ja vaihtoehtoiset pilvet nousevat vastaamaan kysyntään.

Nykyaikaiset tekoälyaloitteet vaativat runsaasti laskentatehoa, jota suuret kolme ovat hyvin varustettu tarjoamaan. Halkeamat alkavat näkyä, kun kaikki tämä teho tulee liian suureksi. Hyperskaalauttajien sopimukset voivat olla kalliita, turvattuja tarpeettomilla lisäominaisuuksilla, eivätkä ne välttämättä tarjoa vaadittua tietoturvalle ja -asuinpaikalle erittäin arkaluontoisille projekteille.

Sen sijaan, että he sitoutuisivat pilvipalveluihinsa yhteen toimittajaan, yritykset voivat hyödyntää kasvavaa vaihtoehtojen luokkaa koostamaan omat pinonsa eri toimittajien, GPU-tyyppien ja julkisen/yksityisen pilviympäristön mukaan erityistarpeidensa mukaan. Tällä tavoin he eivät maksa ominaisuuksista, joita he eivät tarvitse, samalla kun he mukauttavat pilveään tarpeidensa mukaan.

Infrastruktuuri-ensin-lähestymistapa tekoälykypsymiseen on luomassa vakaata perustaa skaalautumiselle, joka maksimoi tehokkuuden ja hyödyllisyyden antamatta periksi tehokkuudelle.

Kokeilusta soveltamiseen

Viime vuosien aikana yritykset ympäri maailmaa ovat kokeilleet, miten he voivat sovittaa tekoälyn toimintoihinsa. Kuten uteliaisuuden ja vähän huumorin ohjaamana, he ovat työntäneet innovaation rajoja, avaamalla uusia mahdollisuuksia tehokkuudelle ja korostamalla lukemattomien avoimen lähdekoodin työkalujen ja mallien potentiaalia. He ovat myös törmänneet todellisuuteen, oppien, että Silicon Valley:n “liiku nopeasti ja murskaa asiat” -filosofia ei aina ole oikea tapa, erityisesti kun on kyse teknologiasta, joka on yhtä voimakas kuin tekoäly.

Nyt, kun yritykset nousevat tästä kokeiluvaiheesta, epäonnistuminen ei ole vaihtoehto. Tarkkuus on kriittinen. Suorituskyky ei voi vaatia odottelua. Jos yritykset aikovat uudelleenrakentaa perusliiketoimintafunktioitaan tekoälykehikossa, heidän on tuplaistava “tylsät” osat, jotka ottavat tekoälyn luovasta kokeilusta voimakkaaksi moninkertaiseksi, mukaan lukien:

  • Tietoturva ja -yksityisyys: Monet tekoälymallit käyttävät herkkää henkilökohtaista ja liiketoimintatietoa toimimiseksi tehokkaasti. Organisaatioiden on oltava varmoja, että heidän tietonsa on isännöity turvallisesti, ilman vaaraa laittomasta kopioinnista tai “tumman tekoälyn” altistumisesta.
  • Mallin elinkaaren hallinta: Malleja on oltava tarkka, ajan tasalla ja säännöllisesti koulutettu uudelleen tukemaan kriittisiä liiketoimintafunktioita.
  • Suorituskyvyn johdonmukaisuus: Riippumatta siitä, onko malleja käytössä sisäisessä käytössä vai asiakaspalvelussa, suorituskyvyn varmistaminen on kriittistä tehokkuudelle ja helppokäyttöisyydelle. Monet yleiset suorituskykyongelmat, kuten viive- ja keskeytysongelmat, ratkaistaan infrastruktuuritasolla.

Tällä hetkellä vain 37% organisaatioista käyttää uusia generatiivisia malleja kuukausittain, viikoittain tai päivittäin. Kun enemmän organisaatioita siirtyy soveltamisvaiheeseen, tämä prosentti kasvaa dramaattisesti, luoden suuremman kysynnän laskentateholle – mutta myös infrastruktuurille, joka on suunniteltu tiettyihin malleihin. “Kevyt” malli ei tarvitse hyperskaalauttajan tasoa olevaa perustaa, mutta jos se käyttää herkkää tietoa, se voi tarvita sitä turvallisuuden tasoa. Tässä menee mukana mukautuvat pilvet – ja siksi infrastruktuuri pitäisi olla ensisijainen huomio yritysten tekoälysiirtymisen aikana.

Soveltamisesta skaalautumiseen

Yrityksille, jotka ovat edennyt kypsymisuralla, tekoälyn käytännön soveltaminen on jo osa heidän päivittäistä toimintaansa. Nyt he pyrkivät skaalaamaan näitä sovelluksia luomaan vielä suurempaa arvoa ja kehittymään täysin yritykseksi.

Paine on päällä, ja edut ovat selvät: 81% organisaatioista korkeimmalla tekoälykypsyyden tasolla raportoi paremmat taloudelliset tulokset viime vuonna. Tämä on vaihe, jossa tekoälysovellukset käyvät läpi suurimman stressitestiään. Ne voivat läpäistä hajun testin rajoitetussa ympäristössä, mutta voivatko ne sulattaa enemmän tietoa? Toimivatko ne uusilla alueilla? Ja ehkä tärkein kysymys: voivatko ne ajaa merkityksellisiä tuloksia?

Skaalautuminen on kasvamista suuremmaksi, mutta joissakin tapauksissa vähemmän on enemmän. Yritykset tässä vaiheessa pitäisi harkita, voisivatko kohdennetut pienkieliset mallit (SLM) toimia paremmin kuin monitaitoiset suuret kielimallit (LLM). Tekoälyaloitteet ovat menestyksekkäimmät, kun ne liittyvät todellisiin liiketoimintaan liittyviin ongelmiin ja voivat ajaa mitattavia tuloksia.

Samankaltainen malli toistuu tekoälyagenttien soveltamisessa ja skaalauttamisessa – tekoälyn seuraava etappi. Agentit, jotka suorittavat toimialakohtaisia tehtäviä, jotka perustuvat hyvin fokusoituun, jatkuvasti ylläpidettyyn tietokantaan, ovat ne, jotka ovat todella vaikuttaneet yritykseen. Sanottakoon, että erikoistuneet agentit tarvitsevat silti merkittävää laskentatehoa, vaikka ei yhtä paljon kuin kattava, kaiken tekevä apuväline. Infrastruktuurin priorisointi alusta alkaen mahdollistaa organisaatioiden saada todellista tuottoa tekoälyohjelmistaan ilman, että he rikkoisivat pilvipalvelubudjettiaan.

Innovaatio vaikutuksella

Tekoäly “kilpailu” on vähemmän kilpailu kuin uudelleenrakennus: jos me uudelleenrakennamme yritystä, haluamme tehdä sen vakaan perustan – muuten seinät tulevat varmasti romahtamaan. Yritysten on oltava tarkkoja infrastruktuurista, varmistettava tietoturva, tiukasti hallittava mallien elinkaaria, seurattava suorituskykyä ja kerättävä näkemyksiä ja tehtyä sopeutumia. Kärsivällisyys ja määrätietoisuus ovat avainasioita luomassa ratkaisuja, jotka todella toimivat, säilyttävät turvallisuuden ja toimivat johdonmukaisesti.

Tekoälyhype-kierron uutuus saattaa hävitä, mutta organisaatiot voivat pärjätä tekoälyn epävakaiden keskivuosiensa kautta antamalla tiimilleen energiaa siitä, mikä on tärkeintä: tulokset.

Kevin on Vultr:n CMO, ja hän on yli 25 vuoden uranuurtaja digitaalisen markkinoinnin ja digitaalisen kokemusalueen parissa. Kevin perusti ensimmäisen startup-yrityksensä, Interwovenin, vuonna 1996. Interwovenissä Kevin kehitti yhdessä Interwoven TeamSiten, loi Web Content Management (WCM) -markkinan ja vei Interwovenin pörssiin vuonna 1999. Interwovenin jälkeen Kevin uranuurtaja loi ensimmäisen avoimen lähdekoodin Enterprise Content Management (ECM) -järjestelmän Alfrescossa ja popularisoi avoimen lähdekoodin teknologian käytön globaaleissa yrityksissä ja julkisissa organisaatioissa. Day Softwaren CMO:na Kevin ajoi WCM:n kehittymistä Web Experience Management (WEM) -suuntaan, myi Day Softwaren Adobe Systemille ja uranuurtaja Adoben kokemusjohtamisalustan maailmanlaajuista omaksumista ja Adoben Marketing Cloudin luomista. Viime vuosina Kevin on jatkanut kokemusjohtamisalueen kehittymistä uudeksi markkinakategoriaksi, Digital Experience Platforms (DXPs) ja viimeisimmän kehittymisen kohti komponenettiperustaisia digitaalisisältöjä MACH-arkkitehtuurin pohjalta. Vultrissa Kevin työskentelee nyt Vultrin globaalin brändin rakentamiseksi johtavaksi itsenäiseksi pilviplatformaksi ja komponenettiperustaiseksi infrastruktuuriksi organisaatioille maailmanlaajuisesti.