Artificiell intelligens
Utvecklingen av generativ AI 2025: Från nyhet till nödvändighet
Året 2025 markerar en vändpunkt i resan för Generative AI (Gen AI). Det som började som en fascinerande teknisk nyhet har nu utvecklats till ett kritiskt verktyg för företag inom olika branscher.
Generativ AI: Från lösning som söker ett problem till problemlösande kraft
Den initiala entusiasmen för Gen AI drevs av den råa nyheten med att interagera med stora språkmodeller (LLM), som tränas på stora offentliga datamängder. Företag och individer blev rättmätigt fascinerade av förmågan att skriva in naturliga språkliga prompter och få detaljerade, sammanhängande svar från offentliga frontier-modeller. Den mänskliga kvaliteten på utdata från LLM ledde många branscher att gå in i projekt med denna nya teknologi, ofta utan ett tydligt affärsproblem att lösa eller någon verklig KPI för att mäta framgång. Medan det har funnits några stora värdeöppningar i de tidiga dagarna av Gen AI, är det ett tydligt tecken att vi är i en innovations- (eller hype-) cykel när företag överger praxis att identifiera ett problem först och sedan söka en fungerande teknisk lösning för att lösa det.
I 2025 förväntar vi oss att pendeln kommer att svänga tillbaka. Organisationer kommer att se till Gen AI för affärsnytta genom att först identifiera problem som tekniken kan hantera. Det kommer säkert att finnas många fler välfinansierade vetenskapsprojekt, och den första vågen av Gen AI-användningsfall för sammanfattning, chatbots, innehålls- och kodgenerering kommer att fortsätta att blomstra, men chefer kommer att börja hålla AI-projekt ansvariga för ROI i år. Teknologifokuset kommer också att skifta från offentliga allmänna språkmodeller som genererar innehåll till en ensemble av smalare modeller som kan kontrolleras och kontinuerligt tränas på det distinkta språket i ett företag för att lösa verkliga problem som påverkar resultaträkningen på ett mätbart sätt.
2025 kommer att vara året då AI flyttar till kärnan av företaget. Företagsdata är nyckeln till att låsa upp verkligt värde med AI, men den träningsdata som behövs för att bygga en transformationell strategi finns inte på Wikipedia, och den kommer aldrig att finnas där. Den finns i kontrakt, kund- och patientjournaler och i de oordnade ostrukturerade interaktioner som ofta flödar genom backoffice eller lever i papperslådor. Att få tillgång till denna data är komplicerat, och allmänna LLM är en dålig teknisk lösning här, trots de problem som rör sekretess, säkerhet och datagovernance. Företag kommer att i ökande grad anta RAG-arkitekturer och små språkmodeller (SLM) i privata molnmiljöer, vilket gör det möjligt för dem att utnyttja interna organisatoriska datamängder för att bygga proprietära AI-lösningar med en portfölj av tränbara modeller. Inriktade SLM kan förstå det specifika språket i ett företag och nyanserna i dess data och ge högre precision och transparens till en lägre kostnad – samtidigt som de följer datasekretess- och säkerhetskraven.
Den kritiska rollen för datarengöring i AI-implementering
När AI-initiativ förökar sig, måste organisationer prioritera datakvalitet. Det första och mest kritiska steget i implementeringen av AI, oavsett om det är LLM eller SLM, är att säkerställa att intern data är fri från fel och ofullständigheter. Denna process, som kallas “datarengöring”, är avgörande för skapandet av en ren datamängd, som är nyckeln till framgången för AI-projekt.
Många organisationer förlitar sig fortfarande på pappersdokument, som måste digitaliseras och rengöras för dagliga affärsverksamheter. Idealiskt sett skulle denna data flöda in i märkta träningsuppsättningar för ett företags proprietära AI, men vi är tidigt ute i att se detta hända. I själva verket visade en nyligen genomförd undersökning som vi genomförde i samarbete med Harris Poll, där vi intervjuade mer än 500 IT-beslutsfattare mellan augusti och september, att 59% av organisationerna inte ens använder hela sin datamängd. Samma rapport fann att 63% av organisationerna är överens om att de har en brist på förståelse för sin egen data, och detta hindrar deras förmåga att maximera potentialen för GenAI och liknande teknologier. Sekretess-, säkerhets- och styrningsproblem är säkert hinder, men exakt och ren data är avgörande, och till och med små träningsfel kan leda till kumulativa problem som är svåra att lösa när en AI-modell får det fel. I 2025 kommer datarengöring och pipeline för att säkerställa datakvalitet att bli ett kritiskt investeringsområde, vilket säkerställer att en ny generation av företags AI-system kan fungera med tillförlitlig och exakt information.
Den utvidgade rollen för CTO
Rollen som Chief Technology Officer (CTO) har alltid varit avgörande, men dess påverkan kommer att öka tiofaldigt i 2025. I likhet med “CMO-eran”, där kundupplevelse under Chief Marketing Officer var av största vikt, kommer de kommande åren att bli “generationen av CTO”.
Medan CTO:s kärnansvar förblir oförändrade, kommer påverkan av deras beslut att bli mer betydande än någonsin. Framgångsrika CTO:er kommer att behöva ha en djup förståelse för hur ny teknik kan omvandla sina organisationer. De måste också förstå hur AI och relaterad modern teknik driver affärsomvandling, inte bara effektivitet inom företagets fyra väggar. Besluten som CTO:er fattar i 2025 kommer att avgöra den framtida banan för sina organisationer, vilket gör deras roll mer betydande än någonsin.
Prognoserna för 2025 betonar ett omvälvande år för Gen AI, datahantering och CTO-rollen. När Gen AI flyttar från att vara en lösning som söker ett problem till en problemlösande kraft, kommer vikten av datarengöring, värdet av företagsdatamängder och den utvidgade rollen för CTO att forma framtiden för företag. Organisationer som anammar dessa förändringar kommer att vara väl positionerade för att trivas i den föränderliga tekniska landskapsbilden.












