Kontakt z nami

Liderzy myśli

Dlaczego GenAI stoi w miejscu bez silnego zarządzania

mm

Podczas gdy firmy zmagają się z przeniesieniem projektów Generative AI z fazy eksperymentalnej do fazy produkcyjnej – wiele przedsiębiorstw pozostaje w trybie pilotażowym. Jak podkreślają nasze ostatnie badania, 92% organizacji obawia się, że pilotaże GenAI przyspieszają bez wcześniejszego zajęcia się podstawowymi problemami związanymi z danymi. Co jeszcze bardziej wymowne: 67% nie było w stanie przeskalować nawet połowy swoich pilotaży do produkcji. Ta luka produkcyjna dotyczy mniej dojrzałości technologicznej, a bardziej gotowości podstawowych danych. Potencjał GenAI zależy od siły gruntu, na którym stoi. A obecnie dla większości organizacji ten grunt jest w najlepszym razie chwiejny.

Dlaczego GenAI utknął w pilocie

Chociaż rozwiązania GenAI są niewątpliwie potężne, ich skuteczność zależy od danych, które są im dostarczane. Stare przysłowie „śmieci na wejściu, śmieci na wyjściu” jest dziś prawdziwsze niż kiedykolwiek. Bez wiarygodnych, kompletnych, uprawnionych i możliwych do wyjaśnienia danych modele GenAI często generują wyniki, które są niedokładne, stronnicze lub nieodpowiednie do celu.

Niestety organizacje spieszyły się z wdrażaniem przypadków użycia wymagających niewielkiego wysiłku, takich jak chatboty oparte na sztucznej inteligencji, oferujące dostosowane odpowiedzi z różnych wewnętrznych dokumentów. I chociaż w pewnym stopniu poprawiają one doświadczenia klientów, nie wymagają głębokich zmian w infrastrukturze danych firmy. Jednak aby strategicznie skalować GenAI, czy to w opiece zdrowotnej, usługach finansowych, czy automatyzacji łańcucha dostaw, wymagany jest inny poziom dojrzałości danych.

W rzeczywistości, 56% dyrektorów ds. danych uważa niezawodność danych za główną barierę utrudniającą wdrożenie sztucznej inteligencjiInne problemy to niekompletne dane (53%), kwestie prywatności (50%) i większe luki w zarządzaniu sztuczną inteligencją (36%).

Żadnego zarządzania, żadnego GenAI

Aby rozwinąć GenAI poza fazę pilotażową, firmy muszą traktować zarządzanie danymi jako strategiczny imperatyw swojej działalności. Muszą upewnić się, że dane nadają się do zasilania modeli AI, a w tym celu należy odpowiedzieć na następujące pytania:

  • Czy dane wykorzystane do trenowania modelu pochodzą z właściwych systemów?
  • Czy usunęliśmy dane osobowe i postępowaliśmy zgodnie ze wszystkimi przepisami dotyczącymi danych i prywatności?
  • Czy jesteśmy transparentni i czy możemy udowodnić pochodzenie danych, których używa model?
  • Czy możemy udokumentować nasze procesy przetwarzania danych i być gotowi wykazać, że dane nie są stronnicze?

Zarządzanie danymi musi być również wpisane w kulturę organizacji. Aby to osiągnąć, konieczne jest budowanie kompetencji w zakresie sztucznej inteligencji (AI) we wszystkich zespołach. Ustawa UE o AI formalizuje tę odpowiedzialność, wymagając od dostawców i użytkowników systemów AI dołożenia wszelkich starań, aby zapewnić pracownikom wystarczającą znajomość AI, upewniając się, że rozumieją, jak działają te systemy i jak z nich odpowiedzialnie korzystać. Skuteczne wdrożenie AI wykracza jednak poza wiedzę techniczną. Wymaga również solidnych podstaw w zakresie umiejętności związanych z danymi, od zrozumienia zarządzania danymi po formułowanie pytań analitycznych. Traktowanie kompetencji w zakresie AI w oderwaniu od kompetencji w zakresie danych byłoby krótkowzroczne, biorąc pod uwagę, jak ściśle są one ze sobą powiązane.

Jeśli chodzi o zarządzanie danymi, wciąż jest praca do wykonania. Wśród firm, które chcą zwiększyć inwestycje w zarządzanie danymi, 47% zgadza się, że brak umiejętności korzystania z danych jest główną barierą. Podkreśla to potrzebę budowania wsparcia najwyższego szczebla i rozwijania właściwych umiejętności w całej organizacji, co jest kluczowe. Bez tych fundamentów nawet najpotężniejsi LLM będą mieli trudności z realizacją zadań.

Rozwijanie sztucznej inteligencji, która musi ponosić odpowiedzialność

W obecnym otoczeniu regulacyjnym nie wystarczy już, aby sztuczna inteligencja „po prostu działała”, trzeba ją również rozliczać i wyjaśniać. Ustawa UE o sztucznej inteligencji i proponowane przez Wielką Brytanię Plan działania AI wymaga przejrzystości w przypadkach użycia AI o wysokim ryzyku. Inni idą w jego ślady i Ponad 1,000 projektów ustaw dotyczących polityki jest w planach w 69 krajach.

Ten globalny ruch w kierunku odpowiedzialności jest bezpośrednim wynikiem rosnących żądań konsumentów i interesariuszy dotyczących uczciwości algorytmów. Na przykład organizacje muszą być w stanie podać powody, dla których klientowi odmówiono pożyczki lub naliczono składkę ubezpieczeniową. Aby to zrobić, muszą wiedzieć, w jaki sposób model podjął tę decyzję, a to z kolei zależy od posiadania jasnego, audytowalnego śladu danych, które zostały użyte do jego wyszkolenia.

Jeśli nie ma możliwości wyjaśnienia, firmy ryzykują utratą zaufania klientów, a także ponoszą konsekwencje finansowe i prawne. W rezultacie możliwość śledzenia pochodzenia danych i uzasadnienia wyników nie jest czymś „miłym do posiadania”, ale wymogiem zgodności.

W miarę jak GenAI zaczyna wykraczać poza zakres zastosowań prostych narzędzi, stając się pełnoprawnymi agentami, którzy mogą podejmować decyzje i działać na ich podstawie, stawka za solidne zarządzanie danymi rośnie jeszcze bardziej.

Kroki tworzenia godnej zaufania sztucznej inteligencji

Jak więc wygląda dobro? Aby skalować GenAI w sposób odpowiedzialny, organizacje powinny przyjąć pojedynczą strategię danych w trzech filarach:

  • Dostosuj sztuczną inteligencję do biznesu:Kataloguj swoje dane pod kątem kluczowych celów biznesowych, upewniając się, że odzwierciedlają one wyjątkowy kontekst, wyzwania i szanse specyficzne dla Twojej firmy.
  • Zbuduj zaufanie do sztucznej inteligencji:Ustalanie zasad, standardów i procesów zapewniających zgodność i nadzór nad etycznym i odpowiedzialnym wdrażaniem sztucznej inteligencji.
  • Twórz gotowe na dane AI potoki:Połącz różne źródła danych w odporną podstawę danych, aby umożliwić solidne przetwarzanie sztucznej inteligencji przy użyciu wbudowanej łączności GenAI.

Gdy organizacje robią to dobrze, zarządzanie przyspiesza wartość AI. Na przykład w usługach finansowych fundusze hedgingowe są wykorzystanie sztucznej inteligencji gen. do prześcignięcia analityków ludzkich w przewidywaniu cen akcji przy jednoczesnym znacznym obniżeniu kosztów. W produkcji optymalizacja łańcucha dostaw napędzana przez AI umożliwia organizacjom reagowanie w czasie rzeczywistym na zmiany geopolityczne i presję środowiskową.

I nie są to jedynie futurystyczne pomysły. Są one urzeczywistniane już teraz, w oparciu o wiarygodne dane.

Dzięki solidnym fundamentom danych firmy redukują dryf modelu, ograniczają cykle przekwalifikowania i zwiększają szybkość osiągania wartości. Dlatego zarządzanie nie jest przeszkodą; jest czynnikiem umożliwiającym innowacje.

Co dalej?

Po eksperymentach organizacje wychodzą poza chatboty i inwestują w możliwości transformacyjne. Od personalizacji interakcji z klientami po Przyspieszanie badań medycznych, poprawa zdrowia psychicznego i upraszczania procesów regulacyjnych, GenAI zaczyna wykazywać swój potencjał w różnych branżach.

Jednak te zyski zależą całkowicie od danych, na których się opierają. GenAI zaczyna się od zbudowania solidnego fundamentu danych, poprzez silne zarządzanie danymi. I chociaż GenAI i agentowa AI będą się nadal rozwijać, nie zastąpią nadzoru ludzkiego w najbliższym czasie. Zamiast tego wkraczamy w fazę ustrukturyzowanego tworzenia wartości, w której AI staje się niezawodnym drugim pilotem. Dzięki odpowiednim inwestycjom w jakość danych, zarządzanie i kulturę, firmy mogą w końcu przekształcić GenAI z obiecującego pilota w coś, co w pełni ruszy z miejsca.

Steve Holyer jest liderem platformy danych w regionie EMEA North w InformatykaSteve prowadzi firmy podczas ich transformacji cyfrowych, poprzez doradztwo i wdrażanie, ze szczególnym uwzględnieniem kluczowych aspektów, takich jak zarządzanie danymi, bezpieczeństwo i prywatność danych oraz migracja do chmury.