Liderzy opinii
Łamiąc cykl: Jak organizacje mogą ominąć doomprompting i osiągnąć sukces

Od czasu swojego teoretycznego pojęcia w latach 50., sztuczna inteligencja (AI) otworzyła drogę dla firm do doświadczenia zwiększonych możliwości i produktywności za pomocą różnych technik, szczególnie systemów machine learning. Te narzędzia/technologie poprawiły prognozowanie i podejmowanie decyzji, tworząc podstawy dla przyszłych postępów technicznych. W ostatnich czasach, Generative AI obiecało odwrócić wszystko, co wiemy o pracy i udemokratyzować doświadczenie AI. Użytkownicy teraz angażują się w modele AI, takie jak ChatGPT, za pomocą “promptingu”, gdzie jeden взаимодействует z modelem AI. Jednak te korzyści również przychodzą z nowym wyzwaniem: Doomprompting. Jest to równoznaczne z doom scrolling na treściach online, bez określonego celu, uwięzieniem użytkowników w króliczych norach. Z AI jednak, królicza nora odpowiada. Ten akt ciągłego udoskonalania promptów AI dla modeli generatywnych i agentywnych, napędzany ambicją uzyskania idealnego wyjścia (i czasem przez promptowanie bez konkretnego celu), prowadzi do zwiększonych kosztów i malejących zwrotów. Tworzy to znaczną przeszkodę na drodze do sukcesu i podważa cel stosowania technologii AI samej w sobie.
Podczas gdy firmy zwiększają swoje budżety związane z AI, decydenci muszą zrozumieć drogę do rzeczywistych zwrotów z inwestycji i jaka jest wartość, którą generują. Raport z 2025 roku przez IEEE, ‘The Hidden Costs of AI: How Small Inefficiencies Stack Up,’ demonstruje, jak niewielkie dostosowania mogą się kumulować w znaczące obciążenia ekonomiczne. Aby uniknąć stania się częścią tej kosztownej walki, organizacje muszą udoskonalić szkolenie swoich pracowników za pomocą LLM, aby osiągnąć pełny potencjał swoich inwestycji w AI.
Generative AI przynosi obietnicę optymalizacji i wydajności. Jednak gdy zespoły zostają uwięzione w cyklu niekończącego się udoskonalania (lub bezradnego błądzenia), nieefektywność podważa tę podstawę.
Oczyszczanie „Workslop”
Jednym z powodów, dla których zespoły ciągle udoskonalają wyjścia, aby wygenerować idealną odpowiedź, jest workslop. Po raz pierwszy opisany w Harvard Business Review, workslop obejmuje ‘AI-wygenerowaną treść, która maskuje się jako dobra praca, ale brakuje jej substancji, aby znacząco przyczynić się do danego zadania.’
Ta AI-wyprodukowana „słabość” jest pierwszym domino w długiej linii, tworzącej cykl doompromptingu. Podczas gdy modyfikowanie słabej treści za pomocą iteracji lub edycji jest ważne, trzeba wiedzieć, kiedy przestać, zanim to się stanie w stromym zboczu malejących zwrotów. Organizacje muszą podejść do swojego czasowego zaangażowania w szkolenie AI z delikatną równowagą. Z jednej strony, zespoły powinny być świadome wymaganego poziomu jakości; z drugiej strony, powinny wiedzieć, kiedy jest to zbyt wiele. Szkolenie pracowników w inteligentnym wykorzystaniu modeli AI za pomocą optymalnego promptowania i wyraźnych celów również byłoby przydatne.
Wykorzystanie Agentic AI, aby uniknąć Doompromptingu
W ostatnich latach, firmy znacznie zwiększyły swoje zainteresowanie i inwestycje w agentic AI, który jest rozpoznawany za jego zdolność do poprawy efektywności operacyjnej. Agentic AI może wziąć złożone zadania, zorganizować z wieloma agentami (w tym RAG i action agentami), aby zdecydować o kursie działania, i wykonać zadania, aby ukończyć całe zadanie autonomicznie.
Te cechy mogą pomóc AI w uniknięciu doompromptingu, lub ominąć go całkowicie. To może usunąć potrzebę instruowania interfejsów GenAI za pomocą wielu promptów, aby ukończyć zadanie. Przykładem tego może być AI-wspomagane zarządzanie IT, lub AIOps, które nowocześniają IT, wprowadzając AI do codziennych zadań. Tradycyjnie, zespoły spędzają swój czas na ręcznym dostosowywaniu systemów. 21-wieczne departamenty to te, które wykorzystują AI do autonomicznego obsługiwanie krytycznych funkcji, takich jak rozwiązywanie problemów, reagowanie na incydenty i alokacja zasobów.
Innym przykładem jest to, jak agentic AI systemy mogą obsłużyć złożony incydent autonomicznie. Ci agenci, wraz z ITOps, są w stanie zrozumieć kontekst incydentu, zorganizować z agentami rozumowania, aby zdecydować o kursie działania, użyć agentów akcji, aby wykonać ostatnią milę poprawek w systemach IT i w końcu, zatrudnić agentów uczenia, aby zrozumieć rozwiązanie i zastosować je bardziej efektywnie w przyszłych incydentach.
Agentic AI inteligentna automatyzacja pomaga w mniejszym ludzkim zaangażowaniu i wykonuje zadania autonomicznie. Aby spełnić ewoluujące wymagania biznesowe, zadania i operacje powtarzalne powinny zostać przekazane do autonomicznego AI. To delegowanie eliminuje cykl ponownego promptowania i powtarzalnego udoskonalania, który często napędza doomprompting. Autonomiczne operacje pozwalają modelom AI na ciągłe optymalizowanie i reagowanie na zmieniające się zmienne bez ręcznego wprowadzania, prowadząc do szybszych wyników z minimalnym ludzkim zaangażowaniem.
Podczas gdy wykwalifikowani profesjonaliści nadal będą odgrywać instrumentalną rolę w codziennych operacjach za pomocą podejścia human-in-the-loop, ich czas będzie lepiej wykorzystany w skanowaniu wyników weryfikacji. To podejście minimalizuje ryzyko wprowadzania błędów lub nadmiernej regulacji.
Rola zarządzania w zapobieganiu Doompromptingowi
W niedawnym badaniu McKinsey, 88% respondentów zgłosiło wykorzystywanie AI w co najmniej jednej funkcji biznesowej. Było to 10% skok w porównaniu z 2024 rokiem i zdumiewający 33% wzrost od 2023 roku. Dla Agentic AI, ten skok był jeszcze bardziej znaczący. Od zaledwie 33% w 2023 roku do niemal 80% w 2025 roku.
To powszechne przyjęcie powoduje, że firmy szukają nowych rozwiązań dla doompromptingu. Jednym z takich narzędzi są solidne ramy zarządzania. Powinny one być starannie opracowane, aby zapewnić, że projekty AI pozostają zgodne z celami biznesowymi i nie ulegają niekończącemu się tańcowi optymalizacji. Gdy zespoły rozwijają te ramy, powinny uwzględnić:
- Ustanowienie wytycznych: Strumienie danych do i z modeli AI stają się coraz bardziej złożone. Aby to uprościć, wytyczne AI powinny tworzyć ramy dla zespołów, aby obsłużyć dane, podejmować decyzje i zarządzać wyjściami AI w sposób odpowiedzialny.
- Szkolenie użytkowników: Prawidłowe szkolenie w zakresie korzystania z promptów może przyczynić się do optymalnej produktywności
- Użycie specjalistycznych modeli: Modele AI specyficzne dla branży i celu są bardziej prawdopodobne, aby dostarczyć kontekstowe i znaczące wyjścia szybciej
- Szkolenie modeli AI: Szkolenie modeli AI z danymi specyficznymi dla branży/zadania/organizacji (gdziekolwiek jest to możliwe) może prowadzić do mniej workslop i bardziej odpowiednich wyjść szybciej.
- Rozwój reguł: Opracowanie i wdrożenie jasnego zestawu reguł jest niezbędne do kierowania rozwojem i wdrożeniem AI. Gdy zespoły ustanawiają granice operacyjne, zapewniają, że przyjęte systemy są zgodne z celami organizacyjnymi, standardami etycznymi i wymogami regulacyjnymi.
Podczas gdy tempo przyjęcia rozwiązań AI rośnie, zarządzanie nie. Według raportu PEX Industry z 2025 roku , mniej niż połowa ma politykę zarządzania AI na miejscu. Tymczasem tylko 25% było w trakcie wdrożenia, a niemal jedna trzecia nie miała żadnej polityki zarządzania AI na miejscu. Te ramy mogą być decydującym czynnikiem w pomocy firmom w ustaleniu wyraźnych granic tego, co stanowi dopuszczalną wydajność.
Ucieczka z pętli Doompromptingu
Aby ominąć wpadnięcie w cykl doompromptingu, firmy muszą przyjąć strategie AI, które priorytetowo traktują wyniki nad perfekcją. Użycie szkolenia promptów, modeli AI specyficznych dla celu i modeli szkolonych na danych kontekstowych przedsiębiorstwa może zmniejszyć potrzebę obszernego ponownego promptowania. Firmy, które wykorzystują agentic AI, autonomiczne operacje IT i solidne ramy zarządzania, mogą przeznaczyć krytyczne zasoby na osiąganie swoich celów biznesowych, nie zostając przytłoczonymi przez niekończące się cykle optymalizacji. Sukces nastąpi, gdy zespoły zmienią swoją mentalność z ciągłego udoskonalania na wykonanie zorientowane na wyniki i mierzone rezultaty.












