Connect with us

Cum Am Transferat Cunoștințele Mele în Sisteme AI Care Pot Lua Decizii Ca Experții Umani

Lideri de opinie

Cum Am Transferat Cunoștințele Mele în Sisteme AI Care Pot Lua Decizii Ca Experții Umani

mm
A human expert in a technical control room teaching an AI system to make complex decisions through a holographic interface.

Când am părăsit Microsoft și am continuat să lucrez cu întreprinderi pe implementările lor de IA, am observat că majoritatea sistemelor de IA despre care oamenii erau entuziasmați nu puteau, de fapt, lua decizii cu adevărată judecată umană. Desigur, puteau scrie, rezuma și produce texte remarcabil de fluente care sunau ca o decizie, dar atunci când le introduceți într-un mediu operațional real, unde există compromisuri, incertitudini, instrucțiuni incomplete și consecințe reale, ele se confruntă rapid cu dificultăți. Acest lucru se potrivește cu datele de la Proiectul NANDA al MIT, care arată că, deși 60% dintre organizații au evaluat instrumente de IA, doar 20% au ajuns la stadiul de pilotaj, și doar 5% au ajuns la producție. Cu alte cuvinte, industria se confruntă cu dificultăți în a construi sisteme care pot funcționa cu adevărat în fluxurile de lucru reale.

În mediile întreprinderilor, în special în domenii precum lanțul de aprovizionare, producție și operațiuni, obținerea unui răspuns nu este grea; ceea ce este greu este să știi cui să încrezi răspunsul, care variabile sunt cele mai importante și ce este probabil să nu meargă bine dacă greșești. În ochii mei, aceasta este atât o problemă de expertiză, cât și una de judecată.

Pentru a fi clar, IA a făcut progrese extraordinare în producerea de ieșiri mai bune. Dar o ieșire mai bună nu este același lucru cu o decizie mai bună. Acestea sunt două etape distincte, și cred că industria a petrecut mult timp tratându-le ca fiind interschimbabile.

Lipsa de expertiză și judecată este motivul pentru care m-am interesat de construirea de IA pe care experții umani o pot învăța să ia decizii complexe așa cum o fac ei. IA nu ar trebui să fie doar despre automatizarea sarcinilor, ci și despre transferul eficient și sigur al judecății umane în IA care funcționează.

Modelele de limbaj mare (LLM) vorbesc ca și cum ar lua decizii, dar nu sunt

Nu există nicio îndoială că LLM sunt utile, dar ele nu sunt, prin definiție, sisteme de luare a deciziilor. Ele sunt sisteme de predicție învelite în limbaj. Și limbajul este convingător, ceea ce face parte din problemă. Dacă un sistem poate explica fluent, ușor trecem cu vederea ceea ce el înțelege. Îi pui o întrebare de afaceri, el îți dă un răspuns structurat cu compromisuri, rezerve și un rezumat mic la sfârșit, făcându-l să pară mai deștept decât este. A suna coerent și a fi competent operațional nu sunt același lucru, și aici se confruntă multe IA din întreprinderi. Modelele pot spune ce sună ca o decizie bună fără a avea nicio înțelegere a ceea ce face o decizie bună sub presiune, în timp sau în context. Acesta este unul dintre motivele pentru care multe organizații se confruntă cu dificultăți în a trece dincolo de experimentare. Gartner a constatat că cel puțin 50% din proiectele de IA generativă sunt abandonate după demonstrații de concept, mult înainte de a avea un impact operațional real, adesea din cauza lipsei de valoare și control al riscurilor.

Informația nu este același lucru cu expertiza

Una dintre capcanele cele mai ușoare în care poți cădea cu IA este aceea de a presupune că, dacă un sistem are suficientă informație, ar trebui să poată funcționa ca un expert. Sună rezonabil, dar atunci când te gândești la viața de zi cu zi, creșterea informației despre ceva nu ne face automat experți. Poți citi toate manualele de aviație și totuși nu fi pregătit să aterizezi un avion. Poți memora toate cele mai bune practici în lanțul de aprovizionare și totuși îngheța când trei lucruri merg prost simultan.

Aș putea continua, dar punctul este că informația nu se traduce în capacitate. Capacitatea vine din experiență, în special, din expunerea repetată la situații complexe în care răspunsul nu este evident.

În fiecare zi, văd că majoritatea sistemelor de IA de astăzi sunt antrenate pe exemple statice. Acest lucru este util pentru a face predicții, dar aceasta este doar o mică parte a luării deciziilor. Întreprinderile nu lipsesc date, ci necesită medii structurate pentru practică, ceea ce înseamnă oferirea sistemelor unor medii în care pot:

  • Întâlni scenarii realiste
  • Lua decizii
  • Vede ce se întâmplă
  • Primească feedback
  • Se îmbunătățească în timp

IA poate fi antrenată folosind algoritmi predictivi, dar această abordare are limitări. Ceea ce este necesar în continuare este o IA care poate fi antrenată într-un mediu simulat cu supraveghere umană. Eu numesc acest lucru învățare a mașinilor, o metodologie care descompune decizii complexe în scenarii și abilități, oferind o ghidare pentru experții umani să învețe IA prin simulare. Rezultatul feedback-ului și al încercărilor și erorilor permite, în cele din urmă, agenților să învețe și să acționeze cu autonomie reală din partea oamenilor care au construit aceste procese.

Oprește-te să tratezi IA ca pe o entitate monolitică

O altă greșeală pe care o văd des este presupunerea că un singur model mare ar trebui, cumva, să facă totul. Nicio echipă de baschet nu este formată dintr-o singură persoană. Nicio fabrică nu este condusă de un individ. Sistemele complexe funcționează pentru că diferitele componente îndeplinesc sarcini diferite, și există o structură care le ține împreună.

IA ar trebui să fie construită în același mod. Nu cred că viitorul luării deciziilor în întreprinderi este un singur model uriaș așezat în mijlocul companiei, pretinzând a fi competent universal. Este mult mai probabil să arate ca echipe de agenți specializați.

Un agent ar putea fi expert în recuperarea datelor. Altul este mai bun la evaluarea scenariilor. Altul se ocupă de planificare. Unul verifică conformitatea sau prinde contradicții. Altul acționează mai mult ca un supraveghetor, decidând când să escaladeze sau când încrederea este prea scăzută pentru a continua. Arhitectura bazată pe echipe are mult mai mult sens pentru mine, deoarece se potrivește cu modul în care funcționează organizațiile reale și se aliniază cu tendințele mai largi de pe piață. Descoperirile McKinsey susțin că organizațiile obțin cea mai mare valoare din IA prin redesenarea fluxurilor de lucru și structurilor operaționale în jurul acesteia.

Nu toate deciziile sunt luate în același mod, și prea des presupunem că același model, aceleași date și același tip de raționament pot gestiona toate.

Cele patru moduri în care deciziile sunt luate, de fapt

În experiența mea, majoritatea deciziilor tind să cadă în câteva categorii:

  1. Sisteme de control (reguli și formule): Deciziile sunt luate prin aplicarea unor ecuații predefinite sau reguli la intrări cunoscute. Dacă X se întâmplă, fac Y.
  2. Căutare și optimizare: Deciziile sunt luate prin evaluarea mai multor opțiuni posibile și selectarea celei mai bune pe baza unui obiectiv definit.
  3. Învățare prin întărire (încercare și eroare): Deciziile sunt învățate în timp prin luarea de acțiuni, observarea rezultatelor și ajustarea în funcție de recompensă sau penalizare.
  4. Practică și experiență (învățare în stil uman): Deciziile sunt modelate prin expunere repetată, feedback ghidat și judecată acumulată în scenarii reale.

Majoritatea IA din întreprinderi funcționează bine în primele două categorii. Ultimile două categorii sunt mai provocatoare pentru IA, deoarece acolo trăiește judecata umană.

Autonomia fără structură este risc

Oricând oamenii vorbesc despre IA autonomă, conversația tinde să se împartă în două extreme. O parte crede că sistemele sunt, în esență, magice și gata să conducă totul. Cealaltă parte acționează ca și cum nu ar trebui să fie niciodată încredințate cu ceva semnificativ.

Nu cred că niciuna dintre aceste perspective este utilă. Ar trebui să ne concentrăm pe autonomie în cadrul structurii, deoarece autonomia fără supraveghere, logică de escaladare, limite sau răspundere este principala sursă de risc. Problemele de risc devin mai evidente acum, inclusiv în conversații modelate de eforturi precum Cadrul de gestionare a riscurilor IA al Institutului Național de Standarde și Tehnologie, care reflectă modul serios în care organizațiile abordează chestiunile supravegherii, răspunderii și încrederii operaționale.

Viitorul IA în întreprinderi se află în echipe de agenți. Organizațiile care obțin cea mai mare valoare din IA nu vor fi cele care automatizează cele mai multe cuvinte. Sunt cele care reușesc să transfere expertiza reală în sisteme care pot funcționa atunci când mediul devine complex. Acesta, în opinia mea, este diferența dintre IA care pare impresionantă și IA care devine cu adevărat utilă, producând un ROI real.

Kence Anderson este fondatorul și CEO al AMESA și fost director al adoptării autonomiei AI la Microsoft. El este un pionier în domeniul agenților autonomi inteligenți, având co-creat „Machine Teaching”, o metodologie care permite agenților AI să dezvolte autonomie în lumea reală prin simulare, feedback și încercări-erori. În ultimii șapte ani, Kence s-a concentrat exclusiv pe proiectarea, construirea și implementarea agenților autonomi inteligenți pentru producție și logistică, conducând peste 200 de implementări în lumea reală pentru corporații majore, inclusiv Shell, PepsiCo și Delta Airlines. El este, de asemenea, autorul cărții Designing Autonomous AI (O’Reilly, 2022) și acum dezvoltă o platformă orizontală pentru orchestrarea agenților AI pentru a lua decizii de milioane de dolari în operațiunile întreprinderilor.