Connect with us

De ce o încredere oarbă în IA ar putea fi cea mai proastă decizie pe care o puteți lua

Lideri de opinie

De ce o încredere oarbă în IA ar putea fi cea mai proastă decizie pe care o puteți lua

mm

În 1979, un Manual de instruire IBM a făcut o avertizare simplă, dar izbitoare: “Un computer nu poate fi niciodată responsabil; prin urmare, un computer nu trebuie să ia niciodată o decizie de management.” Și mai mult de 45 de ani mai târziu, această declarație pare a fi o profeție ignorată.

În 2025, IA nu doar asistă; ia decizii autonome, și în multe cazuri, nu doar decide, ci și conduce. De fapt, în jurul a 74% din directori executivi au mai multă încredere în IA pentru consultanță de afaceri în comparație cu colegii sau prietenii, 38% au încredere în IA pentru a lua decizii de afaceri în numele lor, și 44% deferă raționamentului tehnologiei mai mult decât propriilor insight-uri. Schimbarea este evidentă; IA este noul instinct visceral.

Dar există o problemă. Încrederea în IA este posibilă doar dacă algoritmul este demn de încredere. Și atunci când încrederea este plasată orb, mai ales în cutii negre pe care nu le putem înțelege sau audita, este un risc deghizat în progres. La fel ca și în cazul conducerii umane, încrederea fără responsabilitate este periculoasă, și atunci când IA greșește, cine suportă consecințele?

Când instrumentul devine șeful

Ce a început ca un instrument pentru optimizarea operațiunilor de back-office este acum utilizat în procese de afaceri de bază. Dar companiile nu utilizează doar IA pentru a susține deciziile umane; ele își pun acum încrederea în IA, în special în IA generativă (GenIA), pentru a lua decizii de afaceri, de la strategia de afaceri la serviciul clienți, modelarea financiară și multe altele.

Acestă schimbare este înțeleasă. IA nu se distrează, nu uită instrucțiunile și nu își permite ca emoțiile să îi tulbure judecata. Pentru multe companii, aceasta oferă un antidot atractiv pentru riscurile erorilor umane. Cu toate acestea, o întrebare cheie rămâne: putem avea încredere în IA să fie șeful și să ia decizii independent?

Nu este un răspuns simplu, dar o modalitate de a privi lucrurile este cum judecăm oamenilor încrederea: prin competență, fiabilitate și intenție clară. Aceleași principii se aplică și IA.

Pentru a fi de încredere, un sistem IA trebuie să ofere rezultate care sunt precise, la timp și adecvate. Dar nivelul de încredere și marja de eroare variază în funcție de context. De exemplu, atunci când se diagnostichează cancer din imagini medicale, pragul de eșec este extrem de scăzut. În schimb, atunci când se generează idei pentru o campanie de marketing, există mai mult spațiu pentru experimentare.

Am văzut IA utilizată pentru a lua decizii autonome în domenii precum aprobarea creditelor, cu bănci care utilizează algoritmi pentru a determina eligibilitatea pentru împrumuturi în secunde. Retailerii utilizează IA pentru a gestiona stocurile și prețurile fără intervenție umană. Dar am văzut și eșecuri – precum mașinile autonome care greșesc condițiile drumului.

O poveste de avertizare arată riscurile plasării prea multă încredere în IA fără supraveghere adecvată. Derek Mobley – un bărbat negru peste 40 de ani – a aplicat pentru peste 100 de poziții prin sistemul de angajare bazat pe IA Workday din 2017 și a fost refuzat de fiecare dată. El a susținut discriminarea pe bază de vârstă și rasă. În mai 2025, instanța a acordat o acțiune colectivă la nivel național. Clasa include toți solicitanții cu vârsta peste 40 de ani care au aplicat prin Workday din septembrie 2020 și au fost refuzați pe baza recomandărilor IA.

Acest exemplu subliniază un punct important: IA lipsește inteligență emoțională, raționament moral sau un simț natural al echității. Și deoarece IA se mută de la asistentul uman la decidentul independent, există acum un vid de responsabilitate. Atunci când algoritmii sunt lăsați să ruleze fără verificări și echilibre umane, ei pot și fac decizii proaste și întăresc prejudecățile existente.

Întrebarea din jurul cutiilor negre

Cutii negre – atunci când un sistem și logica IA nu sunt pe deplin vizibile – sunt din ce în ce mai comune. Deși pot avea straturi vizibile, dezvoltatorii și utilizatorii nu pot vedea ce se întâmplă la fiecare strat, făcându-le opace.

De exemplu, ChatGPT este o cutie neagră, deoarece chiar și creatorii săi nu sunt siguri cum funcționează, deoarece a fost antrenat pe seturi de date atât de mari. Dar din cauza lipsei de transparență, este vreodată acceptabil să “încredințezi” un model IA fără a înțelege pe deplin cum funcționează?

Scurt spus, nu: halucinațiile IA se înrăutățesc. Acest lucru înseamnă că, în scenarii cu risc ridicat, cum ar fi deciziile financiare, consultanța juridică și insight-urile medicale, IA necesită o validare riguroasă, verificare și supraveghere umană.

Procesul Disney și Universal depus în iunie 2025 subliniază acest punct. Studiourile susțin că uneltele GenIA au fost antrenate pe materiale cu drepturi de autor pentru a crea conținut nou fără acord. Acest caz subliniază o nouă realitate: atunci când companiile implementează modele IA pe care nu le înțeleg pe deplin, ele pot fi responsabile pentru deciziile luate. Și ignorarea nu este o apărare; este o obligație.

Cu toate acestea, adesea ne încredem în sisteme complexe pe care nu le înțelegem. De exemplu, majoritatea pasagerilor de avion nu pot explica fizica zborului, dar oamenii urcă în avioane cu încredere pentru că am construit încredere prin expunere repetată, experiență colectivă și un palmares puternic de siguranță.

Aceeași logică se poate aplica din nou IA. Nu este rezonabil să așteptăm ca toată lumea să înțeleagă cum funcționează realmente LLM-urile. Dar încrederea nu se bazează pe înțelegere; necesită familiaritate, transparență cu privire la limitări și un model dovedit de performanță fiabilă. Inginerii aerospațiali știu ce teste să pună în aplicare și ce erori arată, și trebuie să cerem același lucru de la furnizorii de GenIA. Principiul fundamental al IA ar trebui să fie încredere, dar verifică.

Mai mult, liderii de afaceri cred adesea că IA va fi glonțul de argint care va rezolva toate problemele lor de afaceri. Cu toate acestea, acest mit afectează multe companii atunci când integrează IA. Liderii ar putea prefera modele complexe și sofisticate, dar o soluție mai simplă ar putea fi mai potrivită dacă ar efectua o analiză cost-beneficiu. IA este un instrument puternic, dar nu este adecvat pentru fiecare sarcină. Companiile trebuie să recunoască problema înainte de a selecta un instrument.

Reconstruirea încrederii în IA

În timp ce este clar că a avea încredere oarbă în IA este o problemă, sistemele și algoritmii IA pot fi cel mai bun instrument pe care o afacere îl poate deține – atunci când se utilizează în siguranță.

Pentru afacerile care doresc să utilizeze instrumente IA, primul lucru pe care trebuie să îl cerceteze este datoria de diligență a furnizorului. Atunci când o afacere a identificat o zonă care ar putea beneficia de eficiența IA, liderii de afaceri ar trebui să evalueze furnizorii nu doar pe baza pretențiilor de performanță, ci și pe baza controalelor de guvernanță. Acest lucru include revizuirea modului în care sunt dezvoltate modelele, dacă există instrumente de explicare, cum se monitorizează prejudecățile și dacă există urme de audit. Alegerea unui furnizor cu procese transparente este esențială pentru mitigarea riscurilor de la început.

Poate cel mai important punct atunci când se construiește încrederea în sistemele IA este asigurarea guvernanței datelor cu seturi de date curate, reprezentative și bine documentate. Așa cum se spune: gunoi în, gunoi afară. Prin urmare, dacă datele sunt incomplete, prejudecate sau inexacte, chiar și cel mai avansat model va produce rezultate neverosimile.

Pentru a asigura că datele sunt gata pentru IA, afacerile ar trebui:

  • Să auditeze seturile de date existente pentru lacune și duplicări și să verifice sursele de prejudecăți

  • Să standardizeze formatele de date

  • Să implementeze politici de guvernanță a datelor care definesc proprietatea și controalele de acces

Un alt pas cheie pentru liderii de afaceri este testarea sub diferite condiții. Deși un model poate funcționa bine în teste controlate, este critic să se înțeleagă limitările modelului atunci când este confruntat cu date sau intrări noi pe care nu le-a anticipat. De aceea, este important să se testeze IA în diverse situații, cu diferiți utilizatori, cazuri de utilizare și date din diferite perioade de timp.

Validarea IA este, de asemenea, o sarcină în desfășurare. Pe măsură ce datele se schimbă în timp, chiar și modelele IA fiabile pot pierde precizia. De aceea, monitorizarea regulată contează. Afacerile trebuie să monitorizeze modul în care funcționează modelul de la o zi la alta: este încă precis? Sau apar fals pozitive? Și, la fel ca orice sistem care necesită întreținere, modelele ar trebui reantrenate regulat cu date proaspete pentru a rămâne relevante.

IA nu este de încredere sau neîncredere; este modelată de datele pe care le învață, de oamenii care o creează și de regulile care o guvernează. Pe măsură ce IA se dezvoltă de la un instrument util la un consilier de afaceri, liderii au opțiunea de a o utiliza nu doar, ci și într-un mod gândit și etic. Dacă o facem corect, IA nu va fi doar puternică în viitor, ci și responsabilă, cu responsabilitatea clar situată la dezvoltator și supraveghetor.

Martin Lewit este SVP (Senior Vice President) al Nisum, un partener global de consultanță specializat în comerț digital și evoluție care construiește platforme alimentate de inteligență artificială și soluții personalizate care deblochează creșterea, optimizează operațiunile și creează valoare pe termen lung.

Cu o vastă experiență în rezolvarea unor provocări comerciale complexe cu soluții inovatoare, interesele lui Martin includ dezvoltarea și instruirea celor care lucrează cu el și generarea de conexiuni care creează oportunități noi și interesante, oferind o conducere eficientă, viziune strategică și o focalizare zilnică pe construirea unei culturi inovatoare, sub deviza companiei "Construirea succesului împreună".