Myšlienkoví vodcovia
Nejde o to, čo pre nás dokáže umelá inteligencia, ale o to, čo my dokážeme pre umelú inteligenciu.

Väčšina ľudí sa na umelú inteligenciu (AI) pozerá jednostranne. Táto technológia existuje len preto, aby slúžila ľuďom a dosahovala nové úrovne efektívnosti, presnosti a produktivity. Čo ak nám však chýba polovica rovnice? A čo ak tým len zväčšujeme nedostatky technológie?
Umelá inteligencia je ešte len v plienkach a stále čelí značným obmedzeniam v uvažovaní, kvalite údajov a chápaní konceptov, ako sú dôvera, hodnota a stimuly. Rozdiel medzi súčasnými schopnosťami a skutočnou „inteligenciou“ je značný. Dobrá správa? Môžeme to zmeniť tým, že sa staneme aktívnymi spolupracovníkmi, a nie pasívnymi spotrebiteľmi umelej inteligencie.
Ľudia držia kľúč k inteligentnej evolúcii tým, že poskytujú lepšie rámce uvažovania, poskytujú kvalitné údaje a premosťujú priepasť dôvery. Vďaka tomu môžu človek a stroj spolupracovať bok po boku na obojstranne výhodnom základe – lepšia spolupráca generuje lepšie údaje a lepšie výsledky.
Pozrime sa, ako by mohol vyzerať symbiotickejší vzťah a ako môže zmysluplná spolupráca prospieť obom stranám rovnice umelej inteligencie ako partnerom.
Požadovaný vzťah medzi človekom a strojom
Umelá inteligencia je nepochybne skvelá v analýze rozsiahlych súborov údajov a automatizácii zložitých úloh. Táto technológia však zostáva zásadne obmedzená v tom, ako myslí ako my. Po prvé, tieto modely a platformy zápasia s uvažovaním nad rámec svojich tréningových údajov. Rozpoznávanie vzorov a štatistické predpovede nepredstavujú problém, ale kontextový úsudok a logické rámce, ktoré považujeme za samozrejmosť, sa ťažšie replikujú. Táto medzera v uvažovaní znamená, že umelá inteligencia často zlyháva, keď čelí nuansovaným scenárom alebo etickému úsudku.
Po druhé, existuje kvalita údajov typu „odpad dnu, odpad von“. Súčasné modely sú trénované na obrovskom množstve informácií so súhlasom aj bez neho. Neoverené alebo skreslené informácie sa používajú bez ohľadu na riadne uvedenie zdroja alebo autorizáciu, čo vedie k... neoverená alebo skreslená umelá inteligencia, Funkcia "dátová diéta„modelov je preto v najlepšom prípade otázny a v najhoršom prípade rozptýlený. Je užitočné uvažovať o tomto vplyve z hľadiska výživy. Ak ľudia jedia iba nezdravé jedlo, sme pomalí a leniví. Ak agenti konzumujú iba materiál chránený autorskými právami a použitý materiál, ich výkon je podobne obmedzený výstupmi, ktoré sú nepresné, nespoľahlivé a skôr všeobecné ako špecifické. Toto je ešte ďaleko autonómne a proaktívne rozhodovanie sľúbené v prichádzajúcej vlne agentov.
Kritické je, že umelá inteligencia stále nechápe, s kým a s čím interaguje. Nedokáže rozlišovať medzi zladenými a nezladenými používateľmi, má problém overiť vzťahy a nerozumie konceptom ako dôvera, výmena hodnôt a stimuly zainteresovaných strán – základným prvkom, ktoré riadia ľudské interakcie.
Problémy s umelou inteligenciou a ľudské riešenia
Musíme premýšľať o platformách, nástrojoch a agentoch umelej inteligencie menej ako služobníci a ďalších ako asistentov, ktorých môžeme pomôcť vyškoliť. Na začiatok sa pozrime na uvažovanie. Môžeme zaviesť nové logické rámce, etické zásady a strategické myslenie, ktoré si systémy umelej inteligencie nedokážu samy vyvinúť. Prostredníctvom premysleného nabádania a starostlivého dohľadu môžeme doplniť štatistické silné stránky umelej inteligencie ľudskou múdrosťou – naučiť ich rozpoznávať vzory a chápať kontexty, ktoré týmto vzorom nadávajú zmysel.
Podobne, namiesto toho, aby sa umelá inteligencia učila na akýchkoľvek informáciách, ktoré dokáže získať z internetu, môžu ľudia vytvárať kvalitnejšie súbory údajov, ktoré sú overené, rozmanité a eticky získané.
To znamená vývoj lepších systémov pripisovania, kde sú tvorcovia obsahu uznaní a odmeňovaní za svoj príspevok k vzdelávaniu.
Vznikajúce rámce to umožňujú. Tým, že zjednotenie online identít pod jednou hlavičkou a pri rozhodovaní o tom, či a čo im vyhovuje zdieľať, môžu používatelia vybaviť modely informáciami bez účasti iných subjektov, ktoré rešpektujú súkromie, súhlas a predpisy. Ešte lepšie je, že sledovaním týchto informácií v blockchaine môžu používatelia a tvorcovia modelov vidieť, odkiaľ informácie pochádzajú, a primerane odmeniť tvorcov za ich poskytovanie.nový olej„Takto oceňujeme používateľov za ich údaje a zapájame ich do informačnej revolúcie.“
Preklenutie priepasti dôvery nakoniec znamená vyzbrojiť modely ľudskými hodnotami a postojmi. To znamená navrhnúť mechanizmy, ktoré rozpoznávajú zainteresované strany, overujú vzťahy a rozlišujú medzi zhodnými a nezhodnými používateľmi. Vďaka tomu pomáhame umelej inteligencii pochopiť jej operačný kontext – kto má z jej konania úžitok, čo prispieva k jej rozvoju a ako hodnota prúdi systémami, na ktorých sa podieľa.
Napríklad agenti podporovaní blockchainovou infraštruktúrou sú v tomto celkom dobrí. Dokážu rozpoznať a uprednostniť používateľov s preukázanou účasťou na ekosystéme prostredníctvom reputácie, sociálneho vplyvu alebo vlastníctva tokenov. To umožňuje umelej inteligencii zosúladiť stimuly tým, že pridá väčšiu váhu zainteresovaným stranám s aktívnym prístupom, čím sa vytvoria systémy riadenia, v ktorých sa overení podporovatelia podieľajú na rozhodovaní na základe úrovne ich angažovanosti. Výsledkom je, že umelá inteligencia hlbšie rozumie svojmu ekosystému a môže robiť rozhodnutia na základe skutočných vzťahov so zainteresovanými stranami.
Nezabúdajte na ľudský prvok v umelej inteligencii
Veľa sa už popísalo o vzostupe tejto technológie a o tom, ako hrozí premenou priemyselných odvetví a zničením pracovných miest. Avšak zavedenie ochranných čiar môže zabezpečiť, že umelá inteligencia skôr rozšíri, než prepíše ľudskú skúsenosť. Napríklad najúspešnejšie implementácie umelej inteligencie nenahrádzajú ľudí, ale rozširujú to, čo môžeme spoločne dosiahnuť. Keď umelá inteligencia zabezpečuje rutinnú analýzu a ľudia poskytujú kreatívne vedenie a etický dohľad, obe strany prispievajú svojimi jedinečnými silnými stránkami.
Keď sa umelá inteligencia robí správne, sľubuje zlepšenie kvality a efektivity nespočetných ľudských procesov. Ak sa však robí zle, je obmedzená pochybnými zdrojmi údajov a inteligenciu iba napodobňuje, namiesto toho, aby skutočnú inteligenciu zobrazovala. Je na nás, ľudskej strane rovnice, aby sme tieto modely urobili inteligentnejšími a zabezpečili, aby naše hodnoty, úsudok a etika zostali ich jadrom.
Dôvera je nevyhnutná pre to, aby sa táto technológia stala mainstreamovou. Keď si používatelia môžu overiť, kam ich údaje smerujú, vidieť, ako sa používajú, a podieľať sa na hodnote, ktorú vytvárajú, stávajú sa ochotnými partnermi, a nie neochotnými subjektmi. Podobne, keď systémy umelej inteligencie dokážu využiť zosúladené zainteresované strany a transparentné dátové kanály, stávajú sa dôveryhodnejšími. Na druhej strane je pravdepodobnejšie, že získajú prístup k našim najdôležitejším súkromným a profesionálnym priestorom, čím sa vytvorí zotrvačník lepšieho prístupu k údajom a lepších výsledkov.
Takže, smerom k tejto ďalšej fáze umelej inteligencie, zamerajme sa na prepojenie človeka a stroja pomocou overiteľných vzťahov, kvalitných zdrojov údajov a presných systémov. Nemali by sme sa pýtať, čo môže umelá inteligencia urobiť pre nás, ale čo môžeme my urobiť pre umelú inteligenciu.