Vođe misli
Nije stvar u tome što umjetna inteligencija može učiniti za nas, već što mi možemo učiniti za umjetnu inteligenciju

Većina ljudi umjetnu inteligenciju (UI) gleda jednostrano. Tehnologija postoji samo da bi služila ljudima i postigla nove razine učinkovitosti, točnosti i produktivnosti. Ali što ako propuštamo polovicu jednadžbe? I što ako time samo pojačavamo nedostatke tehnologije?
Umjetna inteligencija je u ranoj fazi i još se suočava sa značajnim ograničenjima u zaključivanju, kvaliteti podataka i razumijevanju koncepata poput povjerenja, vrijednosti i poticaja. Razlika između trenutnih sposobnosti i prave „inteligencije“ je znatna. Dobre vijesti? To možemo promijeniti tako što ćemo postati aktivni suradnici, a ne pasivni potrošači umjetne inteligencije.
Ljudi drže ključ inteligentne evolucije pružajući bolje okvire za razmišljanje, pružajući kvalitetne podatke i premošćujući jaz povjerenja. Kao rezultat toga, čovjek i stroj mogu raditi rame uz rame na obostrano korist – s boljom suradnjom koja generira bolje podatke i bolje rezultate.
Razmotrimo kako bi mogao izgledati simbiotskiji odnos i kako, kao partnerima, smislena suradnja može koristiti objema stranama jednadžbe umjetne inteligencije.
Potreban odnos između čovjeka i stroja
Umjetna inteligencija je nesumnjivo izvrsna u analizi ogromnih skupova podataka i automatizaciji složenih zadataka. Međutim, tehnologija ostaje fundamentalno ograničena u razmišljanju poput nas. Prvo, ovi modeli i platforme imaju problema s rasuđivanjem izvan svojih podataka za obuku. Prepoznavanje uzoraka i statističko predviđanje ne predstavljaju problem, ali kontekstualno prosuđivanje i logičke okvire koje uzimamo zdravo za gotovo teže je replicirati. Ovaj jaz u rasuđivanju znači da umjetna inteligencija često posustaje kada se suoči s nijansiranim scenarijima ili etičkim prosuđivanjem.
Drugo, postoji kvaliteta podataka tipa "smeće unutra, smeće van". Trenutni modeli se obučavaju na ogromnim količinama informacija sa i bez pristanka. Neprovjerene ili pristrane informacije koriste se bez obzira na pravilnu atribuciju ili autorizaciju, što rezultira... neprovjerena ili pristrana umjetna inteligencija, "dijeta s podacima„modela“ je stoga u najboljem slučaju upitan, a u najgorem raspršen. Korisno je razmišljati o ovom utjecaju u nutritivnom smislu. Ako ljudi jedu samo nezdravu hranu, spori smo i tromi. Ako agenti konzumiraju samo materijal zaštićen autorskim pravima i rabljeni materijal, njihov učinak je slično otežan s rezultatima koji su netočni, nepouzdani i općeniti, a ne specifični. Ovo je još daleko autonomno i proaktivno donošenje odluka obećano u nadolazećem valu agenata.
Ključno je to što umjetna inteligencija još uvijek ne zna s kim i s čime komunicira. Ne može razlikovati usklađene i neusklađene korisnike, teško provjerava odnose i ne razumije koncepte poput povjerenja, razmjene vrijednosti i poticaja dionika – ključnih elemenata koji upravljaju ljudskim interakcijama.
Problemi umjetne inteligencije s ljudskim rješenjima
Moramo razmišljati o platformama, alatima i agentima umjetne inteligencije manje kao sluge i više kao asistenti koje možemo pomoći u obuci. Za početak, pogledajmo zaključivanje. Možemo uvesti nove logičke okvire, etičke smjernice i strateško razmišljanje koje AI sustavi ne mogu sami razviti. Promišljenim poticanjem i pažljivim nadzorom možemo nadopuniti statističke snage AI-a ljudskom mudrošću – učeći ih prepoznavati obrasce i razumjeti kontekste koji te obrasce čine smislenima.
Slično tome, umjesto da se umjetnoj inteligenciji dopusti učenje na bilo kojim informacijama koje može prikupiti s interneta, ljudi mogu prikupljati kvalitetnije skupove podataka koji su provjereni, raznoliki i etički dobiveni.
To znači razvoj boljih sustava atribucije gdje se kreatori sadržaja prepoznaju i kompenziraju za svoj doprinos obuci.
Novi okviri to omogućuju. ujedinjavanje online identiteta pod jednim zastavom i odlučivši žele li i što žele dijeliti, korisnici mogu opremiti modele informacijama bez ikakve odgovornosti koje poštuju privatnost, pristanak i propise. Još bolje, praćenjem tih informacija na blockchainu, korisnici i kreatori modela mogu vidjeti odakle dolaze informacije i adekvatno kompenzirati kreatore za pružanje ovih informacija.novo ulje„Na ovaj način odamo priznanje korisnicima za njihove podatke i uključujemo ih u informacijsku revoluciju.“
Konačno, premošćivanje jaza povjerenja znači naoružavanje modela ljudskim vrijednostima i stavovima. To znači osmišljavanje mehanizama koji prepoznaju dionike, provjeravaju odnose i razlikuju usklađene i neusklađene korisnike. Kao rezultat toga, pomažemo umjetnoj inteligenciji da razumije svoj operativni kontekst – tko ima koristi od njezinih postupaka, što doprinosi njezinom razvoju i kako vrijednost teče kroz sustave u kojima sudjeluje.
Na primjer, agenti podržani blockchain infrastrukturom prilično su dobri u tome. Mogu prepoznati i dati prioritet korisnicima s dokazanom podrškom ekosustavu putem reputacije, društvenog utjecaja ili vlasništva tokena. To omogućuje umjetnoj inteligenciji da uskladi poticaje dajući veću težinu dionicima koji imaju utjecaja, stvarajući sustave upravljanja u kojima provjereni podupiratelji sudjeluju u donošenju odluka na temelju svoje razine angažmana. Kao rezultat toga, umjetna inteligencija dublje razumije svoj ekosustav i može donositi odluke na temelju stvarnih odnosa s dionicima.
Ne zaboravite ljudski element u umjetnoj inteligenciji
Mnogo je rečeno o usponu ove tehnologije i kako ona prijeti reformama industrija i gubitku radnih mjesta. Međutim, uvođenje zaštitnih ograda može osigurati da umjetna inteligencija proširuje, a ne nadjačava ljudsko iskustvo. Na primjer, najuspješnije implementacije umjetne inteligencije ne zamjenjuju ljude, već proširuju ono što možemo postići zajedno. Kada umjetna inteligencija obavlja rutinske analize, a ljudi pružaju kreativno vodstvo i etički nadzor, obje strane doprinose svojim jedinstvenim snagama.
Kada se pravilno izvede, umjetna inteligencija obećava poboljšanje kvalitete i učinkovitosti bezbrojnih ljudskih procesa. Ali kada se izvede pogrešno, ograničena je upitnim izvorima podataka i samo oponaša inteligenciju umjesto da prikazuje stvarnu inteligenciju. Na nama je, ljudskoj strani jednadžbe, da te modele učinimo pametnijima i osiguramo da naše vrijednosti, prosudbe i etika ostanu u njihovom središtu.
Povjerenje je neizostavno da bi ova tehnologija postala općeprihvaćena. Kada korisnici mogu provjeriti kamo idu njihovi podaci, vidjeti kako se koriste i sudjelovati u vrijednosti koju stvaraju, postaju voljni partneri, a ne nevoljki subjekti. Slično tome, kada sustavi umjetne inteligencije mogu iskoristiti usklađene dionike i transparentne podatkovne kanale, postaju pouzdaniji. Zauzvrat, veća je vjerojatnost da će dobiti pristup našim najvažnijim privatnim i profesionalnim prostorima, stvarajući zamašnjak boljeg pristupa podacima i poboljšanih rezultata.
Dakle, ulazeći u ovu sljedeću fazu umjetne inteligencije, usredotočimo se na povezivanje čovjeka i stroja s provjerljivim odnosima, kvalitetnim izvorima podataka i preciznim sustavima. Trebali bismo se pitati ne što umjetna inteligencija može učiniti za nas, već što mi možemo učiniti za umjetnu inteligenciju.