Povežite se s nama

Vođe misli

Nije stvar u tome što umjetna inteligencija može učiniti za nas, već što mi možemo učiniti za umjetnu inteligenciju

mm

Objavljeno

 on

Većina ljudi umjetnu inteligenciju (UI) gleda jednostrano. Tehnologija postoji samo da bi služila ljudima i postigla nove razine učinkovitosti, točnosti i produktivnosti. Ali što ako propuštamo polovicu jednadžbe? I što ako time samo pojačavamo nedostatke tehnologije?

Umjetna inteligencija je u ranoj fazi i još se suočava sa značajnim ograničenjima u zaključivanju, kvaliteti podataka i razumijevanju koncepata poput povjerenja, vrijednosti i poticaja. Razlika između trenutnih sposobnosti i prave „inteligencije“ je znatna. Dobre vijesti? To možemo promijeniti tako što ćemo postati aktivni suradnici, a ne pasivni potrošači umjetne inteligencije.

Ljudi drže ključ inteligentne evolucije pružajući bolje okvire za razmišljanje, pružajući kvalitetne podatke i premošćujući jaz povjerenja. Kao rezultat toga, čovjek i stroj mogu raditi rame uz rame na obostrano korist – s boljom suradnjom koja generira bolje podatke i bolje rezultate.

Razmotrimo kako bi mogao izgledati simbiotskiji odnos i kako, kao partnerima, smislena suradnja može koristiti objema stranama jednadžbe umjetne inteligencije.

Potreban odnos između čovjeka i stroja

Umjetna inteligencija je nesumnjivo izvrsna u analizi ogromnih skupova podataka i automatizaciji složenih zadataka. Međutim, tehnologija ostaje fundamentalno ograničena u razmišljanju poput nas. Prvo, ovi modeli i platforme imaju problema s rasuđivanjem izvan svojih podataka za obuku. Prepoznavanje uzoraka i statističko predviđanje ne predstavljaju problem, ali kontekstualno prosuđivanje i logičke okvire koje uzimamo zdravo za gotovo teže je replicirati. Ovaj jaz u rasuđivanju znači da umjetna inteligencija često posustaje kada se suoči s nijansiranim scenarijima ili etičkim prosuđivanjem.

Drugo, postoji kvaliteta podataka tipa "smeće unutra, smeće van". Trenutni modeli se obučavaju na ogromnim količinama informacija sa i bez pristanka. Neprovjerene ili pristrane informacije koriste se bez obzira na pravilnu atribuciju ili autorizaciju, što rezultira... neprovjerena ili pristrana umjetna inteligencija, "dijeta s podacima„modela“ je stoga u najboljem slučaju upitan, a u najgorem raspršen. Korisno je razmišljati o ovom utjecaju u nutritivnom smislu. Ako ljudi jedu samo nezdravu hranu, spori smo i tromi. Ako agenti konzumiraju samo materijal zaštićen autorskim pravima i rabljeni materijal, njihov učinak je slično otežan s rezultatima koji su netočni, nepouzdani i općeniti, a ne specifični. Ovo je još daleko autonomno i proaktivno donošenje odluka obećano u nadolazećem valu agenata.

Ključno je to što umjetna inteligencija još uvijek ne zna s kim i s čime komunicira. Ne može razlikovati usklađene i neusklađene korisnike, teško provjerava odnose i ne razumije koncepte poput povjerenja, razmjene vrijednosti i poticaja dionika – ključnih elemenata koji upravljaju ljudskim interakcijama.

Problemi umjetne inteligencije s ljudskim rješenjima

Moramo razmišljati o platformama, alatima i agentima umjetne inteligencije manje kao sluge i više kao asistenti koje možemo pomoći u obuci. Za početak, pogledajmo zaključivanje. Možemo uvesti nove logičke okvire, etičke smjernice i strateško razmišljanje koje AI sustavi ne mogu sami razviti. Promišljenim poticanjem i pažljivim nadzorom možemo nadopuniti statističke snage AI-a ljudskom mudrošću – učeći ih prepoznavati obrasce i razumjeti kontekste koji te obrasce čine smislenima.

Slično tome, umjesto da se umjetnoj inteligenciji dopusti učenje na bilo kojim informacijama koje može prikupiti s interneta, ljudi mogu prikupljati kvalitetnije skupove podataka koji su provjereni, raznoliki i etički dobiveni.

To znači razvoj boljih sustava atribucije gdje se kreatori sadržaja prepoznaju i kompenziraju za svoj doprinos obuci.

Novi okviri to omogućuju. ujedinjavanje online identiteta pod jednim zastavom i odlučivši žele li i što žele dijeliti, korisnici mogu opremiti modele informacijama bez ikakve odgovornosti koje poštuju privatnost, pristanak i propise. Još bolje, praćenjem tih informacija na blockchainu, korisnici i kreatori modela mogu vidjeti odakle dolaze informacije i adekvatno kompenzirati kreatore za pružanje ovih informacija.novo ulje„Na ovaj način odamo priznanje korisnicima za njihove podatke i uključujemo ih u informacijsku revoluciju.“

Konačno, premošćivanje jaza povjerenja znači naoružavanje modela ljudskim vrijednostima i stavovima. To znači osmišljavanje mehanizama koji prepoznaju dionike, provjeravaju odnose i razlikuju usklađene i neusklađene korisnike. Kao rezultat toga, pomažemo umjetnoj inteligenciji da razumije svoj operativni kontekst – tko ima koristi od njezinih postupaka, što doprinosi njezinom razvoju i kako vrijednost teče kroz sustave u kojima sudjeluje.

Na primjer, agenti podržani blockchain infrastrukturom prilično su dobri u tome. Mogu prepoznati i dati prioritet korisnicima s dokazanom podrškom ekosustavu putem reputacije, društvenog utjecaja ili vlasništva tokena. To omogućuje umjetnoj inteligenciji da uskladi poticaje dajući veću težinu dionicima koji imaju utjecaja, stvarajući sustave upravljanja u kojima provjereni podupiratelji sudjeluju u donošenju odluka na temelju svoje razine angažmana. Kao rezultat toga, umjetna inteligencija dublje razumije svoj ekosustav i može donositi odluke na temelju stvarnih odnosa s dionicima.

Ne zaboravite ljudski element u umjetnoj inteligenciji

Mnogo je rečeno o usponu ove tehnologije i kako ona prijeti reformama industrija i gubitku radnih mjesta. Međutim, uvođenje zaštitnih ograda može osigurati da umjetna inteligencija proširuje, a ne nadjačava ljudsko iskustvo. Na primjer, najuspješnije implementacije umjetne inteligencije ne zamjenjuju ljude, već proširuju ono što možemo postići zajedno. Kada umjetna inteligencija obavlja rutinske analize, a ljudi pružaju kreativno vodstvo i etički nadzor, obje strane doprinose svojim jedinstvenim snagama.

Kada se pravilno izvede, umjetna inteligencija obećava poboljšanje kvalitete i učinkovitosti bezbrojnih ljudskih procesa. Ali kada se izvede pogrešno, ograničena je upitnim izvorima podataka i samo oponaša inteligenciju umjesto da prikazuje stvarnu inteligenciju. Na nama je, ljudskoj strani jednadžbe, da te modele učinimo pametnijima i osiguramo da naše vrijednosti, prosudbe i etika ostanu u njihovom središtu.

Povjerenje je neizostavno da bi ova tehnologija postala općeprihvaćena. Kada korisnici mogu provjeriti kamo idu njihovi podaci, vidjeti kako se koriste i sudjelovati u vrijednosti koju stvaraju, postaju voljni partneri, a ne nevoljki subjekti. Slično tome, kada sustavi umjetne inteligencije mogu iskoristiti usklađene dionike i transparentne podatkovne kanale, postaju pouzdaniji. Zauzvrat, veća je vjerojatnost da će dobiti pristup našim najvažnijim privatnim i profesionalnim prostorima, stvarajući zamašnjak boljeg pristupa podacima i poboljšanih rezultata.

Dakle, ulazeći u ovu sljedeću fazu umjetne inteligencije, usredotočimo se na povezivanje čovjeka i stroja s provjerljivim odnosima, kvalitetnim izvorima podataka i preciznim sustavima. Trebali bismo se pitati ne što umjetna inteligencija može učiniti za nas, već što mi možemo učiniti za umjetnu inteligenciju.

Yukai Tu je glavni tehnološki direktor u CARVYukai je stručnjak za povjerljivo računalstvo i blockchain te ima magisterij računalnih znanosti sa sveučilišta UCLA. U CARV-u, Yukai pomaže u izgradnji CARV SVM lanac međutim CARV-ov DATA Framework, agentska infrastruktura koja proširuje SVM-ove mogućnosti na Ethereum i osnažuje AI agente visokokvalitetnim podacima na lancu i izvan lanca. Također je radio kao softverski inženjer u Googleu i Coinbaseu, suradnik na Cosmos SDK-u i voditelj blockchain inženjeringa u LINO-u.