Suivez nous sur

Il ne s’agit pas de ce que l’IA peut faire pour nous, mais de ce que nous pouvons faire pour l’IA

Des leaders d'opinion

Il ne s’agit pas de ce que l’IA peut faire pour nous, mais de ce que nous pouvons faire pour l’IA

mm

Publié

 on

La plupart des gens voient l'intelligence artificielle (IA) Ă  travers une perspective Ă  sens unique. Cette technologie n'existe que pour servir les humains et atteindre de nouveaux niveaux d'efficacitĂ©, de prĂ©cision et de productivitĂ©. Mais que se passe-t-il si nous passons Ă  cĂŽtĂ© de la moitiĂ© de l'Ă©quation ? Et si, ce faisant, nous ne faisons qu'amplifier les failles de la technologie ?

L'IA en est Ă  ses balbutiements et se heurte encore Ă  d'importantes limites en matiĂšre de raisonnement, de qualitĂ© des donnĂ©es et de comprĂ©hension de concepts tels que la confiance, la valeur et les incitations. L'Ă©cart entre les capacitĂ©s actuelles et la vĂ©ritable « intelligence Â» est considĂ©rable. La bonne nouvelle ? Nous pouvons changer cela en devenant des collaborateurs actifs plutĂŽt que des consommateurs passifs de l'IA.

L'humain dĂ©tient la clĂ© d'une Ă©volution intelligente en fournissant de meilleurs cadres de raisonnement, en fournissant des donnĂ©es de qualitĂ© et en comblant le fossĂ© de confiance. Ainsi, l'homme et la machine peuvent travailler cĂŽte Ă  cĂŽte pour une situation gagnant-gagnant : une meilleure collaboration gĂ©nĂšre de meilleures donnĂ©es et de meilleurs rĂ©sultats.

Voyons Ă  quoi pourrait ressembler une relation plus symbiotique et comment, en tant que partenaires, une collaboration significative peut profiter aux deux cĂŽtĂ©s de l’équation de l’IA.

La relation nécessaire entre l'homme et la machine

L'IA excelle incontestablement dans l'analyse de vastes ensembles de données et l'automatisation de tùches complexes. Cependant, cette technologie reste fondamentalement limitée pour penser comme nous. PremiÚrement, ces modÚles et plateformes peinent à raisonner au-delà de leurs données d'entraßnement. La reconnaissance de formes et la prédiction statistique ne posent aucun problÚme, mais le jugement contextuel et les cadres logiques que nous tenons pour acquis sont plus difficiles à reproduire. Ce manque de raisonnement signifie que l'IA vacille souvent face à des scénarios nuancés ou à des jugements éthiques.

DeuxiĂšmement, la qualitĂ© des donnĂ©es est souvent inĂ©gale. Les modĂšles actuels sont entraĂźnĂ©s sur de vastes quantitĂ©s d'informations, avec ou sans consentement. Des informations non vĂ©rifiĂ©es ou biaisĂ©es sont utilisĂ©es sans aucune attribution ni autorisation, ce qui entraĂźne des IA non vĂ©rifiĂ©e ou biaisĂ©e. Le "rĂ©gime de donnĂ©es« L'efficacitĂ© des modĂšles est donc, au mieux, discutable, au pire, dispersĂ©e. Il est utile de considĂ©rer cet impact en termes nutritionnels. Si les humains ne mangent que de la malbouffe, nous sommes lents et paresseux. Si les agents ne consomment que des contenus protĂ©gĂ©s par des droits d'auteur et d'occasion, leurs performances sont Ă©galement entravĂ©es par des rĂ©sultats inexacts, peu fiables et gĂ©nĂ©raux plutĂŽt que spĂ©cifiques. C'est encore loin la prise de dĂ©cision autonome et proactive promise par la prochaine vague d’agents.

L'IA reste aveugle à la personne et à l'objet de ses interactions. Elle ne parvient pas à distinguer les utilisateurs alignés des utilisateurs non alignés, peine à vérifier les relations et ne parvient pas à comprendre des concepts tels que la confiance, l'échange de valeur et les incitations des parties prenantes, autant d'éléments fondamentaux qui régissent les interactions humaines.

ProblĂšmes d'IA avec des solutions humaines

Nous devons penser aux plateformes, aux outils et aux agents d’IA moins comme serviteurs et bien plus encore, comme assistants que nous pouvons aider Ă  former. Pour commencer, examinons le raisonnement. Nous pouvons introduire de nouveaux cadres logiques, des lignes directrices Ă©thiques et une rĂ©flexion stratĂ©gique que les systĂšmes d'IA ne peuvent dĂ©velopper seuls. GrĂące Ă  des incitations rĂ©flĂ©chies et Ă  une supervision attentive, nous pouvons complĂ©ter les atouts statistiques de l'IA par la sagesse humaine, en leur apprenant Ă  reconnaĂźtre des schĂ©mas et Ă  comprendre les contextes qui les rendent significatifs.

De mĂȘme, plutĂŽt que de permettre Ă  l’IA de s’entraĂźner sur toutes les informations qu’elle peut extraire d’Internet, les humains peuvent organiser des ensembles de donnĂ©es de meilleure qualitĂ©, vĂ©rifiĂ©s, diversifiĂ©s et provenant de sources Ă©thiques.

Cela signifie dĂ©velopper de meilleurs systĂšmes d’attribution oĂč les crĂ©ateurs de contenu sont reconnus et rĂ©munĂ©rĂ©s pour leurs contributions Ă  la formation.

Les cadres Ă©mergents rendent cela possible. unir les identitĂ©s en ligne sous une mĂȘme banniĂšre En dĂ©cidant s'ils souhaitent partager ou non des informations, et ce qu'ils souhaitent partager, les utilisateurs peuvent fournir aux modĂšles des informations zero-party respectueuses de la vie privĂ©e, du consentement et des rĂ©glementations. Mieux encore, en suivant ces informations sur la blockchain, les utilisateurs et les modĂ©lisateurs peuvent connaĂźtre leur provenance et rĂ©munĂ©rer adĂ©quatement les crĂ©ateurs pour leur fourniture.nouvelle huile« C’est ainsi que nous reconnaissons les utilisateurs pour leurs donnĂ©es et les intĂ©grons Ă  la rĂ©volution de l’information.

Enfin, combler le dĂ©ficit de confiance implique d'intĂ©grer des valeurs et des attitudes humaines aux modĂšles. Cela implique de concevoir des mĂ©canismes qui reconnaissent les parties prenantes, vĂ©rifient les relations et distinguent les utilisateurs alignĂ©s des utilisateurs non alignĂ©s. Ainsi, nous aidons l'IA Ă  comprendre son contexte opĂ©rationnel : qui bĂ©nĂ©ficie de ses actions, ce qui contribue Ă  son dĂ©veloppement et comment la valeur circule dans les systĂšmes auxquels elle participe.

Par exemple, les agents s'appuyant sur une infrastructure blockchain sont trĂšs performants dans ce domaine. Ils peuvent identifier et prioriser les utilisateurs dont l'adhĂ©sion Ă  l'Ă©cosystĂšme est dĂ©montrĂ©e par leur rĂ©putation, leur influence sociale ou la possession de jetons. Cela permet Ă  l'IA d'aligner les incitations en accordant plus de poids aux parties prenantes impliquĂ©es, crĂ©ant ainsi des systĂšmes de gouvernance oĂč les soutiens vĂ©rifiĂ©s participent Ă  la prise de dĂ©cision en fonction de leur niveau d'engagement. Ainsi, l'IA comprend mieux son Ă©cosystĂšme et peut prendre des dĂ©cisions Ă©clairĂ©es par de vĂ©ritables relations avec les parties prenantes.

Ne perdez pas de vue l’élĂ©ment humain dans l’IA

On a beaucoup parlé de l'essor de cette technologie et de la menace qu'elle représente pour les industries et les emplois. Cependant, l'intégration de garde-fous peut garantir que l'IA enrichisse l'expérience humaine plutÎt que de la supplanter. Par exemple, les implémentations d'IA les plus réussies ne remplacent pas l'humain, mais étendent nos possibilités d'accomplissement commun. Lorsque l'IA gÚre les analyses de routine et que l'humain assure la direction créative et le contrÎle éthique, les deux parties apportent leurs atouts spécifiques.

Bien utilisĂ©e, l'IA promet d'amĂ©liorer la qualitĂ© et l'efficacitĂ© d'innombrables processus humains. Mais mal utilisĂ©e, elle est limitĂ©e par des sources de donnĂ©es douteuses et ne fait qu'imiter l'intelligence au lieu de la reproduire. C'est Ă  nous, l'humain, de rendre ces modĂšles plus intelligents et de veiller Ă  ce que nos valeurs, notre jugement et notre Ă©thique restent au cƓur de leurs prĂ©occupations.

La confiance est essentielle pour que cette technologie se gĂ©nĂ©ralise. Lorsque les utilisateurs peuvent vĂ©rifier oĂč vont leurs donnĂ©es, voir comment elles sont utilisĂ©es et participer Ă  la valeur qu'elles crĂ©ent, ils deviennent des partenaires volontaires plutĂŽt que des sujets rĂ©ticents. De mĂȘme, lorsque les systĂšmes d'IA peuvent s'appuyer sur des parties prenantes alignĂ©es et des pipelines de donnĂ©es transparents, ils gagnent en fiabilitĂ©. En retour, ils sont plus susceptibles d'accĂ©der Ă  nos espaces privĂ©s et professionnels les plus importants, crĂ©ant ainsi un levier d'amĂ©lioration de l'accĂšs aux donnĂ©es et des rĂ©sultats.

Alors, pour aborder cette nouvelle phase de l'IA, concentrons-nous sur la connexion de l'homme et de la machine grùce à des relations vérifiables, des sources de données de qualité et des systÚmes précis. Nous devrions nous demander non pas ce que l'IA peut faire pour nous, mais ce que nous pouvons faire pour l'IA.

Yukai Tu est le directeur de la technologie chez CARVYukai est un expert en informatique confidentielle et en blockchain et est titulaire d'une maßtrise en informatique de l'UCLA. Chez CARV, Yukai aide à construire Chaßne CARV SVM et Cadre de données de CARV, une infrastructure agentique qui étend les capacités de SVM à Ethereum et fournit aux agents IA des données on-chain et off-chain de haute qualité. Il a également travaillé comme ingénieur logiciel chez Google et Coinbase, contributeur au SDK Cosmos et responsable de l'ingénierie blockchain chez LINO.