Des leaders d'opinion
Il ne sâagit pas de ce que lâIA peut faire pour nous, mais de ce que nous pouvons faire pour lâIA

La plupart des gens voient l'intelligence artificielle (IA) à travers une perspective à sens unique. Cette technologie n'existe que pour servir les humains et atteindre de nouveaux niveaux d'efficacité, de précision et de productivité. Mais que se passe-t-il si nous passons à cÎté de la moitié de l'équation ? Et si, ce faisant, nous ne faisons qu'amplifier les failles de la technologie ?
L'IA en est à ses balbutiements et se heurte encore à d'importantes limites en matiÚre de raisonnement, de qualité des données et de compréhension de concepts tels que la confiance, la valeur et les incitations. L'écart entre les capacités actuelles et la véritable « intelligence » est considérable. La bonne nouvelle ? Nous pouvons changer cela en devenant des collaborateurs actifs plutÎt que des consommateurs passifs de l'IA.
L'humain détient la clé d'une évolution intelligente en fournissant de meilleurs cadres de raisonnement, en fournissant des données de qualité et en comblant le fossé de confiance. Ainsi, l'homme et la machine peuvent travailler cÎte à cÎte pour une situation gagnant-gagnant : une meilleure collaboration génÚre de meilleures données et de meilleurs résultats.
Voyons Ă quoi pourrait ressembler une relation plus symbiotique et comment, en tant que partenaires, une collaboration significative peut profiter aux deux cĂŽtĂ©s de lâĂ©quation de lâIA.
La relation nécessaire entre l'homme et la machine
L'IA excelle incontestablement dans l'analyse de vastes ensembles de données et l'automatisation de tùches complexes. Cependant, cette technologie reste fondamentalement limitée pour penser comme nous. PremiÚrement, ces modÚles et plateformes peinent à raisonner au-delà de leurs données d'entraßnement. La reconnaissance de formes et la prédiction statistique ne posent aucun problÚme, mais le jugement contextuel et les cadres logiques que nous tenons pour acquis sont plus difficiles à reproduire. Ce manque de raisonnement signifie que l'IA vacille souvent face à des scénarios nuancés ou à des jugements éthiques.
DeuxiĂšmement, la qualitĂ© des donnĂ©es est souvent inĂ©gale. Les modĂšles actuels sont entraĂźnĂ©s sur de vastes quantitĂ©s d'informations, avec ou sans consentement. Des informations non vĂ©rifiĂ©es ou biaisĂ©es sont utilisĂ©es sans aucune attribution ni autorisation, ce qui entraĂźne des IA non vĂ©rifiĂ©e ou biaisĂ©e. Le "rĂ©gime de donnĂ©es« L'efficacitĂ© des modĂšles est donc, au mieux, discutable, au pire, dispersĂ©e. Il est utile de considĂ©rer cet impact en termes nutritionnels. Si les humains ne mangent que de la malbouffe, nous sommes lents et paresseux. Si les agents ne consomment que des contenus protĂ©gĂ©s par des droits d'auteur et d'occasion, leurs performances sont Ă©galement entravĂ©es par des rĂ©sultats inexacts, peu fiables et gĂ©nĂ©raux plutĂŽt que spĂ©cifiques. C'est encore loin la prise de dĂ©cision autonome et proactive promise par la prochaine vague dâagents.
L'IA reste aveugle à la personne et à l'objet de ses interactions. Elle ne parvient pas à distinguer les utilisateurs alignés des utilisateurs non alignés, peine à vérifier les relations et ne parvient pas à comprendre des concepts tels que la confiance, l'échange de valeur et les incitations des parties prenantes, autant d'éléments fondamentaux qui régissent les interactions humaines.
ProblĂšmes d'IA avec des solutions humaines
Nous devons penser aux plateformes, aux outils et aux agents dâIA moins comme serviteurs et bien plus encore, comme assistants que nous pouvons aider Ă former. Pour commencer, examinons le raisonnement. Nous pouvons introduire de nouveaux cadres logiques, des lignes directrices Ă©thiques et une rĂ©flexion stratĂ©gique que les systĂšmes d'IA ne peuvent dĂ©velopper seuls. GrĂące Ă des incitations rĂ©flĂ©chies et Ă une supervision attentive, nous pouvons complĂ©ter les atouts statistiques de l'IA par la sagesse humaine, en leur apprenant Ă reconnaĂźtre des schĂ©mas et Ă comprendre les contextes qui les rendent significatifs.
De mĂȘme, plutĂŽt que de permettre Ă lâIA de sâentraĂźner sur toutes les informations quâelle peut extraire dâInternet, les humains peuvent organiser des ensembles de donnĂ©es de meilleure qualitĂ©, vĂ©rifiĂ©s, diversifiĂ©s et provenant de sources Ă©thiques.
Cela signifie dĂ©velopper de meilleurs systĂšmes dâattribution oĂč les crĂ©ateurs de contenu sont reconnus et rĂ©munĂ©rĂ©s pour leurs contributions Ă la formation.
Les cadres Ă©mergents rendent cela possible. unir les identitĂ©s en ligne sous une mĂȘme banniĂšre En dĂ©cidant s'ils souhaitent partager ou non des informations, et ce qu'ils souhaitent partager, les utilisateurs peuvent fournir aux modĂšles des informations zero-party respectueuses de la vie privĂ©e, du consentement et des rĂ©glementations. Mieux encore, en suivant ces informations sur la blockchain, les utilisateurs et les modĂ©lisateurs peuvent connaĂźtre leur provenance et rĂ©munĂ©rer adĂ©quatement les crĂ©ateurs pour leur fourniture.nouvelle huile« Câest ainsi que nous reconnaissons les utilisateurs pour leurs donnĂ©es et les intĂ©grons Ă la rĂ©volution de lâinformation.
Enfin, combler le déficit de confiance implique d'intégrer des valeurs et des attitudes humaines aux modÚles. Cela implique de concevoir des mécanismes qui reconnaissent les parties prenantes, vérifient les relations et distinguent les utilisateurs alignés des utilisateurs non alignés. Ainsi, nous aidons l'IA à comprendre son contexte opérationnel : qui bénéficie de ses actions, ce qui contribue à son développement et comment la valeur circule dans les systÚmes auxquels elle participe.
Par exemple, les agents s'appuyant sur une infrastructure blockchain sont trĂšs performants dans ce domaine. Ils peuvent identifier et prioriser les utilisateurs dont l'adhĂ©sion Ă l'Ă©cosystĂšme est dĂ©montrĂ©e par leur rĂ©putation, leur influence sociale ou la possession de jetons. Cela permet Ă l'IA d'aligner les incitations en accordant plus de poids aux parties prenantes impliquĂ©es, crĂ©ant ainsi des systĂšmes de gouvernance oĂč les soutiens vĂ©rifiĂ©s participent Ă la prise de dĂ©cision en fonction de leur niveau d'engagement. Ainsi, l'IA comprend mieux son Ă©cosystĂšme et peut prendre des dĂ©cisions Ă©clairĂ©es par de vĂ©ritables relations avec les parties prenantes.
Ne perdez pas de vue lâĂ©lĂ©ment humain dans lâIA
On a beaucoup parlé de l'essor de cette technologie et de la menace qu'elle représente pour les industries et les emplois. Cependant, l'intégration de garde-fous peut garantir que l'IA enrichisse l'expérience humaine plutÎt que de la supplanter. Par exemple, les implémentations d'IA les plus réussies ne remplacent pas l'humain, mais étendent nos possibilités d'accomplissement commun. Lorsque l'IA gÚre les analyses de routine et que l'humain assure la direction créative et le contrÎle éthique, les deux parties apportent leurs atouts spécifiques.
Bien utilisĂ©e, l'IA promet d'amĂ©liorer la qualitĂ© et l'efficacitĂ© d'innombrables processus humains. Mais mal utilisĂ©e, elle est limitĂ©e par des sources de donnĂ©es douteuses et ne fait qu'imiter l'intelligence au lieu de la reproduire. C'est Ă nous, l'humain, de rendre ces modĂšles plus intelligents et de veiller Ă ce que nos valeurs, notre jugement et notre Ă©thique restent au cĆur de leurs prĂ©occupations.
La confiance est essentielle pour que cette technologie se gĂ©nĂ©ralise. Lorsque les utilisateurs peuvent vĂ©rifier oĂč vont leurs donnĂ©es, voir comment elles sont utilisĂ©es et participer Ă la valeur qu'elles crĂ©ent, ils deviennent des partenaires volontaires plutĂŽt que des sujets rĂ©ticents. De mĂȘme, lorsque les systĂšmes d'IA peuvent s'appuyer sur des parties prenantes alignĂ©es et des pipelines de donnĂ©es transparents, ils gagnent en fiabilitĂ©. En retour, ils sont plus susceptibles d'accĂ©der Ă nos espaces privĂ©s et professionnels les plus importants, crĂ©ant ainsi un levier d'amĂ©lioration de l'accĂšs aux donnĂ©es et des rĂ©sultats.
Alors, pour aborder cette nouvelle phase de l'IA, concentrons-nous sur la connexion de l'homme et de la machine grùce à des relations vérifiables, des sources de données de qualité et des systÚmes précis. Nous devrions nous demander non pas ce que l'IA peut faire pour nous, mais ce que nous pouvons faire pour l'IA.