Leaders d’opinion
Comment les humains peuvent naviguer dans la course aux armes de l’IA
Les outils d’IA sont considérés par beaucoup comme un atout pour la recherche, qu’il s’agisse de projets de travail, de travaux scolaires ou de science. Par exemple, au lieu de passer des heures à examiner minutieusement les sites Web, vous pouvez simplement poser une question à ChatGPT, et il vous retournera une réponse apparemment cohérente. La question, cependant, est – pouvez-vous faire confiance à ces résultats ? L’expérience montre que la réponse est souvent « non ». L’IA ne fonctionne bien que lorsque les humains sont plus impliqués, en dirigeant et en supervisant, puis en vérifiant les résultats qu’elle produit par rapport au monde réel. Mais avec la croissance rapide du secteur de l’IA générative et de nouveaux outils constamment publiés, il peut être difficile pour les consommateurs de comprendre et d’adopter le rôle qu’ils doivent jouer lorsqu’ils travaillent avec des outils d’IA.
Le secteur de l’IA est énorme et ne cesse de grandir, les experts affirmant qu’il sera d’une valeur de plus d’un trillion de dollars d’ici 2030. Il ne devrait donc pas surprendre que presque toutes les grandes entreprises de technologie – d’Apple à Amazon, d’IBM à Microsoft, et de nombreuses autres – publient leur propre version de technologie d’IA, et en particulier des produits d’IA générative avancés.
Compte tenu de ces enjeux, il ne devrait pas non plus surprendre que les entreprises travaillent le plus vite possible pour publier de nouvelles fonctionnalités qui leur donneront un avantage sur la concurrence. C’est, en effet, une course aux armes, avec des entreprises qui cherchent à verrouiller le plus grand nombre d’utilisateurs possible dans leur écosystème. Les entreprises espèrent que des fonctionnalités qui permettent aux utilisateurs d’utiliser des systèmes d’IA de la manière la plus simple possible – comme être en mesure d’obtenir toutes les informations nécessaires pour un projet de recherche en posant simplement une question à un chatbot d’IA générative – leur permettront de gagner plus de clients, qui resteront avec le produit ou la marque à mesure que de nouvelles fonctionnalités sont ajoutées régulièrement.
Mais parfois, dans leur course pour être les premiers, les entreprises publient des fonctionnalités qui n’ont peut-être pas été correctement vérifiées, ou dont les limites ne sont pas bien comprises ou définies. Alors que les entreprises ont compétitionné dans le passé pour des parts de marché sur de nombreuses technologies et applications, il semble que la course actuelle aux armes conduise plus d’entreprises à publier plus de produits « à moitié cuits » que jamais – avec les résultats à moitié cuits qui en découlent. S’appuyer sur de tels résultats à des fins de recherche – que ce soit pour des raisons professionnelles, personnelles, médicales, universitaires ou autres – pourrait conduire à des résultats indésirables, notamment des dommages à la réputation, des pertes d’entreprise ou même des risques pour la vie.
Les erreurs d’IA ont causé des pertes importantes à plusieurs entreprises. Une entreprise appelée iTutor a été condamnée à payer 365 000 dollars en 2023, après que son algorithme d’IA ait rejeté des dizaines de candidats à l’embauche en raison de leur âge. Le marché immobilier Zillow a perdu des centaines de millions de dollars en 2021 en raison de prévisions de prix incorrectes de son système d’IA. Les utilisateurs qui ont compté sur l’IA pour des conseils médicaux ont également été exposés aux risques. Chat GPT, par exemple, a fourni des informations inexactes aux utilisateurs sur l’interaction entre le médicament anti-hypertenseur verapamil et Paxlovid, le médicament antiviral de Pfizer contre le Covid-19 – et sur la question de savoir si un patient pouvait prendre ces médicaments en même temps. Ceux qui comptent sur les conseils incorrects du système selon lesquels il n’y a pas d’interaction entre les deux pourraient se mettre en danger.
Alors que ces incidents ont fait les gros titres, de nombreux autres ratés d’IA ne le font pas – mais ils peuvent être tout aussi mortels pour les carrières et les réputations. Par exemple, un responsable marketing harassé à la recherche d’un raccourci pour préparer des rapports pourrait être tenté d’utiliser un outil d’IA pour le générer – et si cet outil présente des informations qui ne sont pas correctes, il pourrait se retrouver à la recherche d’un autre emploi. Un étudiant qui utilise ChatGPT pour rédiger un rapport – et dont le professeur est suffisamment perspicace pour réaliser la source de ce rapport – pourrait faire face à un F, possiblement pour le semestre. Et un avocat dont l’assistant utilise des outils d’IA pour des travaux juridiques pourrait se retrouver sanctionné ou même radié si l’affaire qu’il présente est biaisée en raison de mauvaises données.
Presque toutes ces situations peuvent être prévenues – si les humains dirigent l’IA et ont plus de transparence dans la boucle de recherche. L’IA doit être considérée comme un partenariat entre l’homme et la machine. C’est une véritable collaboration – et c’est sa valeur exceptionnelle.
Alors que des fonctionnalités de recherche, de mise en forme et d’analyse plus puissantes sont les bienvenues, les fabricants de produits d’IA doivent également inclure des mécanismes qui permettent cette coopération. Les systèmes doivent inclure des outils de vérification des faits qui permettront aux utilisateurs de vérifier les résultats des rapports d’outils comme ChatGPT, et de voir les sources originales de points de données ou de pièces d’information spécifiques. Cela produira à la fois une recherche supérieure et restaurera la confiance en nous-mêmes ; nous pouvons soumettre un rapport, ou recommander une politique avec confiance, en fonction de faits que nous faisons confiance et que nous comprenons.
Les utilisateurs doivent également reconnaître et peser ce qui est en jeu lorsqu’ils comptent sur l’IA pour produire des recherches. Ils devraient peser le niveau de fastidiosité par rapport à l’importance du résultat. Par exemple, les humains peuvent probablement se permettre d’être moins impliqués lorsqu’ils utilisent l’IA pour comparer des restaurants locaux. Mais lorsqu’ils effectuent des recherches qui éclaireront des décisions commerciales à haute valeur ou la conception d’avions ou d’équipements médicaux, par exemple, les utilisateurs doivent être plus impliqués à chaque étape du processus de recherche piloté par l’IA. Plus la décision est importante, plus il est important que les humains en fassent partie. La recherche pour des décisions relativement petites peut probablement être entièrement confiée à l’IA.
L’IA s’améliore tout le temps – même sans l’aide humaine. Il est possible, sinon probable, que des outils d’IA capables de se vérifier eux-mêmes émergent, en vérifiant leurs résultats par rapport au monde réel de la même manière qu’un humain le ferait – soit en rendant le monde un endroit beaucoup mieux, soit en le détruisant. Mais les outils d’IA peuvent ne pas atteindre ce niveau aussi vite que beaucoup le croient, ou jamais. Cela signifie que le facteur humain sera toujours essentiel dans tout projet de recherche. Aussi bons que soient les outils d’IA pour découvrir des données et organiser des informations, ils ne peuvent pas être confiés pour évaluer le contexte et utiliser ces informations de la manière dont nous, en tant qu’êtres humains, avons besoin qu’elles soient utilisées. Pour un avenir prévisible, il est important que les chercheurs considèrent les outils d’IA pour ce qu’ils sont ; des outils pour aider à accomplir la tâche, plutôt que quelque chose qui remplace les humains et les cerveaux humains sur le travail.












