Leaders d’opinion
IA et l’arc de confiance

Au début de l’année dernière, lorsque notre équipe faisait des prévisions sur ce qui allait se passer, le consensus était que les enveloppes allaient être retirées de l’intelligence artificielle (IA). Nous allions enfin voir ce qu’elle pouvait faire, et espérons, gagner en clarté sur son impact sur les entreprises et la société et sur la façon de procéder. Ce n’était pas une prédiction nouvelle, mais son noyau était précis, bien que nous soyons toujours aux prises avec les implications de l’IA et avec la façon (ou si) elle devrait être contrôlée d’une certaine manière.
Nous allions voir Apple, Microsoft et Google intégrer l’IA dans les appareils et apporter son pouvoir à un public plus large et plus important. Puis, un chatbot dans un outil de recherche alimenté par l’IA a menacé les utilisateurs et a prétendu espionner les employés, tandis qu’un autre a suggéré d’utiliser de la colle Elmer pour faire des pizzas maison pour empêcher le fromage de glisser. Néanmoins, les cas d’utilisation de l’adoption commerciale de l’IA ont augmenté de manière spectaculaire et le marché a également augmenté. Selon les données de Crunchbase, près de un tiers de tout le financement des entreprises de venture l’année dernière est allé aux entreprises dans les domaines liés à l’IA seuls.
Mais même si OpenAI a livré une raison truly remarquable améliorée, le chercheur éminent en IA, Yoshua Bengio, a plaidé en faveur de l’adoption de mesures de sécurité pour les « modèles de frontière » ayant le potentiel de causer des dommages catastrophiques. Et même si la technologie allait remporter deux prix Nobel pour des applications dans la science, l’un de ses lauréats a exprimé des inquiétudes quant à avoir des systèmes « plus intelligents que nous qui finissent par prendre le contrôle ».
Dans un espace en évolution rapide, il est difficile pour les technologistes experts de suivre, sans parler de ceux du grand public.
Et ces ratés de l’IA – et les préoccupations en matière de confidentialité et d’utilisation non contrôlée – n’ont fait qu’accroître la prudence du public.
Faites-moi confiance
Nous nous trouvons à mi-chemin d’un arc de confiance, qui nécessite de faire progresser l’acceptation publique de l’IA, tout en veillant à ce que les communautés d’entreprises et de technologie agissent de manière responsable. La première partie est là où le jeu est joué en ce moment, au niveau corporatif, en gagnant de la vapeur avec chaque déploiement sûr et solide. Nous bâtissons sur nos points de preuve, qui finiront par conduire à une confiance accrue du public. La deuxième partie, cependant, est beaucoup plus délicate.
Qui définit et impose une utilisation responsable de l’IA ? Une industrie peut-elle créer des lignes directrices lorsqu’elle est celle qui a besoin d’être réglementée ? Si les technologistes ont du mal à suivre l’IA, les décideurs politiques seront-ils informés et garderont-ils leurs agendas politiques en dehors de la discussion ? Et lorsqu’un milliardaire de l’IA veut soudainement parler de contrôle, a-t-il eu une révélation ou essaie-t-il simplement de freiner pour rattraper son retard ?
« Faites-moi confiance » ne suffira pas avec l’IA, peu importe qui vous êtes.
Faites-moi confiance, mais vérifiez
Les gens regardent l’IA générative comme ChatGPT et se demandent si ce sera leur prochain Google ? Eh bien, le premier résultat d’une recherche Google est maintenant créé par son modèle d’IA, Gemini. Le problème est que vous ne pouvez pas vous fier à lui pour les entreprises à grande échelle lorsque une simple question comme « La viande crue est-elle sûre à consommer ? » donne la réponse : « Oui, congelée ». Vous devez inspecter les données.
L’arc de confiance du public suivra ce qu’il a fait avec la recherche conventionnelle, gagné avec le temps et avec la preuve de fiabilité. Ironiquement, dans notre quête pour simplifier et améliorer la recherche, nous avons fait un pas en arrière. Maintenant, après avoir obtenu cette réponse générée par l’IA en haut, vous devez faire défiler une longue liste de liens de parrainage, cliquez sur les cinq suivants et qualifier encore l’information.
C’est beaucoup de travail lorsque vous cherchez une réponse rapide – et vous ne pouvez pas avoir une entreprise entière qui fait la même chose. Cependant, enrichissez les données que vous avez extraites avec des dizaines de milliers de vos propres tickets de service et vous apportez des connaissances réelles sur votre environnement. Algorithmiquement, vous pouvez alors configurer les hallucinations vers le bas, mais il s’agit toujours d’une situation « faites-moi confiance, mais vérifiez ».
Gardez la politique en dehors de cela
Lorsqu’il s’agit de réglementer l’IA, certaines personnes affirment que le cheval est déjà sorti de l’écurie et qu’il ne sera probablement pas rattrapé. Par exemple, il n’y a pas d’outils vraiment efficaces pour vérifier si un étudiant a rédigé un document ou utilisé GenAI. La technologie est simplement trop en avance.
La réglementation de cela serait très complexe, et pour être honnête, nous serions sur une glace mince. Nous savons que les sociétés de technologie sont des décennies en avance sur les régulateurs extérieurs proposés. Mais nous sommes doués pour tracer un chemin, et non pour être retenus. Néanmoins, à la fin de la journée, il peut incomber aux innovateurs d’essayer d’appliquer une gouvernance. Qui d’autre pourrait le faire – de manière responsable ?
Il y a de nombreux politiciens qui aimeraient essayer. Le risque, en plus d’un manque de compréhension, est que s’ils ont un agenda personnel et politique à faire progresser. Leur objectif, potentiellement, serait moins de cultiver l’IA et plus de faire ce qui est dans leurs meilleurs intérêts politiques. Ils pourraient travailler à partir de ces peurs publiques, en utilisant une main lourde pour entraver sa progression.
La loi CHIPS et Science a été un bon exemple d’action gouvernementale saine, produisant une augmentation spectaculaire de 15 fois de la construction d’usines de fabrication pour les ordinateurs et les appareils électroniques. Mais cela a été rendu possible grâce au bipartisme – de plus en plus un vestige d’une époque révolue.
Sommes-nous dignes ?
Il y a beaucoup d’argent qui s’écoule dans l’IA et, au cours des deux prochaines décennies, beaucoup seront faits par les sociétés de technologie. Combien, à quelle vitesse et avec quelle sécurité reste à voir. À tout moment, un faux profond pourrait être diffusé, montrant quelqu’un dans les projecteurs en train de jongler avec les œufs d’un oiseau en voie de disparition. Le public réagirait avec horreur, et même si cela pourrait être révélé comme étant généré par l’IA, cet œuf ne retourne pas dans la coquille – les dégâts sont faits.
Nous avons besoin que de telles choses soient réglementées par des technologistes informés. Quelle forme cela prendra – un conseil, un organisme de normalisation, un cadre international – reste à voir. Ce qui est connu, c’est que l’IA est sur un arc de confiance, et en tant qu’industrie, nous devons prouver que nous en sommes dignes.












