Connect with us

Le risque de l’IA vaut-il la récompense ?

Leaders d’opinion

Le risque de l’IA vaut-il la récompense ?

mm

Lorsque je réfléchis au contenu fictif que j’ai rencontré impliquant l’IA, j’estimerais qu’il s’agit de plus de 90 % de dystopie. Ironiquement, parce que les grands modèles de langage sont formés à partir de contenu provenant d’Internet, ils ne sont pas seulement biaisés vers les aspects problématiques de la société, mais également envers eux-mêmes. Le concept d’IA autodétestante est humoristique et me rappelle Marvin de Le Guide du voyageur galactique. Cependant, c’est l’une des nombreuses réalités que nous devons considérer alors que l’IA est intégrée dans la société.

Dans son livre, Life 3.0 : Être humain à l’ère de l’IA, le professeur du MIT Max Tegmark explique sa perspective sur la façon de maintenir l’IA bénéfique pour la société. Il écrit : « Si l’apprentissage automatique peut aider à révéler les relations entre les gènes, les maladies et les réponses aux traitements, il pourrait révolutionner la médecine personnalisée, rendre les animaux de ferme plus sains et permettre des cultures plus résilientes. De plus, les robots ont le potentiel de devenir plus précis et fiables que les humains, même sans utiliser l’IA avancée. »

Il n’y a aucun doute que l’IA aura un impact sur les individus, la société et les systèmes mondiaux, mais il y a une incertitude associée à cet impact. L’IA sera confiée à des travaux délicats tels que le diagnostic de santé, la conduite autonome et la prise de décision financière. En prenant le risque de confiance, nous anticipons des rendements sous la forme d’automatisation, d’amélioration de la productivité, de flux de travail plus rapides et d’interfaces utilisateur que nous ne pouvons même pas prédire aujourd’hui.

Un exemple de ceci peut être vu dans le rapport 2024 Generative AI in Professional Services récemment publié par l’Institut Thomson Reuters, basé sur une enquête mondiale de 1 128 répondants qualifiés comme étant familiers avec la technologie Generative AI. La recherche démontre un thème commun d’optimisme prudent lorsqu’il s’agit d’adopter la Generative AI dans les environnements professionnels – en fait, 41 % ont déclaré qu’ils étaient excités parce qu’ils s’attendent à une efficacité et à une productivité accrues.

Ceci montre une demande saine pour l’automatisation qui peut créer de nouvelles efficacités pour les professionnels, un avantage qu’ils sont prêts à apporter.

Aucun lieu de travail ou industrie ne veut être laissé pour compte, donc tant que cette course pour exploiter l’IA dans les entreprises continue de gagner en élan, vous pouvez vous attendre à ce que les employés et les professionnels continuent à être exposés à ces nouvelles technologies de diverses manières pour renforcer leur avenir du travail.

D’un autre côté, nous sommes également hyper conscients du risque potentiel que nous prenons en confiant l’IA. Tegmark a également écrit ceci dans Life 3.0 : « En d’autres termes, le véritable risque avec l’AGI (intelligence artificielle générale) n’est pas la malice, mais la compétence. Un superintelligent AI sera extrêmement bon pour atteindre ses objectifs, et si ces objectifs ne sont pas alignés avec les nôtres, nous sommes en difficulté. »

Comme toute nouvelle technologie, l’IA présente une nouvelle façon de faire les choses, et le changement est souvent un défi lorsque vous ne savez pas quel résultat attendre. Une partie de ce risque est fortement dramatisée dans la fiction qui décrit couramment l’IA comme misanthropique – dans la Silicon Valley, vous entendrez parfois des références humoristiques à « Skynet » de la franchise de films Terminator dans les conversations informelles concernant les craintes sur l’IA. Cependant, la réalité sur le risque potentiel de l’IA est beaucoup moins excitante que ce que présente Hollywood, dans la mesure où les performances initiales de l’IA peuvent simplement être inexactes et boguées. Après tout, l’IA est un logiciel, et partage tous les mêmes pièges que les logiciels traditionnels.

En tant que chercheur, je suis constamment confronté à la nécessité de atténuer les biais dans les algorithmes d’IA, que ce soit par une curation de données soigneuse, une transparence algorithmique ou des protocoles de test robustes. Le fait que nous, en tant qu’humains, soyons hyper-conscients des dangers de l’IA (comme en témoigne le contenu que nous créons) me rassure que une attention significative est portée à l’IA éthique et responsable. Cette attention provient de parties prenantes de toutes sortes : les utilisateurs, les décideurs politiques et les entreprises exigent de plus en plus de transparence et de responsabilité des systèmes d’IA.

Il est généralement admis que la technologie dans le secteur privé évolue rapidement, et que le gouvernement évolue lentement. Il est également une réalité que, une fois qu’il devient possible, le capitalisme entraînera l’IA à remplacer des millions de travailleurs, les forçant à apprendre de nouvelles compétences pour rester dans la main-d’œuvre.

Selon un rapport de recherche de 2023 du McKinsey Global Institute sur l’IA générative et l’avenir du travail en Amérique, « D’ici 2030, les activités qui représentent jusqu’à 30 % des heures actuellement travaillées dans l’économie américaine pourraient être automatisées – une tendance accélérée par l’IA générative. Cependant, nous voyons l’IA générative améliorer la façon dont les professionnels STEM, créatifs et commerciaux et juridiques travaillent, plutôt que d’éliminer un grand nombre d’emplois. Les effets les plus importants de l’automatisation devraient toucher d’autres catégories d’emplois. L’emploi de soutien de bureau, le service client et l’emploi dans la restauration pourraient continuer à décliner. »

Il m’est difficile d’imaginer un monde où le gouvernement ne joue pas de rôle pour aider ces travailleurs qui seront remplacés. Par conséquent, il est important que le secteur public commence à préparer des solutions maintenant. Des exemples de solutions incluent la formation de travailleurs à risque et la fourniture d’un revenu de base universel. J’espère également que le secteur privé jouera un rôle ici, en créant de nouveaux emplois que nous ne pouvons peut-être pas prédire aujourd’hui.

Le revenu de base universel a toujours été un concept excitant pour moi et me rappelle la phrase « ne vivez pas pour travailler, travaillez pour vivre ». Beaucoup de gens travaillent pour vivre. Appelez-moi polyannique, mais si ce travail est automatisable, je crois que ce n’est pas un rêve fou que l’humanité puisse entrer dans une ère où le travail est optionnel. C’est un concept complètement étranger pour nous aujourd’hui, mais cela ne signifie pas qu’il est impossible. En fait, nous devrions nous attendre à rien de moins qu’extraordinaire d’une technologie aussi extraordinaire que l’IA.

Un ancien quant et scientifique des données, Sarah Nagy a fondé une startup d'automatisation d'analyse, Seek AI, en septembre 2021. Sarah a récemment dirigé l'équipe de données consommateurs de Citadel's Ashler Capital, et avant Citadel, a dirigé les bras quantitatifs de deux startups ayant réussi leur sortie et a développé des stratégies de trading algorithmique chez ITG. Sarah détient un master en finance de Princeton et des doubles diplômes de bachelor en astrophysique et en économie d'entreprise de UCLA.