talon Inquiétudes croissantes concernant les hallucinations et les préjugés de l'IA : le rapport 2024 d'Aporia souligne le besoin urgent de normes industrielles - Unite.AI
Suivez nous sur

Ethique

Inquiétudes croissantes concernant les hallucinations et les préjugés de l’IA : le rapport 2024 d’Aporia souligne le besoin urgent de normes industrielles

mm

Publié le

 on

A rapport récent d'Aporia, leader dans le secteur des plateformes de contrôle d'IA, a mis en lumière des découvertes surprenantes dans le domaine de l'intelligence artificielle et de l'apprentissage automatique (IA et ML). Intitulée « 2024 AI & ML Report : Evolution of Models & Solutions », l'enquête menée par Aporia souligne une tendance croissante aux hallucinations et aux préjugés au sein de l'IA générative et des grands modèles de langage (LLM), signalant un défi crucial pour une industrie qui progresse rapidement vers maturité.

Hallucinations de l'IA faire référence aux cas où la génération modèles d'IA génératifs produire des résultats incorrects, absurdes ou déconnectés de la réalité. Ces hallucinations peuvent aller d’inexactitudes mineures à des erreurs significatives, en passant par la génération de contenus biaisés ou potentiellement nuisibles.

Les conséquences des hallucinations de l’IA peuvent être importantes, d’autant plus que ces modèles sont de plus en plus intégrés dans divers aspects de l’entreprise et de la société. Par exemple, l’inexactitude des informations générées par l’IA peut conduire à la désinformation, tandis qu’un contenu biaisé peut perpétuer des stéréotypes ou des pratiques déloyales. Dans des applications sensibles telles que les soins de santé, la finance ou les conseils juridiques, de telles erreurs pourraient avoir de graves conséquences, affectant les décisions et les résultats.

Les résultats de l’enquête soulignent la nécessité d’un suivi et d’une observation vigilants des modèles de production.

L'enquête d'Aporia comprenait les réponses de 1,000 500 professionnels de l'apprentissage automatique basés en Amérique du Nord et au Royaume-Uni. Ces personnes travaillent dans des entreprises comptant entre 7,000 et XNUMX XNUMX employés, dans des secteurs tels que la finance, la santé, les voyages, les assurances, les logiciels et la vente au détail. Les résultats soulignent à la fois les défis et les opportunités auxquels sont confrontés les leaders de la production ML, mettant en lumière le rôle vital de l’optimisation de l’IA pour l’efficacité et la création de valeur.

Idées clés du rapport comprend :

  1. Prévalence des défis opérationnels: Une écrasante majorité de 93 % des ingénieurs en apprentissage automatique déclarent rencontrer des problèmes avec les modèles de production, quotidiennement ou hebdomadairement. Cette statistique significative souligne la nécessité cruciale de disposer d’outils de surveillance et de contrôle efficaces pour garantir le bon fonctionnement des opérations.
  2. Incidence des hallucinations de l'IA: Environ 89 % des ingénieurs travaillant avec de grands modèles de langage et de l'IA générative déclarent avoir des hallucinations dans ces modèles. Ces hallucinations se manifestent par des erreurs factuelles, des préjugés ou des contenus pouvant être nuisibles.
  3. Concentrez-vous sur l’atténuation des biais: Malgré les obstacles à la détection des données biaisées et le manque d'outils de suivi suffisants, 83 % des personnes interrogées soulignent l'importance de surveiller les biais dans les projets d'IA.
  4. Importance de l'observabilité en temps réel: Près de 88 % des professionnels du machine learning estiment que l'observabilité en temps réel est essentielle pour identifier les problèmes dans les modèles de production, une capacité qui n'est pas présente dans toutes les entreprises en raison du manque d'outils de surveillance automatisés.
  5. Investissement en ressources dans le développement: Le rapport révèle qu'en moyenne, les entreprises investissent environ quatre mois dans le développement d'outils et de tableaux de bord pour surveiller la production, soulignant ainsi les préoccupations potentielles concernant l'efficacité et la rentabilité de tels investissements.

"Notre rapport montre un consensus clair au sein de l'industrie, les produits d'IA sont déployés à un rythme rapide et il y aura des conséquences si ces modèles de ML ne sont pas surveillés." a déclaré Liran Hason, PDG d'Aporia. "Les ingénieurs à l’origine de ces outils se sont exprimés : il existe des problèmes avec la technologie et ils peuvent être résolus. Mais des outils d’observabilité appropriés sont nécessaires pour garantir que les entreprises et les consommateurs reçoivent le meilleur produit possible, sans hallucinations ni préjugés.

Aporia, déterminé à améliorer l'efficacité des produits d'IA alimentés par l'apprentissage automatique, relève les défis du MLOps et plaide en faveur de pratiques d'IA responsables. L'approche centrée sur le client de l'entreprise et l'intégration des commentaires des utilisateurs ont conduit au développement d'outils et de fonctionnalités robustes pour améliorer l'expérience utilisateur, prendre en charge l'expansion des modèles de production et aider à éliminer les hallucinations.

Le rapport complet d'Aporia propose un examen approfondi de ces résultats et de leurs implications pour l'industrie de l'IA. Pour en savoir plus, visitez Rapport d'enquête d'Aporia.

Partenaire fondateur d'unite.AI et membre du Conseil technologique de Forbes, Antoine est un futuriste qui est passionné par l'avenir de l'IA et de la robotique.

Il est également le fondateur de Titres.io, un site Web axé sur l'investissement dans les technologies de rupture.