Suivez nous sur

InquiĂ©tudes croissantes concernant les hallucinations et les prĂ©jugĂ©s de l’IA : le rapport 2024 d’Aporia souligne le besoin urgent de normes industrielles

Éthique

InquiĂ©tudes croissantes concernant les hallucinations et les prĂ©jugĂ©s de l’IA : le rapport 2024 d’Aporia souligne le besoin urgent de normes industrielles

mm

A rapport récent d'Aporia, leader dans le secteur des plateformes de contrôle d'IA, a mis en lumière des découvertes surprenantes dans le domaine de l'intelligence artificielle et de l'apprentissage automatique (IA et ML). Intitulée « 2024 AI & ML Report : Evolution of Models & Solutions », l'enquête menée par Aporia souligne une tendance croissante aux hallucinations et aux préjugés au sein de l'IA générative et des grands modèles de langage (LLM), signalant un défi crucial pour une industrie qui progresse rapidement vers maturité.

Hallucinations de l'IA faire référence aux cas où la génération modèles d'IA génératifs produire des résultats incorrects, absurdes ou déconnectés de la réalité. Ces hallucinations peuvent aller d’inexactitudes mineures à des erreurs significatives, en passant par la génération de contenus biaisés ou potentiellement nuisibles.

Les conséquences des hallucinations de l’IA peuvent être importantes, d’autant plus que ces modèles sont de plus en plus intégrés dans divers aspects de l’entreprise et de la société. Par exemple, l’inexactitude des informations générées par l’IA peut conduire à la désinformation, tandis qu’un contenu biaisé peut perpétuer des stéréotypes ou des pratiques déloyales. Dans des applications sensibles telles que les soins de santé, la finance ou les conseils juridiques, de telles erreurs pourraient avoir de graves conséquences, affectant les décisions et les résultats.

Les résultats de l’enquête soulignent la nécessité d’un suivi et d’une observation vigilants des modèles de production.

L'enquĂŞte d'Aporia a recueilli les rĂ©ponses de 1,000 500 professionnels de l'apprentissage automatique basĂ©s en AmĂ©rique du Nord et au Royaume-Uni. Ces personnes travaillent dans des entreprises de 7,000 Ă  XNUMX XNUMX employĂ©s, dans des secteurs tels que la finance, la santĂ©, le voyage, l'assurance, les logiciels et la vente au dĂ©tail. Les rĂ©sultats soulignent les dĂ©fis et les opportunitĂ©s auxquels sont confrontĂ©s les responsables de la production d'apprentissage automatique, mettant en lumière le rĂ´le crucial de l'optimisation de l'IA pour l'efficacitĂ© et la crĂ©ation de valeur.

IdĂ©es clĂ©s du rapport comprend :

  1. PrĂ©valence des dĂ©fis opĂ©rationnels: Une Ă©crasante majoritĂ© de 93 % des ingĂ©nieurs en apprentissage automatique dĂ©clarent rencontrer des problèmes avec les modèles de production, quotidiennement ou hebdomadairement. Cette statistique significative souligne la nĂ©cessitĂ© cruciale de disposer d’outils de surveillance et de contrĂ´le efficaces pour garantir le bon fonctionnement des opĂ©rations.
  2. Incidence des hallucinations de l'IA: Environ 89 % des ingĂ©nieurs travaillant avec de grands modèles de langage et de l'IA gĂ©nĂ©rative dĂ©clarent avoir des hallucinations dans ces modèles. Ces hallucinations se manifestent par des erreurs factuelles, des prĂ©jugĂ©s ou des contenus pouvant ĂŞtre nuisibles.
  3. Concentrez-vous sur l’atténuation des biais: Malgré les obstacles à la détection des données biaisées et le manque d'outils de suivi suffisants, 83 % des personnes interrogées soulignent l'importance de surveiller les biais dans les projets d'IA.
  4. Importance de l'observabilitĂ© en temps rĂ©el: Près de 88 % des professionnels du machine learning estiment que l'observabilitĂ© en temps rĂ©el est essentielle pour identifier les problèmes dans les modèles de production, une capacitĂ© qui n'est pas prĂ©sente dans toutes les entreprises en raison du manque d'outils de surveillance automatisĂ©s.
  5. Investissement en ressources dans le développement: Le rapport révèle qu'en moyenne, les entreprises investissent environ quatre mois dans le développement d'outils et de tableaux de bord pour surveiller la production, soulignant ainsi les préoccupations potentielles concernant l'efficacité et la rentabilité de tels investissements.

"Notre rapport montre un consensus clair au sein de l'industrie, les produits d'IA sont dĂ©ployĂ©s Ă  un rythme rapide et il y aura des consĂ©quences si ces modèles de ML ne sont pas surveillĂ©s." a dĂ©clarĂ© Liran Hason, PDG d'Aporia. "Les ingĂ©nieurs Ă  l’origine de ces outils se sont exprimĂ©s : il existe des problèmes avec la technologie et ils peuvent ĂŞtre rĂ©solus. Mais des outils d’observabilitĂ© appropriĂ©s sont nĂ©cessaires pour garantir que les entreprises et les consommateurs reçoivent le meilleur produit possible, sans hallucinations ni prĂ©jugĂ©s.

Aporia, engagée dans l'amélioration de l'efficacité des produits d'IA basés sur l'apprentissage automatique, s'attaque aux défis du MLOps et prône des pratiques d'IA responsables. Son approche centrée sur le client et l'intégration des retours utilisateurs ont permis de développer des outils et des fonctionnalités robustes pour améliorer l'expérience utilisateur, soutenir l'expansion des modèles de production et contribuer à éliminer les hallucinations.

Le rapport complet d'Aporia propose un examen approfondi de ces résultats et de leurs implications pour l'industrie de l'IA. Pour en savoir plus, visitez Rapport d'enquête d'Aporia.

Antoine est un leader visionnaire et partenaire fondateur d'Unite.AI, animé par une passion inébranlable pour façonner et promouvoir l'avenir de l'IA et de la robotique. Entrepreneur en série, il croit que l'IA sera aussi perturbatrice pour la société que l'électricité, et on le surprend souvent en train de s'extasier sur le potentiel des technologies disruptives et de l'AGI.

En futuriste, il se consacre à l'exploration de la manière dont ces innovations façonneront notre monde. En outre, il est le fondateur de Titres.io, une plateforme axée sur l’investissement dans les technologies de pointe qui redéfinissent l’avenir et remodèlent des secteurs entiers.