Des leaders d'opinion
Pourquoi les autocrates de l’IA doivent être mis au défi de faire mieux
Si l'ère de l'IA nous a appris quelque chose, c'est que le secteur est confronté à d'importants défis énergétiques. Ces défis sont à la fois littéraux – comme la nécessité de répondre aux besoins énergétiques considérables des centres de données d'IA – et figuratifs – comme la concentration des richesses de l'IA entre quelques mains, motivée par des intérêts commerciaux étroits plutôt que par des bénéfices sociétaux plus larges.
Le paradoxe de la puissance de l'IA : coûts élevés, contrôle concentré
Pour que l'IA réussisse et profite à l'humanité, elle doit devenir omniprésente. Pour cela, elle doit être durable, tant sur le plan économique qu'environnemental. Ce n'est pas la voie que nous suivons actuellement. La bataille acharnée pour une IA plus performante et plus rapide est davantage motivée par des gains de performance à court terme et la domination du marché que par la recherche d'une IA durable et abordable.
La course à la création de systèmes d'IA toujours plus puissants s'accélère, mais son coût environnemental est élevé. Les puces d'IA de pointe, comme la H100 de Nvidia (jusqu'à 700 watts), consomment déjà des quantités importantes d'énergie. Cette tendance devrait se poursuivre, les experts du secteur prédisant que l'architecture Blackwell de nouvelle génération de Nvidia pourrait propulser la consommation d'énergie par puce bien au-delà du kilowatt, potentiellement à plus de 1,200 XNUMX watts. Alors que les leaders du secteur anticipent le déploiement de millions de ces puces dans les centres de données du monde entier, les besoins énergétiques de l'IA sont sur le point de exploser.
Le coût environnemental de la course aux armements de l’IA
Mettons cela dans un contexte quotidien. L'électricité qui alimente toute votre maison pourrait faire fonctionner tous vos appareils à plein régime simultanément, même si personne ne le ferait. Imaginez maintenant qu'un seul rack Nvidia de 120 kW exige la même quantité d'énergie, surtout lorsqu'il y en a des centaines ou des milliers dans de grands centres de données ! Or, 1,200 1.2 watts équivalent à 120 kW. Nous parlons donc en réalité d'un quartier de taille moyenne. Un seul rack Nvidia de 100 kW, soit 100 de ces puces gourmandes en énergie, nécessite suffisamment d'électricité pour alimenter environ XNUMX foyers.
Cette trajectoire est inquiétante, compte tenu des contraintes énergétiques auxquelles sont confrontées de nombreuses collectivités. Les experts en centres de données prévoient que les États-Unis auront besoin de 18 à 30 gigawatts de capacité supplémentaire au cours des cinq à sept prochaines années, ce qui oblige les entreprises à trouver des moyens de gérer cette augmentation. Pendant ce temps, mon secteur ne cesse de créer des applications d’IA génératrices gourmandes en énergie, qui consomment bien plus d’énergie que ce qui est théoriquement nécessaire pour l’application ou ce qui est faisable pour la plupart des entreprises, sans parler de ce qui est souhaitable pour la planète.
Équilibrer sécurité et accessibilité : solutions de centres de données hybrides
Cette autocratie de l'IA et cette « course aux armements », obsédées par la vitesse et la puissance brutes, ignorent les besoins pratiques des centres de données réels, à savoir le type de solutions abordables qui lèvent les barrières commerciales pour les 75 % d'organisations américaines qui n'ont pas adopté l'IA. Et soyons francs, avec la mise en place de réglementations plus strictes en matière d'IA concernant la confidentialité, la sécurité et la protection de l'environnement, de plus en plus d'organisations exigeront une approche de centre de données hybride, protégeant leurs données les plus précieuses, privées et sensibles dans des zones hautement protégées sur site, à l'abri de l'IA et des cyberattaques récentes. Qu'il s'agisse de dossiers médicaux, de données financières, de secrets de défense nationale ou d'intégrité électorale, l'avenir de l'IA d'entreprise exige un équilibre entre sécurité sur site et agilité cloud.
Il s’agit d’un défi systémique majeur qui nécessite une hyper-collaboration plutôt qu’une hyper-compétition. En mettant l’accent sur les GPU et autres puces accélératrices d’IA avec des mesures brutes de capacité, de vitesse et de performance, nous ne prenons pas suffisamment en compte l’infrastructure abordable et durable nécessaire aux gouvernements et aux entreprises pour adopter les capacités de l’IA. C’est comme construire un vaisseau spatial sans point de décollage ou mettre une Lamborghini sur une route de campagne.
Démocratiser l'IA : la collaboration industrielle
Bien qu’il soit encourageant de constater que les gouvernements commencent à envisager une réglementation – pour garantir que l’IA profite à tous, et pas seulement à l’élite – notre industrie a besoin de plus que de règles gouvernementales.
Par exemple, le Royaume-Uni utilise l’IA pour renforcer les capacités des forces de l’ordre en améliorant le partage de données entre les organismes chargés de l’application de la loi afin d’améliorer la prévision et la prévention de la criminalité basées sur l’IA. L’accent est mis sur la transparence, la responsabilité et l’équité dans l’utilisation de l’IA pour le maintien de l’ordre, en garantissant la confiance du public et le respect des droits de l’homme – avec des outils tels que la reconnaissance faciale et la police prédictive pour aider à la détection et à la gestion de la criminalité.
Dans les secteurs hautement réglementés comme la biotechnologie et la santé, les collaborations notables incluent Johnson & Johnson MedTech et Nvidia collaborent pour améliorer l'IA dans les procédures chirurgicales. Leur collaboration vise à développer des capacités d'analyse et de prise de décision en temps réel basées sur l'IA au bloc opératoire. Ce partenariat s'appuie sur les plateformes d'IA de NVIDIA pour permettre un déploiement évolutif, sécurisé et efficace des applications d'IA dans les milieux de soins de santé.
Pendant ce temps, en Allemagne, Merck a formé des alliances stratégiques avec Exscientia et BenevolentAI pour faire progresser la découverte de médicaments basée sur l'IA. L'entreprise exploite l'IA pour accélérer le développement de nouveaux candidats médicaments, notamment en oncologie, neurologie et immunologie. L'objectif est d'améliorer le taux de réussite et la rapidité de développement des médicaments grâce aux puissantes capacités de conception et de découverte de l'IA.
La première étape consiste à réduire les coûts de déploiement de l’IA pour les entreprises au-delà des grandes sociétés pharmaceutiques et technologiques, en particulier dans la phase d’inférence de l’IA, lorsque les entreprises installent et exécutent chaque jour un modèle d’IA entraîné comme Chat GPT, Llama 3 ou Claude dans un véritable centre de données. Des estimations récentes suggérer que le coût de développement du plus grand de ces systèmes de nouvelle génération pourrait être d’environ 1 milliard de dollars, avec des coûts d’inférence potentiellement 8 à 10 fois plus élevés.
Le coût croissant de la mise en œuvre de l'IA dans la production quotidienne empêche de nombreuses entreprises d'adopter pleinement l'IA, celles qui n'en ont pas. enquête a constaté que seulement une entreprise sur quatre a lancé avec succès des initiatives d'IA au cours des 12 derniers mois et que 42 % des entreprises n'ont pas encore constaté de bénéfice significatif des initiatives d'IA générative.
Pour démocratiser véritablement l’IA et la rendre omniprésente, autrement dit, l’adopter à grande échelle, notre secteur de l’IA doit changer d’orientation. Au lieu d’une course aux modèles et aux puces d’IA les plus gros et les plus rapides, nous avons besoin de davantage d’efforts collaboratifs pour améliorer l’accessibilité, réduire la consommation d’énergie et ouvrir le marché de l’IA afin de partager plus largement son plein potentiel positif. Un changement systémique permettrait de relever tous les défis en rendant l’IA plus rentable pour tous, avec d’énormes avantages pour les consommateurs.
Il existe des signes prometteurs qui montrent qu’il est possible de réduire les coûts de l’IA, en abaissant les barrières financières pour soutenir les initiatives nationales et mondiales d’IA à grande échelle. Ma société, NeuReality, collabore avec Qualcomm pour atteindre jusqu’à 90 % de réduction des coûts et une efficacité énergétique 15 fois supérieure pour diverses applications d’IA dans le domaine du texte, du langage, du son et des images – les éléments de base de l’IA. Vous connaissez ces modèles d’IA sous des termes à la mode dans le secteur tels que la vision par ordinateur, l’IA conversationnelle, la reconnaissance vocale, le traitement du langage naturel, l’IA générative et les grands modèles linguistiques. En collaborant avec davantage de fournisseurs de logiciels et de services, nous pouvons continuer à personnaliser l’IA dans la pratique pour améliorer les performances et réduire les coûts.
En réalité, nous avons réussi à réduire le coût et la puissance par requête d'IA par rapport à l'infrastructure traditionnelle centrée sur le processeur, sur laquelle reposent aujourd'hui toutes les puces accélératrices d'IA, y compris les GPU Nvidia. Notre appliance d'inférence d'IA NR1-S a commencé à être commercialisée cet été avec les accélérateurs Qualcomm Cloud AI 100 Ultra associés aux unités NAPU NR1. Le résultat est une architecture NeuReality alternative qui remplace le processeur traditionnel dans les centres de données d'IA, principal goulot d'étranglement du traitement des données d'IA aujourd'hui. Ce changement évolutif est profond et absolument nécessaire.
Au-delà du battage médiatique : construire un avenir de l'IA économiquement et durablement viable
Dépassons le battage médiatique autour de l’IA et prenons au sérieux la résolution des défis systémiques. Le plus dur reste à accomplir au niveau du système, et il faudra que l’ensemble de notre secteur de l’IA travaille ensemble, et non pas les uns contre les autres. En mettant l’accent sur l’accessibilité, la durabilité et le coût, nous pouvons créer un secteur de l’IA et une base de clientèle plus large qui profiteront à la société de manière plus importante. Cela signifie offrir des choix d’infrastructures durables sans que la richesse de l’IA ne soit concentrée entre les mains de quelques-uns, connus sous le nom de Big 7.
L'avenir de l'IA dépend de nos efforts collectifs d'aujourd'hui. En priorisant l'efficacité énergétique et l'accessibilité, nous pouvons éviter un avenir dominé par des infrastructures d'IA énergivores et une oligarchie de l'IA focalisée sur la performance brute au détriment du bénéfice général. Parallèlement, nous devons nous attaquer à la consommation énergétique insoutenable qui entrave le potentiel de l'IA à révolutionner la sécurité publique, la santé et le service client.
Ce faisant, nous créons un puissant cycle d’investissement et de rentabilité en IA alimenté par une innovation généralisée.
Qui est avec nous ?












