Connect with us

L’essor de l’IA a atteint un milieu décisif : ce que les entreprises doivent savoir

Leaders d’opinion

L’essor de l’IA a atteint un milieu décisif : ce que les entreprises doivent savoir

mm

Le collège n’a jamais été la période la plus brillante pour qui que ce soit – mais nous devions tous passer par là, avec les douleurs de croissance et tout, pour atteindre une version meilleure et plus mature de nous-mêmes.

L’essor actuel de l’IA est en train d’entrer dans une sorte d’adolescence difficile, que les experts appellent le milieu chaotique entre l’adoption et la maturité. L’hypothèse initiale a disparu, et maintenant, les organisations se concentrent sur le fait de rendre l’IA vraiment opérationnelle. Mais l’IA grandit pendant une période difficile. Les prévisions sont partout, le scepticisme est élevé parmi les entreprises et les consommateurs, et les discussions sur une bulle de l’IA en expansion ont les dirigeants d’entreprise sur le qui-vive, attendant le craquement redouté.

À ce moment décisif, les organisations doivent faire la part des choses entre le signal et le bruit – qu’elles soient en train de réorienter leurs efforts de l’expérimentation vers l’application pratique, ou de passer de l’application pratique à l’ubiquité opérationnelle. Cela nécessite de se concentrer sur des facteurs tangibles qu’elles peuvent contrôler, comme leur infrastructure et leur préparation des données ; mesurer les résultats ; et bâtir les fondements de l’échelle.

L’approche infrastructure d’abord

La véritable préparation à l’IA nécessite une infrastructure appropriée pour soutenir le déploiement durable des charges de travail de l’IA. Naturellement, l’IA a augmenté la demande de services cloud : les dépenses cloud devraient augmenter de 40% cette année, avec l’infrastructure formant l’article le plus coûteux du budget, et de nouveaux centres de données sont en train de voir le jour sur chaque continent pour répondre à la demande croissante de calcul de l’IA. À ce point d’inflexion de l’IA, les choix d’infrastructure sont existentiels. L’infrastructure définit ce qui est sûr, ce qui est possible et ce qui va réellement bénéficier à l’entreprise, au lieu de créer un drain sur les ressources.

Une infrastructure durable est définie par plus que juste les coûts et la puissance de calcul totale. Lorsqu’elles déterminent où et comment héberger leurs charges de travail de l’IA, les organisations doivent prendre en compte des questions de efficacité des ressources, de sécurité, de visibilité et de prix pour les performances. L’infrastructure de l’IA ne peut pas être un investissement unique, mais un processus en mouvement, capable d’évoluer avec les demandes de chaque projet.

C’est un départ radical par rapport aux approches historiques de dépenses cloud. Avant l’actuel essor de l’IA, les organisations dépendaient souvent d’un seul fournisseur de services cloud – généralement un hyperscaleur – pour héberger leurs opérations basées sur le cloud. Maintenant, la complexité et la variété des charges de travail de l’IA remettent en question ce modèle, en particulier à mesure que les entreprises se tournent vers des cas d’utilisation plus pratiques, et que des clouds alternatifs émergent pour répondre à la demande.

Les initiatives modernes de l’IA nécessitent une grande puissance de calcul, que les trois plus grands sont bien équipés pour fournir. Les fissures commencent à apparaître lorsque toute cette puissance devient trop importante. Les contrats des hyperscaleurs peuvent être coûteux, gonflés d’add-ons inutiles, et ne pas offrir la sécurité et la résidence des données requises pour des projets très sensibles.

Au lieu de relier leurs opérations cloud à un seul fournisseur, les entreprises peuvent tirer parti d’une classe croissante d’alternatives pour composer leurs propres piles sur différents fournisseurs, types de GPU et configurations de cloud public/privé en fonction de leurs besoins spécifiques. De cette façon, elles ne paient pas pour des fonctionnalités dont elles n’ont pas besoin, tout en personnalisant leurs clouds pour ce dont elles ont besoin.

Une approche infrastructure d’abord pour atteindre la maturité de l’IA est de créer une fondation stable pour l’échelle, qui maximise l’efficacité et l’utilité sans sacrifier la puissance.

De l’expérimentation à l’application

Au cours des dernières années, les entreprises du monde entier ont expérimenté la façon d’intégrer l’IA dans leurs opérations. Poussées par la curiosité et une bonne dose d’hypothèse, elles ont repoussé les limites de l’innovation, débloqué de nouvelles possibilités d’efficacité et élevé le potentiel d’outils et de modèles open-source innombrables. Elles ont également heurté la réalité, apprenant que la philosophie de la Silicon Valley “aller vite et casser les choses” n’est pas toujours la bonne approche, en particulier lorsqu’il s’agit d’une technologie aussi puissante que l’IA.

Maintenant, à mesure que les entreprises émergent de cette phase d’expérimentation, l’échec n’est pas une option. La précision est cruciale. Les performances ne peuvent pas être en retard. Si les entreprises veulent reconstruire les fonctions commerciales de base sur un cadre de l’IA, elles doivent redoubler d’efforts sur les “parties ennuyeuses” qui font de l’IA un multiplicateur de force, y compris :

  • Sécurité et confidentialité des données : De nombreux modèles d’IA utilisent des données personnelles et commerciales sensibles pour fonctionner efficacement. Les organisations ont besoin de l’assurance que leurs données sont hébergées de manière sécurisée, sans risque de réplication non autorisée ou d’exposition “d’IA sombre”.
  • Gestion du cycle de vie des modèles :Les modèles doivent être précis, à jour et régulièrement réentraînés afin de soutenir les fonctions commerciales critiques.
  • Consistance des performances : Que les modèles soient déployés pour une utilisation interne ou dans des opérations orientées client, assurer des performances cohérentes est crucial pour l’efficacité et la facilité d’utilisation. De nombreux problèmes de performances courants, tels que ceux liés à la latence et aux temps d’arrêt, sont résolus au niveau de l’infrastructure.

Actuellement, seules 37% des organisations déployant de nouveaux modèles génératifs sur une base mensuelle, hebdomadaire ou quotidienne. À mesure que plus d’organisations passent à la phase d’application, ce pourcentage augmentera de manière spectaculaire, créant une demande accrue de puissance de calcul – mais également d’infrastructure adaptée à des modèles spécifiques. Un modèle “léger” n’a pas besoin d’une fondation de niveau hyperscaleur, mais s’il utilise des informations sensibles, il peut avoir besoin de ce degré de sécurité. C’est là que les clouds personnalisés entrent en jeu – et pourquoi l’infrastructure devrait être la considération principale au milieu d’un changement d’IA d’entreprise.

De l’application à l’échelle

Pour les entreprises plus avancées sur la courbe de maturité, l’application pratique de l’IA fait déjà partie de leur quotidien. Maintenant, elles visent à élargir ces applications pour créer une valeur encore plus grande et faire évoluer complètement leur entreprise.

La pression est forte, et les avantages sont clairs : 81% des organisations au niveau de maturité de l’IA le plus élevé ont signalé de meilleurs résultats financiers au cours de la dernière année. C’est la phase où les applications de l’IA subissent leur plus grand test de résistance. Ils peuvent passer le test dans un environnement contrôlé, mais peuvent-ils ingérer plus de données ? Fonctionner dans de nouvelles régions ? Et peut-être la question la plus importante : peuvent-ils conduire à des résultats significatifs ?

L’échelle est une question de grandir, mais dans certains cas, moins est plus. Les entreprises à cette phase devraient considérer si des modèles de langage ciblés (SLM) pourraient fonctionner mieux que des modèles de langage polyvalents (LLM). Les initiatives de l’IA sont les plus réussies lorsqu’elles sont liées à des problèmes commerciaux réels et peuvent conduire à des résultats mesurables.

Un schéma similaire se produit dans l’application et l’échelle des agents d’IA – la prochaine frontière de l’IA autonome. Les agents qui effectuent des tâches spécifiques au domaine, informés par un ensemble de données hautement ciblé et constamment maintenu, sont ceux qui ont un impact réel dans l’entreprise. Cela étant dit, les agents spécialisés ont toujours besoin d’une puissance de calcul substantielle, même si ce n’est pas autant qu’un copilote tout-en-un. Donner la priorité à l’infrastructure dès le départ permettra aux organisations d’extraire un véritable ROI de leurs initiatives d’IA agente sans dépasser leurs budgets cloud.

Innovation avec impact

La “course” à l’IA est moins une course qu’une rénovation : si nous rénovons l’entreprise, nous voulons le faire sur une fondation solide – sinon, les murs s’effondrent inévitablement. Les entreprises doivent prendre le temps de réfléchir à l’infrastructure, assurer la sécurité des données, gérer étroitement le cycle de vie des modèles, surveiller les performances et collecter des informations et apporter des ajustements. La patience et la persévérance sont clés pour créer des solutions qui fonctionnent réellement, restent sécurisées et offrent des performances cohérentes.

La nouvelle hypothèse de l’IA peut disparaître, mais les organisations peuvent traverser les années difficiles du milieu de l’IA en énergisant leurs équipes avec ce qui compte le plus : les résultats.

Kevin est le CMO de Vultr, et est un pionnier de plus de 25 ans de l'espace de marketing numérique et d'expérience numérique. Kevin a co-fondé sa première start-up, Interwoven, en 1996. Chez Interwoven, Kevin a co-inventé Interwoven TeamSite, a créé le marché de la gestion de contenu Web (WCM) et a pris Interwoven public en 1999. Après Interwoven, Kevin a été pionnier de la création du premier système de gestion de contenu d'entreprise open source (ECM) chez Alfresco et a popularisé l'adoption et l'utilisation de la technologie open source dans les entreprises mondiales et les organisations du secteur public. En tant que CMO de Day Software, Kevin a conduit l'évolution de la WCM en Web Experience Management (WEM), a vendu Day Software à Adobe System, et a été pionnier de l'adoption mondiale de la plateforme de gestion d'expérience d'Adobe et de la création d'Adobe Marketing Cloud. Au cours des dernières années, Kevin a continué à conduire l'évolution de l'espace de gestion d'expérience dans une nouvelle catégorie de marché, les plateformes d'expérience numérique (DXPs) et, plus récemment, son évolution en piles numériques composables basées sur une architecture MACH. Chez Vultr, Kevin travaille maintenant à construire la présence de la marque mondiale de Vultr en tant que leader du marché des plates-formes cloud indépendantes et de l'infrastructure composable pour les organisations du monde entier.