Connect with us

Leaders d’opinion

Le cas pour la décentralisation de votre pile technologique d’IA

mm
Decentralized AI

Une grande partie de la conversation sur le développement de l’IA est devenue dominée par un débat futuriste et philosophique – devrions-nous aborder l’intelligence artificielle générale, où l’IA deviendra suffisamment avancée pour effectuer n’importe quelle tâche de la même manière qu’un humain ? Est-ce même possible ?

Alors que la discussion sur l’accélération versus la décélération est importante et pertinente avec des avancées comme le modèle Q-star, d’autres aspects sont également importants. Principalement, l’importance de décentraliser votre pile technologique et la façon de le faire sans en faire un fardeau de coût. Ces deux défis peuvent sembler contradictoires : la construction et le déploiement de modèles sont incroyablement coûteux, mais s’appuyer trop sur un seul modèle peut être préjudiciable à long terme. Je connais ce défi personnellement en tant que fondateur d’IA.

Pour construire l’intelligence, vous avez besoin de talents, de données et d’un calcul évolutif. Pour accélérer le temps de mise sur le marché et faire plus avec moins, de nombreuses entreprises choisiront de construire sur le modèle existant, plutôt que de construire à partir de zéro. Et l’approche a du sens lorsque ce que vous construisez est si gourmand en ressources. Ce défi est aggravé par le fait que, contrairement aux logiciels, la plupart des gains réalisés jusqu’à présent dans l’IA ont été obtenus en ajoutant plus d’échelle, ce qui nécessite plus de puissance de calcul et donc de coûts.

Mais que se passe-t-il lorsque l’entreprise dans laquelle vous avez construit votre solution connaît une défaillance de gouvernance ou une panne de produit ? D’un point de vue pratique, s’appuyer sur un seul modèle pour construire votre produit signifie que vous faites maintenant partie d’un effet d’onde négatif pour tout ce qui se passe.

Nous devons également nous rappeler des risques liés au travail avec des systèmes probabilistes. Nous n’y sommes pas habitués et le monde dans lequel nous vivons jusqu’à présent a été conçu et conçu pour fonctionner avec une réponse définitive. Les modèles sont fluides en termes de sortie, et les entreprises modifient constamment les modèles, ce qui signifie que le code que vous avez écrit pour les prendre en charge et les résultats sur lesquels vos clients comptent peuvent changer sans votre connaissance ou contrôle.

La centralisation crée également des problèmes de sécurité car elle introduit un point de défaillance unique. Chaque entreprise travaille dans le meilleur intérêt de celle-ci. Si un problème de sécurité ou de risque se pose avec un modèle, vous avez beaucoup moins de contrôle sur la résolution de ce problème ou un accès moindre aux alternatives.

Où cela nous laisse-t-il ?

L’IA va indiscutablement améliorer notre façon de vivre. Il y a tellement de choses qu’elle est capable de réaliser et de résoudre, de la façon dont nous récoltons des informations à la façon dont nous comprenons de vastes quantités de données. Mais avec cette opportunité vient également un risque. Si nous nous appuyons trop sur un seul modèle, toutes les entreprises s’exposent à la fois à des défis de sécurité et de produit.

Pour résoudre ce problème, nous devons réduire les coûts d’inférence et faciliter pour les entreprises l’utilisation d’une approche multi-modèle. Et bien sûr, tout revient aux données. Les données et la propriété des données seront importantes. Plus les données sont uniques, de haute qualité et disponibles, plus elles seront utiles.

Pour de nombreux problèmes, vous pouvez optimiser les modèles pour une application spécifique. Le dernier kilomètre de l’IA est constitué par les entreprises qui construisent une logique de routage, des évaluations et des couches d’orchestration au-dessus de ces différents modèles, les spécialisant pour différents secteurs verticaux.

Il y a eu plusieurs investissements importants dans ce domaine qui nous rapprochent de cet objectif. Le tour de financement récent (et impressionnant) de Mistal est un développement prometteur vers une alternative à OpenAI. Il y a également des entreprises qui aident d’autres fournisseurs d’IA à rendre la multiplexion multi-modèle une réalité et à réduire les coûts d’inférence via un matériel, un logiciel et une distillation de modèles spécialisés, pour n’en citer que quelques-uns.

Nous allons également voir l’open-source décoller, et les organismes gouvernementaux doivent permettre à l’open-source de rester ouvert. Avec les modèles open-source, il est plus facile d’avoir plus de contrôle. Cependant, les écarts de performance sont toujours là.

Je suppose que nous finirons par arriver dans un monde où vous aurez des modèles juniors optimisés pour effectuer des tâches moins complexes à grande échelle, tandis que les modèles super-intelligents plus importants agiront comme des oracles pour les mises à jour et passeront de plus en plus de temps à résoudre des problèmes plus complexes. Vous n’aurez pas besoin d’un modèle à un trillion de paramètres pour répondre à une demande de service client. Je le compare à ne pas avoir un cadre supérieur gérer une tâche que peut gérer un stagiaire. Tout comme nous avons plusieurs rôles pour les homologues humains, la plupart des entreprises s’appuieront également sur une collection de modèles avec différents niveaux de sophistication.

Pour atteindre cet équilibre, vous avez besoin d’une décomposition claire des tâches et d’une évaluation, en tenant compte du temps, de la complexité computationnelle, du coût et de l’échelle requise. Selon le cas d’utilisation, vous pouvez donner la priorité en conséquence. Déterminez une vérité de base, un résultat idéal pour la comparaison, et des données d’entrée et de sortie d’exemple, afin que vous puissiez exécuter diverses invites pour optimiser et obtenir le résultat le plus proche de la vérité de base.

Si les entreprises d’IA peuvent réussir à décentraliser leur pile technologique et construire sur plusieurs modèles, nous pouvons améliorer la sécurité et la fiabilité de ces outils et maximiser ainsi l’impact positif de l’IA. Nous ne sommes plus à une époque de débats théoriques – il est temps de se concentrer sur la façon de mettre l’IA au travail pour rendre ces technologies plus efficaces et plus résilientes.

Naré Vardanyan est le PDG et co-fondateur de Ntropy, l'API d'étalonnage et d'enrichissement des données financières.