Suivez nous sur

L'Ă©volution de la formation sur les modèles d'IA : au-delĂ  de la taille, vers l'efficacitĂ©

Des leaders d'opinion

L'Ă©volution de la formation sur les modèles d'IA : au-delĂ  de la taille, vers l'efficacitĂ©

mm

Dans le paysage en évolution rapide de l’intelligence artificielle, l’approche traditionnelle consistant à améliorer les modèles de langage par de simples augmentations de la taille des modèles subit une transformation cruciale. Ce changement souligne une approche plus stratégique et centrée sur les données, comme en témoignent les développements récents de modèles tels que Lama3.

Les données sont tout ce dont vous avez besoin

Historiquement, la croyance dominante dans le développement des capacités de l’IA a été que plus c’est grand, mieux c’est.

Par le passé, nous avons assisté à une augmentation spectaculaire des capacités de l'apprentissage profond, simplement en ajoutant des couches aux réseaux neuronaux. Des algorithmes et des applications comme la reconnaissance d'images, qui n'étaient possibles qu'en théorie avant l'avènement de la l'apprentissage en profondeur, est rapidement devenu largement accepté. Le développement des cartes graphiques a encore amplifié cette tendance, permettant à des modèles plus grands de fonctionner avec une efficacité croissante. Cette tendance s’est également répercutée sur le battage médiatique actuel des grands modèles linguistiques.

Nous entendons rĂ©gulièrement des annonces de grandes entreprises d'IA publiant des modèles comportant des dizaines, voire des centaines de milliards de paramètres. Le raisonnement est simple : plus un modèle possède de paramètres, plus il devient performant. Cependant, cette mĂ©thode de mise Ă  l'Ă©chelle par la force brute a atteint un point de rendement dĂ©croissant, notamment si l'on considère la rentabilitĂ© de tels modèles dans des applications pratiques. L'annonce rĂ©cente par Meta de l'approche Llama3, qui utilise 8 milliards de paramètres mais est enrichie de donnĂ©es d'entraĂ®nement de haute qualitĂ© 6 Ă  7 fois supĂ©rieures, Ă©gale – et, dans certains cas, surpasse – l'efficacitĂ© de modèles antĂ©rieurs comme GPT3.5, qui compte plus de 100 milliards de paramètres. Cela marque un tournant majeur dans la loi de mise Ă  l'Ă©chelle des modèles de langage, oĂą la qualitĂ© et la quantitĂ© de donnĂ©es commencent Ă  primer sur la taille.

CoĂ»t vs performance : un Ă©quilibre dĂ©licat

À mesure que les modèles d’intelligence artificielle (IA) passent du développement à l’utilisation pratique, leur impact économique, en particulier les coûts opérationnels élevés des modèles à grande échelle, devient de plus en plus important. Ces coûts dépassent souvent les dépenses de formation initiales, soulignant la nécessité d'une approche de développement durable qui donne la priorité à une utilisation efficace des données plutôt qu'à l'expansion de la taille du modèle. Des stratégies comme augmentation des données et transférer l'apprentissage peut améliorer les ensembles de données et réduire le besoin de recyclage approfondi. La rationalisation des modèles grâce à la sélection des fonctionnalités et à la réduction de la dimensionnalité améliore l'efficacité des calculs et réduit les coûts. Des techniques telles que l'abandon et l'arrêt précoce améliorent la généralisation, permettant aux modèles de fonctionner efficacement avec moins de données. Les stratégies de déploiement alternatives telles que l'informatique de pointe réduisent la dépendance à l'égard d'une infrastructure cloud coûteuse, tandis que l'informatique sans serveur offre une utilisation des ressources évolutive et rentable. En se concentrant sur le développement centré sur les données et en explorant des méthodes de déploiement économiques, les organisations peuvent établir un écosystème d'IA plus durable qui équilibre performances et rentabilité.

Les rendements décroissants des modèles plus grands

Le paysage du développement de l’IA subit un changement de paradigme, avec un accent croissant sur l’utilisation efficace des données et l’optimisation des modèles. Les entreprises d’IA centralisées s’appuient traditionnellement sur la création de modèles de plus en plus grands pour obtenir des résultats de pointe. Cependant, cette stratégie devient de moins en moins viable, tant en termes de ressources informatiques que d’évolutivité.

L’IA décentralisée, en revanche, présente un ensemble différent de défis et d’opportunités. Les réseaux blockchain décentralisés, qui constituent le fondement de l’IA décentralisée, ont une conception fondamentalement différente de celle des entreprises d’IA centralisées. Cela rend difficile pour les entreprises d'IA décentralisées de rivaliser avec les entités centralisées en termes de mise à l'échelle de modèles plus grands tout en maintenant l'efficacité des opérations décentralisées.

C’est là que les communautés décentralisées peuvent maximiser leur potentiel et se tailler une place dans le paysage de l’IA. En tirant parti de l’intelligence et des ressources collectives, les communautés décentralisées peuvent développer et déployer des modèles d’IA sophistiqués, à la fois efficaces et évolutifs. Cela leur permettra de rivaliser efficacement avec les sociétés d’IA centralisées et de déterminer l’avenir du développement de l’IA.

Regard vers l’avenir : la voie vers le dĂ©veloppement durable de l’IA

La trajectoire du développement futur de l’IA devrait se concentrer sur la création de modèles non seulement innovants, mais également intégrateurs et économiques. L’accent devrait être mis sur des systèmes capables d’atteindre des niveaux élevés de précision et d’utilité avec des coûts et une utilisation des ressources gérables. Une telle stratégie garantira non seulement l’évolutivité des technologies d’IA, mais également leur accessibilité et leur durabilité à long terme.

À mesure que le domaine de l’intelligence artificielle évolue, les stratégies de développement de l’IA doivent évoluer en conséquence. Le passage de la valorisation de la taille à la priorité accordée à l’efficacité et à la rentabilité dans la formation des modèles n’est pas simplement un choix technique mais un impératif stratégique qui définira la prochaine génération d’applications d’IA. Cette approche catalysera probablement une nouvelle ère d’innovation, où le développement de l’IA sera piloté par des pratiques intelligentes et durables qui promettent une adoption plus large et un impact plus important.​​​​​​​​​​​​​​​​​​​​​​

Jiahao Sun, fondateur et PDG de FLock.io, est un ancien Ă©lève d'Oxford et un expert en IA et en blockchain. Après avoir occupĂ© le poste de directeur de l'IA Ă  la Banque Royale du Canada et de chercheur en IA Ă  l'Imperial College de Londres, il a fondĂ© FLock.io pour se concentrer sur les solutions d'IA centrĂ©es sur la confidentialitĂ©. Grâce Ă  son leadership, FLock.io est pionnier en matière de formation et de dĂ©ploiement de modèles d'IA sĂ©curisĂ©s et collaboratifs, dĂ©montrant son engagement Ă  utiliser la technologie pour le progrès sociĂ©tal.