Leaders d’opinion
L’entreprise intelligente : rendre l’IA générative prête pour l’entreprise

Commençons par ici : Oui, les opportunités pour l’IA générative (IA Gen) sont immenses. Oui, elle transforme le monde tel que nous le connaissons (et plus rapidement que la plupart d’entre nous ne l’avaient prédit). Et oui, la technologie devient plus intelligente. Cependant, les implications de l’IA Gen, avec sa capacité à générer du texte, des images et des récits, sur les entreprises et les entreprises sont très différentes de l’impact sur le grand public — après tout, la plupart des entreprises n’écrivent pas de poèmes ou d’histoires (ce qui est populaire auprès des utilisateurs de ChatGPT), elles servent leurs clients.
De nombreuses entreprises ont de l’expérience avec le traitement automatique du langage naturel (TALN) et les chatbots de bas niveau, mais l’IA Gen accélère la façon dont les données peuvent être intégrées, interprétées et converties en résultats commerciaux. Par conséquent, elles doivent déterminer rapidement quels cas d’utilisation de l’IA Gen résoudront leurs défis commerciaux les plus pressants et stimuleront la croissance. Pour comprendre comment les entreprises peuvent rendre l’IA Gen prête pour l’entreprise avec leurs données, il est important d’examiner comment nous sommes arrivés à ce point.
Le parcours de l’analyse du langage naturel au modèle de langage à grande échelle (LLM)
La technologie tente de donner un sens aux langues naturelles depuis des décennies. Même si le langage humain est une forme évoluée d’expression humaine, le fait que les humains se sont évolués en de nombreux dialectes à travers le monde — des symboles et des sons aux syllabes, à la phonétique et aux langues — a laissé la technologie s’appuyer sur des méthodes de communication numérique plus simples avec des bits et des octets, etc., jusqu’à récemment.
J’ai commencé à travailler sur les programmes de TALN il y a près d’une décennie. À l’époque, il s’agissait de taxonomie et d’ontologie du langage, d’extraction d’entités et d’une forme primitive de base de données graphique (en grande partie en XML) pour essayer de maintenir des relations complexes et un contexte entre diverses entités, de donner un sens aux requêtes de recherche, de générer un nuage de mots et de fournir des résultats. Il n’y avait rien de mathématique dans tout cela. Il y avait beaucoup de Humain dans la boucle pour construire des bases de données taxonomiques, beaucoup d’analyse XML et, surtout, beaucoup de calcul et de mémoire en jeu. Inutile de dire que certains programmes ont été couronnés de succès, et la plupart ne l’ont pas été. L’apprentissage automatique est venu ensuite avec plusieurs approches d’apprentissage profond et de réseaux de neurones, etc., accélérant la compréhension du langage naturel (CLN) et l’inférence du langage naturel (ILN). Cependant, il y avait trois facteurs limitants — la puissance de calcul pour traiter des modèles complexes, l’accès à des volumes de données qui peuvent enseigner aux machines et, principalement, un modèle qui peut s’auto-apprendre et s’auto-corriger en formant des relations temporelles entre les phrases.
En avançant deux décennies plus tard, les GPU offrent une puissance de calcul massive, les réseaux de neurones auto-enseignants et évoluant sont la norme, les modèles d’apprentissage supervisé/non supervisé/semi-supervisé existent tous et, surtout, il y a un accès accru à d’énormes quantités de données dans plusieurs langues, y compris diverses plateformes de médias sociaux, sur lesquelles ces modèles peuvent être formés. Le résultat est des moteurs d’IA qui peuvent se connecter avec vous dans votre langage naturel, comprendre l’émotion et le sens derrière vos requêtes, avoir l’air d’un être humain et répondre comme tel.
Nous avons tous, grâce à notre présence sur les médias sociaux, été inconsciemment un « Humain » dans la « boucle » pour former ces moteurs. Nous avons maintenant des moteurs qui prétendent être formés sur des trillions de paramètres, capables de prendre des centaines et des milliers de paramètres d’entrée, qui sont multimodaux et répondent à notre langage. Que ce soit GPT4/5, PaLM2, Llama ou tout autre LLM qui a été publié jusqu’à présent, ils émergent comme des solveurs de problèmes verticaux plus contextuels.
Systèmes d’engagement et systèmes d’enregistrement
Alors que le parcours de l’analyse du langage naturel aux LLM a été grandiose grâce à l’évolution du silicium, les modèles de données et la disponibilité de quantités massives de données de formation que nous avons toutes générées, les entreprises — les fournisseurs de détail, les fabricants, les banques, etc. — ont chacune besoin d’applications très différentes de cette technologie. Tout d’abord, les entreprises ne peuvent pas se permettre d’hallucination d’IA — elles ont besoin de 0 % d’hallucination et de 100 % de précision pour les utilisateurs qui interagissent avec l’IA. Il existe une gamme de requêtes qui exigent une précision absolue pour être d’une quelconque utilité commerciale — par exemple, Combien de chambres sont disponibles dans votre hôtel ? Avez-vous un billet de première classe disponible ?
Pour contrer l’hallucination d’IA, entrez dans l’ère du concept antique de systèmes d’engagement et de systèmes d’enregistrement. Les systèmes d’engagement, qu’il s’agisse de vos clients, de vos fournisseurs ou de vos employés, peuvent utiliser une plate-forme conversationnelle basée sur l’IA Gen en boîte, après avoir été formée pour des invites commerciales spécifiques — c’est la partie « plus facile ». Le défi consiste à intégrer les systèmes d’enregistrement dans la chaîne de valeur. De nombreuses entreprises sont toujours dans un monde basé sur des tables et des entités statiques et le resteront, car la plupart des entreprises sont statiques au niveau organisationnel ou d’entreprise, tandis que les événements et les flux de travail les rendent dynamiques au niveau transactionnel.
C’est là que nous parlons de plateformes conversationnelles de nouvelle génération qui ne traitent pas seulement les conversations, les interfaces et les requêtes, mais mènent également les parcours clients jusqu’à la réalisation. Il existe différentes approches architecturales pour de telles plateformes conversationnelles. Une option immédiate consiste à utiliser un middleware hybride qui agit comme un consolidateur entre les données d’entreprise vectorisées et étiquetées et les invites conversationnelles basées sur les LLM, et qui livre un résultat de 0 % d’hallucination aux consommateurs.
Il y a un énorme travail de préparation des données requis par les entreprises pour le rendre intelligible pour un moteur LLM. Nous l’appelons aplanissement des modèles de données traditionnels basés sur des tables et des entités. Les bases de données graphiques, qui représentent et stockent des données d’une manière que les bases de données relationnelles ne peuvent pas, trouvent un nouveau but dans ce parcours. L’objectif est de convertir les bases de données d’entreprise en bases de données graphiques plus intelligibles avec des relations qui définissent le contexte et le sens, ce qui facilite l’apprentissage et, par conséquent, la réponse aux invites des clients finals à travers une combinaison de requêtes conversationnelles et en temps réel. Cette tâche de permettre aux données d’entreprise d’être prêtes pour les LLM est la clé pour fournir une expérience de systèmes d’engagement à systèmes d’enregistrement de bout en bout et pour mener les expériences utilisateur jusqu’à la réalisation.
Ce qui vient ensuite
À ce stade, avec ces progrès dans les données et l’IA, l’impact le plus immédiat se produit dans le domaine de la génération de code logiciel — comme en témoigne l’émergence de Microsoft Copilot, d’Amazone CodeWhisperer et d’autres outils parmi les développeurs. Ces outils donnent un coup de pouce aux programmes de modernisation du patrimoine, dont beaucoup sont souvent bloqués en raison de problèmes de temps et de coût. Avec des outils de génération de code alimentés par l’IA Gen, nous voyons les projets de modernisation accélérer leurs calendriers de 20 à 40 %. Dans les projets de développement de code vert, ces outils permettront aux développeurs de déplacer le temps et les économies de productivité vers la réflexion de conception et des projets plus innovants.
Au-delà du développement de code logiciel, les outils d’IA Gen conduisent à la création de nouveaux cas d’utilisation verticaux et de scénarios visant à résoudre les défis les plus pressants des entreprises, et nous commençons seulement à effleurer la surface de ce qui doit être fait pour tirer pleinement parti de cette tendance. Néanmoins, nous résolvons déjà plusieurs problèmes et questions dans le secteur de la vente au détail et de la logistique en exploitant l’IA Gen :
Combien d’inventaire ai-je dans l’entrepôt, et quand devrais-je déclencher le réapprovisionnement ? Est-il rentable de stocker à l’avance ? Est-ce que mon prix de revient est correct ou va-t-il augmenter ? Quels articles puis-je regrouper ou quel type de personnalisation puis-je offrir pour accroître mon profit ?
Répondre à ce type de questions nécessite une combinaison de interfaces conversationnelles, de requêtes de données à haute précision à l’arrière-plan et d’un modèle d’apprentissage automatique à forte charge de domaine qui fournit des prévisions et des conseils futurs. Ainsi, mon conseil pour les entreprises serait, que vous soyez un explorateur d’IA ou un perturbateur d’IA générative, de faire équipe avec des fournisseurs de services qui ont une expertise éprouvée en matière d’IA et des capacités robustes en données et en analyse qui peuvent vous aider à tirer parti des modèles d’IA Gen adaptés à vos besoins commerciaux et vous aider à rester à la pointe de la tendance.












