Connect with us

Donny White, PDG & Co-Fondateur de Satisfi Labs – Série d’entretiens

Entretiens

Donny White, PDG & Co-Fondateur de Satisfi Labs – Série d’entretiens

mm
Donny White

Fondée en 2016, Satisfi Labs est une société de premier plan dans le domaine de l’intelligence conversationnelle. Le succès précoce est venu de son travail avec les New York Mets, Macy’s et l’US Open, permettant un accès facile à des informations souvent indisponibles sur les sites Web.

Donny a passé 15 ans chez Bloomberg avant d’entrer dans le monde des start-ups et détient un MBA de l’Université Cornell et un BA du Baruch College. Sous la direction de Donny, Satisfi Labs a connu une croissance significative dans les secteurs du sport, du divertissement et du tourisme, recevant des investissements de Google, MLB et Red Light Management.

Vous étiez chez Bloomberg depuis 14 ans lorsque vous avez ressenti pour la première fois l’envie d’entreprendre. Pourquoi être entrepreneur est-il soudainement devenu une option pour vous ?

Pendant ma troisième année d’université, j’ai postulé pour un emploi de réceptionniste chez Bloomberg. Une fois que j’ai eu mon pied dans la porte, j’ai dit à mes collègues que si ils étaient prêts à m’enseigner, je pouvais apprendre rapidement. En fin de quatrième année, j’étais un employé à plein temps et j’avais déplacé toutes mes classes en soirée pour pouvoir faire les deux. Au lieu d’assister à ma remise de diplôme à l’âge de 21 ans, j’ai passé ce temps à gérer mon premier équipe. À partir de ce moment-là, j’ai eu la chance de travailler dans une méritocratie et j’ai été promu plusieurs fois. À 25 ans, j’ai dirigé mon propre département. De là, je suis passé à la gestion régionale, puis au développement de produits, jusqu’à ce que je dirige les ventes sur tout le continent américain. En 2013, j’ai commencé à me demander si je pouvais faire quelque chose de plus grand. J’ai participé à quelques entretiens dans de jeunes entreprises de technologie et l’un des fondateurs m’a dit : « Nous ne savons pas si vous êtes bon ou si Bloomberg est bon ». C’est alors que j’ai su que quelque chose devait changer et six mois plus tard, j’étais le vice-président des ventes de ma première start-up, Datahug. Peu de temps après, j’ai été recruté par un groupe d’investisseurs qui voulaient perturber Yelp. Alors que Yelp est toujours bon et bien, en 2016, nous nous sommes alignés sur une nouvelle vision et j’ai co-fondé Satisfi Labs avec les mêmes investisseurs.

Pouvez-vous partager l’histoire de la genèse de Satisfi Labs ?

J’étais à un match de baseball au Citi Field avec Randy, l’actuel CTO et co-fondateur de Satisfi, lorsque j’ai entendu parler de l’un de leurs spécialités, le bacon sur un bâton. Nous avons parcouru le concours et demandé au personnel à ce sujet, mais nous n’avons pas pu le trouver nulle part. Il s’est avéré qu’il était caché à une extrémité du stade, ce qui a conduit à la réalisation qu’il aurait été beaucoup plus pratique de demander directement à l’équipe via le chat. C’est là que notre première idée est née. Randy et moi venons tous deux d’arrière-plans de finance et de trading algorithmique, ce qui nous a amenés à prendre le concept de mise en correspondance des demandes avec des réponses pour construire notre propre NLP pour des demandes hyper-spécifiques qui seraient posées dans des lieux. L’idée originale était de construire des bots individuels qui seraient chacun des experts dans un domaine de connaissance particulier, en particulier des connaissances qui ne sont pas facilement accessibles sur un site Web. À partir de là, notre système aurait un « chef d’orchestre » qui pourrait appeler chaque bot au besoin. Il s’agit de l’architecture du système originale qui est toujours utilisée aujourd’hui.

Satisfi Labs avait conçu son propre moteur NLP et était sur le point de publier un communiqué de presse lorsque OpenAI a perturbé votre pile technologique avec la sortie de ChatGPT. Pouvez-vous discuter de cette période et de la façon dont cela a forcé Satisfi Labs à pivoter son entreprise ?

Nous avions prévu un communiqué de presse pour annoncer notre mise à niveau NLP basée sur le contexte brevetée pour le 6 décembre 2022. Le 30 novembre 2022, OpenAI a annoncé ChatGPT. L’annonce de ChatGPT a changé non seulement notre feuille de route, mais également le monde. Initialement, nous, comme tout le monde, nous sommes précipités pour comprendre le pouvoir et les limites de ChatGPT et comprendre ce que cela signifiait pour nous. Nous avons rapidement réalisé que notre système NLP contextuel ne concurrençait pas ChatGPT, mais pouvait en fait améliorer l’expérience LLM. Cela a conduit à une décision rapide de devenir des partenaires d’entreprise OpenAI. Puisque notre système a commencé avec l’idée de comprendre et de répondre à des questions à un niveau granulaire, nous avons pu combiner la conception du système « bot conductor » et sept ans de données d’intention pour mettre à niveau le système pour intégrer les LLM.

Satisfi Labs a récemment lancé un brevet pour un système de réponse LLM basé sur le contexte, qu’est-ce que c’est spécifiquement ?

En juillet, nous avons présenté notre système de réponse LLM basé sur le contexte breveté. Le nouveau système combine la puissance de notre système de réponse contextuel breveté avec les capacités de langage de modèle large pour renforcer l’ensemble du système de réponse. La nouvelle technologie LLM contextuelle intègre les capacités de modèle de langage large tout au long de la plate-forme, allant de l’amélioration de l’acheminement des intentions à la génération de réponses et à l’indexation des intentions, ce qui entraîne également ses capacités de rapportage uniques. La plate-forme permet aux marques de répondre avec des réponses génératives AI ou des réponses pré-écrites en fonction du besoin de contrôle de la réponse.

Pouvez-vous discuter de la déconnexion actuelle entre la plupart des sites Web d’entreprise et les plateformes LLM pour fournir des réponses de marque ?

ChatGPT est formé pour comprendre une large gamme d’informations et ne possède donc pas le niveau de formation granulaire nécessaire pour répondre à des questions spécifiques à l’industrie avec le niveau de spécificité que la plupart des marques attendent. De plus, la précision des réponses fournies par les LLM n’est que aussi bonne que les données fournies. Lorsque vous utilisez ChatGPT, il puise des données à partir de l’ensemble d’Internet, qui peut être inexact. ChatGPT ne donne pas la priorité aux données d’une marque par rapport à d’autres données. Nous avons servi diverses industries au cours des sept dernières années, acquérant ainsi une connaissance précieuse des millions de questions posées par les clients chaque jour. Cela nous a permis de comprendre comment régler le système avec un contexte plus grand par industrie et fournir des capacités de rapportage d’intention robustes et granulaires, qui sont cruciales compte tenu de l’essor des modèles de langage large. Alors que les LLM sont efficaces pour comprendre l’intention et générer des réponses, ils ne peuvent pas signaler les questions posées. En utilisant des années de données d’intention étendues, nous avons créé avec efficacité un rapportage standardisé via leur système d’indexation d’intention.

Quel rôle les linguistes jouent-ils dans l’amélioration des capacités des technologies LLM ?

Le rôle d’ingénieur de prompt a émergé avec cette nouvelle technologie, qui nécessite une personne pour concevoir et affiner les invites qui éliciteront une réponse spécifique de l’IA. Les linguistes ont une excellente compréhension de la structure de la langue, telle que la syntaxe et la sémantique, entre autres choses. L’un de nos ingénieurs AI les plus performants a un background en linguistique, ce qui lui permet d’être très efficace pour trouver de nouvelles et subtiles façons de solliciter l’IA. Des changements subtils dans l’invite peuvent avoir des effets profonds sur la façon dont une réponse est générée avec précision et efficacité, ce qui fait toute la différence lorsque nous traitons des millions de questions à travers plusieurs clients.

À quoi ressemble le fine-tuning sur le backend ?

Nous avons notre propre modèle de données propriétaire que nous utilisons pour garder le LLM sous contrôle. Cela nous permet de construire nos propres clôtures pour garder le LLM sous contrôle, contrairement à devoir chercher des clôtures. Deuxièmement, nous pouvons utiliser des outils et des fonctionnalités que d’autres plateformes utilisent, ce qui nous permet de les prendre en charge sur nos plateformes.

Le fine-tuning des données de formation et l’utilisation de l’apprentissage par renforcement (RL) dans notre plateforme peuvent aider à atténuer le risque de désinformation. Le fine-tuning, contrairement à la recherche de faits spécifiques dans la base de connaissances pour les ajouter, crée une nouvelle version du LLM formé sur ces connaissances supplémentaires. D’un autre côté, la RL forme un agent avec une rétroaction humaine et apprend une politique sur la façon de répondre aux questions. Cela s’est avéré être efficace pour construire des modèles à empreinte plus petite qui deviennent des experts dans des tâches spécifiques.

Pouvez-vous discuter du processus d’intégration d’un nouveau client et d’intégration de solutions d’IA conversationnelle ?

Puisque nous nous concentrons sur les destinations et les expériences telles que le sport, le divertissement et le tourisme, les nouveaux clients bénéficient de ceux qui sont déjà dans la communauté, ce qui rend l’intégration très simple. Les nouveaux clients identifient où vivent leurs sources de données les plus actuelles, telles que des sites Web, des manuels d’employés, des blogs, etc. Nous ingérons les données et formons le système en temps réel. Puisque nous travaillons avec des centaines de clients dans la même industrie, notre équipe peut rapidement fournir des recommandations sur lesquelles les réponses sont les mieux adaptées pour des réponses pré-écrites par opposition à des réponses générées. De plus, nous configurons des flux guidés tels que notre système de recherche dynamique de nourriture et de boissons, de sorte que les clients n’aient jamais à faire face à un constructeur de bot.

Satisfi Labs travaille actuellement en étroite collaboration avec des équipes sportives et des entreprises, quelle est votre vision pour l’avenir de l’entreprise ?

Nous voyons un avenir où plus de marques voudront contrôler davantage d’aspects de leur expérience de chat. Cela entraînera un besoin accru pour notre système de fournir un accès plus important au niveau du développeur. Il n’a pas de sens pour les marques d’embaucher des développeurs pour construire leurs propres systèmes d’IA conversationnelle, car l’expertise nécessaire sera rare et coûteuse. Cependant, avec notre système alimentant le backend, leurs développeurs peuvent se concentrer davantage sur l’expérience client et le parcours en ayant un contrôle plus grand des invites, en connectant des données propriétaires pour permettre une personnalisation plus importante et en gérant l’interface utilisateur de chat pour les besoins spécifiques de l’utilisateur. Satisfi Labs sera la colonne vertébrale technique des expériences conversationnelles des marques.

Je vous remercie pour cette excellente interview, les lecteurs qui souhaitent en savoir plus devraient visiter Satisfi Labs.

Antoine est un leader visionnaire et partenaire fondateur de Unite.AI, animé par une passion inébranlable pour façonner et promouvoir l'avenir de l'IA et de la robotique. Un entrepreneur en série, il croit que l'IA sera aussi perturbatrice pour la société que l'électricité, et se fait souvent prendre en train de vanter le potentiel des technologies perturbatrices et de l'AGI.
En tant que futurist, il se consacre à explorer comment ces innovations vont façonner notre monde. En outre, il est le fondateur de Securities.io, une plateforme axée sur l'investissement dans les technologies de pointe qui redéfinissent l'avenir et remodelent des secteurs entiers.