Suivez nous sur

La vĂ©ritĂ© sur les donnĂ©es synthĂ©tiques : pourquoi l’expertise humaine est essentielle Ă  la rĂ©ussite d’un master en droit

Des leaders d'opinion

La vĂ©ritĂ© sur les donnĂ©es synthĂ©tiques : pourquoi l’expertise humaine est essentielle Ă  la rĂ©ussite d’un master en droit

mm

Les dĂ©veloppeurs de LLM se tournent de plus en plus vers les donnĂ©es synthĂ©tiques pour accĂ©lĂ©rer le dĂ©veloppement et rĂ©duire les coĂ»ts. Les chercheurs Ă  l'origine de plusieurs modèles de pointe, tels que LLama 3, Qwen 2 et DeepSeek R1, ont mentionnĂ© l'utilisation de donnĂ©es synthĂ©tiques pour entraĂ®ner leurs modèles dans leurs articles de recherche. De l'extĂ©rieur, cela semble ĂŞtre la solution idĂ©ale : une source infinie d'informations pour accĂ©lĂ©rer le dĂ©veloppement et rĂ©duire les coĂ»ts. Mais cette solution a un coĂ»t cachĂ© que les dirigeants d'entreprise ne peuvent ignorer.

En termes simples, données synthétiques Générée par des modèles d'IA, elle crée des ensembles de données artificiels pour la formation, le réglage fin et l'évaluation des LLM et des agents d'IA. Comparée à l'annotation humaine traditionnelle, elle permet une évolutivité rapide du pipeline de données, essentielle dans le contexte concurrentiel et évolutif du développement de l'IA.

Les entreprises peuvent avoir d'autres raisons d'utiliser de « fausses » données, comme la protection d'informations sensibles ou confidentielles dans les domaines de la finance ou de la santé en générant des versions anonymisées. Les données synthétiques constituent également une bonne alternative lorsque les données propriétaires ne sont pas disponibles, par exemple avant le lancement d'un produit ou lorsque les données appartiennent à des clients externes.

Mais les donnĂ©es synthĂ©tiques rĂ©volutionnent-elles le dĂ©veloppement de l'IA ? La rĂ©ponse est un oui mitigĂ© : elles ont un grand potentiel, mais elles peuvent aussi exposer les LLM et les agents Ă  des vulnĂ©rabilitĂ©s critiques Sans supervision humaine rigoureuse, les producteurs de LLM et les dĂ©veloppeurs d'agents d'IA pourraient constater que les modèles d'IA entraĂ®nĂ©s sur des donnĂ©es synthĂ©tiques insuffisamment vĂ©rifiĂ©es peuvent gĂ©nĂ©rer des rĂ©sultats inexacts ou biaisĂ©s, engendrer des crises de rĂ©putation et entraĂ®ner un non-respect des normes sectorielles et Ă©thiques. Investir dans une supervision humaine pour affiner les donnĂ©es synthĂ©tiques constitue un investissement direct dans la protection des rĂ©sultats, le maintien de la confiance des parties prenantes et l'adoption responsable de l'IA.

Grâce Ă  l'intervention humaine, les donnĂ©es synthĂ©tiques peuvent ĂŞtre transformĂ©es en donnĂ©es d'entraĂ®nement de haute qualitĂ©. Il existe trois raisons essentielles d'affiner les donnĂ©es gĂ©nĂ©rĂ©es avant de les utiliser pour entraĂ®ner l'IA : combler les lacunes dans la connaissance du modèle source, amĂ©liorer la qualitĂ© des donnĂ©es et rĂ©duire la taille des Ă©chantillons, et s'aligner sur les valeurs humaines.

Nous devons acquérir des connaissances uniques

Les données synthétiques sont principalement générées par des masters en droit formés à partir de sources internet accessibles au public, ce qui crée une limite inhérente. Le contenu public reflète rarement les connaissances pratiques et concrètes utilisées dans le monde du travail. Des activités telles que la conception d'une campagne marketing, l'élaboration de prévisions financières ou la réalisation d'analyses de marché sont généralement privées et ne sont pas documentées en ligne. De plus, les sources ont tendance à refléter une langue et une culture américaines, ce qui limite la représentation mondiale.

Pour surmonter ces limites, nous pouvons faire appel à des experts pour créer des échantillons de données dans des domaines que nous pensons que le modèle de génération de données synthétiques ne peut pas couvrir. Pour revenir à l'exemple de l'entreprise, si nous voulons que notre modèle final gère efficacement les prévisions financières et les analyses de marché, les données d'entraînement doivent inclure des tâches réalistes dans ces domaines. Il est important d'identifier ces lacunes et de compléter les données synthétiques par des échantillons créés par des experts.

Les experts interviennent souvent dès le début du projet afin de définir le périmètre des travaux. Cela inclut la création d'une taxonomie, qui décrit les domaines de connaissances spécifiques que le modèle doit exploiter. Par exemple, dans le secteur de la santé, la médecine générale peut être divisée en sous-thèmes tels que la nutrition, la santé cardiovasculaire, les allergies, etc. Un modèle axé sur la santé doit être entraîné dans tous les sous-domaines qu'il est censé couvrir. Une fois la taxonomie définie par les experts, les LLM peuvent être utilisés pour générer rapidement et à grande échelle des points de données avec des questions et réponses types. Des experts humains sont toujours nécessaires pour examiner, corriger et améliorer ce contenu afin de garantir son exactitude, sa sécurité et son adéquation au contexte. Ce processus d'assurance qualité est nécessaire dans les applications à haut risque, comme le secteur de la santé, afin de garantir l'exactitude des données et de limiter les risques potentiels.

La qualité plutôt que la quantité : améliorer l'efficacité du modèle avec moins d'échantillons, mais de meilleure qualité

Lorsque les experts du domaine créent des données pour la formation des LLM et des agents d'IA, ils créent des taxonomies pour les ensembles de données, rédigent des invites, élaborent les réponses idéales ou simulent une tâche spécifique. Toutes les étapes sont soigneusement conçues pour répondre aux besoins du modèle, et la qualité est assurée par des experts des domaines concernés.

La génération de données synthétiques ne reproduit pas entièrement ce processus. Elle repose sur les atouts du modèle sous-jacent utilisé pour créer les données, et la qualité obtenue est souvent inférieure à celle des données traitées par des humains. Cela signifie que les données synthétiques nécessitent souvent des volumes beaucoup plus importants pour obtenir des résultats satisfaisants, ce qui augmente les coûts de calcul et le temps de développement.

Dans les domaines complexes, certaines nuances sont détectables par les experts humains, notamment les valeurs aberrantes ou les cas limites. Les données traitées par des experts humains offrent systématiquement de meilleures performances de modèle, même avec des ensembles de données nettement plus petits. En intégrant stratégiquement l'expertise humaine au processus de création de données, nous pouvons réduire le nombre d'échantillons nécessaires au bon fonctionnement du modèle.

Dans notre expérienceLa meilleure façon de relever ce défi est d'impliquer des experts métier dans la création d'ensembles de données synthétiques. Lorsque les experts conçoivent les règles de génération de données, définissent les taxonomies de données et révisent ou corrigent les données générées, la qualité finale des données est bien supérieure. Cette approche a permis à nos clients d'obtenir d'excellents résultats avec moins d'échantillons de données, ce qui accélère et optimise la production.

Bâtir la confiance : le rôle irremplaçable des humains dans la sécurité et l'alignement de l'IA

Les systèmes automatisés ne peuvent anticiper toutes les vulnérabilités ni garantir l'adéquation avec les valeurs humaines, notamment dans les cas extrêmes et les scénarios ambigus. Les examinateurs humains experts jouent un rôle crucial pour identifier les risques émergents et garantir des résultats éthiques avant le déploiement. Il s'agit d'une protection que l'IA, du moins pour l'instant, ne peut assurer entièrement à elle seule.

Par conséquent, pour constituer un ensemble de données red teaming solide, les données synthétiques seules ne suffisent pas. Il est important d'impliquer des experts en sécurité dès le début du processus. Ils peuvent contribuer à cartographier les types d'attaques potentielles et à orienter la structure de l'ensemble de données. Les LLM permettent ensuite de générer un grand nombre d'exemples. Ensuite, des experts sont nécessaires pour vérifier et affiner les données afin de garantir leur réalisme, leur qualité et leur utilité pour tester les systèmes d'IA. Par exemple, un LLM peut générer des milliers de messages de piratage standard, mais un expert en sécurité humaine peut concevoir de nouvelles attaques d'« ingénierie sociale » exploitant des biais psychologiques subtils – une menace créative que les systèmes automatisés peinent à inventer seuls.

Des progrès significatifs ont Ă©tĂ© rĂ©alisĂ©s dans l'harmonisation des LLM grâce Ă  un retour d'information automatisĂ©. Dans l'article "RLAIF vs. RLHF : Adaptation de l'apprentissage par renforcement Ă  partir du feedback humain avec le feedback de l'IA, " Les chercheurs dĂ©montrent que l'alignement basĂ© sur l'IA peut, dans de nombreux cas, offrir des performances comparables Ă  celles d'un algorithme humain. Cependant, si le retour d'information de l'IA s'amĂ©liore avec l'Ă©volution des modèles, notre expĂ©rience montre que RLAIF rencontre encore des difficultĂ©s dans les domaines complexes et avec les cas limites ou aberrants, domaines oĂą les performances peuvent ĂŞtre critiques selon l'application. Les experts humains sont plus efficaces pour gĂ©rer les nuances et le contexte des tâches, ce qui les rend plus fiables pour l'alignement.

Les agents d'IA bénéficient également de tests automatisés pour gérer un large éventail de risques de sécurité. Les environnements de test virtuels utilisent les données générées pour simuler les comportements des agents, comme l'interaction avec des outils en ligne et l'exécution d'actions sur des sites web. Pour optimiser la couverture des tests dans des scénarios réalistes, l'expertise humaine est essentielle pour concevoir les cas de test, vérifier les résultats des évaluations automatisées et signaler les vulnérabilités.

L'avenir des données synthétiques

Les données synthétiques constituent une technique précieuse pour développer des modèles linguistiques de grande envergure, notamment lorsque la mise à l'échelle et le déploiement rapide sont essentiels dans le contexte actuel en constante évolution. Bien que les données synthétiques ne présentent pas de défauts fondamentaux, elles nécessitent des améliorations pour atteindre leur plein potentiel et offrir une valeur optimale. Une approche hybride combinant la génération automatisée de données et l'expertise humaine est une méthode très efficace pour développer des modèles performants et fiables, car les performances finales des modèles dépendent davantage de la qualité des données que du volume total. Ce processus intégré, utilisant l'IA pour la mise à l'échelle et des experts humains pour la validation, produit des modèles plus performants et plus sûrs, essentiels pour instaurer la confiance des utilisateurs et garantir un déploiement responsable.

Ilya Kochik est le vice-président du développement commercial chez Toloka, partenaire en données humaines pour les principaux laboratoires de recherche GenAI, où il se spécialise dans les tâches de pointe pour les modèles frontaliers et les systèmes agentiques. Basé à Londres, il a occupé des postes de direction et techniques chez Google, QuantumBlack (IA par McKinsey) et Bain & Company.