Leaders d’opinion
Sur l’IA, la patience est une vertu
Dans les près de deux ans depuis le lancement de ChatGPT, l’intelligence artificielle générative a traversé un cycle complet d’hype technologique, allant des attentes ambitieuses et changeantes pour la société à l’alimentation d’une récente correction du marché boursier. Mais dans l’industrie de la cybersécurité en particulier, l’excitation autour de Generative AI (genAI) est toujours justifiée ; il se peut simplement que cela prenne plus de temps que les investisseurs et les analystes ne l’avaient anticipé pour changer entièrement le secteur.
Le signe le plus clair et le plus récent du déplacement de l’hype a été à la Conférence Black Hat USA au début du mois d’août, au cours de laquelle l’intelligence artificielle générative a joué un très petit rôle dans les lancements de produits, les démonstrations et la création générale de buzz. Par rapport à la Conférence RSA quatre mois plus tôt, mettant en vedette les mêmes fournisseurs, l’accent mis sur l’IA à Black Hat était négligeable, ce qui amènerait raisonnablement les observateurs neutres à croire que l’industrie passe à autre chose ou que l’IA est devenue une commodité. Mais ce n’est pas tout à fait le cas.
Voici ce que je veux dire. Le bénéfice transformateur de l’application de l’intelligence artificielle générative dans l’industrie de la cybersécurité ne viendra probablement pas de chatbots génériques ou de la superposition rapide de l’IA sur les modèles de traitement de données. Ce sont les éléments de base de cas d’utilisation plus avancés et plus efficaces, mais pour l’instant, ils ne sont pas spécialisés pour l’industrie de la sécurité, et en conséquence, ils ne conduisent pas à une nouvelle vague de résultats de sécurité optimaux pour les clients. Plutôt, la véritable transformation que l’IA apportera à l’industrie de la sécurité se produira lorsque les modèles d’IA seront personnalisés et réglés pour les cas d’utilisation de la sécurité.
Les cas d’utilisation actuels de l’IA dans la sécurité emploient en grande partie prompt engineering et Retrieval-Augmented Generation, qui est un cadre d’IA qui permet essentiellement aux grands modèles de langage (LLM) d’accéder à des ressources de données supplémentaires en dehors de leurs données de formation, en combinant les meilleures parties de l’IA générative et de la récupération de base de données. L’utilité de ceux-ci varie considérablement en fonction du cas d’utilisation et de la façon dont le traitement des données existant d’un fournisseur prend en charge le cas d’utilisation ; ils ne sont pas « magiques ». C’est vrai pour d’autres applications qui nécessitent des données et une expertise propriétaires qui ne sont pas prévalentes sur Internet, telles que le diagnostic médical et les travaux juridiques. Il semble probable que les entreprises ajusteront les pipelines de traitement des données et les systèmes d’accès aux données pour optimiser les cas d’utilisation de l’IA générative. De plus, les sociétés d’IA encouragent le développement de modèles spécialement réglés, bien qu’il reste à voir à quel point cela fonctionnera pour les utilisations où la qualité et le détail sont essentiels.
Il y a quelques raisons pour lesquelles cette spécialisation prendra du temps pour avoir un effet sur l’industrie de la sécurité, cependant. Une raison principale est que la personnalisation de ces modèles nécessite de nombreuses personnes impliquées pendant la formation qui sont des experts en matière de cybersécurité et d’IA, deux industries qui ont du mal à embaucher suffisamment de talents. L’industrie de la cybersécurité manque d’environ quatre millions de professionnels dans le monde, selon le Forum économique mondial, et Reuters estime qu’il y aura un gap d’embauche de 50 % pour les postes liés à l’IA dans un avenir proche.
Sans une abondance d’experts disponibles, le travail précis nécessaire pour adapter les modèles d’IA pour les faire fonctionner dans un contexte de sécurité sera ralenti. Le coût pour effectuer la science des données nécessaire pour former ces modèles limite également le nombre d’organisations qui ont les ressources pour mener des recherches sur la personnalisation de l’IA. Il faut des millions de dollars pour se permettre la puissance de traitement que les modèles d’IA de pointe nécessitent, et cet argent doit venir de quelque part. Même lorsque une organisation a les ressources et l’équipe pour alimenter la recherche sur la personnalisation de l’IA, les progrès réels ne se produisent pas du jour au lendemain. Il faudra du temps pour déterminer comment augmenter au mieux les modèles d’IA pour bénéficier aux praticiens et analystes de la sécurité, et comme pour tout nouvel outil, il y aura une courbe d’apprentissage lorsque des processeurs de langage naturel spécifiques à la sécurité, des chatbots et d’autres intégrations assistées par l’IA seront introduits.
L’IA générative est toujours en mesure de faire basculer le monde de la cybersécurité dans un nouveau paradigme, où les capacités offensives de l’IA que les adversaires et les acteurs menaçants exploitent seront en concurrence avec les modèles d’IA des fournisseurs de sécurité conçus pour détecter et surveiller les menaces. Les recherches et le développement nécessaires pour alimenter ce déplacement prendront simplement un peu plus de temps que ce que la communauté technologique en général l’avait anticipé.












