talon En 2024, les Deepfakes se généralisent. Voici comment les entreprises peuvent se protéger - Unite.AI
Suivez nous sur

Des leaders d'opinion

En 2024, les Deepfakes se généralisent. Voici comment les entreprises peuvent se protéger

mm

Publié le

 on

Depuis au moins les élections de 2016, lorsque les inquiétudes concernant la désinformation ont fait irruption dans la conscience publique, les experts ont tiré la sonnette d’alarme concernant les deepfakes. Les implications de cette technologie étaient – ​​et restent – ​​terrifiantes. La prolifération incontrôlée des médias synthétiques hyperréalistes constitue une menace pour tout le monde– des politiciens aux gens ordinaires. Dans un environnement combustible déjà caractérisé par une méfiance généralisée, les deepfakes promettaient de ne faire qu’attiser davantage les flammes.

Il s’avère que nos craintes étaient prématurées. Le savoir-faire technologique requis pour réaliser des deepfakes, associé à leur qualité souvent de mauvaise qualité, signifie que pendant au moins les deux derniers cycles d'élections présidentielles, ils sont restés une préoccupation minime.

Mais tout cela est sur le point de changer – et cela change déjà. Au cours des deux dernières années, la technologie de l’IA générative est entrée dans le courant dominant, simplifiant radicalement le processus de création de deepfakes pour le consommateur moyen. Ces mêmes innovations ont considérablement amélioré la qualité des deepfakes, à tel point que lors d’un test à l’aveugle, la plupart des gens seraient incapables de distinguer une vidéo falsifiée de la réalité.

Cette année, en particulier, nous avons commencé à voir des indications sur la manière dont cette technologie pourrait affecter la société si des efforts ne sont pas déployés pour la combattre. L'année dernière, par exemple, une photo générée par l'IA du pape François portant un manteau inhabituellement élégant devenu viral, et a été considéré par beaucoup comme authentique. Bien que cela puisse sembler, à un certain niveau, comme un divertissement inoffensif, cela révèle la puissance dangereuse de ces deepfakes et à quel point il peut être difficile de freiner la désinformation une fois qu'elle a commencé à se propager. Nous pouvons nous attendre à trouver des exemples beaucoup moins amusants – et bien plus dangereux – de ce type de falsification virale dans les mois et les années à venir.

Pour cette raison, il est impératif que les organisations de tous bords – des médias aux finances en passant par les gouvernements et les plateformes de médias sociaux – adoptent une position proactive en matière de détection des deepfakes et de vérification de l’authenticité du contenu. Une culture de confiance via des garanties doit être établie maintenant, avant qu’un raz-de-marée de deepfakes puisse emporter notre compréhension commune de la réalité.

Comprendre la menace des deepfakes

Avant d'examiner ce que les organisations peuvent faire pour lutter contre cette vague de deepfakes, il convient d'expliquer précisément pourquoi les outils de protection sont nécessaires. Généralement, ceux qui s’inquiètent des deepfakes citent leur effet potentiel sur la politique et la confiance sociétale. Ces conséquences potentielles sont extrêmement importantes et ne doivent pas être négligées dans toute conversation sur les deepfakes. Mais il se trouve que l’essor de cette technologie a des effets potentiellement désastreux sur de nombreux secteurs de l’économie américaine.

Prenez une assurance, par exemple. À l’heure actuelle, la fraude à l’assurance annuelle aux États-Unis s’élève à 308.6 milliards de dollars, soit environ un quart de celui de l’ensemble du secteur. Dans le même temps, les opérations back-end de la plupart des compagnies d'assurance sont de plus en plus automatisées, avec 70 % des sinistres standards qui devraient se faire sans contact d'ici 2025. Cela signifie que les décisions sont de plus en plus prises avec une intervention humaine minimale : libre-service sur le front-end et automatisation facilitée par l’IA sur le back-end.

Ironiquement, la technologie même qui a permis cette augmentation de l’automatisation – c’est-à-dire l’apprentissage automatique et l’intelligence artificielle – a garanti son exploitation par de mauvais acteurs. Il est désormais plus facile que jamais pour l’individu moyen de manipuler les réclamations, par exemple en utilisant des programmes d’IA générative comme Dall-E, Midjourney ou Stable Diffusion pour donner à une voiture une apparence plus endommagée qu’elle ne l’est. Il existe déjà des applications spécialement conçues à cet effet, comme Dude Your Car!, qui permet aux utilisateurs de créer artificiellement des bosses sur les photos de leurs véhicules.

Il en va de même pour les documents officiels, qui peuvent désormais être facilement manipulés – avec des factures, des évaluations de souscription et même des signatures ajustées ou inventées en gros. Cette capacité constitue un problème non seulement pour les assureurs mais pour l’ensemble de l’économie. C'est un problème pour les institutions financières, qui doivent vérifier l'authenticité d'un large éventail de documents. C'est un problème pour les détaillants, qui peuvent recevoir une plainte indiquant qu'un produit est arrivé défectueux, accompagnée d'une image falsifiée.

Les entreprises ne peuvent tout simplement pas fonctionner avec un tel degré d’incertitude. Un certain degré de fraude est probablement toujours inévitable, mais avec les deepfakes, nous ne parlons pas de fraude marginale : nous parlons d'une catastrophe épistémologique potentielle dans laquelle les entreprises n'ont aucun moyen clair de distinguer la vérité de la fiction et finissent par perdre des milliards de dollars. dollars à cette confusion.

Combattre le feu par le feu : comment l'IA peut aider

Alors, que peut-on faire pour lutter contre cela ? Sans surprise, la réponse réside dans la technologie même qui facilite les deepfakes. Si nous voulons mettre un terme à ce fléau avant qu’il ne prenne de l’ampleur, nous devons combattre le feu par le feu. L’IA peut aider à générer des deepfakes, mais elle peut aussi, heureusement, aider à les identifier automatiquement et à grande échelle.

En utilisant les bons outils d’IA, les entreprises peuvent déterminer automatiquement si une photo, une vidéo ou un document donné a été falsifié. En associant des dizaines de modèles disparates à la tâche de fausse identification, l’IA peut automatiquement indiquer aux entreprises avec précision si une photographie ou une vidéo donnée est suspecte. À l’instar des outils que les entreprises déploient déjà pour automatiser leurs opérations quotidiennes, ces outils peuvent fonctionner en arrière-plan sans surcharger le personnel surchargé ni prendre du temps sur des projets importants.

Si et quand une photographie est identifiée comme potentiellement altérée, le personnel humain peut alors être alerté et évaluer directement le problème, à l’aide des informations fournies par l’IA. Grâce à une analyse approfondie, il peut indiquer aux entreprises why il pense qu'une photographie a probablement été falsifiée – ce qui indique, par exemple, des métadonnées modifiées manuellement, l'existence d'images identiques sur le Web, diverses irrégularités photographiques, etc.

Rien de tout cela ne vise à dénigrer les progrès incroyables que nous avons constatés dans la technologie de l’IA générative au cours des dernières années, qui ont effectivement des applications utiles et productives dans tous les secteurs. Mais la puissance même – sans parler de la simplicité – de cette technologie émergente garantit presque son utilisation abusive par ceux qui cherchent à manipuler les organisations, que ce soit à des fins personnelles ou pour semer le chaos sociétal.

Organisations vous avoir le meilleur des deux mondes : les avantages de l’IA en matière de productivité sans les inconvénients des deepfakes omniprésents. Mais cela nécessite un nouveau degré de vigilance, d’autant plus que les résultats de l’IA générative deviennent de jour en jour plus convaincants, plus détaillés et plus réalistes. Plus tôt les organisations s’intéresseront à ce problème, plus tôt elles pourront récolter tous les avantages d’un monde automatisé.

Nicos Vekiarides est le PDG et co-fondateur de Attestif. Il a passé les 20 dernières années dans l'informatique d'entreprise et le cloud, en tant que PDG et entrepreneur, mettant sur le marché de nouvelles technologies innovantes. Sa précédente startup, TwinStrata, une société innovante de stockage cloud dans laquelle il a été le pionnier du stockage intégré au cloud pour les entreprises, a été rachetée par EMC en 2014. Avant cela, il a mis sur le marché la première appliance de virtualisation de stockage du secteur pour StorageApps, une société rachetée plus tard par HP.