Connect with us

En 2024, les Deepfakes deviennent mainstream. Voici comment les entreprises peuvent se protéger

Leaders d’opinion

En 2024, les Deepfakes deviennent mainstream. Voici comment les entreprises peuvent se protéger

mm

Depuis au moins l’élection de 2016, lorsque les préoccupations autour de la désinformation ont éclaté dans la conscience publique, les experts ont sonné l’alarme sur les deepfakes. Les implications de cette technologie étaient – et restent – terrifiantes. La prolifération non contrôlée de médias synthétiques hyper-réalistes pose une menace pour tout le monde – des politiciens aux gens ordinaires. Dans un environnement déjà caractérisé par une méfiance généralisée, les deepfakes promettaient de ne faire qu’attiser les flammes encore plus.

Il s’avère que nos craintes étaient prématurées. Les connaissances technologiques nécessaires pour créer réellement des deepfakes, couplées à leur qualité souvent médiocre, ont signifié que pour au moins les deux derniers cycles d’élections présidentielles, ils sont restés une préoccupation minime.

Mais tout cela est sur le point de changer – est déjà en train de changer. Au cours des deux dernières années, la technologie d’intelligence artificielle générative est entrée dans le mainstream, simplifiant radicalement le processus de création de deepfakes pour le consommateur moyen. Ces mêmes innovations ont considérablement amélioré la qualité des deepfakes, de sorte que, dans un test à l’aveugle, la plupart des gens seraient incapables de distinguer une vidéo truquée de la chose réelle.

Cette année, en particulier, nous avons commencé à voir des indications de la manière dont cette technologie pourrait affecter la société si des efforts ne sont pas faits pour la combattre. L’année dernière, par exemple, une photo générée par IA du pape François portant un manteau inhabituellement stylé est devenue virale, et a été prise par beaucoup pour être authentique. Même si cela peut sembler, à un certain niveau, comme un innocent petit jeu, cela révèle la puissance dangereuse de ces deepfakes et à quel point il est difficile de freiner la désinformation une fois qu’elle a commencé à se propager. Nous pouvons nous attendre à trouver des exemples encore moins amusants – et bien plus dangereux – de ce type de fausse information virale dans les mois et les années à venir.

Pour cette raison, il est impératif que les organisations de tous types – des médias à la finance, en passant par les gouvernements et les plateformes de médias sociaux – prennent une position proactive en matière de détection de deepfakes et de vérification de l’authenticité du contenu. Une culture de confiance via des garanties doit être établie maintenant, avant qu’une vague de deepfakes ne puisse emporter notre compréhension partagée de la réalité.

Comprendre la menace des deepfakes

Avant de plonger dans ce que les organisations peuvent faire pour combattre cette vague de deepfakes, il vaut la peine de préciser pourquoi les outils de protection sont nécessaires. Typiquement, ceux qui s’inquiètent des deepfakes citent leur impact potentiel sur la politique et la confiance sociale. Ces conséquences potentielles sont extrêmement importantes et ne devraient pas être négligées dans aucune conversation sur les deepfakes. Mais il se trouve que la montée en puissance de cette technologie a des effets potentiellement désastreux dans de multiples secteurs de l’économie américaine.

Prenez l’assurance, par exemple. Actuellement, la fraude assurantielle annuelle aux États-Unis s’élève à 308,6 milliards de dollars – un chiffre roughly un quart de la taille de l’ensemble de l’industrie. Dans le même temps, les opérations de back-end de la plupart des compagnies d’assurance sont de plus en plus automatisées, avec 70 % des réclamations standard prévues pour être sans contact d’ici 2025. Cela signifie que les décisions sont de plus en plus prises avec une intervention humaine minimale : self-service sur le front-end et automatisation facilitée par l’IA sur le back-end.

Ironiquement, la technologie même qui a permis cette augmentation de l’automatisation – c’est-à-dire l’apprentissage automatique et l’intelligence artificielle – a garanti son exploitation par les acteurs malveillants. Il est maintenant plus facile que jamais pour la personne moyenne de manipuler les réclamations – par exemple, en utilisant des programmes d’IA génératifs comme Dall-E, Midjourney ou Stable Diffusion pour faire paraître une voiture plus endommagée qu’elle ne l’est réellement. Déjà, des applications existent spécifiquement à cette fin, telles que Dude Your Car!, qui permet aux utilisateurs de créer artificiellement des bosses dans les photos de leurs véhicules.

Le même problème se pose pour les documents officiels, qui peuvent maintenant être facilement manipulés – avec des factures, des évaluations d’assurance et même des signatures ajustées ou inventées en bloc. Ce problème n’est pas seulement celui des assureurs, mais de l’ensemble de l’économie. C’est un problème pour les institutions financières, qui doivent vérifier l’authenticité d’une large gamme de documents. C’est un problème pour les détaillants, qui peuvent recevoir une plainte selon laquelle un produit est arrivé défectueux, accompagnée d’une image truquée.

Les entreprises ne peuvent simplement pas fonctionner avec ce degré d’incertitude. Un certain degré de fraude est probablement toujours inévitable, mais avec les deepfakes, nous ne parlons pas de fraude en marge – nous parlons d’un potentiel catastrophe épistémologique dans lequel les entreprises n’ont aucun moyen clair de distinguer la vérité de la fiction, et finissent par perdre des milliards de dollars à cause de cette confusion.

Lutter contre le feu par le feu : comment l’IA peut aider

Alors, que peut-on faire pour combattre cela ? Peut-être pas étonnamment, la réponse se trouve dans la technologie même qui facilite les deepfakes. Si nous voulons arrêter cette plaie avant qu’elle ne prenne plus d’ampleur, nous devons lutter contre le feu par le feu. L’IA peut aider à générer des deepfakes – mais elle peut également, heureusement, aider à les identifier automatiquement et à grande échelle.

En utilisant les bons outils d’IA, les entreprises peuvent automatiquement déterminer si une photographie, une vidéo ou un document donné a été manipulé. En mettant des dizaines de modèles disparates à la tâche d’identification de faux, l’IA peut automatiquement dire aux entreprises avec précision si une photographie ou une vidéo donnée est suspecte. Comme les outils que les entreprises déployés pour automatiser les opérations quotidiennes, ces outils peuvent fonctionner en arrière-plan sans surcharger le personnel déjà surmené ou prendre du temps sur des projets importants.

Si et lorsque une photographie est identifiée comme potentiellement altérée, le personnel humain peut alors être averti, et peut évaluer le problème directement, aidé par les informations fournies par l’IA. En utilisant l’analyse de balayage approfondi, elle peut dire aux entreprises pourquoi elle pense qu’une photographie a probablement été truquée – en pointant, par exemple, des métadonnées modifiées manuellement, l’existence d’images identiques sur le web, diverses irrégularités photographiques, etc.

Rien de tout cela ne diminue les incroyables progrès que nous avons vus dans la technologie d’IA générative au cours des dernières années, qui ont effectivement des applications utiles et productives dans de nombreux secteurs. Mais la puissance – pour ne pas mentionner la simplicité – de cette technologie émergente garantit presque son exploitation par ceux qui cherchent à manipuler les organisations, que ce soit pour un gain personnel ou pour semer le chaos social.

Les organisations peuvent avoir le meilleur des deux mondes : les avantages de productivité de l’IA sans les inconvénients des deepfakes omniprésents. Mais cela nécessite un degré de vigilance nouveau, surtout étant donné le fait que les sorties de l’IA générative ne deviennent que plus persuasives, détaillées et réalistes au fil des jours. Plus tôt les organisations se tournent vers ce problème, plus tôt elles pourront récolter les pleins bénéfices d’un monde automatisé.

Nicos Vekiarides est le directeur général et co-fondateur de Attestiv. Il a passé les 20 dernières années dans l'informatique d'entreprise et le cloud, en tant que PDG et entrepreneur, en mettant sur le marché de nouvelles technologies innovantes. Son précédent startup, TwinStrata, une société de stockage cloud innovante où il a été pionnier du stockage intégré au cloud pour l'entreprise, a été acquise par EMC en 2014. Auparavant, il a mis sur le marché le premier appareil de virtualisation de stockage de l'industrie pour StorageApps, une société acquise par HP.