Surveillance
Loup rouge, loup bleu : reconnaissance faciale assistée par l'IA et surveillance des Palestiniens

Peu d’endroits sur Terre sont surveillés aussi impitoyablement que les territoires palestiniens occupés.
Dans les rues d'Hébron, à points de contrôle bondés À Jérusalem-Est, et dans la vie quotidienne de millions de personnes, les systèmes d’IA avancés agissent désormais à la fois comme gardiens et comme veilleurs.
Derrière les caméras et les bases de données se cachent deux outils terriblement efficaces : Loup rouge et loup bleu — des systèmes de reconnaissance faciale conçus non pas pour la commodité ou le commerce, mais pour le contrôle.
Leur travail : scanner les visages, les comparer à de vastes bases de données biométriques et décider si une personne peut se déplacer librement ou doit être arrêtée.
Ce qui rend ces systèmes si alarmants n’est pas seulement la technologie elle-même, mais la façon dont ils sont utilisés. ciblant une population entière en fonction de son origine ethnique, en collectant des données sans consentement et en intégrant des algorithmes dans les mécanismes d’occupation.
Dans les sections suivantes, nous explorons comment fonctionnent ces systèmes d’IA, où ils ont été déployés, les abus qu’ils alimentent et pourquoi ils sont importants bien au-delà de la Palestine.
Comment fonctionnent Red Wolf et Blue Wolf
Blue Wolf est une application mobile utilisée par les soldats en patrouille. Une simple photo du visage d'un Palestinien déclenche une vérification instantanée par rapport à un vaste référentiel biométrique souvent appelé « Gestionnaire d'identité ». Meute de loups.
La réponse est brutalement simple : un code couleur. Vert suggère de passer ; jaune signifie arrêter et questionner ; rouge les signaux retiennent ou refusent l'entrée.
Blue Wolf n'est pas seulement un outil de recherche. Il enregistre de nouveaux visages. Lorsqu'une photo ne correspond pas, l'image et ses métadonnées peuvent être ajoutées à la base de données, créant ou complétant un profil. Les unités sont encouragées à capturer autant de visages que possible afin d'améliorer le système.
Red Wolf déplace l'identification au poste de contrôle lui-même. Des caméras fixes installées aux tourniquets scannent chaque visage entrant dans la cage. Le système compare le modèle facial aux profils enregistrés et affiche les mêmes couleurs de triage sur un écran.
Si le système ne vous reconnaît pas, vous ne passez pas. Votre visage est alors capturé et enregistré pour la prochaine fois.
L'IA et l'apprentissage automatique sous le capot
Les fournisseurs et les architectures de modèles exacts ne sont pas publics. Cependant, le comportement est conforme à une norme. vision par ordinateur pipeline:
- Détection: Les caméras ou les capteurs du téléphone localisent un visage dans le cadre.
- Repérage : Les points clés (yeux, nez, coins de la bouche) sont cartographiés pour normaliser la pose et l'éclairage.
- Intégration: Un réseau neuronal profond convertit le visage en un vecteur compact (« empreinte faciale »).
- Correspondant à : Ce vecteur est comparé aux plongements stockés à l'aide d'une similarité cosinus ou d'une recherche du plus proche voisin.
- Prise de décision : Si la similarité dépasse un seuil, le profil est renvoyé avec un statut ; sinon, un nouveau profil peut être créé.
Ce qui est particulier ici, c'est la spécificité de la population. Les données d'entraînement et de référence comprennent en grande majorité des visages palestiniens. Cela concentre les performances du modèle sur un seul groupe et codifie une forme de profilage numérique par conception.
À grande échelle, les systèmes emploient probablement inférence de bord Pour la rapidité (téléphones et unités de point de contrôle exécutant des modèles optimisés) avec synchronisation asynchrone avec les serveurs centraux. Cela minimise la latence au niveau du tourniquet tout en maintenant la base de données centrale à jour.
Les seuils peuvent être ajustés par logiciel. Les augmenter réduit les faux positifs, mais augmente les faux négatifs ; les abaisser a l'effet inverse. Dans le contexte d'un point de contrôle, les incitations favorisent le signalement excessif, transférant la charge des erreurs aux civils.
Données, étiquettes et dérive
La reconnaissance faciale n’est « bon » que dans la mesure où ses données le sont.
Les campagnes de collecte massive de photos de Blue Wolf servent à l'acquisition de données. Les visages sont capturés sous différents éclairages et angles, avec des étiquettes apposés a posteriori : identité, adresse, liens familiaux, profession et cote de sécurité.
Ces étiquettes ne constituent pas une vérité fondamentale. Ce sont des assertions administratives qui peuvent être obsolètes, biaisées ou erronées. Lorsque ces étiquettes alimentent le réentraînement du modèle, les erreurs se transforment en caractéristiques.
Avec le temps, les dérive des ensembles de données s'infiltre. Les enfants deviennent adultes. Les individus changent d'apparence. La rareté des exemples concrets (personnes ressemblantes, occultations, masques) peut gonfler les taux d'erreur réels. Si la surveillance et le rééquilibrage sont faibles, le système se dégrade discrètement, tout en conservant la même aura de certitude au point de contrôle.
Où il est déployé et comment il évolue
Le secteur H2 d'Hébron C'est le creuset. Des dizaines de points de contrôle internes régulent les déplacements dans les rues de la vieille ville et vers les maisons palestiniennes.
Red Wolf est fixé à certains tourniquets, créant un entonnoir d'inscription obligatoireBlue Wolf suit à pied, étendant la couverture aux marchés, aux rues secondaires et aux portes privées.
In À Jérusalem-Est, les autorités ont déployé des systèmes de vidéosurveillance dotés d'intelligence artificielle dans les quartiers palestiniens et autour des lieux saints. Des caméras identifient et suivent les individus à distance, permettant arrestations post-événement en exécutant la vidéo via la recherche faciale.
La densité de surveillance est importante. Plus il y a de caméras et de points de capture, plus le graphique démographique est complet : qui vit où, qui visite qui, qui fréquente quoi. Une fois établi, ce graphique alimente non seulement la reconnaissance, mais aussi l'analyse réseau et les modèles de modes de vie.
Hébron : une ville sous confinement numérique
Les résidents décrivent les points de contrôle Cela ressemble moins à des postes frontières qu'à des portes automatisées. Un écran rouge peut bloquer l'accès à une personne dans sa rue jusqu'à l'intervention d'un agent de sécurité, si tant est qu'il intervienne.
Au-delà du contrôle d'accès, le réseau de caméras sature le quotidien. Des objectifs surgissent des toits et des lampadaires. Certains pointent vers les cours et les fenêtres. Les gens raccourcissent leurs visites, modifient leurs itinéraires et évitent de s'attarder dehors.
Le coût social est subtil mais omniprésent : moins de rassemblements dans les cours, moins de conversations spontanées, moins de jeux de rue pour les enfants. Une ville devient silencieuse non pas parce qu'elle est sûre, mais parce qu'elle est surveillée.
Jérusalem-Est : des caméras à chaque coin de rue
Dans la vieille ville de Jérusalem-Est et dans les quartiers environnants, la reconnaissance faciale s'appuie sur un vaste réseau de vidéosurveillance.
Les images sont consultables. Les visages d'une manifestation peuvent être comparés quelques jours plus tard. La logique est simple : vous pouvez partir aujourd'hui, mais vous ne sera pas quitter la base de données.
Les résidents parlent du « deuxième sens » qu’ils développent — une conscience de chaque dôme monté sur un poteau — et de la censure interne qui l’accompagne.
La crise des droits de l'homme
Plusieurs lignes rouges sont franchies en mĂŞme temps :
- Égalité: Seuls les Palestiniens sont soumis à un tri biométrique à ces points de contrôle. Des itinéraires distincts protègent les colons d'un contrôle comparable.
- Consentement : L'inscription est forcée. Refuser de se soumettre au scan équivaut à refuser de déménager.
- Transparence: Les gens ne peuvent pas voir, contester ou corriger les données qui les régissent.
- Proportionnalité: Un système biométrique à faible friction et toujours actif traite par défaut une population entière comme suspecte.
La reconnaissance faciale permet également de mal identifier — surtout en cas de faible éclairage, d'occlusion partielle ou de changement d'âge. Dans ce contexte, une fausse correspondance peut entraîner une retenue ou un refus de passage ; une correspondance manquée peut bloquer une personne au tourniquet.
Le bilan psychologique
La vie sous la surveillance constante de l’IA nous apprend à être prudents.
Les gens évitent les rassemblements, modifient leurs habitudes et surveillent plus étroitement leurs enfants. En public, les mots sont pesés. Les déplacements sont calculés.
Beaucoup décrivent l’effet déshumanisant d’être réduit à un vert, jaune ou rouge code. Le jugement binaire d'une machine devient le fait le plus important de votre journée.
Gouvernance, droit et responsabilité
En Israël même, la reconnaissance faciale rencontre des difficultés en matière de respect de la vie privée. Dans les territoires occupés, un régime juridique différent s'applique. ordres militaires outrepasser les normes de confidentialité civile.
Principales lacunes :
- Aucune surveillance indépendante avec le pouvoir d'auditer les ensembles de données, les seuils ou les taux d'erreur.
- Aucune procédure d'appel pour les personnes signalées ou inscrites à tort.
- Rétention indéfinie et des règles de partage pour les données biométriques et les profils dérivés.
- Dérive des objectifs risque car les ensembles de données et les outils sont réutilisés pour le ciblage du renseignement et la surveillance du réseau.
Sans limites contraignantes, la trajectoire par défaut est avec des données: plus de caméras, des listes de surveillance plus larges, des intégrations plus approfondies avec d'autres ensembles de données (téléphones, véhicules, services publics).
À l'intérieur de la boucle de décision
La reconnaissance faciale ne fonctionne pas en vase clos. Elle est intégrée à :
- Listes de surveillance : Listes de noms, d’adresses et d’« associés » qui orientent les résultats par code couleur.
- Règles de géorepérage : Des lieux ou des fenêtres temporelles qui suscitent un examen plus approfondi.
- UX opérateur : Triage simple des couleurs qui encourage biais d'automatisation — la déférence humaine à la production de la machine.
- Tableaux de bord de commande : Cartes thermiques, alertes et statistiques qui peuvent transformer « plus d’arrêts » en « meilleures performances ».
Une fois que les mesures de commandement privilégient le volume — plus de scans, plus de drapeaux, plus de « découvertes » — le système tend à maximiser les frictions pour la population qu’il gouverne.
Ce qui le différencie de la surveillance conventionnelle
Trois caractéristiques distinguent Red Wolf/Blue Wolf :
- Capture obligatoire : Les déplacements nécessitent souvent une analyse. L'exclusion équivaut à un verrouillage.
- Spécificité de la population : Le modèle et la base de données se concentrent sur un groupe ethnique, intégrant la discrimination dans le pipeline.
- Intégration opérationnelle : Les sorties contrôlent instantanément l'accès et déclenchent l'application de la loi, et pas seulement une analyse après coup.
Certains éléments font écho à d’autres déploiements à travers le monde : des réseaux de caméras denses, des recherches faciales sur les images de manifestations, une police prédictive alimentée par des étiquettes biaisées.
Mais la fusion entre occupation militaire et déplacements contrôlés par l'IA est particulièrement frappante. Elle démontre comment la vision par ordinateur moderne peut renforcer les systèmes de ségrégation, les rendant plus rapides, plus silencieux et plus difficiles à contester.
Les responsables de la sécurité affirment que ces outils préviennent la violence et facilitent le dépistage. plus efficace.
Les critiques rétorquent que « l'occupation efficace » n'est pas une amélioration éthique. Elle est simplement industrialise contrôle — et transfère le coût de l’erreur sur les civils qui n’ont aucun recours.
Que regarder ensuite
- Fluage du modèle : Extension de l'identification faciale à l'analyse de la démarche, de la voix et du comportement.
- Réglage du seuil : Des changements de politique qui augmentent ou diminuent discrètement les seuils de correspondance — et le fardeau civil.
- Fusion de données : Relier la biométrie aux métadonnées des télécommunications, aux lecteurs de plaques d’immatriculation, aux paiements et aux services publics.
- Exportation: Adoption de systèmes similaires « testés au combat » par d’autres gouvernements, commercialisés comme des solutions de sécurité pour les villes intelligentes ou les frontières.
Conclusion : un avertissement pour le monde
Au tourniquet d’Hébron ou dans une ruelle de la porte de Damas, l’IA est devenue un décideur permanent des déplacements humains.
Le danger ne vient pas seulement de la caméra. C'est le système lui-même : l'enrôlement obligatoire, des bases de données opaques, un triage instantané et un vide juridique qui fait de tout un peuple un suspect permanent.
Ce qui est normalisé est un modèle — une façon de gouverner par des algorithmesLe monde entier doit choisir entre accepter ce modèle ou tracer une ligne dure avant que la suspicion automatisée ne devienne le paramètre par défaut de la vie publique.


