À deux pas de la station East India, dans l’est du Grand Londres, la porte automatique de la supérette Morrisons Daily s’ouvre discrètement. Le magasin est installé juste sous les rails du Docklands Light Railway. À intervalles réguliers, le passage d’un train fait vibrer légèrement le plafond au-dessus des caisses. Dans le sas d’entrée, entre l’extincteur rouge et le panneau « chiens interdits », une simple feuille A4 scotchée au mur donne le ton : Face recognition security cameras in use.*
À l’intérieur, trois écrans dominent les caisses. Ils diffusent en direct les images captées dans chaque allée. Aucun angle mort. Un homme en tenue de travail, accoudé au comptoir, tient un téléphone. L’appareil est relié au logiciel FaceWatch. Ici, les caméras ne se contentent plus d’enregistrer. Elles analysent. Un employé, qui a reçu pour consigne de ne pas s’exprimer, accepte malgré tout de décrire brièvement le fonctionnement du système.
Selon lui, l’outil remplit deux fonctions. D’abord, il signale en temps réel les comportements suspects : « Si un client glisse un article dans sa poche ou sous son manteau, une alerte s’affiche sur le téléphone du personnel. L’objectif est d’intervenir calmement, sans confrontation directe, car les agressions contre les employés sont devenues fréquentes. » D’après les données publiées par le British Retail Consortium (le syndicat professionnel des commercçants) dans son rapport de 2024 sur la criminalité dans le commerce, les violences et abus contre le personnel ont atteint un niveau record au Royaume-Uni, dépassant le millier d’incidents quotidiens. Dans ce climat, la technologie est présentée comme un moyen de désamorcer les tensions.
Deuxième fonction : l’identification des récidivistes. L’employé continue son explication tout en rangeant des tranches de pain sur une étagère :
« Lorsqu’un individu quitte le magasin sans payer, son image peut être intégrée à une base interne. Si la personne revient, un signal d’alarme apparaît immédiatement sur l’application du personnel. » L’homme fait défiler l’écran. Une cliente apparaît en temps réel, filmée dans une allée. Elle remplit son sac de courses. Rien d’illégal. « Si elle part sans payer, on sera alertés », précise-t-il simplement. Aucun vigile à l’entrée. Aucun dispositif spectaculaire. La surveillance se fond dans le décor.
La reconnaissance faciale au service de la police
À quelques kilomètres de là, à Broad Green, dans le borough de Croydon, la reconnaissance faciale monte encore d’un cran. Dans cette ville de la banlieue sud de Londres, elle est utilisée par la Metropolitan Police. La Live Facial Recognition (LFR) est déployée par les forces de l’ordre depuis 2020. Habituellement, des fourgons équipés de caméras mobiles sont installés lors d’opérations ciblées. À Croydon, le dispositif a été temporairement fixé sur des caméras existantes, avec une signalétique visible. Comme lors de chaque déploiement de LFR, le système n’est activé qu’en présence d’agents. Les visages captés sont comparés à une liste de personnes recherchées pour des infractions graves.
Certaines ONG britanniques dénoncent toutefois une dérive sécuritaire. Big Brother Watch estime ainsi que « la reconnaissance faciale en direct transforme des rues entières en zones de surveillance permanente et traite chaque passant comme un suspect potentiel. » L’association critique un dispositif qu’elle juge « disproportionné et intrusif ». Selon les données publiées par la Metropolitan Police pour l’année 2025, plusieurs centaines d’arrestations ont été effectuées grâce à la LFR depuis son déploiement. Parmi elles, l’interpellation d’un homme en cavale depuis dix ans, identifié lors d’un grand événement public.

La Metropolitan Police, souvent abrégée en Met, affirme que les images des personnes ne figurant pas sur les listes de recherche sont immédiatement supprimées. Le contraste est net : d’un côté, un outil policier officiellement encadré, de l’autre, des bases privées gérées par des enseignes commerciales.
« Quand le système se trompe, c’est à nous de prouver notre
innocence »
Byron Long vit seul avec ses chats à Cardiff, au Pays-de-Galles. Au téléphone, il explique souffrir de troubles anxieux. Faire ses courses constituait l’un de ses rares moments d’interaction sociale. L’homme se rendait régulièrement dans un supermarché B&M, le seul à vendre les friandises que ses chats acceptaient de manger. D’une voix fragile, il raconte qu’un jour, il se rend dans ce magasin pour faire ses achats habituels. « Je savais que j’étais filmé, mais j’ignorais la présence d’intelligence artificielle dans ces caméras. » Après un passage en caisse pour régler ses achats, Byron Long rentre chez lui. Lorsqu’il retourne dans ce même magasin, trois semaines plus tard, un employé lui demande de quitter les lieux. Byron Long croit d’abord à une sorte d’alarme incendie, car le téléphone de l’employé émet une sonnerie d’alerte. Mais devant plusieurs clients, on l’accuse d’avoir volé, il y a trois semaines, pour 75 livres (environ 86 €) de marchandises.
Les caisses se sont arrêtées.
Byron Long, accusé de vol dans un supermarché de Cardiff
Tout le monde me regardait.
Selon l’enseigne, le système FaceWatch l’aurait identifié. Avec amertume, Byron Long se remémore : « Les caisses se sont arrêtées. Tout le monde me regardait ». L’humiliation est immédiate. Il demande alors l’accès aux données le concernant. FaceWatch lui transmet une image et les informations associées : le magasin est à l’origine du signalement. Aucune preuve vidéo de vol ne lui est présentée. La seule séquence disponible le montre en train de payer ses articles. Son visage reste pourtant enregistré pendant trois semaines. « Maintenant, je dois être accompagné pour faire mes courses », confie-t-il.
Le magasin lui propose un dédommagement de 25 livres sterling
(environ 28 €). Une somme qu’il juge dérisoire. Ses avocats ont adressé des mises en demeure à FaceWatch et à l’enseigne pour violation de données personnelles. L’Information Commissioner’s Office (ICO), l’autorité britannique chargée de la protection des données, a été saisie.
Pour Byron Long, l’affaire dépasse son cas personnel. « Depuis le Brexit et le Covid, on a l’impression que tout est devenu plus dur, on se méfie plus les uns des autres. On nous surveille davantage, et quand le système se trompe, c’est à nous de prouver notre innocence. » Début février 2026, la BBC et The Guardian ont également rapporté l’affaire de Warren Rajah, un Londonien interdit d’accès à un supermarché Sainsbury’s après avoir été signalé par FaceWatch. Selon la BBC, l’incident serait lié à une erreur humaine dans le traitement initial du signalement, non à un dysfonctionnement technique de l’algorithme. Ces affaires mettent en lumière une distinction essentielle : si la technologie compare des visages, ce sont des employés qui décident d’inscrire un individu dans une base de données.
FaceWatch appelle à une approche
« équilibrée »
Joint par téléphone, un responsable de FaceWatch défend son système. Selon lui, « la technologie fonctionne avec un haut niveau de précision et les erreurs proviennent du traitement humain en magasin ». Il appelle à une approche « équilibrée » du débat, rappelant que les erreurs d’identification existaient bien avant la reconnaissance faciale.
Sur le plan juridique, l’usage de la reconnaissance faciale par des entreprises privées est encadré par le UK GDPR. C’est la version britannique du règlement européen sur la protection des données, conservée après le Brexit. Il fixe les règles relatives à la collecte et au traitement des données personnelles, notamment les données biométriques, considérées comme particulièrement sensibles. Cette technologie est aussi régie par le Data Protection Act 2018. Elle transpose et adapte ces principes dans le droit national britannique, en précisant les obligations des entreprises et les pouvoirs de contrôle des autorités. Les lignes directrices de l’Information Commissioner’s Office imposent aux entreprises de démontrer la nécessité et la proportionnalité du dispositif, d’informer clairement le public et de permettre aux personnes concernées de contester un signalement.
Pour autant, les organisations de défense des libertés numériques estiment que ces garde-fous ne suffisent pas. Selon Privacy International, « aussi strictes soient-elles sur le papier, les lignes directrices actuelles ne comblent pas les risques (…) et n’offre pas de recours véritable aux personnes injustement ciblées ».
Mais le débat ne s’arrête plus aux rives de la Tamise. En France, un projet de loi adopté en février 2026 ouvre la voie à l’expérimentation de caméras de vidéosurveillance « augmentées » par des algorithmes dans les commerces. Le texte autorise, pour une durée limitée, l’analyse automatisée de certains comportements jugés suspects – comme la dissimulation d’un produit – afin d’alerter le personnel.
Dans le Morrisons Daily d’East India, les écrans continuent de diffuser leurs images silencieuses. Les clients remplissent leurs paniers. Certains lèvent les yeux vers les caméras. D’autres non. Au Royaume-Uni, la question divise profondément. Entre promesse de sécurité et crainte d’une société sous contrôle permanent, le débat s’est installé durablement. Dans cette ville où George Orwell imagina Big Brother, la surveillance ne porte plus d’uniforme. Elle tient dans une application mobile.
* Utilisation de caméras de sécurité à reconnaissance faciale.





