Les caméras dites « augmentées », équipées d’algorithmes capables d’analyser les images en temps réel, se déploient discrètement dans les rues, les commerces et les transports. Ces dispositifs ne se contentent plus de filmer : ils interprètent, classent, détectent. Face à cette montée en puissance de la vidéosurveillance algorithmique, la CNIL renforce sa vigilance et appelle à encadrer strictement ces outils qui flirtent avec la surveillance de masse.
Une technologie en pleine expansion
Contrairement à la vidéoprotection classique, les caméras « augmentées » sont associées à des logiciels d’intelligence artificielle. Elles peuvent, par exemple, estimer l’âge ou le genre d’un passant, compter les piétons ou détecter des mouvements suspects. À la différence de la reconnaissance faciale, elles n’ont pas pour objectif d’identifier nominativement une personne, mais leur champ d’analyse reste intrusif.
Depuis quelques années, ces dispositifs se multiplient, portés par les promesses de « smart cities » et les besoins sécuritaires. Leur utilisation soulève pourtant des questions majeures de proportionnalité, de transparence et de conformité au RGPD.
Le cas des bureaux de tabac : une estimation de l’âge jugée illégale
Le 11 juillet 2025, la CNIL a publié une position sans équivoque sur l’usage de caméras d’estimation d’âge dans les bureaux de tabac. Ces systèmes, conçus pour vérifier si un client est majeur avant la vente de tabac, d’alcool ou de jeux d’argent, analysent automatiquement le visage et affichent un voyant (vert ou rouge) selon l’âge estimé.
Mais pour la CNIL, cette technologie ne respecte pas les exigences du RGPD. Elle pointe deux problèmes :
- Une absence de nécessité : puisque l’algorithme fournit une simple estimation, les buralistes doivent malgré tout vérifier la pièce d’identité. La caméra devient donc un outil redondant, voire trompeur.
- Une atteinte disproportionnée aux droits des personnes : le système fonctionne par défaut et scanne tous les visages dans le champ de vision, sans possibilité réelle d’opposition. Même les clients manifestement majeurs sont analysés, ce qui viole le principe de minimisation des données.
La CNIL rappelle que des alternatives existent : vérification manuelle des pièces d’identité ou outils numériques respectueux des droits, comme les futurs portefeuilles d’identité européens.
Dans l’espace public : vers une surveillance invisible ?
Au-delà des bureaux de tabac, la CNIL s’est déjà inquiétée, dès 2022, du déploiement de ces technologies dans l’espace public. Son alerte reste plus que jamais d’actualité.
Les caméras augmentées, couplées à des algorithmes d’analyse comportementale, permettent de détecter des regroupements de personnes, des déplacements « anormaux », ou des objets abandonnés. Leur usage par des collectivités ou des forces de l’ordre, même à des fins expérimentales, soulève plusieurs risques majeurs :
- Une banalisation de la surveillance automatisée, difficile à percevoir pour les citoyens, car l’analyse est invisible. Cette invisibilité favorise une acceptation passive, jusqu’à ce que ces dispositifs deviennent la norme. Or, cette normalisation modifie en profondeur notre rapport à l’espace public, qui devient un lieu d’observation constante. L’épisode de Black Mirror sur la notation sociale, autrefois perçu comme de la science-fiction, trouve un écho bien réel dans le système de scoring social mis en place en Chine, où des comportements jugés déviants peuvent entraîner des sanctions concrètes. Même si ces systèmes ne sont pas (encore) adoptés chez nous, l’idée même qu’un individu puisse être noté, classé ou surveillé de manière automatisée soulève de graves enjeux démocratiques, trop souvent minimisés sous couvert de progrès technologique.
- Un cadre juridique inadapté : le Code de la sécurité intérieure n’a pas prévu ces traitements algorithmiques. La CNIL estime qu’une loi spécifique est indispensable pour encadrer les usages les plus intrusifs.
- Un droit d’opposition inefficace : dans la majorité des cas, les personnes filmées ne peuvent pas s’opposer à l’analyse de leurs données. Or, ce droit est fondamental dans le cadre du RGPD.
Un besoin urgent de régulation
Le message de la CNIL est clair : la puissance des technologies ne doit pas prendre le pas sur les droits fondamentaux. L’institution appelle à une réglementation stricte, fondée sur le principe de « privacy by design » (protection des données à caractère personnel dès la conception), et à un débat public sur les limites éthiques de ces dispositifs.
Si certaines analyses peuvent être utiles à des fins statistiques ou logistiques, toute extension vers des usages sécuritaires, voire prédictifs, doit être rigoureusement encadrée par la loi. La CNIL rappelle également qu’un traitement de données personnelles ne peut être mis en œuvre que s’il repose sur une base légale claire, et si les citoyens en sont informés — leurs données ne pouvant être collectées à leur insu.
Vers quel futur technologique ?
La généralisation de ces outils s’inscrit dans un mouvement plus large : celui d’une société où la surveillance devient algorithmique, fluide, silencieuse. Ce glissement pose une question cruciale : voulons-nous vivre dans un monde où chaque déplacement, chaque geste, chaque regroupement est analysé par une machine ?
La CNIL, en tirant la sonnette d’alarme, rappelle que le progrès technologique ne doit jamais faire reculer l’État de droit. Il appartient désormais au législateur de définir une ligne rouge claire, entre innovation utile et dérive sécuritaire.
Sources :
https://cnil.fr/fr/cameras-augmentees-espaces-publics-position-cnil
Siryne Mrabti
Master 2 Cyberjustice 2024/2025
