Par Marcel Moritz, maître de conférences HDR à l’Université de Lille, CERAPS UMR 8026, responsable du master droit du numérique.

Qu’est-ce que la vidéosurveillance algorithmique (VSA) ?

Avec la multiplication des caméras de vidéoprotection et de vidéosurveillance se pose une question importante : celle de la capacité humaine à visionner une telle quantité d’images. C’est alors que les algorithmes entrent en scène, puisqu’ils permettent d’automatiser la détection d’objets, de comportements « anormaux », de personnes recherchées, etc… La fourniture de telles solutions automatisées constitue également un marché économique important qui attise bien des convoitises. La crainte est cependant grande de voir se développer, au travers d’un tel solutionnisme technologique, une société de surveillance de masse et une inhibition des libertés.

Quel est le dispositif mis en place par la SNCF et visé par la saisine ?

Déployé dans le cadre d’un projet de recherches européen, il s’agit d’une expérimentation de solutions de détection d’objets délaissés et de suivi de leurs propriétaires, dans plusieurs gares. Contrairement à d’autres systèmes de VSA récemment testés, ce dispositif n’a pas pour cadre le régime juridique spécifique dérogatoire mis en place en vue des Jeux Olympiques de Paris mais le droit commun applicable. Il s’agit, selon la SNCF, d’un traitement fondé sur son intérêt légitime (une des six « bases légales » prévues par le RGPD) qui ne mettrait pas en oeuvre des données biométriques.

Quels sont les principaux arguments juridiques développés à l’encontre de ce dispositif ?

Un élément central de la réclamation formulée vise précisément la qualification des données traitées : selon la SNCF, il ne s’agirait pas de données biométriques, mais La Quadrature du Net (LQDN) ne partage pas cet avis. Le point est d’importance car les données biométriques font l’objet d’une protection juridique renforcée car il s’agit de données sensibles. Leur traitement est ainsi beaucoup plus encadré que celui des autres données à caractère personnel. Or, le système mis en place par la SNCF ne vise pas seulement à détecter des objets abandonnés, mais aussi à repérer la personne qui a abandonné cet objet et à la suivre pour la retrouver. D’après LQDN, seul un traitement de données biométriques permettrait d’aboutir à ce résultat. Or, l’intérêt légitime ne serait pas une base légale adaptée car les textes ne l’autorisent pas pour ce type de traitement de données biométriques. LQDN développe en outre d’autres arguments au soutien de sa réclamation : le caractère excessif et inadéquat du traitement, son absence de nécessité absolue et l’inexistence d’un droit d’opposition de la part des personnes concernées.  

Pourquoi la future position de la CNIL est-elle importante ?  

La surveillance algorithmique de l’espace public pourrait bien remodeler nos sociétés dans les années à venir. Nous observons les technologies déployées par des États comme la Chine sans nécessairement avoir conscience que certains de ces outils sont utilisés dans notre quotidien, à la faveur d’expérimentations comme celle visée par la réclamation de LQDN. Pourtant, cette surveillance diffuse n’est pas neutre. Outre les atteintes portées à notre vie privée, elle peut impacter en profondeur nos comportements individuels et collectifs. Par la lecture qu’elle fait du droit, la CNIL joue un rôle déterminant s’agissant de l’évolution de nos libertés à l’ère numérique. Plus que jamais, la place de cette autorité administrative indépendante est centrale.