Circulations(s), le festival de la jeune photographie européenne, se tient du 26 mars au 26 juin au Centquatre à Paris. La sélection comporte des œuvres d’Esther Hovers, jeune artiste néerlandaise qui interroge la surveillance de l’espace public par des caméras aidées d’algorithmes.

Quelqu’un qui marche en jetant des regards derrière son épaule. Quelqu’un qui reste immobile au milieu d’une zone piétonne. Un homme en train de courir après un autre homme. Un groupe de personnes qui se dispersent soudainement. Voilà le genre de situations qui est donné à voir par cette série de photographies prises dans un quartier d’affaires de Bruxelles. D’apparence anodins, ces clichés sont en réalité beaucoup plus ambigus qu’ils n’en ont l’air.

st_F_2015_EstherHovers_falsepositives
False Positives © Esther Hovers

Et pourquoi donc, me direz-vous ? Tout simplement parce qu’il s’agit de comportements considérés comme suspects par la nouvelle génération de caméras de vidéosurveillance. Il faut dire qu’aujourd’hui ce type de technologie prédictive se développe, tant en Amérique du Nord qu’en Europe, dans un contexte dominé par les questions de sécurité. En France par exemple, la SNCF est en train de tester des logiciels d’analyse comportementale capables de détecter de manière automatique des situations anormales dans les gares1. Le langage du corps, les gestes, les attitudes, les mouvements des passants sont analysés en temps réel pour répondre au besoin de sécurisation de l’environnement urbain.

Si l’on comprend tout l’intérêt de ces caméras dites « intelligentes », l’exercice d’un tel contrôle n’est pas sans susciter des interrogations. Les risques potentiels qu’elles font peser en matière de respect des libertés et de la vie privée, ainsi que la normalisation possible des comportements, sont régulièrement mis en avant par leurs détracteurs.

Faux positifs

C’est précisément dans cette perspective que s’inscrit le travail d’Esther Hovers. Intitulée « False Positives », la série photographique qu’elle a réalisée propose des « faux positifs », c’est-à-dire des cas erronés, repérés comme dangereux par ces caméras mais qui ne soulèvent dans les faits aucune difficulté. En d’autres termes, il s’agit de fausses alertes, d’anomalies détectées à tort par les caméras. Parce qu’un bagage abandonné au coin d’une rue ne contient pas à tous les coups des explosifs. Parce qu’un homme qui marche dans le sens inverse de celui de la foule n’est pas toujours un criminel. Parce qu’effectuer un déplacement inhabituel dans l’espace public ne signifie pas forcément qu’on prépare un mauvais coup.

false-positives-esther-hovers-13
False Positives © Esther Hovers

Si les systèmes de surveillance automatisée commettent des erreurs de prédiction, c’est en raison de leur moins grande capacité que les humains à comprendre le contexte dans lequel l’action se produit. Lorsqu’un fait problématique survient, il ne suffit pas de l’appréhender tel quel, il reste encore à l’interpréter. La difficulté tient également à l’extrême variété des situations que la vie réelle est susceptible d’accueillir. Dans À quoi rêvent les algorithmes (Seuil, 2015), le sociologue Dominique Cardon rappelle que « la prédiction est une probabilité qui comporte toujours une marge d’erreur », si bien que pour produire des résultats convaincants, les services prédictifs doivent le plus possible « ingurgiter des contextes à travers d’énormes masses de données », connues sous le nom de big data.

Pour donner davantage de poids à sa démarche, Esther Hovers a travaillé avec huit spécialistes en sécurité qui lui ont apporté les renseignements dont elle avait besoin en matière de vidéosurveillance. En outre, l’artiste néerlandaise a pris soin d’accompagner ses montages photographiques de croquis qui isolent les situations jugées déviantes. Une façon de dégager l’élément perturbateur de son environnement immédiat.

Le dividende de la surveillance

a-06
Anomalie 6 : mouvement coordonné d'une foule,dans le même rythme ou la même direction par exemple.

Ces œuvres nous montrent le moment qui précède le crime, celui où tout s’apprête à basculer. Ce faisant, elles nous renvoient à nos propres perceptions : sommes-nous capables de déceler chez les personnes qui nous entourent les signes avant-coureurs du passage à l’acte ? Les attitudes que nous apercevons sur ces photos sont-elles aussi suspectes à nos yeux que pour les caméras ? Si l’on prend la peine de s’y arrêter, on se rend compte qu’il n’est pas toujours évident d’arriver à repérer la menace sur chaque photo. S’agit-il de cet homme en imperméable qui attend dans l’ombre sans rien faire, ou de cet autre qui marche vite, un bagage à la main ? À vrai dire, nous ne pouvons qu’être frappé par le caractère quelconque de ces scènes urbaines, par leur valeur anecdotique et sans danger. Si bien que c’est le rapport à la norme qui nous interpelle, l’idée même de déviance dès lors que celle-ci est appréhendée par des dispositifs automatisés.

En allant plus loin, il est possible de s’interroger : jusqu’à quel point sommes-nous prêts à laisser des algorithmes réguler notre quotidien ? Ne doit-on pas mettre en regard les gains probables que nous offrent ces systèmes de surveillance avec d’autres enjeux ? L’éternel débat entre liberté et sécurité se trouve forcément relancé par ce genre d’innovations, tout comme celui du développement d’une justice prédictive, où l’anticipation d’un comportement transgressif doit empêcher le passage à l’acte et contrecarrer le crime à venir. Surtout, l’évolution actuelle de la vidéosurveillance semble révélatrice du rôle croissant joué par les technologies de l’information dans la recherche de solutions pour l’ensemble de la société.

2475721
« Une critique technologique émancipatrice est-elle possible ? »

À cet égard, les photos d’Esther Hovers font directement écho aux analyses livrées par Evgeny Morozov dans son dernier essai, le Mirage numérique. Pour une politique du big data (Les Prairies ordinaires, 2015). Le chercheur américain, dont les prises de position tranchées à l’encontre de la Silicon Valley sont bien connues, parle de « dividende de la surveillance », concept qui renvoie à l’idée que « l’observation des individus en continu permet réellement de résoudre des problèmes » dans tous les domaines de la vie sociale. Largement répandue aujourd’hui, cette « informationnalisation des problèmes » conduit à réduire les différents enjeux auxquels nous nous confrontons à leur dimension purement informationnelle, plutôt qu’à les envisager sous l’angle socio-politique. En suivant le raisonnement de Morozov, la lutte contre la criminalité apparaîtrait désormais moins comme un problème de société, avec des causes profondes et complexes, que comme un problème de technologie de l’information, qui nécessiterait de prélever et de traiter un maximum de données relatives aux individus, afin de mieux les connaître et de mieux organiser les formes d’intervention indispensables à notre sécurité.

Très actuelle, cette critique des modèles de gouvernance centrés sur les données nous invite à réfléchir à la manière avec laquelle le pouvoir contrôle l’espace public et transforme les problèmes de société en problèmes d’innovation. Avec sa série de « faux positifs », la photographe Esther Hovers nous en fournit une formidable illustration.

En savoir plus...

Circulation(s) Festival de la jeune photographie européenne Du 26 mars au 26 juin Au Centquatre, Paris http://www.festival-circulations.com/

  1. http://www.lemonde.fr/pixels/article/2015/12/17/a-la-sncf-des-logiciels-pour-detecter-les-comportements-suspects-par-videosurveillance_4833882_4408996.html