De Martin Niemöller à Robert Ménard. Le fétichisme du fichier.

Vous connaissez tous le texte ou l'histoire.

"Lorsque les nazis sont venus chercher les communistes, je n’ai rien dit, je n’étais pas communiste. Lorsqu’ils ont enfermé les sociaux-démocrates, je n’ai rien dit, je n’étais pas social-démocrate. Lorsqu’ils sont venus chercher les syndicalistes, je n’ai rien dit, je n’étais pas syndicaliste. Lorsqu’ils sont venus me chercher, il ne restait plus personne pour protester."

Texte attribué à Martin Niemöller et daté de 1942.

Aujourd'hui le web "prédictif" a explosé. Aujourd'hui des algorithmes sont capables de prévoir vos achats et même de déclencher directement la livraison avant que vous n'ayez cliqué sur le bouton "acheter" ; aujourd'hui des algorithmes sont capables de détecter des "comportements terroristes", mais aussi des "messages de haine", mais aussi des "comportements de joueurs compulsifs ou pathologiques". Depuis longtemps, même si on lui dit l'inverse, Facebook est capable de savoir si nous sommes homo ou hétérosexuels, plutôt de gauche ou plutôt de droite, Google également, lui qui dispose de l'historique de l'ensemble de nos recherches. Et les états qui suivent, les uns après les autres : "Patriot Act" aux Etats-Unis, "Loi Renseignement" en France, projet de "loi C-51" au Canada ...

Prévoir et détecter : le nouveau "surveiller et punir".

Le verbe "prévoir" dit bien la possibilité d'anticiper le futur, de l'écrire ou de le programmer à l'avance. Le verbe "détecter" est plus ambigü car il permet de gommer, dans l'argumentaire des tenants de la détection, sa dimension projective : si un algorithme est capable de "prévoir" tel ou tel comportement, on pense qu'il ne le fera que sur la base d'éléments passés, de comportements déjà actés, gommant ainsi un important risque d'erreur et validant une idéologie totalitaire de la transparence dans laquelle "si vous avec quelque chose à cacher, c'est que vous avez quelque chose à vous reprocher". Sauf que c'est faux. C'est faux parce que comme je tentais de l'expliquer dans ce billet :

"le contrôle a posteriori rend possible et induit presque obligatoirement, presque mathématiquement, une surveillance a priori, ne serait-ce que pour pouvoir légitimer l'exercice même de ce contrôle."

C'est faux parce que cela revient à passer sous silence les innombrables "faux positifs" qui seront immanquablement générés. C'est faux parce qu'aucun algorithme ne peut faire l'économie du bug. Il faut le dire et le répéter : c'est faux et archi-faux.

La "détection" algorithmique a valeur de "prévisibilité". C'est le principe du pacte non pas Faustien mais Orwellien qui vient d'être signé à l'assemblée par 438 députés de la république :

"Celui qui contrôle le passé contrôle le futur."

Un pacte déclinable comme suit :

"Celui qui détecte le passé sera nécessairement tenté de lui assigner une valeur de prédictibilité future".

Il faut lire ce magnifique texte publié sur Libé par un professeur de philosophie : "Un monde de données". On y lit notamment ceci (je souligne) :

"le Big Data participe d’une idée très précise de ce qui mérite d’être vu. La nourriture est réduite à une somme de calories, la marche à un nombre de pas, le battement du cœur à sa cadence chiffrée. Un bracelet électronique est une manière de se regarder vivre, ce qui est sans doute le plus sûr moyen d’oublier de vivre. (...)

Le Big Data est l’emblème contemporain d’une très ancienne illusion : confondre le réel avec ce que nous pouvons connaître et ce que nous pouvons connaître avec ce que nous savons calculer. A cet égard, les objets connectés sont de la métaphysique mise en machine. Ils fabriquent des informations dont le tort est de se faire passer pour neutres alors qu’elles sont orientées par une décision arbitraire : seul ce qui est mesurable existe. (...)

les data scientifiques barrent plus souvent l’accès aux phénomènes qu’ils ne le favorisent. Le coureur, obnubilé par ses «données», passera tout simplement à côté du phénomène de sa course. (...)

Contrairement à ce que l’on pourrait croire, ces données ne sont pas des phénomènes à partir desquelles le sujet élabore un savoir sur lui-même, elles forment déjà un savoir fabriqué de toutes pièces par un algorithme."

Voilà pourquoi parmi tant d'autres raisons, le vote de la loi renseignement est littéralement une catastrophe, un gigantesque échouage démocratique. Non pas tant par les contenus de la loi elle-même (disposant de suffisamment de gardes-fous pour ses partisans, d'insuffisamment pour ses détracteurs). Non pas tant non plus par la surveillance globale qu'elle installe de facto. Le vote de cette loi est une catastrophe parce qu'il signe l'allégeance définitive de la vocation et de l'ambition politique à une prédictibilité calculatoire, à une prédictibilité algorithmique, à une prédictibilité donnée(s) du monde qui finira par ôter tout son sens à l'action politique elle-même.

Le fétichisme du fichier.

A ce titre Robert Ménard est un visionnaire. Un abruti total, un fasciste d'opérette, un poisson rouge médiatique incapable de jouir autrement qu'en offrant en spectacle le récit de sa propre noyade dans le bocal de son immense fatuité. Mais un visionnaire. Visionnaire parce qu'en comptant "à la main" les prénoms des enfants scolarisés dans les écoles publiques de Béziers et en inférant de la seule consonnance des prénoms une appartenance religieuse, il est le degré zéro du Big Data. Et qu'à ce titre il est aussi l'icône de ce que sera la politique, de ce que seront les politiques, après le serment d'allégeance qu'ils viennent de prêter à la détection "comportementale", à une détection d'éléments passés qui vaudraient prédictibilité future.

Robert Ménard est l'icône d'un fétichisme pathologique du fichier, du "fiché". Totalement incapable d'une pensée articulée sur les raisons de cette "mise en fichier", totalement incapable de maîtriser les outils techniques de l'exploitabilité des mêmes fichiers, et n'ayant plus comme recours que le dévoiement de fichiers existants dans d'autres cadres et d'autres contextes, à l'aide de moyens misérabilistes, et au service de présupposés, de croyances et de représentations purement idéologiques. Robert Ménard aujourd'hui, mais probablement demain l'ensemble des élites politiques ne nous proposerons comme choix de gouvernance que celui d'un fétichisme pathologique du fichier ou celui d'une dictature calculatoire de l'acté ("détecter les comportements"). Peut-être même les deux ...

Mieux que tous les débats informatico-technicistes sur les algorithmes, les Imsi-Catchers et autres boîtes noires, Robert Ménard fait oeuvre de pédagogie utile : il ramène le prénom à ce qu'il est, c'est à dire une simple "donnée", à partir de laquelle toutes les interprétations sont possibles, même et surtout, hélas, les plus nauséabondes. Il suffit pour cela de passer ce prénom, de passer cette donnée, à l'analyse d'une "boîte noire", en l'occurence le cerveau de Robert Ménard, dans lequel un algorithme - les neurones de Robert Ménard - établiront une relation de causalité entre cette donnée - le prénom - et une autre - l'appartenance religieuse. Voulons-nous d'un monde pire encore que le cauchemar Orwellien de 1984, d'un monde dont le cerveau de Robert Ménard serait la boîte noire, dont ses neurones seraient l'algorithme et dont son "intelligence" serait le logiciel politique ?

<Point Godwin> N'oublions pas qu'en plus des régimes de panoptique dans lesquels le Big Brother dominant ne peut dominer que parce que chacun est invité à surveiller également son voisin, n'oublions pas que tous les totalitarismes reposent sur le fichage, sur le "fichier" comme élément fondamental de leur maintien au pouvoir. </Point Godwin>

Demain, quand d'autres algorithmes détecteront bien d'autres choses encore, on se souviendra de Martin Niemöller. Probablement trop tard. Voilà pourquoi j'avais il y a quelques jours, avant que n'éclate l'affaire Ménard et que la loi Renseignement ne soit votée, écrit le texte ci-après. Que je soumets à votre lecture.

 

 La partie suivante du texte a été publiée sur le magazine Ecrans du site Libération.

Détecter des comportements ou les mettre à l’index : pour une autre politique des algorithmes.

"Lorsque les algorithmes sont devenus capables de détecter des comportements d’achat en ligne, je n’ai rien dit car je n’achetais que très peu en ligne. Lorsqu’ils ont détecté des comportements terroristes, je n’ai rien dit car je n’étais pas terroriste. Lorsqu’ils ont détecté des comportements de joueurs compulsifs je n’ai rien dit car je n’étais pas un joueur compulsif. Lorsqu’ils ont détecté l’ensemble de mes comportements, il ne restait plus personne pour protester."

Voilà où nous en sommes aujourd’hui, c’est à dire en 2015. Quelques années après 1984 de Georges Orwell, alors qu’en 1983 naissait le réseau internet tel que nous le pratiquons aujourd’hui, c’est à dire une interconnexion de différents "sous-réseaux".

A l’occasion des débats parlementaires récents sur le projet de loi renseignement, à l’heure également où le rôle et l’oligopole de quelques grands acteurs (Google, Facebook, Amazon, Apple) pose un nombre grandissant de questions sur les politiques algorithmiques qui semblent avoir vocation à gouverner le monde depuis un "simple" comportement d’achat jusqu’à des tâches régaliennes relevant de l’éducation ou de la santé, à l’heure enfin où ces algorithmes et ces sociétés de service, de Google à Über et de Facebook à AirB’nB, refaçonnent et parfois disloquent des pans entiers de l’économie, jamais la question d’une possible gouvernance algorithmique ne fut aussi prégnante, jamais elle ne souleva, à l’échelle des bientôt 4 milliards d’individus connectés, de questions d’une telle ampleur et d’une telle radicalité.

Car sauf à réclamer un retour à l’éclairage à la bougie, nul ne peut aujourd’hui prétendre s’abstraire totalement de cette détection, et donc de cette surveillance algorithmique.

Nul ne peut également, sauf au prix d’une grand naïveté, prétendre la réguler par le seul levier de la législation, fut-elle la plus contraignante possible.  "Code is Law", le code (informatique) est la nouvelle loi comme l’écrivait Lawrence Lessig dans un article fondateur en Janvier 2000. Un code qui ignore le principe de territorialité de la loi ou qui, à tout le moins, dispose d’une fascinante capacité à le distordre. "Nul n’est censé ignorer la loi" devient "nul n’est censé ignorer le code".

Pire, nul ne peut aujourd’hui à l’échelle individuelle prétendre durablement tromper, mentir ou dissimuler aux algorithmes la nature réelle de ses comportements, de ses préférences (sexuelles, politiques, religieuses, ou simplement "consuméristes").

La question n’est donc pas de savoir s’il faut accepter ou refuser une surveillance toujours plus prégnante, toujours plus omnisciente. Il faudra nécessairement composer avec elle. La question n’est pas non plus de savoir si l’on pourra au moins s’abriter derrière l’idée commode que la collecte d’un tel volume de données rend leur exploitation à des fins politiques ou idéologiques difficilement réalisable : ce serait mal connaître la puissance de l’ennemi que l’on prétend combattre.  Car nous n’en sommes qu’au commencement. Demain, avec l’internet des objets ce seront 50 milliards de nouveaux capteurs qui feront partie de nos vies, qui pour chaque service qu’ils nous rendront, pour chaque action qu’ils faciliteront, garderont également une trace et des données permettant de détecter des comportements à une échelle et avec une granularité qui nous semble encore inimaginable.

La première réponse à ces questions se trouve du côté de l’éducation. Au-delà du code, il faut enseigner la publication si l’on ne veut pas sombrer dans un inédit et massif analphabétisme numérique qui laissera le champ libre à tous les totalitarismes algorithmiques. Car le "code" est le nouvel alphabet mais le "rendu public" est sa nouvelle grammaire, sa nouvelle syntaxe.

L’autre solution se trouve du côté du marché : le point commun de l’ensemble de ces sociétés est d’avoir commencé par bâtir un index ou à s’être approprié ceux existants. La force de Google est de disposer de l’index des pages web publiques. Celle de Facebook de l’index d’1,5 milliard de profils. Celle d’AirBn’B de celui de biens immobiliers. Des index faits de nos données mais également de nos biens matériels (voitures, appartements) et immatériels (musique, films, livres, pages et sites web, photos, documents, etc), des index dont nous produisons quotidiennement et gratuitement la valeur ajoutée : en publiant des contenus, en les décrivant à l’aide de photos et de mots-clés, en établissant des liens hypertextes permettant de les relier et donc de les décrire.

Nous avons besoin de réancrer dans l’espace public ces logiques d’indexation qui, si l’on laisse au seul marché le soin de leur régulation, autorisent toutes les déviances, toutes les surveillances. Nous avons besoin d’un index indépendant du web. A la fois pour permettre à de nouveaux acteurs de s’installer en concurrence avec les actuels oligopoles, mais également pour offrir aux citoyens et aux gouvernements démocratiques la possibilité de briser l’aliénation que leur font subir de facto les grandes puissances du numérique, les oligarchies du code.

Si nous n’y parvenons pas rapidement, nous devrons alors faire face à un autre figure de l’index : celle qui désigne, qui pointe du doigt et est source de toujours davantage de discriminations. Celle d’une mise à l’index de nos espérances démocratiques.

 

Collé à partir de <http://affordance.typepad.com//mon_weblog/2015/05/robert-menard-fetichisme-du-fichier.html>