http://www.monde-diplomatique.fr/2011/07/LAFARGUE/20788
juillet 2011 -  Page 28

Programmées pour dominer
Machines hostiles
Par Jean-Noël Lafargue

Réalisateur multimédia, enseignant à l’université Paris-VIII, auteur, avec Jean-Michel Géridan, de Processing. Le code informatique comme outil de création, Pearson, Paris, 2011.


Il n’est pas difficile de faire l’expérience de la violence des portillons automatiques dans les couloirs du métro parisien. Un défaut d’attention, un mouvement décalé, un sac à dos un peu large, un enfant tenu par la main qui n’accepte pas de se presser… et la tenaille de caoutchouc broie les épaules ou frappe les tempes. L’aventure fait sourire les usagers quotidiens du métro : ceux-là ont appris à s’adapter aux machines. Les victimes elles-mêmes n’incriminent que leur propre maladresse. Mais imaginons un instant que ces portillons soient remplacés par des vigiles chargés de distribuer des claques ou des coups aux clients ne circulant pas à la bonne vitesse : ce serait scandaleux, insupportable. Nous l’acceptons pourtant de la part des machines, car nous savons qu’elles ne pensent pas. Nous estimons, en conséquence, qu’elles ne sont animées d’aucune mauvaise intention. Erreur : si les automates n’ont pas conscience de leurs actes, ils obéissent toujours à un programme, produit d’un réglage intentionnel. Dans d’autres villes, on trouve des composteurs, mais pas de portillons ; ailleurs, la validation des tickets est effectuée sous surveillance humaine ; et, à Aubagne ou à Châteauroux, les transports urbains sont… gratuits.

L’apparente logique du contrôle des billets (à la rationalité économique fort discutable) crée d’autres contraintes. Les barrières assignent le public à des zones précises : on est soit dedans, soit dehors. Dans la gare SNCF de mon village de banlieue, l’installation récente de portillons interdit aux usagers de quitter librement le quai pour acheter un journal, boire un café ou retourner au guichet chercher un renseignement. Le voyageur n’aura plus qu’à utiliser le distributeur automatique de sodas et de friandises (hors de prix) placé sur le quai. Et, pour lire, se contenter des panneaux publicitaires.

D’innombrables dispositifs programmés gèrent ou assistent notre quotidien. Qui n’est jamais devenu fou face à l’un de ces serveurs vocaux interactifs intimant d’« appuyer sur la touche étoile » ou d’articuler à voix in-tel-li-gible des expressions grotesques : « Si vous désirez des informations, dites “information” »« Information »« Je suis désolé mais je n’ai pas compris votre réponse, veuillez réessayer »« In-for-ma-tion »« Veuillez rappeler ultérieurement » ?

Anticipant l’existence de conversations programmées, le pionnier de l’informatique Alan Turing proposait en 1950 un test devenu célèbre : en conversant à travers une interface textuelle, peut-on distinguer si notre interlocuteur est un homme, une femme ou encore un programme particulièrement bien conçu ?

Les pratiques du marketing téléphonique ou des services d’assistance en ligne ajoutent un paramètre à ce problème : à qui parlons-nous vraiment lors de ces échanges programmés ? Dans de nombreux cas, les employés des centres d’appel suivent un logiciel « expert » et ne disposent d’aucune marge de manœuvre. Ces automatismes sont conçus avec l’idée, sans doute justifiée, que les questions sont peu ou prou toujours les mêmes. Les employés « robotisés » servent de filtre et évitent de mobiliser des techniciens pour des problèmes mineurs. Souvent, le filtre s’avère si puissant qu’il est totalement impossible d’atteindre la personne compétente.

Mais si ce sont des humains qui répondent, et non des logiciels interactifs, c’est aussi parce que, à défaut de voir leurs problèmes résolus, les usagers ont le sentiment de pouvoir trouver auprès de leur interlocuteur une forme d’empathie ou, au pis, l’occasion de se défouler verbalement — ce qui, comme l’a démontré Henri Laborit dès la fin des années 1950, permet d’évacuer le stress, au niveau neurologique, presque aussi bien que le ferait la résolution effective du problème qui en est la cause.

Pour finir, les téléopérateurs dont la conversation suit un scénario programmé ont l’avantage d’être parfaitement interchangeables. Travaillant un jour pour une administration, le lendemain pour un opérateur de téléphonie et le jour suivant pour un institut de sondages, ils bénéficient d’une très courte formation consistant avant tout à apprendre à ne plus prononcer que des phrases positives (on ne dit pas « ce n’est pas possible » mais « nous mettons tout en œuvre pour résoudre votre problème »). Il n’est pas impossible que ces opérateurs, souvent localisés dans des pays francophones où la main-d’œuvre est bon marché, ne comprennent pas vraiment les cas qu’ils sont censés gérer — on voit mal pourquoi une résidente de Casablanca ou de Tunis se passionnerait pour les griefs des clients d’un service d’expédition de colis en France.

Prolétarisés, les employés de centres d’appel n’ont ni la possibilité de prendre des initiatives, ni celle d’acquérir (et de monnayer) des connaissances ou une expérience : aucun risque que tel employé devienne indispensable.

De manière aléatoire, d’autres programmes robotisés (100 %mécaniques, cette fois) rappellent les clients pour vérifier leur degré de satisfaction. Les questions portent rarement sur le service en général, mais sur la qualité de la conversation : « Avez-vous trouvé votre interlocuteur suffisamment poli ? S’exprimait-il dans un français correct ? » Ce questionnaire, qui n’a d’intérêt que pour l’employeur, fait effectuer le travail de contrôle par l’usager, désormais auxiliaire du chef d’équipe et placé en position de « patron en aval », pour reprendre l’expression de Marie-Anne Dujarier (1).

Présentée comme un moyen de réduire les tâches monotones, l’automatisation met en valeur, dans la « ressource humaine », non pas le libre arbitre ou la compétence (la procédure n’est pas du ressort de l’agent), mais la capacité à éponger le stress et l’agressivité. Tout semble fait non pour régler des problèmes, mais pour empêcher que ceux-ci n’atteignent leurs responsables.

Tournons un instant le regard sur nos papiers d’identité. Sans sourire, sans expression, les yeux vides, nous donnons de nous-même une figure triste, un peu angoissée, qui ne nous ressemble pas et que personne ne reconnaîtra comme nôtre. Ce sont les directives officielles du ministère de l’intérieur : le sujet doit « fixer l’objectif. Il doit adopter une expression neutre et avoir la bouche fermée. (...) La taille du visage doit être de 32 à 36 mm, du bas du menton au sommet du crâne » (norme ISO/IEC 19794-5). Le ministère de la tristesse a une bonne raison : cette image n’est pas destinée à des yeux humains mais à des logiciels de biométrie, très complexes, qui ne reconnaissent les gens que dans des conditions standardisées. Ainsi, le visage officiel de chacun est défini par les besoins d’un programme n’y voyant qu’une somme de cotes et une figure dont toute lueur expressive doit être bannie.

On teste à présent des logiciels qui lisent sur les lèvres des personnes filmées — comme l’ordinateur HAL 9000 dans 2001, l’odyssée de l’espace, de Stanley Kubrick —, analysent les gestes, la démarche, la posture ou les déplacements. Tel individu resté sur un quai en laissant passer plusieurs rames est suspect. Tel autre, marchant à contre-courant de la foule, est suspect lui aussi. Chaque événement déviant déclenche une alerte et provoque un contrôle. Plus fort encore, le département de la sécurité intérieure des Etats-Unis compte équiper les aéroports d’un système baptisé Future Attribute Screening Technology (FAST), dont le but est de détecter les attitudes annonciatrices de mauvaises actions : regard fuyant, battements de cœur qui s’accélèrent, etc. Comme dans le film de Steven Spielberg Minority Report (d’après une nouvelle de Philip K. Dick), le crime est connu avant d’avoir été commis (2).

Des dispositifs numériques en apparence bien plus neutres peuvent avoir un caractère tout aussi coercitif. L’informatique personnelle a radicalement modifié de nombreuses pratiques professionnelles, rendant caducs certains savoir-faire. Il fallait autrefois des années pour former un retoucheur photo, car celui-ci devait disposer d’un tour de main particulier, connaître ses matériaux et ses outils. Aujourd’hui, on déporte la compétence technique sur le logiciel, on prolétarise l’artisan : celui-ci devient tributaire de décisions prises par les ingénieurs des sociétés Adobe ou Apple. Comme l’explique l’artiste et designer John Maeda, nul ne peut se prétendre « grand maître de Photoshop » : « Qui a vraiment le pouvoir ? L’outil ou le maître ? » Pour lui, le salut du créateur passe par la possession de ses moyens de production (3).

Comment reprendre en main notre « destin numérique » à une époque où, étant tous utilisateurs d’outils programmés, nous risquons d’en devenir la chose ? Les débats qui entourent les questions du hacking — utiliser un outil numérique au-delà de son mode d’emploi (4) —, du logiciel libre — ne rien ignorer du fonctionnement d’un programme et pouvoir l’améliorer — ou du bricolage (do it yourself) sont bien plus politiques que technologiques.


(1) Marie-Anne Dujarier, Le Travail du consommateur, La Découverte, Paris, 2008.

(2) « Terrorist “pre-crime” detector field tested in United States », Nature, Londres, 27 mai 2011.

(3) John Maeda, Maedamedia.Journal d’un explorateur du numérique, Thames & Hudson, Paris, 2000.

(4) Lire Jean-Marc Manach, « Les “bidouilleurs” de la société de l’information », Le Monde diplomatique, septembre 2008.

Voir aussi « Permission de sortie », du même auteur.



http://www.monde-diplomatique.fr/2011/07/LAFARGUE/20788 - juillet 2011