Le risque fasciste de l’IA

 

Le propos fera certainement bondir nombre de thuriféraires de l’IA. Il mérite pourtant une écoute attentive car il souligne que la face sombre de l’IA est plus sombre qu’on le pense.  Dan McQuillan est maître de conférence au département d’informatique de l’université Goldsmiths de Londres. Il est l’auteur de Resisting AI, an anti-fascist approach to artificial intelligence (Résister à l’IA, une approche anti-fasciste de l’IA, Bristol University Press, 2022, non traduit). 

 

Couverture du livre de Dan McQuillan.

 

L’IA une prise de pouvoir par une porte dérobée

Sur son blog, il présente l’IA comme un Thatchérisme. “L’IA est utilisée comme une forme de “Stratégie du choc, dans laquelle le sentiment d’urgence généré par une technologie censée transformer le monde est utilisé comme une opportunité pour transformer les systèmes sociaux sans débat démocratique.” Quand l’IA est convoquée pour transformer l’hôpital et l’école, c’est une diversion qui vise à nous masquer leur effondrement sous les coups d’un désinvestissement massif. Or, l’IA ne comprend ni la médecine ni l’éducation. La seule chose que les grands modèles d’IA font très bien, c’est de transférer le contrôle aux grandes entreprises, et ce alors qu’aucun autre acteur n’a les moyens ou la puissance de traiter les données qu’elles savent traiter. “La promotion de l’IA est une privatisation par une porte dérobée”, une privatisation sous stéroïde qui vient renforcer celle déjà à l’oeuvre. L’objectif n’est pas de “soutenir” les enseignants et les travailleurs de la santé par de nouveaux dispositifs, mais de combler les lacunes d’un système en défaillance grâce à l’IA plutôt qu’avec le personnel et les ressources dont les systèmes publics auraient désespérément besoin. L’IA est un “Thatchérisme informatique” qui vise “la précarisation des emplois, la privatisation et les l’effacement des relations sociales réelles”. Elle vise à renforcer la cruauté bureaucratique envers les plus vulnérables comme le montre son utilisation dans les systèmes de protection sociale à travers le monde

Les logiques de classement, de rationalité et de supériorité sont profondément enfouies au coeur des techniques constitutives de l’intelligence artificielle, explique McQuillan d’où l’attirance des politiques les plus réactionnaires à leur égard, puisqu’elles permettent finalement d’opacifier l’exploitation de la vulnérabilité qu’elles permettent sous la neutralité scientiste du calcul. Pour McQuillan, nous devons urgemment restreindre le champ d’application de l’IA. Il n’est pas un outil pour changer de régime technocratique comme l’annoncent certains travaillistes britanniques (la question du numérique est visiblement une ligne de fracture chez les travaillistes britanniques, expliquait Politico). Pour Dan McQuillan nous avons plutôt besoin d’un moment luddiste pour démonter ces machines. 

 

L’IA : une vision réactionnaire du monde

Dans l’introduction de son livre, Dan McQuillan est plus radical encore. Il explique que le développement de l’IA peut être vu comme un écho aux tendances austéritaires, autoritaires et réactionnaires du monde actuel. Pour lui, si elle prend tant d’ampleur, c’est parce qu’elle est compatible avec le capitalisme financier, mais également convergente avec le fascisme qui monte. 

L’IA n’est pas qu’un ensemble de techniques et est plus qu’un ensemble de méthodes d’apprentissage. “On ne peut pas séparer les calculs du contexte social de leurs applications”, et notamment des conceptions sur la façon dont le monde est différencié et évalué par ces systèmes. Comprendre l’IA signifie comprendre non seulement les opérations de calcul, mais également tout ce qui est charrié avec elles. Avec l’IA, les détails les plus techniques ont des implications politiques. Et la chape d’opacité et de complexité technique dont elle recouvre les décisions permet avant tout de renforcer la violence culturelle et structurelle du pouvoir. L’IA n’est pas qu’une méthode de production de la connaissance, elle est aussi un paradigme pour l’organisation sociale et politique, explique-t-il. Elle agit sur le monde de façon à affecter la distribution même du pouvoir. Elle altère notre monde commun. 

Alors que le storytelling de l’IA ne cesse de nous faire des promesses pour que nous en ayons de grandes attentes, la réalité de l’IA consiste surtout à réduire le réel. En réalité, l’IA amplifie les inégalités et les injustices d’existence, approfondie les divisions. McQuillan s’intéresse aux manipulations statistiques de l’IA. L’IA est une technologie fragile qui échoue souvent de manière inattendue, qui manque d’explicabilité… Mais surtout, elle tire son autoritarisme des méthodes scientifiques qu’elle mobilise, notamment l’abstraction et la réduction du réel. Le risque de l’IA est d’abord d’intensifier les tendances à l’œuvre dans le capitalisme financier, à savoir l’extractivisme et le colonialisme. L’IA sert à accélérer les politiques d’austérité et renforce les régimes de surveillance. Pourtant, si nous devons avoir une approche antifasciste de l’IA, ce n’est pas parce que l’IA peut être utilisée par des régimes autoritaires, mais parce que l’IA apporte des “solutions fascistes aux problèmes sociaux”.

Je ne dis pas que l’IA est fascite”, précise-t-il, “mais que la contribution de l’IA est un moyen de normaliser des réponses fascistes aux instabilités sociales”. L’IA est particulièrement forte pour séparer et discriminer les choses et les gens ainsi que pour préserver le pouvoir existant (en renforçant les monopoles). C’est en cela qu’elle a une tendance fasciste, explique le professeur. Pour McQuillan, l’IA est une “technologie de division”, notamment dès qu’elle se propose comme une solution aux crises sociales. Pour McQuillan, l’IA agit comme une forme de métapolitique. Du fait même des opérations qu’elle propose, l’IA risque de nous conduire à une fascisation du monde. D’où la nécessité d’avoir une approche anti-fasciste pour la contrer. Pour cela, McQuillan convoque la critique féministe et décoloniale qui permettent de prioriser les perspectives marginalisées. L’une des plus toxique tendance de l’IA appliquée au social est de naturaliser et d’essentialiser des différences structurelles comme les inégalités ou le racisme. Pour contrer cette dérive fasciste de l’IA, nous devons nous extraire de l’inférence statistique pour en revenir au soin mutuel. Pour construire une IA alternative nous devons construire des organisations différentes, plus démocratiques et fondées sur la solidarité. En s’inspirant des luttes politiques contre l’injustice et l’autoritarisme et donc des techniques de mobilisation anti-fascistes. Nous devons refuser les exclusions du calcul et pour cela restructurer le monde qui a permis à l’IA d’advenir. 

 

L’efficacité n’a rien à voir avec la justice”

Dans la Sociological Review, Dan McQuillan expliquait que la violence algorithmique a émergé de notre matrice sociale. Le discours autour de l’IA ressemble à un grand spectacle qui agit surtout comme un écran de fumée pour nous détourner des impacts profonds que celle-ci a déjà sur nos existences. Il n’y a rien d’intelligent dans l’IA. Elle est présentée comme une forme de cognition, alors que les concepts opérationnels de l’IA ne sont ni l’intelligence ni l’apprentissage, mais l’optimisation et l’efficacité. Et “l’efficacité n’a rien à voir avec la justice”, rappelait-il lors d’une intervention au séminaire Critique de l’intelligence artificielle

Comme le disait le philosophe Achille Mbembe, l’IA est d’abord traversée, de bout en bout, par sa violence. Elle accroît ce que la philosophe Hannah Arendt appelle “l’inconscience institutionnelle”, c’est-à-dire “l’incapacité de critiquer les instructions ou de réfléchir aux conséquences”, explique McQuillan. L’optimisation de l’IA augmente ainsi la violence administrative et intensifie les structures d’inégalités existantes, comme quand elle est utilisée pour faciliter les décisions concernant les patients prioritaires en matière de soins de santé ou les détenus qui risquent de récidiver.

Les avantages sociaux de l’IA sont toujours spéculatifs, toujours à venir… alors que les inconvénients eux, sont déjà là. La violence algorithmique de l’IA est “légitimée par les prétentions de l’IA de révéler un ordre statistique dans le monde”, mais c’est là une erreur logique et une bien mauvaise utilisation des statistiques, explique le profeseur. Appliquée aux contextes sociologiques de la vie quotidienne, les statistiques produisent une injustice épistémique, où la voix et l’expérience de chacun sont dévalorisées par rapport aux jugements immédiats ou prédictifs. Ce que produit d’abord l’IA, c’est de la précarité. Elle introduit de la vulnérabilité et de l’incertitude, à l’image des systèmes utilisés pour l’emploi ou pour l’aide sociale. Elle produit donc la dissolution du contrat social que nous avons construit depuis la guerre. 

Pour la philosophe féministe Karen Barad, nos exclusions sont le résultat d’arrangements spécifiques d’appareils. L’IA n’est pas une manière de représenter le monde, mais bien une intervention sur celui-ci et celui qui met en place l’IA est celui qui possède le pouvoir. Pour McQuillan, les grands modèles de langages sont des moteurs à conneries, à la fois au sens technique du terme, puisqu’ils “optimisent la génération de textes plausibles en langage naturel, basés non pas sur un modèle de relations causales et de significations réelles, mais aveuglément, sur la base de modèles statistiques préprogrammés dans un vaste corpus de langage existant”. Mais également au sens social car leurs arguments apparemment raisonnés sont en réalité complètement détachés du monde vécu. Le risque alors est que l’IA intensifie une “nécropolitique”, c’est-à-dire une politique qui a le droit de dicter nos conditions d’existence, de vie et de mort. En cela, l’IA est donc en résonance avec les politiques réactionnaires, notamment quand elle crée des états d’exceptions, des situations où les droits sont sans cesse recalculés. Deleuze et Guattari nous ont avertis que le fascisme apparaît souvent caché imperceptiblement dans notre vie quotidienne. L’IA concentre et condense ces microfascismes par la façon dont elle crée des états d’exception. “La condensation algorithmique des conditions sociales accélère les différences” au détriment des personnes racisées, des femmes, des handicapés et des plus pauvres. Comme le QI, l’IA classe les gens, et elle a vite fait de produire une forme d’eugénisme, comme le dénonçait également la chercheuse Kate Crawford, distinguant ceux qui ont droit et ceux qui n’ont pas droit. Le risque de l’IA n’est pas la super-intelligence, mais au contraire le solutionnisme populiste qui risque d’émerger de la convergence entre le capitalisme de la Silicon Valley et les politiques d’extrême droite qui montent un peu partout. 

Dans ce travail de résistance qu’il faut mener contre l’IA les perspectives les plus pertinentes viennent des personnes marginalisées dont la vie est déjà impactée par les calculs. Dan McQuillan invite à remplacer l’IA au profit de dispositifs qui ne cherchent pas à favoriser la rationalité et la normalité mais qui valorisent la relationnalité et la différence. Il nous faut lutter contre l’abstraction que produit l’IA et produire des formes socio-techniques alternatives conviviales, capables de s’équilibrer avec leur environnement plutôt que de l’optimiser. “Un système qui n’hallucine pas une vision globale de la réalité mais négocie avec respect avec le différent et l’inattendu”. 

L’IA est particulièrement top down, explique-t-il encore dans une interview pour Computer Weekly. Du fait de sa nature sociotechnique, c’est-à-dire où les composantes techniques sont informées par les processus sociaux et inversement, nous avons besoin d’un changement social pour renverser cette configuration descendante. Le fait que l’IA performe à catégoriser les gens sur des corrélations plus que sur des causalités, signifie que la technologie fonctionne de la même manière que l’idéologie d’extrême droite. “Je ne dis pas que l’IA est fasciste, mais je dis que cette technologie se prête à ce genre de solutions”, précise le professeur. “L’IA décide de ce qui entre et de ce qui sort, de qui obtient et de qui ne reçoit pas, de qui représente un risque et de qui ne représente pas un risque. Quel que soit le domaine auquel elle est appliquée, c’est ainsi que fonctionne l’IA : elle trace des limites de décision et ce qui relève ou non de types particuliers de classification ou d’identification.” Les opérations concrètes de l’IA ont des conséquences politiquement réactionnaires : elles amplifient les inégalités et les injustices et renforcent les distinctions opaques. L’IA est la conséquence et le produit de notre société et son pouvoir renforce celui des personnes qui pensent que le monde fonctionnera mieux si le pouvoir est descendant. Les démocraties libérales ne sont pas un rempart contre le facisme, rappelle-t-il en évoquant la collusion entre les industriels autrichiens et allemands libéraux et le nazisme dans son accession au pouvoir. Pour lui, la régulation étatique pour freiner les pires dérives de l’IA a peu de chance d’aboutir. McQuillan estime que l’IA est perçue de la même manière que le capitalisme, comme un système sans alternative, une fatalité… sans qu’on le remette en question. Notre façon même de concevoir l’avenir consiste souvent à prolonger des lignes déjà tracées. L’enjeu est de nous extraire de la science réactionnaire de l’IA, où tout est réduit, cartographié et contrôlé. Pour cela, nous devons résoudre les problèmes de l’IA en faisant les choses que l’IA ne fait pas, comme de collectiviser le monde plutôt que de l’individualiser. McQuillan plaide pour le développement de l’auto-organisation sur les lieux de travail et pour la constitution d’assemblées citoyennes pour freiner ou contrôler l’utilisation de l’IA dans nombres de domaines spécifiques, comme l’attribution de logements ou les services sociaux.

Reprendre la main sur les décisions qui nous sont imposées, bien sûr ! C’est la conclusion de tous les livres sur la technologie que je lis. Mais peu est fait pour que cette reprise en main démocratique progresse, advienne. 

Hubert Guillaud

 

 

 

Collé à partir de <https://hubertguillaud.wordpress.com/2024/01/18/le-risque-fasciste-de-lia/>