Le plus grand fléau de l'homme moderne ne changera jamais et restera pour toujours un enfer : les réseaux sociaux sont perdus selon cette étude
Publié le 23/08/2025
Loïc Nicolay aka « nicoln » - Journaliste
Un verdict sans appel : le problème, c'est l'architecture
Loin des débats habituels sur la modération ou les algorithmes, des chercheurs de l'Université d'Amsterdam, Petter Törnberg et Maik Larooij, ont décidé de prendre le problème à la racine. Dans une étude prépubliée sur arXiv, ils ont créé une sorte de « terrarium numérique » : une simulation de réseau social minimaliste, peuplée non pas d'humains, mais d'intelligences artificielles dotées de personnalités complexes basées sur de vraies données sociologiques. Sur cette plateforme épurée, les agents virtuels ne pouvaient faire que trois choses : publier, suivre et repartager. Pas d'algorithme de recommandation complexe, pas de publicité, pas de fil d'actualité non chronologique. L'idée était de voir si, même dans cet environnement "pur", les problèmes que nous connaissons tous finiraient par apparaître.
La réponse fut un oui retentissant. Sans aucune manipulation extérieure, la simulation a spontanément reproduit trois des dysfonctionnements les plus toxiques des réseaux sociaux :
· Les chambres d'écho partisanes : Les agents se sont naturellement regroupés en communautés idéologiquement homogènes, s'isolant des points de vue divergents.
· La concentration de l'influence : Une infime minorité d'utilisateurs (le top 10%) a capté la quasi-totalité de l'attention (près de 90% des repartages), créant une inégalité criante où quelques voix dominent tout le débat.
· Le prisme des extrêmes : Le système a systématiquement amplifié les voix les plus polarisées et extrêmes, donnant une image déformée et bien plus conflictuelle du débat public qu'il ne l'est en réalité.
Pour enfoncer le clou, les chercheurs ont testé six des solutions les plus souvent proposées pour "réparer" les réseaux. Le résultat, présenté ci-dessous, est sans appel : aucune n'a fonctionné, et certaines ont même aggravé la situation.
Intervention testée |
Objectif visé |
Résultat dans la simulation |
Fil chronologique |
Réduire les biais algorithmiques et l'inégalité d'attention. |
A réduit l'inégalité d'attention MAIS a intensifié l'amplification des contenus extrêmes. |
Algorithmes "passerelles" (Bridging) |
Favoriser la compréhension mutuelle entre groupes opposés. |
A amélioré la diversité des points de vue MAIS a augmenté la concentration du pouvoir. |
Masquer les statistiques sociales (likes, followers) |
Diminuer la pression sociale et la comparaison. |
Peu d'impact significatif, n'a pas résolu les problèmes de fond. |
Supprimer les biographies des utilisateurs |
Limiter les signaux identitaires et le tribalisme. |
A aggravé les divisions partisanes car le contenu extrême ressortait davantage. |
Inverser les algorithmes d'engagement |
Réduire la visibilité des contenus sensationnalistes. |
Effets modestes, n'a pas perturbé la mécanique de base. |
Augmenter la diversité des points de vue |
Exposer les utilisateurs à des opinions différentes. |
N'a eu aucun impact significatif sur la polarisation. |
Le capitalisme de surveillance : pourquoi la toxicité est le carburant du système
Alors, pourquoi ce mécanisme semble-t-il si robuste? La réponse ne se trouve pas dans le code, mais dans le modèle économique. Comme l'a théorisé la chercheuse Shoshana Zuboff, nous vivons à l'ère du « capitalisme de surveillance ». Le véritable produit vendu par les plateformes n'est pas notre attention aux publicitaires, mais des prédictions sur notre comportement futur. Pour que ces prédictions soient fiables, il faut une quantité astronomique de données, générées par notre engagement constant.
C'est là que le bât blesse. Pour maximiser cet engagement, les algorithmes ont découvert une faille dans notre psychologie : les émotions négatives sont plus efficaces et moins chères à provoquer. Le pionnier de la réalité virtuelle, Jaron Lanier, l'a résumé de manière percutante : la colère, la peur et l'indignation sont des « stimuli à bas prix » (bargain stimuli). Il est plus facile de nous faire réagir par la colère que par la nuance, plus simple de nous retenir par la peur que par la réflexion. La toxicité n'est donc pas un malheureux effet secondaire ; elle est le carburant le plus efficace pour le moteur économique de ces plateformes. Les chambres d'écho et l'amplification des extrêmes ne sont pas des bugs, mais les conséquences logiques d'un système optimisé pour la modification comportementale à des fins lucratives.
Contre le fatalisme : non, la technologie n'est pas notre destin
Face à ce diagnostic, la tentation du fatalisme est grande. Si le problème est structurel, sommes-nous condamnés à subir cet enfer numérique? C'est la thèse du « déterminisme technologique », cette idée que la technologie est une force autonome qui façonne la société, et que nous sommes impuissants. Mais cette vision est un piège.
La réalité est que l'architecture actuelle des réseaux sociaux n'est pas une fatalité, mais le résultat de choix humains, principalement économiques, faits au début des années 2000. Et si des choix nous ont conduits ici, d'autres choix peuvent nous en sortir. Jaron Lanier propose une métaphore éclairante : lorsque nous avons découvert que la peinture au plomb était toxique, nous n'avons pas arrêté de peindre nos maisons. Nous avons exigé et créé de la peinture sans plomb.
De la même manière, la solution n'est pas de rejeter la connexion numérique, mais d'inventer des espaces non toxiques. Des alternatives existent déjà et explorent d'autres voies. La décentralisation, avec des protocoles ouverts comme Mastodon, propose de redonner le pouvoir aux communautés plutôt qu'à des monopoles. D'autres imaginent des modèles économiques basés sur l'abonnement, où l'incitation serait de fournir de la valeur à l'utilisateur (le client) plutôt que de le manipuler (le produit). Ces pistes sont complexes, mais elles prouvent qu'un autre avenir est possible. Le problème n'est pas la technologie elle-même, mais l'architecture de pouvoir et de profit dans laquelle elle a été enfermée.
Comme le dit si bien Jaron Lanier, dans une citation rapportée par : « Nous ne pouvons pas avoir une société dans laquelle, si deux personnes souhaitent communiquer, la seule façon pour que cela se produise est que ce soit financé par une tierce personne qui souhaite les manipuler. »