Vous etes ici: Accueil > La Nouvelle Bataille des Enclosures > imprimer cet article

Internet en état de siège

novembre 2001. Mis en ligne le lundi 13 octobre 2003.
Qui possède internet ? Jusqu'à une période récente, personne. La raison en est simple : bien qu'Internet soit 'made in USA', sa conception unique l'a transformé en un foyer d'innovations que quiconque peut utiliser sur la planète. Néanmoins, aujourd'hui, les tribunaux et les corporations tentent d'ériger des murailles autour de certaines parties de l'espace cybernétique. Ce faisant, ils détruisent le potentiel d'Internet de stimulation de la démocratie et de la prospérité économique mondiale.

La révolution internet s'est achevée tout aussi brutalement qu'elle avait commencé. Personne ne s'attendait à l'explosion de créativité engendrée par le réseau ; peu de gens s'attendaient à ce que cette explosion ne retombe aussi rapidement et profondément que ce fut le cas. Le phénomène rappelle une étoile filante, qui illumine soudainement le ciel au cours d'une nuit et qui disparaît tout aussi soudainement. Sous l'apparence de la protection de la propriété privée, un ensemble de nouvelles lois et de nouveaux règlements sont en train de détruire l'architecture même qui a fait d'internet un cadre pour l'innovation globale.

L'apparition, pas plus que la disparition, de cette révolution ne constitue un phénomène difficile à comprendre. La difficulté réside dans la volonté d'accepter les leçons de l'évolution d'internet. Internet est apparu aux Etats-Unis, mais son succès découle de notions qui semblent bien éloignées des idéaux américains concernant la propriété et le marché. Comme l'explique le Professeur Carol Rose, de l'Université de droit de Yale, les américains sont fascinés par l'idée selon laquelle la meilleure gestion du monde est la 'division de celui-ci entre des propriétaires privés', le marché servant parfaitement de régulateur pour l'échange de ces ressources. Mais le succès d'internet provient précisément de ce que les ressources essentielles n'étaient pas 'divisées entre des propriétaires privés'. Bien au contraire, les ressources essentielles d'internet figuraient une sorte de 'bien commun'. C'est ce bien commun qui a engendré les innovations extraordinaires dont internet fut le témoin. C'est l'enfermement de ce bien commun qui amènera la chute d'internet.

Ce bien commun fut introduit dans l'architecture même du réseau originel. Sa conception permit de garantir un droit à l'innovation décentralisée. C'est ce 'bien commun d'innovation' qui produisit la diversité créative dont le réseau a été le témoin aux Etats-Unis et, de manière encore plus frappante, à l'étranger. Nombre des innovations d'internet que nous tenons maintenant pour acquises (et le World Wide Web n'en n'est pas la moindre) furent des créations de l'extérieur' - des inventeurs étrangers qui ont librement parcouru les méandres du bien commun. Les dirigeants doivent comprendre l'importance de cette conception architecturale pour l'innovation et la créativité du réseau originel. La prise de conscience du potentiel d'internet est très récente, en particulier dans les pays en développement, où de nombreuses autres 'alternatives' pour le commerce et l'innovation 'dans l'espace réel' ne sont ni libres, ni ouvertes.

Cependant, les anciens modes de pensée sont en train de procéder à un retour en force aux Etats-Unis, dans le but de modifier cette conception. Des changements apportés à l'essence originelle d'internet auront pour conséquence de menacer le potentiel du réseau partout dans le monde - bloquant les possibilités d'innovation et de créativité. Ainsi, au moment même où cette transformation pourrait avoir un effet significatif, une contre-révolution est en train de réussir à diminuer le potentiel de ce réseau.

Les motivations à l'origine de cette contre-révolution sont aussi vieilles que les révolutions elles-mêmes. Comme Machiavel l'a analysé bien avant l'apparition d'internet, 'l'innovation est l'ennemie de tous ceux qui ont prospéré sous l'ancien régime, et seul un soutien tiède est à attendre de ceux qui pourraient prospérer sous le nouveau'. Il en est toujours ainsi de nos jours. Ceux qui ont prospéré sous l'ancien régime sont menacés par internet. Ceux qui pourraient prospérer sous le nouveau régime ne se sont pas élevés pour prendre sa défense contre l'ancien ; il reste à voir s'ils le feront. Jusqu'à présent, il semblerait bien qu'ils n'en feront rien.

 

La zone neutre


Un bien commun est une ressource à laquelle tout un chacun a accès dans une communauté donnée. Il s'agit d'une ressource qui n'est pas, dans un sens important, 'contrôlée'. La propriété privée ou étatique est une ressource contrôlée ; cette propriété peut être utilisée seulement lorsque le propriétaire le spécifie. Mais un bien commun n'est pas sujet à cette forme de contrôle. Des formes de restrictions neutres ou égalitaires peuvent lui être appliquées (une taxe d'entrée pour un parc par exemple) mais pas de restrictions édictées par un propriétaire. Dans ce sens, un bien commun laisse ses ressources 'libres'.

Les biens communs sont présents dans toutes les cultures. Ils ont acquis une importance particulière dans certaines cultures extérieures aux Etats-Unis - depuis les systèmes de gestion communale en Suisse et au Japon, aux communautés d'irrigation aux Philippines. Mais dans la culture intellectuelle américaine, les biens communs sont traités comme des ressources imparfaites. Ils sont l'objet de 'tragédies' comme l'écologiste Garrett Hardin l'a décrit dans un ouvrage célèbre. Lorsqu'un bien commun existe, où qu'il soit, le but est de l'enfermer. Dans le psychisme américain, les biens communs sont des vestiges sans intérêt des temps passés et il vaut mieux si possible s'en débarrasser.

Pour la plupart des ressources, la plupart du temps, le préjugé à l'encontre des biens communs relève du bon sens. Lorsque des ressources sont laissées à la disposition de tous, les individus peuvent être tentés de les surconsummer et en conséquence de les réduire à néant. Mais concernant certaines ressources, ce préjugé contre le bien commun est trompeur. Certaines ressources ne sont pas sujettes à la 'tragédie des biens communs' parce qu'elles ne peuvent pas être 'anéanties'. (Il n'est point besoin de faire référence à la théorie de la relativité d'Einstein ou de copier le poème 'New Hampshire' de Robert Frost, ces ressources survivront). Pour ces ressources, le défi est de susciter leur fourniture, non pas d'éviter leur anéantissement. Le problème de la fourniture est très différent de celui de l'anéantissement - confondre les deux n'aboutit qu'à des politiques mal adaptées.

Cette confusion est particulièrement aiguë concernant internet. A la base même d'internet figure un concept (choisi sans une perception claire de ses conséquences) qui était nouveau dans le domaine des réseaux informatiques et de communication de grande échelle. Dénommé le 'End-to-end argument' par les théoriciens des réseaux Jerome Saltzer, David Clark et David Reed en 1984, cette conception influe sur l'endroit où l''intelligence' est placée dans le réseau. Les systèmes de communication-informatique traditionnels localisent l'intelligence, et donc le contrôle, à l'intérieur du système lui-même. Les réseaux étaient 'malins' ; ils étaient conçus par des gens qui pensaient savoir exactement ce pour quoi le réseau serait utilisé.

Mais internet est apparu au moment où une philosophie différente était en train de prendre forme au sein de la science informatique. Cette philosophie plaçait l'humilité au-dessus de l'omniscience et anticipait le fait que les concepteurs des réseaux n'auraient pas une idée précise de toutes les façons dont le réseau pourrait être utilisé. En conséquence, elle préconisait une conception qui intégrerait peu au sein même du réseau, le laissant libre de se développer comme le voudrait sa finalité (l'application).

La motivation à la base de cette nouvelle conception était la flexibilité. La conséquence en fut l'innovation. Parce que les innovateurs n'avaient plus besoin de la permission du propriétaire du réseau avant que différentes applications ou contenus ne soient mis à disposition sur le réseau, ils étaient libres de développer de nouveaux modes de connexion. Techniquement, le réseau est parvenu à cette conception en se consacrant simplement à la livraison d'ensembles de données, sans tenir compte du contenu de ces ensembles de données ni de leurs propriétaires. Le réseau ne s'est pas plus soucié de savoir si les ensembles de données parvenaient tous de l'autre côté. Le réseau est caractérisé par le 'meilleur effort' ; le reste est fourni par les applications à chaque bout. De la même manière que le ferait un bureau de poste efficace (imaginez !), le système se contente de simplement transmettre les données.

Comme le réseau n'a pas été optimisé pour une application ou un service unique, internet est resté ouvert à toute nouvelle innovation. Le World Wide Web en est peut-être le meilleur exemple. La toile fut créée par l'ingénieur en informatique Tim Berners-Lee, du CERN (Organisation européenne de la recherche nucléaire) de Genève à la fin de l'année 1990. Berners-Lee voulait permettre aux usagers d'un réseau d'avoir facilement accès aux documents placés ailleurs sur le réseau. Pour ce faire, il développa une série de protocoles permettant la création de liens hypertextes entre les documents situés sur le réseau. En raison du processus 'end-to-end', ces protocoles pouvaient être placés au-dessus des protocoles initiaux d'internet. Ce qui signifie qu'internet pouvait croître pour englober le Web. Si le réseau avait empêché cet engagement 'end-to-end' - si sa conception avait été aménagée pour favoriser la téléphonie par exemple, comme beaucoup le souhaitaient dans les années 80 - alors le Web n'aurait pas été possible.

Cette conception 'end-to-end' constitue l''essence' d'internet. Si l'on imagine le réseau comme une construction stratifiée, alors la conception 'end-to-end' fut créée par une série de protocoles mis en oeuvre au niveau intermédiaire - ce que l'on peut appeler la logique, ou 'couche-code' d'internet. En-deçà de cet couche-code se situe une couche physique (les ordinateurs et les câbles qui les relient). Au-dessus de l'couche-code se situe une couche de contenu (le matériel qui est distribué via le réseau). Toutes ces couches ne sont constituent pas des biens communs. Les ordinateurs de la couche physique relèvent de la propriété privée, et ne sont pas 'libres' au sens des biens communs. La grande partie du contenu fourni via le réseau est protégée par des droits d'auteurs, et n'est donc pas plus 'libre'.

Cependant, au niveau de la couche-code, internet est un bien commun. De par sa conception, personne ne contrôle les ressources pour l'innovation qui sont fournies via cette couche. Des individus contrôlent la couche physique, décidant si une machine ou un réseau peut être connecté à internet. Mais une fois la connexion établie, au moins dans la conception originelle d'internet, les ressources pour l'innovation pour le réseau restent libres.

Aucun autre réseau d'envergure n'a laissé libre la couche-code de cette manière. Pour la plus grande partie de l'histoire des monopoles téléphoniques dans le monde, la permission d'innover sur la plate-forme téléphonique était fermement contrôlée. Aux Etats-Unis en 1956, AT&T est parvenu à persuader la Commission américaine fédérale des communications d'interdire l'usage d'une coque de plastique sur un récepteur téléphonique, conçue pour couvrir le bruit provenant du micro du téléphone, invoquant le motif que seul AT&T avait le droit d'innover sur le réseau téléphonique.

Internet aurait pu rester un obscur instrument réservé aux chercheurs soutenus par le gouvernement si la compagnie de téléphone avait maintenu son contrôle. Internet n'aurait jamais décollé si les gens ordinaires n'avaient pas pu se connecter au réseau par le biais des fournisseurs de services internet (ISP's - Internet Service Providers) via des lignes de téléphone préexistantes. Cependant, ce droit à la connexion était réglé d'avance. C'est ici qu'un accident dans l'histoire de la régulation joue un rôle important. Au moment même où internet était en train d'apparaître, le monopole téléphonique était déplacé vers un paradigme de régulation différent. Auparavant, le monopole téléphonique était quasiment libre de contrôler ses câbles comme il l'entendait. Mais à partir des années 60, et plus vigoureusement encore dans les années 80, le gouvernement commença à exiger de l'industrie téléphonique qu'elle se comporte de manière neutre - tout d'abord en insistant pour que les compagnies de téléphone permettent aux équipements des consommateurs (comme les modems) d'être connectés au réseau, puis en exigeant que les compagnies de téléphone permettent aux autres d'utiliser leurs câbles.

Ce type de régulation fut rare parmi les monopoles des télécommunications dans le monde. En Europe et dans le reste du monde, les monopoles téléphoniques furent autorisés à contrôler l'usage de leurs réseaux. Aucune obligation d'accès ne fut mise en oeuvre pour permettre la concurrence. En conséquence, aucun système de concurrence ne se développa autour de ces autres monopoles. Mais lorsque les Etats-Unis démantelèrent AT&T en 1984, les compagnies qui en résultèrent n'avaient plus la liberté de s'empêcher mutuellement d'utiliser les lignes. Et lorsque les fournisseurs de service internet cherchèrent un accès aux lignes locales Bell pour permettre aux consommateurs de se connecter à internet, les lignes Bell locales furent contraintes d'accorder des accès sans discrimination. Ceci permit une forte concurrence pour les accès internet, et cette concurrence signifiait que le réseau ne pouvait se comporter stratégiquement contre cette nouvelle technologie. Dans les faits, par le biais d'un marché compétitif, une conception 'end-to-end' fut créée au niveau de la couche physique du réseau téléphonique, ce qui signifiait qu'une conception 'end-to-end' pouvait être disposée au-dessus sous forme d'autres couches.

Ce 'bien commun d'innovation' fut en conséquence disposé en couches par-dessus une infrastructure physique qui, par le biais de la régulation, avait d'importantes caractéristiques semblables à celles d'un bien commun. La régulation de type transport public du système téléphonique permit d'assurer que le système ne pourrait pas opérer de discrimination à l'encontre d'un concurrent émergeant, internet. Et internet lui-même fut créé, par le biais de cette conception 'end-to-end', pour assurer qu'aucune application ou usage particulier ne pourrait opérer de discrimination à l'encontre d'autres innovations. La neutralité existait au niveau de la couche physique et de la couche-code d'internet.

Une forme importante de neutralité existait aussi au niveau de la couche du contenu d'internet. Cette couche comprend tout le contenu disséminé à travers le réseau - les pages Web, les MP3, les messages électroniques, les vidéos (les animations de bandeaux ?) - ainsi que les programmes d'application qui fonctionnent sur, ou alimentent, le réseau. Ces programmes sont distincts des protocoles de la couche-code, collectivement appelés TCP/IP (y inclus les protocoles du World Wide Web). TCP/IP est dédié au domaine public.

Mais les codes situés au-dessus de ces protocoles n'appartiennent pas au domaine public. Ils sont, en fait, de deux sortes : propriétaires et non-propiétaire. Le type propriétaire inclut les systèmes usuels Microsoft et les serveurs Web, ainsi que les programmes des autres producteurs de logiciels. Les non-proprétaires incluent les logiciels libres et 'open source', notamment le système linux (ou GNU/Linux), le serveur Apache, ainsi qu'une foule d'autres codes de type entreprises de plomberie qui font en sorte que le Net s'écoule.

Les codes non-propriétaires créent un bien commun au niveau de la couche de contenu. Le bien commun ici n'est pas simplement une ressource qui peut être fournie par un programme particulier, par exemple, la fonctionnalité d'un système opérateur ou d'un serveur Web. Ce bien commun inclut aussi le code-source de logiciels qui peut être élaboré et modifié par d'autres. Les logiciels libres et les open sources (les 'codes ouverts' pour faire court) doivent être distribués avec les codes sources. Le code source doit être librement accessible et modifiable par les autres. Ce bien commun au niveau de la couche de contenu signifie que les autres peuvent extraire et développer des 'open sources' et des logiciels libres. Cela signifie aussi que les codes ouverts ne peuvent pas être enfermés ni avoir de préjugé en faveur ou à l'encontre d'un concurrent particulier. Les codes ouverts peuvent toujours être modifiés par ceux qui les adoptent subséquemment. Ils sont en conséquence brevetés pour rester neutres lors des usages subséquents. Il n'existe pas de 'propriétaire' pour un projet de code ouvert.

De cette manière, et là encore, parallèlement au principe 'end-to-end' au niveau de la couche-code, les codes ouverts permettent de décentraliser l'innovation. Ils maintiennent une plate-forme neutre. Cette neutralité inspire en retour les innovateurs qui oeuvrent pour cette plate-forme parce qu'ils n'ont pas à craindre que la plate-forme ne se retourne contre eux. Les codes ouverts construisent un bien commun pour l'innovation au niveau de la couche de contenu. Comme le bien commun situé à la couche-code, les codes ouverts préservent les potentialités pour l'innovation et protègent l'innovation contre le comportement stratégique des concurrents. Les ressources libres génèrent l'innovation.

 

Un moteur pour l'innovation


Internet, dans sa forme originelle, tel qu'il fut étendu à la société en général, combine des ressources contrôlées et des ressources libres à chaque niveau du réseau. Au niveau de la couche-code essentiel, le réseau était libre. La conception 'end-to-end' a permis d'assurer qu'aucun propriétaire de réseau ne puisse exercer de contrôle sur celui-ci. Au niveau de la couche physique, les ressources étaient pour l'essentiel contrôlées, mais même ici, des aspects importants étaient libres. On avait le droit ou non de connecter une machine au réseau, mais les compagnies de téléphone n'avaient pas le droit d'exercer de discrimination à l'encontre d'un usage spécifique de leur réseau. Et finalement, au niveau de la couche de contenu, nombre des ressources mises à disposition via internet étaient contrôlées. Mais un éventail crucial de services essentiels de construction de logiciels sur internet restait libre. Que ce soit par le biais de brevets d' 'open source' ou de logiciel libre, ces ressources ne pouvaient pas être contrôlées.

Cet équilibre entre le contrôle et la liberté a généré une vague d'innovation sans précédent. Le pouvoir, et par là le droit d'innover, était essentiellement décentralisé. Internet pouvait bien avoir été une invention américaine, les créateurs issus d'autres régions du monde pouvaient élaborer à partir de cette plate-forme en réseau. Il est marquant de noter que la plupart des innovations pour internet furent produites par ces 'étrangers'.

Ainsi qu'on l'a vu, la technologie la plus importante pour avoir accès et parcourir internet (le World Wide Web) n'a pas été inventée par des entreprises spécialisées dans les accès au réseau. Ce n'était pas America Online (AOL) ni Compuserve. Le Web fut développé par un chercheur d'un laboratoire basé en Suisse qui fut le premier à percevoir ses potentiels et qui s'employa alors à le faire éclore. De la même manière, ce ne sont pas les fournisseurs E-mail qui eurent l'idée de baser les e-mails sur le Web. Ceci fut co-inventé par un immigrant indien aux Etats-Unis, Sabeer Bhatia, qui donna naissance à l'une des communautés dont l'expansion est la plus rapide de l'histoire - Hotmail.

Et ce ne furent pas les fournisseurs traditionnels de réseau ni les compagnies de télécoms qui inventèrent les applications qui permirent aux forums de discussions en ligne de décoller. Le premier service de discussion basé sur une communauté (ICQ) fut inventé par un Israélien, très éloigné des tranchées de la conception de réseaux. Ses services purent exploser (et être alors rachetés par AOL pour 400 millions de dollars) uniquement parce que le réseau était laissé ouvert pour permettre ce type d'innovations.

De la même manière, la révolution dans la vente de livres initiée par Amazon.com (grâce à l'utilisation de technologies qui 'comparent les préférences' des consommateurs) fut inventée loin des organismes de publication traditionnels. En collectant une grande variété de données sur les habitudes de consommation des clients, Amazon - exploitant une technologie initialement développée par MIT et l'Université du Minnesota afin de filtrer les nouvelles sur Usenet - peut prédire ce qu'un consommateur va très probablement souhaiter. Ces recommandations gouvernent les ventes, mais en faisant l'économie des frais élevés de publicité ou de promotion. En conséquence, les libraires comme Amazon peuvent concurrencer les vendeurs traditionnels de livres, ce qui peut expliquer la rapide expansion d'Amazon en Europe et en Asie.

Ces innovations se situent au niveau des services d'internet. Mais les innovations au niveau du contenu ont été encore plus profondes. Internet n'a pas seulement inspiré l'invention, il a aussi inspiré les publications d'une façon qui n'aurait jamais pu être le fait du monde des éditeurs existants. La création d'archives en ligne de paroles et musiques et de bases de données collaboratives collectant les informations sur les compact disques et les films fournissent un exemple du type de créativité qui fut rendue possible parce que le droit à la création n'était pas contrôlé.

Là encore, les innovations ne se sont pas limitées aux Etats-Unis. OpenDemocracy.org, par exemple, est un forum basé à Londres et centré sur le Web pour stimuler le débat et les échanges sur la démocratie et la gouvernance partout dans le monde. Un tel forum est possible uniquement parce qu'aucune coordination entre les acteurs internationaux n'est nécessaire. Et il se développe car il peut engendrer des débats à bas coût.

Cette histoire devrait servir de leçon. Toute innovation d'envergure sur internet est apparue en dehors des fournisseurs traditionnels. La nouveauté se développe toujours à partir de l'ancien. Cette tendance nous montre toute l'importance à laisser ouverte la plate-forme pour l'innovation. Malheureusement, cette plate-forme est actuellement en état de siège. Toute perturbation technologique produit des vainqueurs et des perdants. Les perdants ont tout intérêt à éviter cette perturbation s'ils le peuvent. C'est la leçon que Machiavel enseignait, et c'est l'expérience qui est faite avec tout changement technologique important survenu dans le temps. C'est aussi ce à quoi nous assistons avec internet. Les biens communs en matière d'innovation sur internet menacent des intérêts importants et puissants qui préexistaient à internet. Au cours des cinq dernières années, ces intérêts se sont mobilisés pour lancer une contre-offensive qui a maintenant un effet global.

Ce mouvement se nourrit de la pression exercée à la fois sur les couches physique et de contenu du réseau. Ces changements, en retour, exercent une pression sur la liberté au niveau de la couche-code. Ces changements auront un effet sur les possibilités de croissance et d'innovation offertes par internet. Les dirigeants soucieux de protéger cette croissance doivent se montrer suspicieux à l'égard des changements qui la menaceront. L'innovation qui dispose d'une large base peut menacer les profits d'intérêts préexistants, mais les gains sociaux de cette croissance impossible à quantifier dépasseront de loin les pertes privées, en particulier au sein des nations qui viennent tout juste de se connecter.

 

L'enfermement ( le clôturage) du bien commun


Internet a véritablement décollé en utilisant les lignes de téléphone. Des services de bande étroite à travers des modems acoustiques ont permis à des millions d'ordinateurs de se connecter via des milliers de fournisseurs de service internet (ISPs). Les opérateurs télécoms locaux durent fournir des ISPs avec accès aux lignes locales ; ils n'avaient pas l'autorisation de pratiquer de discrimination à l'encontre des services internet. Ainsi, la plate-forme physique sur laquelle internet s'était développé était régulée pour rester neutre. Cette régulation a eu un effet important. Une nouvelle industrie pouvait apparaître dans le domaine des câbles téléphoniques, sans pour autant tenir compte des compagnies téléphoniques.

Mais alors qu'internet évolue des bandes étroites vers les bandes larges, l'environnement régulateur est en train de changer. La technologie dominante en matière de bande large aux Etats-Unis est actuellement le câble. Les câbles sont couverts par un régime régulateur différent. Les fournisseurs de câbles n'ont en général aucune obligation de fournir un accès à leurs installations. Et le câble a revendiqué le droit de pratiquer une discrimination au sein des services internet qu'il fournit.

En conséquence, le câble a commencé à presser pour l'adoption d'une nouvelle série de principes au niveau de la couche-code du réseau. Les industries de câbles ont déployé des technologies qui leur ont permis de s'engager dans une forme de discrimination parmi les services qu'elles proposent. Cisco, par exemple, a développé des 'policy-based routers' ('systèmes de routage basés sur une politique/stratégie' ?) qui permettent aux industries de câbles de choisir quel contenu va circuler rapidement et lequel va circuler lentement. Avec ces systèmes, et d'autres technologies, les industries du câble auront la capacité d'exercer leur pouvoir sur le contenu et les applications qui fonctionnent via leurs réseaux.

Ce contrôle a déjà commencé aux Etats-Unis. Les services de câbles ISPs ont exercé leur pouvoir pour interdire certaines applications (soit spécifiquement, celles qui permettent des services 'peer-to-peer' (d'égal à égal' ?)). Ils ont bloqué des contenus particuliers (les publicités de concurrents par exemple) lorsque ceux-ci ne correspondaient pas à leur modèle commercial. Le modèle pour ces fournisseurs est en général celui de la télévision câblée - accès et contenu contrôlés aux fins de servir le fournisseur du câble.

L'environnement d'innovation sur le réseau originel changera en fonction de la mesure dans laquelle le câble deviendra le mode d'accès principal pour internet. Plutôt qu'un réseau qui insuffle de l'intelligence aux extrémités, le réseau dominé par le câble insufflera un degré croissant d'intelligence à l'intérieur du réseau lui-même. Et dans la mesure où il fait ceci, le réseau offrira la possibilité à des comportements stratégiques privilégiant certaines technologies et s'opposant à d'autres de s'exprimer. Une caractéristique essentielle de la neutralité au niveau de la couche-code aura alors été remise en cause, réduisant le potentiel d'innovation dans le monde.

Beaucoup plus grave, cependant, a été la pression exercée depuis la couche de contenu sur la couche-code. Cette pression s'est exprimée sous deux formes. Tout d'abord, et plus directement reliée au contenu décrit ci-dessus, il y a eu un développement massif de la législation portant sur les brevets dans le domaine des logiciels. En second lieu, les détenteurs de droits d'auteurs ont exercé un contrôle grandissant sur les nouvelles technologies aux fins de la distribution.

Ces changements dans la législation portant sur les brevets sont plus difficiles à expliquer, bien que les conséquences ne soient pas difficiles à dépister. Il y a deux décennies, le Bureau des brevets américain a commencé à accorder des brevets aux inventions de type logiciels. A la fin des années 1990, le tribunal chargé de la surveillance de ces brevets approuva finalement la pratique et approuva son extension à des 'méthodes commerciales'. Dans le même temps, l'Union européenne (UE) adoptait une attitude initialement plus suspicieuse à l'égard des brevets pour logiciels. Mais la pression exercée depuis les Etats-Unis devrait à terme amener les européens à s'aligner sur les positions américaines.

En principe, ces brevets sont conçus pour susciter l'innovation. Mais dans le domaine de l'innovation séquentielle et complémentaire, il existe peu de preuves suggérant que de tels brevets auront un effet positif, et il y a de plus en plus de preuves qui indiquent qu'ils auront un effet négatif. Comme toute réglementation, les brevets taxent de manière générale le processus innovant. Et comme avec toute taxe, certaines entreprises - grandes plutôt que petites, américaines plutôt qu'étrangères - sont mieux parées pour supporter les taxes que d'autres. Les projets de codes ouverts, en particulier, sont menacés par cette tendance, en ce qu'ils sont moins à même de négocier des licences de brevets appropriées.

Les restrictions les plus importantes pesant sur l'innovation sont cependant le fait des détenteurs de droits d'auteurs. Les droits d'auteurs sont conçus pour assurer aux artistes la possibilitédecontrôler leurs'écrits'pendantune période de temps limitée. Le but est de garantir aux détenteurs de droits d'auteurs un intérêt suffisant pour leur permettre de produire de nouveaux travaux. Mais la législation sur les droits d'auteurs fut élaborée bien avant l'ère d'internet. Et leur effet sur internet a été de transférer d'un grand nombre d'innovateurs vers un petit groupe concentré le contrôle sur l'innovation dans la distribution.

L'exemple le plus évident de cet effet est la musique en ligne. Avant internet, la production et la distribution de la musique étaient devenues des affaires extrêmement concentrées. En 2000, par exemple, cinq compagnies contrôlaient 84% de la distribution de musique dans le monde. Les raisons expliquant cette concentration sont nombreuses - y compris les coûts élevés de promotion - mais elles ont un effet important sur la concentration du développement artistique. Très peu d'artistes parviennent à gagner de l'argent avec leur travail, et le petit groupe qui y parvient est capable de le faire en raison d'une politique de marketing de masse des maisons de disques. Internet avait le potentiel pour changer cette réalité. A la fois parce que les coûts de production étaient bas et parce que le réseau détenait aussi le potentiel de faire baisser les coûts de promotion de manière significative, le coût de la musique pouvait chuter et le revenu des artistes augmenter.

Il y a cinq ans, ce marché a décollé. Un grand nombre de fournisseurs de musique en ligne sont entrés en compétition pour ces nouveaux moyens de distribuer la musique. Certains ont distribué des MP3 contre de l'argent (eMusic.com). Certains ont élaboré de nouvelles technologies pour permettre aux détenteurs de musique d'accéder plus facilement à leur musique (mp3.com). Et certains ont grandement facilité le 'partage' de la musique entre utilisateurs ordinaires (Napster). Mais les avocats représentant les anciens médias sont parvenus à faire fermer ces entreprises aussi rapidement que celles-ci se développaient. L'argument invoqué par ces avocats était que la législation sur les droits d'auteurs donnait aux détenteurs (certains disent accumulateurs ( ?)) de ces droits d'auteurs le droit exclusif de contrôler l'usage qui en est fait. Les tribunaux américains leur donnèrent raison.

Afin de remettre ce débat dans son contexte, nous devrions réfléchir au dernier exemple de changement technologique qui a permis l'apparition d'un modèle de distribution de contenu très différent : la télévision câblée, qui a, avec raison, été saluée comme le premier grand Napster. Les propriétaires de système de télévision câblée se contentent pour l'essentiel de monter une antenne, de 'voler' les diffusions hertziennes et de revendre cette 'propriété volée' à leurs consommateurs. Mais lorsque les tribunaux américains furent sommés de mettre fin à ce 'vol', ils refusèrent. A deux reprises, la Cour suprême des Etats-Unis soutint que l'utilisation de matériaux couverts par les droits d'auteurs de quelqu'un d'autre ne relevait pas de la législation sur les droits d'auteurs.

Lorsque le Congrès américain s'employa enfin à modifier la loi, il décida d'un équilibre dont l'importance illustratrice est immense. Le Congrès accorda aux détenteurs de droits d'auteurs le droit à une compensation pour l'utilisation de leurs matériaux pour la diffusion câblée, mais les entreprises de câbles obtinrent le droit de diffuser les matériaux couverts par des droits d'auteurs. La raison expliquant cet équilibre n'est pas difficile à comprendre. Les détenteurs de droits d'auteurs ont certainement le droit de recevoir des compensations pour leur travail. Mais le droit à la compensation ne devrait pas se traduire par le pouvoir de contrôler l'innovation. Plutôt que d'accorder aux détenteurs de droits d'auteurs le droit de s'opposer à une utilisation particulière de leur travail (dans ce cas, parce que cela entrerait en compétition avec la diffusion hertzienne), le Congrès a garanti aux détenteurs de droits d'auteurs la possibilité d'être payés sans obtenir le pouvoir de contrôler - la compensation sans le contrôle.

Le même accord aurait pu être trouvé par le Congrès dans le domaine de la musique en ligne. Mais cette fois-ci, les tribunaux n'hésitèrent pas à étendre le contrôle des détenteurs de droits d'auteurs. De telle manière que le groupe concentré de détenteurs de ces droits d'auteurs soient à même de bloquer l'expansion de distributeurs concurrents. Et le Congrès n'avait pas de motivation pour répondre en accordant un droit obligatoire équivalent. Le but de la stratégie des maisons de disques était sans ambages : obtenir la fermeture de ces nouveaux modèles de distribution concurrents et les replacer dans un modèle de distribution de la musique en ligne plus respectueux du modèle traditionnel.

Cette tendance fut soutenue par des actions du Congrès. En 1998, le Congrès adopta le 'Digital Millennium Copyright Act (DMCA)', célèbre pour son interdiction (honteuse) des technologies conçues pour encadrer la protection des technologies par des droits d'auteurs et qui institua aussi de fortes mesures incitatives pour que les fournisseurs d'accès internet retirent de leurs sites tout matériau accusé d'être en violation des droits des auteurs.

En apparence, ces deux changements semblent raisonnables. Les technologies de protection des droits d'auteurs sont des cadenas analogiques. De quel droit quiconque peut-il forcer un cadenas ? Et les fournisseurs d'accès à internet ne sont-ils pas dans la meilleure position pour garantir que des violations des droits d'auteurs ne se produisent pas sur leurs sites internet ? Pourquoi ne pas créer de mesures incitatives pour les encourager à se débarrasser de matériaux protégés par des droits d'auteurs contrevenant à la loi ?

Mais l'intuition est ici trompeuse. Une technologie de protection des droits d'auteurs est un simple code qui contrôle l'accès au matériau protégé par le droit en question. Mais ce code peut restreindre l'accès plus efficacement (et certainement de manière moins subtile) que ne le fait le droit d'auteur. Souvent, le désir de briser les systèmes de protection n'est rien de plus que le désir d'exercer ce qui est parfois appelé un droit d'usage raisonnable (fair-use) des matériaux protégés par des droits d'auteurs. Et pourtant, le DMCA interdit cette technologie, sans se soucier de cet effet final.

Il est toutefois encore plus troublant que le DMCA interdise de fait cette technologie sur une base planétaire. Par exemple, le programmateur russe Dimitry Sklyarov avait écrit un code pour briser la technologie eBook d'Acrobat afin de permettre aux usagers de transférer des eBook d'une machine sur une autre et d'offrir aux consommateurs aveugles la possibilité de 'lire' à haute voix les livres qu'ils achetaient. Le code écrit par Sklyarov était légal lorsqu'il fut inventé, mais au moment de sa vente aux Etats-Unis, il devint illégal. Lorsqu'il arriva aux Etats-Unis en juillet 2001 pour présenter son code, il fut arrêté par le FBI. Aujourd'hui, il risque 25 ans de prison pour avoir écrit un code qui pourrait être utilisé pour des motifs de 'fair-use', de même que pour violer des droits d'auteurs.

Un trouble équivalent est apparu au sujet des clauses qui offrent des mesures incitatives aux fournisseurs de service internet. Lorsqu'un fournisseur est informé qu'un matériau posté sur son site viole des droits d'auteurs, il peut éviter d'être tenu pour responsable s'il retire ce matériau. Comme il n'existe pas de mesures incitatives pour que le fournisseur de service s'expose de lui-même à être tenu pour responsable, le retrait du matériau incriminé est la pratique la plus courante lors de telles notifications. De plus en plus, les entreprises qui tentent de se protéger contre la critique ont fait usage de cette clause pour réduire les critiques au silence. En août 2001, par exemple, une entreprise pharmaceutique britannique a invoqué la DMCA afin de contraindre un fournisseur de service internet à fermer un site de défense des animaux qui la critiquait. Selon le fournisseur, 'il est tout à fait clair que l'[entreprise britannique] voulait simplement les faire taire', mais le fournisseur n'avait aucun incitation le poussant à résister à cette plainte.

Tous ces cas ont en commun une caractéristique. En faisant pression pour accorder aux propriétaires de droits d'auteurs le contrôle de leurs contenus, les détenteurs de droits d'auteurs reçoivent aussi la possibilité de se protéger contre les innovations qui pourraient menacer des modèles industriels ou commerciaux existants. La loi devient un instrument qui permet de garantir que les nouvelles innovations ne perturbent pas les anciennes - alors qu'en fait, le but des droits d'auteurs et de la législation sur les brevets devrait être, comme le requiert la Constitution américaine, de 'promouvoir le progrès de la science et des arts utiles'.

Cette réglementation ne va pas seulement affecter les américains. La juridiction croissante que revendiquent les tribunaux américains, associée avec la pression exercée par l'Organisation mondiale de la propriété intellectuelle pour que d'autres lois du même type soient adoptées ailleurs, signifie que l'impact de ce type de contrôle sera ressenti partout dans le monde. La dimension 'locale' n'existe plus lorsque l'on touche à la corruption des principes de base d'internet. Tandis que ces changements affaiblissent les mouvements d' 'open sources' et de logiciels libres, les pays qui avaient le plus à gagner de l'existence d'une plate-forme libre et ouverte vont y perdre beaucoup. Ceux qui seront affectés incluront les pays en développement et les pays qui ne veulent pas céder le contrôle à une seule corporation privée. Alors que le contenu devient de plus en plus contrôlé, les pays qui auraient pu en d'autres circonstances bénéficier d'une saine compétition dans la fourniture et la production du contenu compteront aussi parmi les perdants. Une vague d'innovations pour fournir des MP3 se traduirait immédiatement par d'autres innovations pour fournir des appels téléphoniques et des contenus vidéo. La baisse des coûts de ces médias pourrait grandement bénéficier à des pays qui souffrent toujours d'un retard en matière d'infrastructures technologiques.

Les dirigeants dans le monde entier doivent reconnaître que les intérêts les mieux protégés par la contre-révolution internet ne sont pas les leurs. Ils doivent se montrer méfiants à l'égard de mécanismes juridiques qui permettent à ceux qui sont le plus menacés par l'innovation dans le bien commun de résister à celle-ci. Internet a promis au monde - en particulier aux plus faibles - d'apporter des changements rapides et fondamentaux aux barrières existantes à la croissance. Cette promesse est dépendante du réseau qui restera ouvert à l'innovation. Cette ouverture dépend de l'application de politiques qui comprennent mieux l'histoire passée d'internet.

Article paru dans Foreign Policy http://www.foreignpolicy.com/issue_novdec_2001/lessig.html Traduction par Jean Paul Ducasse NB du traducteur : j'ai utilisé la traduction 'couche' pour les différentes 'couches' mentionnées dans ton Email, sauf pour la 'couche-code', que j'ai appelé 'couche-code' - question d'oreille. J'ai aussi utilisé les traductions suivantes : Open source : laissé tel quel free software : logiciel libre Enfin, les expressions en fluo et entre parenthèses sont des traductions dont je ne suis pas sûre mais qui ne devraient pas nuire à ta compréhension générale du texte. C'est une traduction de travail, donc pas 'réécrite' - le style est parfois un peu lourd.....