N° 328 | FÉVRIER 2000 |    
Accueil Sommaire Archives Emplois Livres Forum Services Chercher
Jean-Claude Guédon , professeur au département de littérature comparée de l'université de Montréal, est membre de l'Internet Society.

*ATM (Asynchronous Transfer Mode) : technologie de réseau qui établit des connexions logiques et utilise des cellules de petite taille fixe pour transporter les flux d'informations.

*OSI : Open Systems Interconnection. Cette conception des réseaux, qui nous a légué sept couches (physique, lien, réseau, transport, session, application, présentation) permettant d'analyser tous les éléments de n'importe quel système de transmission de données, fut développée dans le cadre de l'ISO (International Standards Organization). Divers humoristes ont ajouté les couches financières placées sous les couches de la politique ou de la confusion...



(1) Peter H. Salus, Casting the Net. From Arpanet to Internet and beyond..., Reading, Mass., Addison-Wesley, 1995. Préface de Vinton G. Cerf ; Katie Hafner et Matthew Lyon, Where Wizards Stay Up Late. The Origins of the Internet, New York, Simon & Schuster, 1996 (trad. fr. : Les Sorciers du Net, Calmann Lévy, 1999) ; Janet Abbate, Inventing the Internet, Cambridge, Mass., MIT Press, 1999 ; J.-C. Guédon, La Planète cyber. Internet et cyberespace, Paris, Gallimard, coll. « Découvertes », 1996 ; Christian Huitema, Et Dieu créa l'Internet..., Paris, Eyrolles, 1995.

(2) Martin Campbell-Kelly, « Data communications at the National Physical Laboratory (1965-1975) », Annals of the History of Computing , vol. 9, 221-47, particulièrement 224-5, 1988.

(3) Les rapports de P. Baran sont disponibles sur la Toile : http://www.rand.org/publications/RM/baran.list.html

(4) Le livre de Katie Hafner et Matthew Lyon (mentionné note 1), est rédigé largement dans la perspective de BBN.

(5) Vinton G. Cerf et Robert E. Kahn, « A protocol for packet network intercommunication », IEEE Transactions on Communications, COM-22 (mai 1974), 637-48.

(6) C. Macchi, J.-F. Guilbert et al ., Téléinformatique , Paris, Dunod, 1986, p. 460.

(7) Peter H. Salus, A Quarter Century of Unix , Reading, Mass., Addison-Wesley, 1994.

(8) Mike Gancarz, The Unix Philosophy, Boston, Digital Press, 1995.


Mythes et légendes d'Internet

La force de l'intelligence distribuée

Comment bâtir un réseau informatique à l'aide d'ordinateurs hétérogènes ? En 1969 s'élabore aux Etats-Unis une ébauche de solution concrète qui, très vite, suscite l'émergence de réseaux de toute nature. Les grands organismes internationaux tentent maladroitement de contrôler cette prolifération tandis que, dans les marges du système, de petits groupes de chercheurs établissent les fondations du réseau des réseaux : Internet.

Parfois présenté comme résultat de la recherche militaire des Etats-Unis quand il n'est pas dépeint comme un sombre complot de l'impérialisme américain, Internet continue de présenter des origines un peu mystérieuses pour la plupart des utilisateurs ou des observateurs. Même si elles commencent à s'éclaircir au fur et à mesure que les ouvrages de journalistes ou d'historiens s'accumulent(1), les mêmes vieilles scies se répètent à l'envi : en particulier, Internet serait né en 1969, à l'initiative du Pentagone, sous l'appellation d'Arpanet. Or cette affirmation met en évidence une étrange confusion entre Arpanet et Internet, confusion qui s'explique par une chaîne chronologique réelle, mais qui ne l'excuse pas. Oui, il existe bien un chassé-croisé entre Arpanet et Internet, mais les deux technologies sont distinctes, ne se déploient pas de la même façon et aboutissent à des résultats très différents. Arpanet ne représente qu'une étape, certes intéressante mais nullement unique, dans le développement des réseaux d'ordinateurs hétérogènes. Internet correspond en revanche à l'idée de pouvoir interconnecter tous les réseaux entre eux, y compris ceux qui ne sont même pas encore inventés. Comment ne pas voir un tel saut conceptuel ?

L'idée de relier des ordinateurs apparaît inévitable à partir du moment où le temps partagé devient une réalité en informatique. Rappelons que cela permet à plusieurs personnes de travailler en même temps avec un seul ordinateur. A cause de la lenteur des réactions humaines comparées à celle de circuits électroniques, l'appareil peut en effet répondre presque immédiatement aux requêtes des utilisateurs qui communiquent avec l'unité centrale de traitement à travers un terminal. Demander à un deuxième ordinateur de jouer ce rôle de terminal est bien sûr possible, mais semble renvoyer à un gâchis absurde de ressources. A moins de reconceptualiser le rôle des ordinateurs... En percevant dès 1965 que l'ordinateur était aussi une machine à communiquer, le psychologue J.C.R. Licklider fit franchir le pas décisif pour construire des réseaux d'ordinateurs, c'est-à-dire des réseaux d'un nouveau genre permettant à des individus d'élaborer des rapports de communication inédits.

Le désir concret , et non simplement la possibilité conceptuelle, de relier des ordinateurs identiques entre eux fut rapidement stimulé par divers motifs, militaires dans le cas de la couverture radar du continent nord-américain (Norad), ou commerciaux pour la gestion des réservations de sièges dans les transports aériens (SABRE)(2). La volonté de relier des ordinateurs hétérogènes émerge un peu plus tard et est associée à des considérations sensiblement différentes, même si elle relève des mêmes secteurs militaires et économiques. Dans le cas des Etats-Unis, cette nouvelle étape apparaît reliée à un fait divers datant de 1961, quand le sabotage de plusieurs antennes de communication situées dans l'Utah démontra la grande vulnérabilité des communications militaires. Cet événement a stimulé la réflexion de Paul Baran, chercheur à la RAND Corporation, et, de 1962 à 1964, celui-ci commença à imaginer les concepts nécessaires à la mise au point d'un réseau beaucoup plus résistant à de tels actes de sabotage, voire aux effets d'une attaque massive sur le territoire des Etats-Unis(3). Sa technique, dite de la « hot potato » , repose sur l'idée de couper tout document en petits morceaux et d'envoyer chaque morceau reçu au relais suivant, aussi vite que possible, en passant par la voie la plus ouverte ou la moins encombrée : d'où la métaphore comique de la « patate chaude », comme disent les Québécois qui ont adopté cette métaphore, que l'on se passe rapidement de main en main. Cette vision modulaire de la communication, probablement inspirée en partie par les stratégies de redondance déjà présentes dans les télégraphes, allait inspirer divers groupes de chercheurs aux Etats-Unis, en Grande-Bretagne et en France. Mais qui, en 1964, savait relier des ordinateurs différents entre eux ? Personne...

La considération stratégique ne suffit pas à expliquer l'ensemble des décisions aboutissant à la création d'Arpanet. On ne peut en effet négliger les préoccupations financières de l'agence ARPA (Advanced Research Project Agency) qui, en 1966, subventionnait déjà dix-sept projets coûteux reposant sur l'utilisation d'ordinateurs variés. L'isolement des équipes et l'incapacité de partager les mêmes outils conduisaient régulièrement à une duplication ruineuse d'efforts et préoccupait l'IPTO (Information Processing Techniques Office), la division d'ARPA focalisée sur l'informatique. Robert Taylor, responsable de ce secteur, réussit à attirer Larry Roberts pour diriger la mise en réseau des différents ordinateurs de ces centres de recherche et, ainsi, réduire les coûts de fonctionnement des diverses expériences en cours.

Dès 1967, au Tennessee, une réunion de l'Association of Computing Machinery (ACM) à laquelle participaient également deux Anglais, Roger Scantlebury et son patron Donald W. Davies, tous deux du National Physical Laboratory, permit de mieux fixer les idées. La notion de commutation de paquets - le terme de paquet vient de Davies lui-même - commence alors à émerger comme concept rassembleur d'une philosophie technique qui allait fortement influencer l'industrie des communications dans les décennies suivantes. Pour Davies, la commutation de paquets revenait à stocker, puis faire suivre (« store and forward ») de tout petits messages.

En novembre 1967, Larry Roberts forma le NWG (Network Working Group) pour suivre de près le développement de l'entreprise devant mener à Arpanet. On retrouve dans ce groupe les représentants de plusieurs universités qui allaient former les premières connexions d'Arpanet, ainsi que des membres de la RAND Corporation. Un réseau humain prépare en quelque sorte l'élaboration du réseau d'ordinateurs : on y rencontre en particulier Len Kleinrock, professeur d'informatique à l'université de Californie à Los Angeles (UCLA), mais aussi ancien camarade d'études de Larry Roberts au Massachusetts Institute of Technology (MIT). Dans le laboratoire de L. Kleinrock, quelques étudiants travaillent à divers projets : Vinton Cerf, Steve Crocker, Jon Postel...

En juin 1968, un financement de 2,2 millions de dollars est attribué au projet Arpanet et ARPA, fidèle à son modus operandi , cherche à rassembler les meilleures équipes par une stratégie de contrats attribués par concours. Une firme de consultants du Massachusetts, Bolt, Beranek and Newman (BBN), décroche le contrat en dépit de la forte concurrence de compagnies habituées à travailler pour la Défense (Raytheon, par exemple)(4).

L'objectif était très clair : il s'agissait de surmonter l'obstacle de l'hétérogénéité des ordinateurs en plaçant devant chacun d'eux une sorte d'ordinateur traducteur, appelé « Interface Message Processor » ou IMP, ramenant ainsi la question de l'interconnexion d'ordinateurs hétérogènes à celle d'ordinateurs identiques, déjà bien maîtrisée. Détail amusant, le problème de l'hétérogénéité des ordinateurs s'est doublé d'un problème analogue entre chercheurs. Du côté de BBN, on découvre en effet des chercheurs déjà chevronnés, tels Bob Kahn, Severo Ornstein et Frank Heart. Ces ingénieurs ont une préoccupation principale : faire passer des bits rapidement et efficacement par des liens physiques. Du côté du laboratoire de Len Kleinrock, on trouve de jeunes doctorants nageant avec bonheur dans les complexités des protocoles de communication à respecter, mais assez peu sensibles aux requêtes concrètes d'ingénieurs travaillant en contexte commercial. On peut imaginer que certains individus, peut-être Robert Kahn d'un côté, peut-être Vint Cerf de l'autre, ont joué le rôle d'IMP humains et ont ainsi permis à des équipes aux cultures techniques très différentes de travailler ensemble.

Le travail de mise au point de l'IMP s'accomplit pourtant sans difficultés majeures et dans le respect des délais : preuve s'il en est que ce projet évoluait dans le cadre de technologies qui, pour être de pointe, n'en étaient pas moins relativement bien maîtrisées. BBN rédigeait ainsi en mai 1969 un document, le fameux rapport 1 822, qui définissait toutes les spécifications de l'IMP.

Tandis qu'une partie de l'équipe travaillait sur le matériel, une dérivation du Honeywell DDP-516, une autre partie de l'équipe élaborait les logiciels. Larry Roberts, comprenant rapidement les avantages de ne pas multiplier les hiérarchies, repoussa la tentation d'adopter un modèle client-serveur en faveur d'un modèle plus paritaire. Cela conduisit au protocole « Network Control Program » (NCP), le protocole de base d'Arpanet. Tout ce travail fut lancé par un processus d'itérations qui, en reprenant d'une certaine manière les habitudes de la publication scientifique, conduisit également à construire un contexte d'intelligence distribuée tout à fait remarquable. Echo de l'attitude un peu intimidée de jeunes doctorants face à des ingénieurs expérimentés, l'habitude se prit de faire circuler des documents à l'intitulé excessivement poli, des RFC (« Request for Comments ») . La mise au point du NCP, par exemple, semble avoir débuté par le RFC 9, lancé par un certain Gérard DeLoche, jusqu'au RFC 179, rédigé le 22 juin 1971. Arpanet évolua ainsi vite et plutôt bien, rappelant la profonde sagesse du mouvement scientifique dans son ensemble, et préfigurant le succès des logiciels à code source libre un peu plus tard (voir l'article de Bernard Lang dans ce numéro, p. 72).

Le premier lien d'hôte à IMP fut installé et testé à UCLA le 2 septembre 1969, et on a fêté l'année dernière le trentenaire de cette réalisation. Environ un mois plus tard, le Stanford Research Institute répétait cette première étape et, le 21 novembre 1969, on inaugura, en présence de personnalités d'ARPA, un lien stabilisé entre UCLA et Stanford. L'université de Californie à Santa Barbara et l'université de l'Utah reçurent leur équipement vers cette époque, et un réseau de quatre connexions fonctionnait au moment où 1969 s'éclipsait. Arpanet venait de naître.

La recherche militaire américaine ne vivait nullement en solitaire la maîtrise de l'interconnexion d'ordinateurs hétérogènes et, en son sein, celle-ci ne se limita pas au projet Arpanet. D'autres équipes, aux Etats-Unis et ailleurs, poursuivaient le même objectif dans des circonstances très diverses. Ainsi, la tentative d'expérimenter avec des connexions radio démarra en 1970, toujours financée par l'IPTO et dirigée par Norman Abramson de l'université d'Hawaii. Il en résulta Alohanet, réseau largement inspiré par les solutions explorées dans Arpanet. On y retrouve en particulier la notion d'un IMP, et Alohanet bénéficia de l'aide technique de « vétérans » d'Arpanet. A son tour, Alohanet inspira à Robert Kahn, qui entre-temps était passé de BBN à ARPA, un autre réseau par radio près de San Francisco : PRNet. Celui-ci commença à fonctionner de manière expérimentale en 1975, mais ne réussit jamais à se développer au point où il aurait pu être utilisé sur les champs de bataille. ARPA, toujours sous l'impulsion de Robert Kahn, développa également une tentative de communication par satellite cette fois, pour pouvoir analyser rapidement les données sismiques provenant de diverses stations autour de l'Union soviétique et, ce faisant, détecter les explosions nucléaires.

Pendant que ces développements se multipliaient aux Etats-Unis , l'Europe ne demeurait pas en reste, loin de là. En France, le projet Cyclades se mettait en route en 1972 (voir l'article de Louis Pouzin dans ce numéro, p. 32). Mais l'Angleterre avait commencé encore plus tôt. Dès juin 1966, Donald W. Davies, inspiré en partie par les travaux de Paul Baran, avait composé un document intitulé « Proposal for a digital communication network », où l'on trouve la première utilisation du mot « paquet ». Dans ce document se trouve également clairement indiquée la distinction entre circuit virtuel, d'une part, et datagramme, un terme d'origine française (voir l'article de Louis Pouzin p. 32). En 1967, l'Angleterre, grâce à Davies, Roger Scantlebury et quelques autres chercheurs, n'avait rien à envier au projet Arpanet, bien au contraire. Sans le retrait inattendu du type d'ordinateur choisi par les Anglais (un XL12 de la compagnie Plessey), ceux-ci auraient probablement construit un réseau d'ordinateurs hétérogènes avant les Américains. Tel quel, ils eurent leurs premières connexions au début de 1970. Au niveau européen, dès 1971, un comité recommandait la construction d'un réseau de recherche multinational intitulé EIN (European Informatics Network), réseau qui démarra en 1973 sous la direction du Britannique Derek Barber.

En 1972, la perspective d'une prolifération désordonnée de réseaux se profilait et fit irruption lors de la conférence International Computer Communication tenue à Washington à la fin octobre. Grand succès de publicité pour la commutation par paquets, et ce en dépit des réticences des ingénieurs appartenant à la culture des réseaux, cette réunion permit aussi de lancer un mouvement qui dut paraître très secondaire, voire un peu irréel à beaucoup de participants de cette époque. Robert Kahn et Vint Cerf furent ainsi parmi les premiers à voir la nécessité de travailler à travers les réseaux en posant des questions du genre : comment rejoindre un ordinateur d'Arpanet à partir d'un réseau utilisant la radio par paquets ? Comment s'assurer que les différents réseaux financés par ARPA puissent s'interconnecter à leur tour ? Et que faire des autres réseaux ? Ces questions ont conduit, lors de cette conférence de Washington, à créer un comité, l'International network working group (INWG) que présida Vint Cerf. Il avait 29 ans !

On retrouve des noms désormais très célèbres dans ce premier comité : Stephen Crocker, ami de Vint Cerf, Jon Postel, de l'Information Science Institute à l'université de Californie du Sud, Robert Metcalfe, alors à Xerox Parc et inventeur de l'Ethernet (dans sa thèse de doctorat de 1973). Louis Pouzin et Hubert Zimmerman ont également participé à l'INWG, ainsi que Gérard Lelann du laboratoire de Vint Cerf, alors jeune professeur à Stanford. A Xerox Parc, on tentait déjà d'inventer un premier protocole d'interréticulation : PUP (Parc universal packet). Vint Cerf organisa donc, au cours de l'été 1973, un séminaire sur cette question de protocole et, avec en particulier Metcalfe et Lelann, il commença à préciser ce que l'on allait bientôt nommer TCP (Transmission Control Protocol). Dans le même mouvement naquit l'idée de créer une sorte de protocole unique, disposant d'une traduction particulière avec chaque protocole de n'importe quel réseau existant ou même à venir. L'ordinateur assurant la traduction entre deux réseaux prit alors le nom de gateway ou passerelle. Ces idées se cristallisèrent dans une publication qui, signée conjointement par Vint Cerf et Bob Kahn, est souvent prise comme la date symbolique de départ d'Internet(5).

Le lancement de cette philosophie particulière de la communication rencontra bientôt des résistances fortes et organisées de la part des spécialistes classiques de la théorie des circuits et des signaux. Dès 1974, par exemple, les PTT, en France, lançaient leurs études sur le RCP (réseau de communication par paquets), ancêtre de Transpac, tandis que les postes canadiennes, en octobre 1974, décidèrent d'aller à l'encontre des protocoles préconisés par IBM (SNA, Systems Network Architecture), en dépit du fait que la plus grande partie de leur équipement reposait sur du matériel IBM. La lutte entre le géant de l'informatique et les postes canadiennes conduisit un petit groupe improvisé du CCITT (Consultative Committee on International Telegraphy and Telephony) à créer en 1975 ses propres protocoles. Constitué de ressortissants anglais, canadiens et français, ainsi que d'Américains liés à la compagnie Telenet (ironiquement, une compagnie créée dans le sillage d'Arpanet), ce groupe développa trois protocoles intitulés « Recommendation X.25 ». Travaillant à la hâte pour être au rendez-vous de l'échéance de la réunion quadriannuelle de septembre 1976, ils réussirent à faire adopter ces protocoles en standard international cette année-là. Telenet adoptait X.25 la même année et, au Canada, Datapac suivit en 1977. Transpac en France se mit à X.25 en 1978, les Japonais l'année suivante, et les postes anglaises en 1980. Grâce à ce nouveau standard, désormais largement adopté, les PTT purent forcer les compagnies d'ordinateurs à fournir du matériel selon leurs exigences propres et, ainsi, reprendre un certain contrôle du marché de l'informatique.

L'arrivée de X.25 engendra une énorme controverse qui se prolongea au moins une quinzaine d'années. Les échos en retentissent aujourd'hui encore dans les conférences sur le développement des réseaux. De fait, l'émergence d'ATM * correspond au dernier avatar de cette lutte entre le monde des télécoms et celui des informaticiens, entre la présence ou l'absence de circuits virtuels. Une partie des hésitations et retards de la France en matière d'Internet reflète aussi une certaine mauvaise volonté de France Télécom à accepter la victoire d'une solution si longtemps farouchement combattue, et apparemment écrasée dans l'oeuf par l'arrêt rapide des expériences de Cyclades. En 1986, dans un livre largement considéré en France comme une sorte de bible du traitement du signal, on peut voir Internet expédié en quelques lignes dont le côté comique n'échappera pas au lecteur de l'an 2000 : « La nécessité de disposer de protocoles de bout en bout a été résolue par l'architecture TCP-IP [...]. Cette architecture est démodée maintenant, mais, en attendant la normalisation, elle s'est répandue sur un grand nombre de matériels hétérogènes. A la fin des années 1980, cette architecture est encore relativement utilisée aux Etats-Unis et en Europe sur les réseaux scientifiques et industriels. [...] Depuis quelques années, tous les utilisateurs de réseau TCP-IP sont amenés à évoluer vers l'architecture OSI*(6) . » On peut juger de l'effet de telles paroles dans un manuel destiné à former des générations de jeunes ingénieurs !

L'amusant dans toute cette histoire réside dans le contraste entre le ton péremptoire, presque royal, des supporters de ce que l'on pourrait appeler les jardins de Versailles de l'esprit, et ces diverses formes de chiendent intellectuel, tenaces et têtues, qui prennent alors racines dans les marges du système. Car, tandis que les PTT entendaient résister, préférablement sur un mode héroïque, à un IBM qui, dans les années 1970, occupait le rôle que Microsoft joue de nos jours, d'autres développements, insignifiants en apparence, mais autrement plus importants, prenaient place. Il s'agit en particulier de l'irruption du système d'exploitation Unix.

Longue, compliquée, forcément tortueuse, l'histoire d'Unix rappelle aussi qu'une conception rigoureuse, simple et modeste, peut accomplir des merveilles là où d'immenses usines à gaz explosent ou se paralysent dans l'obésité la plus inefficace. Le système d'exploitation expérimental Multics subit ce sort peu enviable, et ATT, autre géant industriel américain en butte aux mandats antitrust du ministère de la Justice, décida de se retirer de ce projet. Déçus, certains informaticiens, tels Ken Thompson et Dennis Ritchie, entreprirent d'explorer la possibilité de créer, avec des moyens simples, un système d'exploitation réellement multitâches(7). Ils le nommèrent Unix, par double dérision, envers Multics d'une part, mais en autodérision aussi : Unix, en anglais, se prononce presque comme eunuchs (eunuques). Pourtant jamais émasculation ne fut plus fertile !

Le succès d'Unix est essentiellement dû à trois facteurs(8) . Il s'agit tout d'abord d'un système d'exploitation reposant sur la concaténation de petits programmes simples, qui fonctionnent bien et n'effectuent chacun qu'une tâche à la fois. La disponibilité presque toujours présente du code source, du moins au début, permit un développement optimal de ces logiciels. Deuxièmement, Unix est capable de fonctionner sur plusieurs types de machines. Enfin, le procès antitrust du ministère de la Justice empêcha ATT de tirer profit d'Unix, et cela incita la compagnie à le donner ou à le vendre à un prix ridicule, le rendant de facto attrayant pour les laboratoires de recherche et les chercheurs des universités.

Ajoutons à cela que les ensembles Unix comportent des logiciels de communication qui, pour des raisons de simplicité et de disponibilité, ont rapidement incorporé les protocoles d'Internet. Ainsi, pendant que de grandes batailles publiques, trop bien couvertes par la presse, hypnotisaient autant les décideurs que le grand public, croissait en silence, dans les coins des laboratoires, un mouvement qui allait assurer à TCP/IP les racines nécessaires pour résister aux efforts de normalisation des compagnies de téléphone recentrées autour de X.25. En France, l'opération Minitel a donné un éclat tout particulier à la stratégie des PTT en conférant à la notion de circuit virtuel une patine moderniste qui, sur fond d'un succès indéniable, mais déjà sans avenir réel vers 1987, allait curieusement engendrer un monumental immobilisme. En effet, après un départ fulgurant, la norme Télétel a rapidement plafonné, et les tentatives françaises pour l'exporter, ou étrangères pour l'imiter (par exemple Alex au Canada), ont toutes échoué, signe indéniable que cette combinaison technique ne pouvait vivre qu'avec un effet de serre économique très particulier, très étatique, dans le mauvais sens du mot.

Le phénomène Unix , incompréhensible dans la perspective hiérarchique et réglée des grands corps d'Etat, reposait sur un bricolage distribué à grande échelle qui, au fil des conférences Usenix et grâce aux possibilités de communication qu'offrait justement ce système d'exploitation correctement installé, permettait à une immense créativité spontanée de dépasser un simple mouvement brownien des esprits. En fait, les informaticiens, dignes émules de M. Jourdain, réinventaient les recettes du mouvement scientifique. Ils démontraient à nouveau que publier des résultats, les donner en somme, pour les soumettre à une critique générale, revenait à accumuler du capital symbolique et à élaborer une forme d'économie à deux niveaux, au moins aussi efficace que le cadre économique classique. En renversant l'attitude des esprits planificateurs, parfois appelés cartésiens, en plaçant la démonstration pratique réussie avant la standardisation abstraite ( « Implementation precedes standardization » , répètent à l'envi les grands chantres de TCP/IP), les informaticiens d'Internet et d'Unix démolissaient évidemment une bonne série d'idées reçues sur les vertus de la politique technique et de sa gestion, encore fort à la mode dans les années 1980. Ils rappelaient tranquillement que le bouillonnement des idées, à condition de s'effectuer en toute visibilité, ne conduit pas à l'inefficacité, encore moins à l'anarchie, mais bien à des phénomènes émergents, rappelant étonnamment ce que l'on avait pu déclamer sur l'air du progrès. Le mouvement actuel des logiciels à code source libre offre à cet égard une nouvelle démonstration éclatante de ce principe (voir l'article de Bernard Lang dans ce numéro p. 72).

A leur décharge, l'aveuglement des grandes administrations ne représente pas un phénomène isolé. Tandis que les administrations des PTT étaient littéralement fascinées par IBM, au point qu'elles se trouvaient abêties et réduites à l'état de « pététouilles », expression savoureuse des années 1970, IBM, alors au faîte de sa puissance, négligeait totalement le phénomène Unix, démonstration s'il en est que le mode de comportement des organisations reflète peut-être plus leur taille que leurs fonctions. IBM ne se comportait pas de manière tellement différente d'un ministère. Seule différence, cette attitude menaça un moment sa survie...

Les universitaires, en revanche, avaient bien suivi le phénomène Unix. Dès 1979, ces chercheurs en informatique ont tout fait pour se relier au réseau Arpanet et, entraînés par Larry Landweber de l'université du Wisconsin, ils formèrent CSNET. Au fil de négociations complexes entre ARPA, les universités et la National Science Foundation (NSF), CSNET fut finalement connecté à Arpanet en utilisant, sur la suggestion de Vint Cerf, les protocoles TCP/IP.

Entre-temps, Arpanet vieillissait et rencontrait les limites de NCP, son protocole de base. Evidemment, en 1969, nul n'avait jamais imaginé que l'on puisse dépasser 255 sites, et NCP limitait le réseau militaire et de recherche à ce nombre d'ordinateurs. Il devenait donc urgent de le mettre à jour.

De façon caractéristique, l'armée américaine emprunta les grandes avenues bien balisées de la bureaucratie, et ce vénérable représentant du vieux monde de la télégraphie, Western Union, fut chargé de créer en quelque sorte Arpanet 2. Le désastre fut complet. Inutilement complexes et par conséquent fragiles, les solutions proposées par Western Union furent rejetées les unes après les autres jusqu'au point où la situation menaça de devenir embarrassante. Ici encore, la solution vint de Vint Cerf, qui suggéra à ARPA d'utiliser tout simplement le protocole TCP/IP. Et le 1er janvier 1983, annus mirabilis d'Internet, Arpanet bascula sous TCP/IP, au moment même où X.25 semblait devoir conquérir le monde.

Le signal lancé par Arpanet aurait déjà dû avertir bon nombre d'observateurs que quelque chose d'important était en train de changer, mais, deux ans plus tard, le passage de l'ensemble du réseau de la NSF sous TCP/IP sera encore plus éclatant. Avec l'armée et les universités américaines comme vitrines, Internet ne pouvait plus disparaître, et ce d'autant moins que, en parallèle, TCP/IP apprenait à passer par-dessus toutes sortes de circuits, y compris les fameux circuits X.25. « IP over everything » devint ce calembour slogan qui continue de faire rire les foules lors des congrès consacrés à Internet. Les propos, cités plus haut, des auteurs de la bible française du traitement du signal apparaissent encore plus étranges si l'on songe qu'ils furent écrits plus d'un an après la conversion de NSFnet !

En parallèle, la nouvelle version d'Unix (Berkeley Software Distribution 4.2), sortie en septembre 1983, fut bien sûr dotée de TCP/IP. Cette distribution est particulièrement importante car, à ce moment de l'histoire, elle touchait plus de 90 % des ordinateurs des départements d'informatique. Plusieurs cohortes d'étudiants furent ainsi formés sur BSD 4.2. Toujours en 1983, Jon Postel stabilisa toute la question du courrier avec le RFC 821 qui spécifiait le protocole SMTP ou simple mail transport protocol. Enfin, au cours de cette année si riche en résultats importants, Paul Mockapetris conçut tout le système des noms de domaine (DNS) dans les RFC 882 et 883. Les noms de domaines et le courrier électronique convergèrent en un système cohérent avec le RFC 974, « Mail routing and the domain system » de Craig Partridge. Avec tous ces progrès, Internet, loin d'être démodé en 1986-1987, commençait à prendre la forme d'une entreprise fournissant un extraordinaire service public, même si le nombre des utilisateurs était encore très restreint et largement concentré dans les centres de recherche et les universités des Etats-Unis.

Longtemps limité à des transferts de fichiers (FTP), à la possibilité de piloter à distance un autre ordinateur branché dans les réseaux interconnectés (Telnet), et au courrier (SMTP), Internet détenait un potentiel, certes impressionnant, mais malgré tout réduit à l'état de promesses. A partir de 1989, l'Internet a vu exploser le nombre des applications. Très discrètement, le World Wide Web naquit cette année-là au CERN (Laboratoire européen de physique des particules), mais il fallut une autre invention, un navigateur graphique, pour rendre visible l'importance de ce qui s'était concocté entre physiciens, sous la houlette de Tim Berners-Lee (voir l'article de François Fluckiger et l'entretien avec T. Berners-Lee dans ce numéro pp. 24 et 62). En 1993, l'apparition du navigateur Mosaic, ancêtre universitaire de Netscape, au NCSA (National Center for Supercomputing Applications), fit décoller le World Wide Web de manière spectaculaire. Pendant plusieurs années, le nombre de sites de la Toile doubla tous les deux mois ! Il double encore actuellement en moins d'un an, beaucoup plus vite que l'ensemble d'Internet. Dans le même mouvement, plusieurs outils furent rapidement relégués au magasin des souvenirs en dépit de succès aussi éclatants que météoriques. Qui se souvient encore d'Archie ? De Gopher ? De Veronica ? De Jughead ? Internet venait d'entrer dans une phase d'évolution intense qui devait voir fleurir un nombre impressionnant d'applications, et pour la plupart disparaître, en laissant chaque fois un champ enrichi d'applications générales, elles-mêmes toujours améliorées.

De cette effervescence sont sorties deux conséquences majeures : d'une part, la présence d'applications destinées au grand public a intensifié l'intérêt pour Internet et a stimulé une croissance toujours très vigoureuse du réseau des réseaux. D'autre part, les systèmes d'exploitation majeurs ont eu tendance à vouloir faire converger le local et le distant dans leur interface de présentation. Ainsi, sous le système d'exploitation Linux, on peut traiter un fichier local de la même façon qu'un fichier lointain : seule l'adresse change. Dans les pays où l'on n'est pas pénalisé par une tarification d'accès mesurée au temps, cela signifie que l'on peut travailler branché en permanence à Internet, qu'il est donc possible d'aborder Internet comme s'il s'agissait d'une immense bibliothèque habitée par un ensemble de collègues, amis, voisins que l'on peut interroger aussi simplement que son voisin de bureau. Il en résulte des manières de travailler tout à fait nouvelles, dont nous ne commençons d'ailleurs qu'à percevoir les premiers contours.

Aujourd'hui, si l'avenir d'Internet est assuré, sa forme est cependant loin d'être figée. En fait, les années récentes, en soulignant le succès général d'Internet, l'ont aussi placé dans le collimateur de centres de pouvoir très divers, aux objectifs variés, et parfois en conflit les uns avec les autres. Il en résulte une lutte aussi intense que larvée, visant à donner à Internet une forme qui avantagera tel ou tel acteur, qu'il s'agisse des citoyens, des commerçants, des sociétés transnationales, des gouvernements, etc.

La possibilité de gouverner Internet demeure un enjeu de premier ordre, et toutes les batailles autour des noms de domaines renvoient à cette problématique. Les thèses françaises récentes sur la corégulation tentent de trouver une via media entre le libéralisme extrême et les réflexes centralisateurs des Etats. L'architecture des réseaux est un autre enjeu tout aussi essentiel. La construction du noeud d'échange américain à très haut débit, STAR TAP, justifiée en surface par la nécessité de connecter Internet à Internet 2 et aussi par le besoin de rationaliser les connexions de nombreux pays aux Etats-Unis, contribue ainsi à travailler l'ensemble de l'architecture (voir l'article de Steve Goldstein dans ce numéro p. 50). De fait, la présence de bandes passantes très élevées dans un secteur d'Internet ne peut transformer les zones connexes : on ne trouve pas de capillaires directement branchées sur de grandes artères ! Il semble donc urgent de penser à établir un autre STAR TAP, en Europe par exemple, et, de proche en proche, créer ainsi un ensemble réticulé mondial à très haut débit, doté d'une architecture redondante, ce qui éviterait de voir Internet sombrer dans un schème étoilé, totalement opposé à la vision des Baran, Davies, Cerf, Kahn et Pouzin.

L'importance de la question des bandes passantes est probablement appelée à diminuer à terme. Les capacités de transport d'une simple fibre optique sont repoussées pratiquement de semaine en semaine tandis que les algorithmes de compression progressent aussi. D'autres techniques s'offrent en parallèle : par exemple, des solutions radio ( wireless cable ) commencent à poindre, qui seront certainement stimulées par le développement spectaculaire de la téléphonie mobile. Les satellites à basse altitude vont commencer à entrer en opération dans les prochaines années. Le jury délibère toujours sur la possibilité d'utiliser les circuits électriques pour transporter des données, mais l'hypothèse demeure prometteuse. Dans la boucle locale, les compagnies de téléphone offrent une jouvence aux paires de fil de cuivre (techniques ADSL et autres), cependant que le câble, une fois la topologie du réseau réaménagée, se montre un adversaire redoutable. Concurrence accrue et disponibilité rapidement croissante de la bande passante en réduisent la valeur et surtout érodent les marges de profit, conduisant ainsi progressivement le secteur privé à investir dans des champs d'activité plus rentables. On peut dès lors se demander si les tuyaux d'Internet ne tomberont pas, tôt ou tard, dans le domaine public, comme le firent les « turnpikes » anglais au XIXe siècle, dans la mesure où l'importance de cette immense infrastructure ne pourra être niée mais n'intéressera plus le secteur privé. Beau paradoxe et étonnante surprise : l'enfant de l'ultralibéralisme conduirait finalement à renforcer certains aspects du secteur public !

Bien d'autres questions vont continuer de hanter Internet dans les années à venir. Responsabilité vis-à-vis des contenus, confidentialité des données, anonymat, sécurité des réseaux : tous ces enjeux ne cesseront de défrayer les chroniques et d'agiter les esprits. Le développement du commerce électronique et les effets de déterritorialisation qu'il va engendrer vont alimenter bien des ambitions et encore plus d'inquiétudes. Mais, derrière toute cette agitation de surface, demeure une grande question fondamentale qui peut se résumer ainsi : arrivera-t-on à assigner, à assujettir les individus en simples utilisateurs, en consommateurs d'Internet, reprenant ainsi la route déjà tracée par le Minitel en France, ou, inversement, arrivera-t-on à préserver pour chaque individu le droit, la capacité et les moyens de s'exprimer ? La radio avait commencé un peu comme Internet, vaste système d'échange et de communication, puis, sous couvert de manque de fréquences, de sécurité nationale, de besoins militaires, tout cela avait été confisqué au profit des Etats et des grandes entreprises.

La même bataille recommence avec Internet et l'issue demeure incertaine. Multinationales et Etats se disputent la maîtrise du dispositif tandis que les individus cherchent à maintenir des zones d'autonomie, à alimenter des activités et pratiques où règne l'idéal de l'intelligence distribuée plutôt que l'obéissance à de grands pouvoirs. Pour évaluer les tendances en cours, il suffira de suivre quelques signes qui ne trompent pas : si les fournisseurs de service n'offrent que des adresses dynamiques à l'intérieur de leur système (sous couvert d'optimisation des ressources), si ces mêmes fournisseurs de service construisent, grâce à une forte asymétrie dans la connexion entre un amont et un aval, si les coûts d'utilisation sont toujours minutés, alors Internet sera inéluctablement confisqué par diverses formes de pouvoir et les chantres de la « logique de l'offre » pourront enfin se réjouir : le potentiel de la bête aura bel et bien été étouffé. En revanche, si les institutions publiques offrent accès à du matériel de connexion, offrent des formations, offrent enfin des adresses fixes permettant de monter des sites Web, alors le vieux rêve de Benjamin Franklin arrivera : chacun aura son imprimerie, et une explosion culturelle et intellectuelle, assez inimaginable actuellement, pourra voir le jour. Renaissance 2.0 en somme !


Jean-Claude Guédon
SPÉCIAL INTERNET