Jean-Claude Guédon , professeur
au département de littérature comparée de l'université
de Montréal, est membre de l'Internet Society.
*ATM (Asynchronous Transfer Mode) :
technologie de réseau qui établit des connexions
logiques et utilise des cellules de petite taille fixe
pour transporter les flux d'informations.
*OSI : Open Systems Interconnection.
Cette conception des réseaux, qui nous a légué sept
couches (physique, lien, réseau, transport, session,
application, présentation) permettant d'analyser tous
les éléments de n'importe quel système de transmission
de données, fut développée dans le cadre de l'ISO
(International Standards Organization). Divers
humoristes ont ajouté les couches financières placées
sous les couches de la politique ou de la
confusion...
(1)
Peter H. Salus, Casting the Net. From Arpanet to
Internet and beyond..., Reading, Mass., Addison-Wesley,
1995. Préface de Vinton G. Cerf ; Katie Hafner et
Matthew Lyon, Where Wizards Stay Up Late. The Origins of
the Internet, New York, Simon & Schuster, 1996
(trad. fr. : Les Sorciers du Net, Calmann Lévy, 1999) ;
Janet Abbate, Inventing the Internet, Cambridge, Mass.,
MIT Press, 1999 ; J.-C. Guédon, La Planète cyber.
Internet et cyberespace, Paris, Gallimard, coll. «
Découvertes », 1996 ; Christian Huitema, Et Dieu créa
l'Internet..., Paris, Eyrolles, 1995.
(2) Martin
Campbell-Kelly, « Data communications at the National
Physical Laboratory (1965-1975) », Annals of the
History of Computing , vol. 9, 221-47,
particulièrement 224-5, 1988.
(3) Les rapports
de P. Baran sont disponibles sur la Toile :
http://www.rand.org/publications/RM/baran.list.html
(4) Le livre de Katie Hafner et Matthew Lyon
(mentionné note 1), est rédigé largement dans la
perspective de BBN.
(5) Vinton G. Cerf et Robert
E. Kahn, « A protocol for packet network
intercommunication », IEEE Transactions on
Communications, COM-22 (mai 1974), 637-48.
(6) C. Macchi, J.-F. Guilbert et al .,
Téléinformatique , Paris, Dunod, 1986, p. 460.
(7) Peter H. Salus, A Quarter Century of
Unix , Reading, Mass., Addison-Wesley, 1994.
(8) Mike Gancarz, The Unix Philosophy, Boston,
Digital Press, 1995.
| |
|
|
Mythes et
légendes d'Internet
La force de l'intelligence distribuée
Comment
bâtir un réseau informatique à l'aide d'ordinateurs
hétérogènes ? En 1969 s'élabore aux Etats-Unis une ébauche de
solution concrète qui, très vite, suscite l'émergence de
réseaux de toute nature. Les grands organismes internationaux
tentent maladroitement de contrôler cette prolifération tandis
que, dans les marges du système, de petits groupes de
chercheurs établissent les fondations du réseau des réseaux :
Internet.
Parfois
présenté comme résultat de la recherche militaire des
Etats-Unis quand il n'est pas dépeint comme un sombre complot
de l'impérialisme américain, Internet continue de présenter
des origines un peu mystérieuses pour la plupart des
utilisateurs ou des observateurs. Même si elles commencent à
s'éclaircir au fur et à mesure que les ouvrages de
journalistes ou d'historiens s'accumulent(1), les mêmes
vieilles scies se répètent à l'envi : en particulier, Internet
serait né en 1969, à l'initiative du Pentagone, sous
l'appellation d'Arpanet. Or cette affirmation met en évidence
une étrange confusion entre Arpanet et Internet, confusion qui
s'explique par une chaîne chronologique réelle, mais qui ne
l'excuse pas. Oui, il existe bien un chassé-croisé entre
Arpanet et Internet, mais les deux technologies sont
distinctes, ne se déploient pas de la même façon et
aboutissent à des résultats très différents. Arpanet ne
représente qu'une étape, certes intéressante mais nullement
unique, dans le développement des réseaux d'ordinateurs
hétérogènes. Internet correspond en revanche à l'idée de
pouvoir interconnecter tous les réseaux entre eux, y compris
ceux qui ne sont même pas encore inventés. Comment ne pas voir
un tel saut conceptuel ?
L'idée de relier des ordinateurs apparaît inévitable à
partir du moment où le temps partagé devient une réalité en
informatique. Rappelons que cela permet à plusieurs personnes
de travailler en même temps avec un seul ordinateur. A cause
de la lenteur des réactions humaines comparées à celle de
circuits électroniques, l'appareil peut en effet répondre
presque immédiatement aux requêtes des utilisateurs qui
communiquent avec l'unité centrale de traitement à travers un
terminal. Demander à un deuxième ordinateur de jouer ce rôle
de terminal est bien sûr possible, mais semble renvoyer à un
gâchis absurde de ressources. A moins de reconceptualiser le
rôle des ordinateurs... En percevant dès 1965 que l'ordinateur
était aussi une machine à communiquer, le psychologue J.C.R.
Licklider fit franchir le pas décisif pour construire des
réseaux d'ordinateurs, c'est-à-dire des réseaux d'un nouveau
genre permettant à des individus d'élaborer des rapports de
communication inédits.
Le désir concret , et non simplement la
possibilité conceptuelle, de relier des ordinateurs identiques
entre eux fut rapidement stimulé par divers motifs, militaires
dans le cas de la couverture radar du continent nord-américain
(Norad), ou commerciaux pour la gestion des réservations de
sièges dans les transports aériens (SABRE)(2). La volonté de
relier des ordinateurs hétérogènes émerge un peu plus tard et
est associée à des considérations sensiblement différentes,
même si elle relève des mêmes secteurs militaires et
économiques. Dans le cas des Etats-Unis, cette nouvelle étape
apparaît reliée à un fait divers datant de 1961, quand le
sabotage de plusieurs antennes de communication situées dans
l'Utah démontra la grande vulnérabilité des communications
militaires. Cet événement a stimulé la réflexion de Paul
Baran, chercheur à la RAND Corporation, et, de 1962 à 1964,
celui-ci commença à imaginer les concepts nécessaires à la
mise au point d'un réseau beaucoup plus résistant à de tels
actes de sabotage, voire aux effets d'une attaque massive sur
le territoire des Etats-Unis(3). Sa technique, dite de la «
hot potato » , repose sur l'idée de couper tout document
en petits morceaux et d'envoyer chaque morceau reçu au relais
suivant, aussi vite que possible, en passant par la voie la
plus ouverte ou la moins encombrée : d'où la métaphore comique
de la « patate chaude », comme disent les Québécois qui ont
adopté cette métaphore, que l'on se passe rapidement de main
en main. Cette vision modulaire de la communication,
probablement inspirée en partie par les stratégies de
redondance déjà présentes dans les télégraphes, allait
inspirer divers groupes de chercheurs aux Etats-Unis, en
Grande-Bretagne et en France. Mais qui, en 1964, savait relier
des ordinateurs différents entre eux ? Personne...
La considération stratégique ne suffit pas à
expliquer l'ensemble des décisions aboutissant à la création
d'Arpanet. On ne peut en effet négliger les préoccupations
financières de l'agence ARPA (Advanced Research Project
Agency) qui, en 1966, subventionnait déjà dix-sept projets
coûteux reposant sur l'utilisation d'ordinateurs variés.
L'isolement des équipes et l'incapacité de partager les mêmes
outils conduisaient régulièrement à une duplication ruineuse
d'efforts et préoccupait l'IPTO (Information Processing
Techniques Office), la division d'ARPA focalisée sur
l'informatique. Robert Taylor, responsable de ce secteur,
réussit à attirer Larry Roberts pour diriger la mise en réseau
des différents ordinateurs de ces centres de recherche et,
ainsi, réduire les coûts de fonctionnement des diverses
expériences en cours.
Dès 1967, au Tennessee, une réunion de l'Association of
Computing Machinery (ACM) à laquelle participaient également
deux Anglais, Roger Scantlebury et son patron Donald W.
Davies, tous deux du National Physical Laboratory, permit de
mieux fixer les idées. La notion de commutation de paquets -
le terme de paquet vient de Davies lui-même - commence alors à
émerger comme concept rassembleur d'une philosophie technique
qui allait fortement influencer l'industrie des communications
dans les décennies suivantes. Pour Davies, la commutation de
paquets revenait à stocker, puis faire suivre (« store and
forward ») de tout petits messages.
En novembre 1967, Larry Roberts forma le NWG (Network
Working Group) pour suivre de près le développement de
l'entreprise devant mener à Arpanet. On retrouve dans ce
groupe les représentants de plusieurs universités qui allaient
former les premières connexions d'Arpanet, ainsi que des
membres de la RAND Corporation. Un réseau humain prépare en
quelque sorte l'élaboration du réseau d'ordinateurs : on y
rencontre en particulier Len Kleinrock, professeur
d'informatique à l'université de Californie à Los Angeles
(UCLA), mais aussi ancien camarade d'études de Larry Roberts
au Massachusetts Institute of Technology (MIT). Dans le
laboratoire de L. Kleinrock, quelques étudiants travaillent à
divers projets : Vinton Cerf, Steve Crocker, Jon Postel...
En juin 1968, un financement de 2,2 millions de
dollars est attribué au projet Arpanet et ARPA, fidèle à
son modus operandi , cherche à rassembler les
meilleures équipes par une stratégie de contrats attribués par
concours. Une firme de consultants du Massachusetts, Bolt,
Beranek and Newman (BBN), décroche le contrat en dépit de la
forte concurrence de compagnies habituées à travailler pour la
Défense (Raytheon, par exemple)(4).
L'objectif était très clair : il s'agissait de
surmonter l'obstacle de l'hétérogénéité des ordinateurs en
plaçant devant chacun d'eux une sorte d'ordinateur traducteur,
appelé « Interface Message Processor » ou IMP, ramenant
ainsi la question de l'interconnexion d'ordinateurs
hétérogènes à celle d'ordinateurs identiques, déjà bien
maîtrisée. Détail amusant, le problème de l'hétérogénéité des
ordinateurs s'est doublé d'un problème analogue entre
chercheurs. Du côté de BBN, on découvre en effet des
chercheurs déjà chevronnés, tels Bob Kahn, Severo Ornstein et
Frank Heart. Ces ingénieurs ont une préoccupation principale :
faire passer des bits rapidement et efficacement par des liens
physiques. Du côté du laboratoire de Len Kleinrock, on trouve
de jeunes doctorants nageant avec bonheur dans les complexités
des protocoles de communication à respecter, mais assez peu
sensibles aux requêtes concrètes d'ingénieurs travaillant en
contexte commercial. On peut imaginer que certains individus,
peut-être Robert Kahn d'un côté, peut-être Vint Cerf de
l'autre, ont joué le rôle d'IMP humains et ont ainsi permis à
des équipes aux cultures techniques très différentes de
travailler ensemble.
Le travail de mise au point de l'IMP s'accomplit
pourtant sans difficultés majeures et dans le respect des
délais : preuve s'il en est que ce projet évoluait dans le
cadre de technologies qui, pour être de pointe, n'en étaient
pas moins relativement bien maîtrisées. BBN rédigeait ainsi en
mai 1969 un document, le fameux rapport 1 822, qui définissait
toutes les spécifications de l'IMP.
Tandis qu'une partie de l'équipe travaillait sur le
matériel, une dérivation du Honeywell DDP-516, une autre
partie de l'équipe élaborait les logiciels. Larry Roberts,
comprenant rapidement les avantages de ne pas multiplier les
hiérarchies, repoussa la tentation d'adopter un modèle
client-serveur en faveur d'un modèle plus paritaire. Cela
conduisit au protocole « Network Control Program » (NCP), le
protocole de base d'Arpanet. Tout ce travail fut lancé par un
processus d'itérations qui, en reprenant d'une certaine
manière les habitudes de la publication scientifique,
conduisit également à construire un contexte d'intelligence
distribuée tout à fait remarquable. Echo de l'attitude un peu
intimidée de jeunes doctorants face à des ingénieurs
expérimentés, l'habitude se prit de faire circuler des
documents à l'intitulé excessivement poli, des RFC («
Request for Comments ») . La mise au point du NCP, par
exemple, semble avoir débuté par le RFC 9, lancé par un
certain Gérard DeLoche, jusqu'au RFC 179, rédigé le 22 juin
1971. Arpanet évolua ainsi vite et plutôt bien, rappelant la
profonde sagesse du mouvement scientifique dans son ensemble,
et préfigurant le succès des logiciels à code source libre un
peu plus tard (voir l'article de Bernard Lang dans ce numéro,
p. 72).
Le premier lien d'hôte à IMP fut installé et
testé à UCLA le 2 septembre 1969, et on a fêté l'année
dernière le trentenaire de cette réalisation. Environ un mois
plus tard, le Stanford Research Institute répétait cette
première étape et, le 21 novembre 1969, on inaugura, en
présence de personnalités d'ARPA, un lien stabilisé entre UCLA
et Stanford. L'université de Californie à Santa Barbara et
l'université de l'Utah reçurent leur équipement vers cette
époque, et un réseau de quatre connexions fonctionnait au
moment où 1969 s'éclipsait. Arpanet venait de naître.
La recherche militaire américaine ne vivait nullement
en solitaire la maîtrise de l'interconnexion d'ordinateurs
hétérogènes et, en son sein, celle-ci ne se limita pas au
projet Arpanet. D'autres équipes, aux Etats-Unis et ailleurs,
poursuivaient le même objectif dans des circonstances très
diverses. Ainsi, la tentative d'expérimenter avec des
connexions radio démarra en 1970, toujours financée par l'IPTO
et dirigée par Norman Abramson de l'université d'Hawaii. Il en
résulta Alohanet, réseau largement inspiré par les solutions
explorées dans Arpanet. On y retrouve en particulier la notion
d'un IMP, et Alohanet bénéficia de l'aide technique de «
vétérans » d'Arpanet. A son tour, Alohanet inspira à Robert
Kahn, qui entre-temps était passé de BBN à ARPA, un autre
réseau par radio près de San Francisco : PRNet. Celui-ci
commença à fonctionner de manière expérimentale en 1975, mais
ne réussit jamais à se développer au point où il aurait pu
être utilisé sur les champs de bataille. ARPA, toujours sous
l'impulsion de Robert Kahn, développa également une tentative
de communication par satellite cette fois, pour pouvoir
analyser rapidement les données sismiques provenant de
diverses stations autour de l'Union soviétique et, ce faisant,
détecter les explosions nucléaires.
Pendant que ces développements se multipliaient aux
Etats-Unis , l'Europe ne demeurait pas en reste, loin de
là. En France, le projet Cyclades se mettait en route en 1972
(voir l'article de Louis Pouzin dans ce numéro, p. 32). Mais
l'Angleterre avait commencé encore plus tôt. Dès juin 1966,
Donald W. Davies, inspiré en partie par les travaux de Paul
Baran, avait composé un document intitulé « Proposal for a
digital communication network », où l'on trouve la première
utilisation du mot « paquet ». Dans ce document se trouve
également clairement indiquée la distinction entre circuit
virtuel, d'une part, et datagramme, un terme d'origine
française (voir l'article de Louis Pouzin p. 32). En 1967,
l'Angleterre, grâce à Davies, Roger Scantlebury et quelques
autres chercheurs, n'avait rien à envier au projet Arpanet,
bien au contraire. Sans le retrait inattendu du type
d'ordinateur choisi par les Anglais (un XL12 de la compagnie
Plessey), ceux-ci auraient probablement construit un réseau
d'ordinateurs hétérogènes avant les Américains. Tel quel, ils
eurent leurs premières connexions au début de 1970. Au niveau
européen, dès 1971, un comité recommandait la construction
d'un réseau de recherche multinational intitulé EIN (European
Informatics Network), réseau qui démarra en 1973 sous la
direction du Britannique Derek Barber.
En 1972, la perspective d'une prolifération désordonnée
de réseaux se profilait et fit irruption lors de la conférence
International Computer Communication tenue à Washington à la
fin octobre. Grand succès de publicité pour la commutation par
paquets, et ce en dépit des réticences des ingénieurs
appartenant à la culture des réseaux, cette réunion permit
aussi de lancer un mouvement qui dut paraître très secondaire,
voire un peu irréel à beaucoup de participants de cette
époque. Robert Kahn et Vint Cerf furent ainsi parmi les
premiers à voir la nécessité de travailler à travers les
réseaux en posant des questions du genre : comment rejoindre
un ordinateur d'Arpanet à partir d'un réseau utilisant la
radio par paquets ? Comment s'assurer que les différents
réseaux financés par ARPA puissent s'interconnecter à leur
tour ? Et que faire des autres réseaux ? Ces questions ont
conduit, lors de cette conférence de Washington, à créer un
comité, l'International network working group (INWG) que
présida Vint Cerf. Il avait 29 ans !
On retrouve des noms désormais très célèbres dans ce
premier comité : Stephen Crocker, ami de Vint Cerf, Jon
Postel, de l'Information Science Institute à l'université de
Californie du Sud, Robert Metcalfe, alors à Xerox Parc et
inventeur de l'Ethernet (dans sa thèse de doctorat de 1973).
Louis Pouzin et Hubert Zimmerman ont également participé à
l'INWG, ainsi que Gérard Lelann du laboratoire de Vint Cerf,
alors jeune professeur à Stanford. A Xerox Parc, on tentait
déjà d'inventer un premier protocole d'interréticulation : PUP
(Parc universal packet). Vint Cerf organisa donc, au cours de
l'été 1973, un séminaire sur cette question de protocole et,
avec en particulier Metcalfe et Lelann, il commença à préciser
ce que l'on allait bientôt nommer TCP (Transmission Control
Protocol). Dans le même mouvement naquit l'idée de créer une
sorte de protocole unique, disposant d'une traduction
particulière avec chaque protocole de n'importe quel réseau
existant ou même à venir. L'ordinateur assurant la traduction
entre deux réseaux prit alors le nom de gateway ou
passerelle. Ces idées se cristallisèrent dans une publication
qui, signée conjointement par Vint Cerf et Bob Kahn, est
souvent prise comme la date symbolique de départ
d'Internet(5).
Le lancement de cette philosophie particulière
de la communication rencontra bientôt des résistances fortes
et organisées de la part des spécialistes classiques de la
théorie des circuits et des signaux. Dès 1974, par exemple,
les PTT, en France, lançaient leurs études sur le RCP (réseau
de communication par paquets), ancêtre de Transpac, tandis que
les postes canadiennes, en octobre 1974, décidèrent d'aller à
l'encontre des protocoles préconisés par IBM (SNA, Systems
Network Architecture), en dépit du fait que la plus grande
partie de leur équipement reposait sur du matériel IBM. La
lutte entre le géant de l'informatique et les postes
canadiennes conduisit un petit groupe improvisé du CCITT
(Consultative Committee on International Telegraphy and
Telephony) à créer en 1975 ses propres protocoles. Constitué
de ressortissants anglais, canadiens et français, ainsi que
d'Américains liés à la compagnie Telenet (ironiquement, une
compagnie créée dans le sillage d'Arpanet), ce groupe
développa trois protocoles intitulés « Recommendation X.25 ».
Travaillant à la hâte pour être au rendez-vous de l'échéance
de la réunion quadriannuelle de septembre 1976, ils réussirent
à faire adopter ces protocoles en standard international cette
année-là. Telenet adoptait X.25 la même année et, au Canada,
Datapac suivit en 1977. Transpac en France se mit à X.25 en
1978, les Japonais l'année suivante, et les postes anglaises
en 1980. Grâce à ce nouveau standard, désormais largement
adopté, les PTT purent forcer les compagnies d'ordinateurs à
fournir du matériel selon leurs exigences propres et, ainsi,
reprendre un certain contrôle du marché de l'informatique.
L'arrivée de X.25 engendra une énorme
controverse qui se prolongea au moins une quinzaine
d'années. Les échos en retentissent aujourd'hui encore dans
les conférences sur le développement des réseaux. De fait,
l'émergence d'ATM * correspond au dernier avatar de
cette lutte entre le monde des télécoms et celui des
informaticiens, entre la présence ou l'absence de circuits
virtuels. Une partie des hésitations et retards de la France
en matière d'Internet reflète aussi une certaine mauvaise
volonté de France Télécom à accepter la victoire d'une
solution si longtemps farouchement combattue, et apparemment
écrasée dans l'oeuf par l'arrêt rapide des expériences de
Cyclades. En 1986, dans un livre largement considéré en France
comme une sorte de bible du traitement du signal, on peut voir
Internet expédié en quelques lignes dont le côté comique
n'échappera pas au lecteur de l'an 2000 : « La nécessité de
disposer de protocoles de bout en bout a été résolue par
l'architecture TCP-IP [...]. Cette architecture est
démodée maintenant, mais, en attendant la normalisation, elle
s'est répandue sur un grand nombre de matériels hétérogènes. A
la fin des années 1980, cette architecture est encore
relativement utilisée aux Etats-Unis et en Europe sur les
réseaux scientifiques et industriels. [...] Depuis quelques
années, tous les utilisateurs de réseau TCP-IP sont amenés à
évoluer vers l'architecture OSI*(6)
. » On peut juger de l'effet de telles paroles dans un
manuel destiné à former des générations de jeunes ingénieurs !
L'amusant dans toute cette histoire réside dans le
contraste entre le ton péremptoire, presque royal, des
supporters de ce que l'on pourrait appeler les jardins de
Versailles de l'esprit, et ces diverses formes de chiendent
intellectuel, tenaces et têtues, qui prennent alors racines
dans les marges du système. Car, tandis que les PTT
entendaient résister, préférablement sur un mode héroïque, à
un IBM qui, dans les années 1970, occupait le rôle que
Microsoft joue de nos jours, d'autres développements,
insignifiants en apparence, mais autrement plus importants,
prenaient place. Il s'agit en particulier de l'irruption du
système d'exploitation Unix.
Longue, compliquée, forcément tortueuse, l'histoire
d'Unix rappelle aussi qu'une conception rigoureuse, simple et
modeste, peut accomplir des merveilles là où d'immenses usines
à gaz explosent ou se paralysent dans l'obésité la plus
inefficace. Le système d'exploitation expérimental Multics
subit ce sort peu enviable, et ATT, autre géant industriel
américain en butte aux mandats antitrust du ministère de la
Justice, décida de se retirer de ce projet. Déçus, certains
informaticiens, tels Ken Thompson et Dennis Ritchie,
entreprirent d'explorer la possibilité de créer, avec des
moyens simples, un système d'exploitation réellement
multitâches(7). Ils le nommèrent Unix, par double dérision,
envers Multics d'une part, mais en autodérision aussi : Unix,
en anglais, se prononce presque comme eunuchs
(eunuques). Pourtant jamais émasculation ne fut plus fertile !
Le succès d'Unix est essentiellement dû à trois
facteurs(8) . Il s'agit tout d'abord d'un système
d'exploitation reposant sur la concaténation de petits
programmes simples, qui fonctionnent bien et n'effectuent
chacun qu'une tâche à la fois. La disponibilité presque
toujours présente du code source, du moins au début, permit un
développement optimal de ces logiciels. Deuxièmement, Unix est
capable de fonctionner sur plusieurs types de machines. Enfin,
le procès antitrust du ministère de la Justice empêcha ATT de
tirer profit d'Unix, et cela incita la compagnie à le donner
ou à le vendre à un prix ridicule, le rendant de facto
attrayant pour les laboratoires de recherche et les chercheurs
des universités.
Ajoutons à cela que les ensembles Unix comportent des
logiciels de communication qui, pour des raisons de simplicité
et de disponibilité, ont rapidement incorporé les protocoles
d'Internet. Ainsi, pendant que de grandes batailles publiques,
trop bien couvertes par la presse, hypnotisaient autant les
décideurs que le grand public, croissait en silence, dans les
coins des laboratoires, un mouvement qui allait assurer à
TCP/IP les racines nécessaires pour résister aux efforts de
normalisation des compagnies de téléphone recentrées autour de
X.25. En France, l'opération Minitel a donné un éclat tout
particulier à la stratégie des PTT en conférant à la notion de
circuit virtuel une patine moderniste qui, sur fond d'un
succès indéniable, mais déjà sans avenir réel vers 1987,
allait curieusement engendrer un monumental immobilisme. En
effet, après un départ fulgurant, la norme Télétel a
rapidement plafonné, et les tentatives françaises pour
l'exporter, ou étrangères pour l'imiter (par exemple Alex au
Canada), ont toutes échoué, signe indéniable que cette
combinaison technique ne pouvait vivre qu'avec un effet de
serre économique très particulier, très étatique, dans le
mauvais sens du mot.
Le phénomène Unix , incompréhensible dans la
perspective hiérarchique et réglée des grands corps d'Etat,
reposait sur un bricolage distribué à grande échelle qui, au
fil des conférences Usenix et grâce aux possibilités de
communication qu'offrait justement ce système d'exploitation
correctement installé, permettait à une immense créativité
spontanée de dépasser un simple mouvement brownien des
esprits. En fait, les informaticiens, dignes émules de M.
Jourdain, réinventaient les recettes du mouvement
scientifique. Ils démontraient à nouveau que publier des
résultats, les donner en somme, pour les soumettre à une
critique générale, revenait à accumuler du capital symbolique
et à élaborer une forme d'économie à deux niveaux, au moins
aussi efficace que le cadre économique classique. En
renversant l'attitude des esprits planificateurs, parfois
appelés cartésiens, en plaçant la démonstration pratique
réussie avant la standardisation abstraite ( «
Implementation precedes standardization » , répètent à
l'envi les grands chantres de TCP/IP), les informaticiens
d'Internet et d'Unix démolissaient évidemment une bonne série
d'idées reçues sur les vertus de la politique technique et de
sa gestion, encore fort à la mode dans les années 1980. Ils
rappelaient tranquillement que le bouillonnement des idées, à
condition de s'effectuer en toute visibilité, ne conduit pas à
l'inefficacité, encore moins à l'anarchie, mais bien à des
phénomènes émergents, rappelant étonnamment ce que l'on avait
pu déclamer sur l'air du progrès. Le mouvement actuel des
logiciels à code source libre offre à cet égard une nouvelle
démonstration éclatante de ce principe (voir l'article de
Bernard Lang dans ce numéro p. 72).
A leur décharge, l'aveuglement des grandes
administrations ne représente pas un phénomène isolé. Tandis
que les administrations des PTT étaient littéralement
fascinées par IBM, au point qu'elles se trouvaient abêties et
réduites à l'état de « pététouilles », expression savoureuse
des années 1970, IBM, alors au faîte de sa puissance,
négligeait totalement le phénomène Unix, démonstration s'il en
est que le mode de comportement des organisations reflète
peut-être plus leur taille que leurs fonctions. IBM ne se
comportait pas de manière tellement différente d'un ministère.
Seule différence, cette attitude menaça un moment sa survie...
Les universitaires, en revanche, avaient bien suivi le
phénomène Unix. Dès 1979, ces chercheurs en informatique ont
tout fait pour se relier au réseau Arpanet et, entraînés par
Larry Landweber de l'université du Wisconsin, ils formèrent
CSNET. Au fil de négociations complexes entre ARPA, les
universités et la National Science Foundation (NSF), CSNET fut
finalement connecté à Arpanet en utilisant, sur la suggestion
de Vint Cerf, les protocoles TCP/IP.
Entre-temps, Arpanet vieillissait et rencontrait
les limites de NCP, son protocole de base. Evidemment, en
1969, nul n'avait jamais imaginé que l'on puisse dépasser 255
sites, et NCP limitait le réseau militaire et de recherche à
ce nombre d'ordinateurs. Il devenait donc urgent de le mettre
à jour.
De façon caractéristique, l'armée américaine emprunta
les grandes avenues bien balisées de la bureaucratie, et ce
vénérable représentant du vieux monde de la télégraphie,
Western Union, fut chargé de créer en quelque sorte Arpanet 2.
Le désastre fut complet. Inutilement complexes et par
conséquent fragiles, les solutions proposées par Western Union
furent rejetées les unes après les autres jusqu'au point où la
situation menaça de devenir embarrassante. Ici encore, la
solution vint de Vint Cerf, qui suggéra à ARPA d'utiliser tout
simplement le protocole TCP/IP. Et le 1er janvier 1983,
annus mirabilis d'Internet, Arpanet bascula sous
TCP/IP, au moment même où X.25 semblait devoir conquérir le
monde.
Le signal lancé par Arpanet aurait déjà dû avertir bon
nombre d'observateurs que quelque chose d'important était en
train de changer, mais, deux ans plus tard, le passage de
l'ensemble du réseau de la NSF sous TCP/IP sera encore plus
éclatant. Avec l'armée et les universités américaines comme
vitrines, Internet ne pouvait plus disparaître, et ce d'autant
moins que, en parallèle, TCP/IP apprenait à passer par-dessus
toutes sortes de circuits, y compris les fameux circuits X.25.
« IP over everything » devint ce calembour slogan qui
continue de faire rire les foules lors des congrès consacrés à
Internet. Les propos, cités plus haut, des auteurs de la bible
française du traitement du signal apparaissent encore plus
étranges si l'on songe qu'ils furent écrits plus d'un an après
la conversion de NSFnet !
En parallèle, la nouvelle version d'Unix
(Berkeley Software Distribution 4.2), sortie en septembre
1983, fut bien sûr dotée de TCP/IP. Cette distribution est
particulièrement importante car, à ce moment de l'histoire,
elle touchait plus de 90 % des ordinateurs des départements
d'informatique. Plusieurs cohortes d'étudiants furent ainsi
formés sur BSD 4.2. Toujours en 1983, Jon Postel stabilisa
toute la question du courrier avec le RFC 821 qui spécifiait
le protocole SMTP ou simple mail transport protocol. Enfin, au
cours de cette année si riche en résultats importants, Paul
Mockapetris conçut tout le système des noms de domaine (DNS)
dans les RFC 882 et 883. Les noms de domaines et le courrier
électronique convergèrent en un système cohérent avec le RFC
974, « Mail routing and the domain system » de Craig
Partridge. Avec tous ces progrès, Internet, loin d'être démodé
en 1986-1987, commençait à prendre la forme d'une entreprise
fournissant un extraordinaire service public, même si le
nombre des utilisateurs était encore très restreint et
largement concentré dans les centres de recherche et les
universités des Etats-Unis.
Longtemps limité à des transferts de fichiers (FTP), à
la possibilité de piloter à distance un autre ordinateur
branché dans les réseaux interconnectés (Telnet), et au
courrier (SMTP), Internet détenait un potentiel, certes
impressionnant, mais malgré tout réduit à l'état de promesses.
A partir de 1989, l'Internet a vu exploser le nombre des
applications. Très discrètement, le World Wide Web naquit
cette année-là au CERN (Laboratoire européen de physique des
particules), mais il fallut une autre invention, un navigateur
graphique, pour rendre visible l'importance de ce qui s'était
concocté entre physiciens, sous la houlette de Tim Berners-Lee
(voir l'article de François Fluckiger et l'entretien avec T.
Berners-Lee dans ce numéro pp. 24 et 62). En 1993,
l'apparition du navigateur Mosaic, ancêtre universitaire de
Netscape, au NCSA (National Center for Supercomputing
Applications), fit décoller le World Wide Web de manière
spectaculaire. Pendant plusieurs années, le nombre de sites de
la Toile doubla tous les deux mois ! Il double encore
actuellement en moins d'un an, beaucoup plus vite que
l'ensemble d'Internet. Dans le même mouvement, plusieurs
outils furent rapidement relégués au magasin des souvenirs en
dépit de succès aussi éclatants que météoriques. Qui se
souvient encore d'Archie ? De Gopher ? De Veronica ? De
Jughead ? Internet venait d'entrer dans une phase d'évolution
intense qui devait voir fleurir un nombre impressionnant
d'applications, et pour la plupart disparaître, en laissant
chaque fois un champ enrichi d'applications générales,
elles-mêmes toujours améliorées.
De cette effervescence sont sorties deux
conséquences majeures : d'une part, la présence
d'applications destinées au grand public a intensifié
l'intérêt pour Internet et a stimulé une croissance toujours
très vigoureuse du réseau des réseaux. D'autre part, les
systèmes d'exploitation majeurs ont eu tendance à vouloir
faire converger le local et le distant dans leur interface de
présentation. Ainsi, sous le système d'exploitation Linux, on
peut traiter un fichier local de la même façon qu'un fichier
lointain : seule l'adresse change. Dans les pays où l'on n'est
pas pénalisé par une tarification d'accès mesurée au temps,
cela signifie que l'on peut travailler branché en permanence à
Internet, qu'il est donc possible d'aborder Internet comme
s'il s'agissait d'une immense bibliothèque habitée par un
ensemble de collègues, amis, voisins que l'on peut interroger
aussi simplement que son voisin de bureau. Il en résulte des
manières de travailler tout à fait nouvelles, dont nous ne
commençons d'ailleurs qu'à percevoir les premiers contours.
Aujourd'hui, si l'avenir d'Internet est assuré, sa
forme est cependant loin d'être figée. En fait, les années
récentes, en soulignant le succès général d'Internet, l'ont
aussi placé dans le collimateur de centres de pouvoir très
divers, aux objectifs variés, et parfois en conflit les uns
avec les autres. Il en résulte une lutte aussi intense que
larvée, visant à donner à Internet une forme qui avantagera
tel ou tel acteur, qu'il s'agisse des citoyens, des
commerçants, des sociétés transnationales, des gouvernements,
etc.
La possibilité de gouverner Internet demeure un
enjeu de premier ordre, et toutes les batailles autour des
noms de domaines renvoient à cette problématique. Les thèses
françaises récentes sur la corégulation tentent de trouver une
via media entre le libéralisme extrême et les réflexes
centralisateurs des Etats. L'architecture des réseaux est un
autre enjeu tout aussi essentiel. La construction du noeud
d'échange américain à très haut débit, STAR TAP, justifiée en
surface par la nécessité de connecter Internet à Internet 2 et
aussi par le besoin de rationaliser les connexions de nombreux
pays aux Etats-Unis, contribue ainsi à travailler l'ensemble
de l'architecture (voir l'article de Steve Goldstein dans ce
numéro p. 50). De fait, la présence de bandes passantes très
élevées dans un secteur d'Internet ne peut transformer les
zones connexes : on ne trouve pas de capillaires directement
branchées sur de grandes artères ! Il semble donc urgent de
penser à établir un autre STAR TAP, en Europe par exemple, et,
de proche en proche, créer ainsi un ensemble réticulé mondial
à très haut débit, doté d'une architecture redondante, ce qui
éviterait de voir Internet sombrer dans un schème étoilé,
totalement opposé à la vision des Baran, Davies, Cerf, Kahn et
Pouzin.
L'importance de la question des bandes passantes
est probablement appelée à diminuer à terme. Les capacités de
transport d'une simple fibre optique sont repoussées
pratiquement de semaine en semaine tandis que les algorithmes
de compression progressent aussi. D'autres techniques
s'offrent en parallèle : par exemple, des solutions radio (
wireless cable ) commencent à poindre, qui seront
certainement stimulées par le développement spectaculaire de
la téléphonie mobile. Les satellites à basse altitude vont
commencer à entrer en opération dans les prochaines années. Le
jury délibère toujours sur la possibilité d'utiliser les
circuits électriques pour transporter des données, mais
l'hypothèse demeure prometteuse. Dans la boucle locale, les
compagnies de téléphone offrent une jouvence aux paires de fil
de cuivre (techniques ADSL et autres), cependant que le câble,
une fois la topologie du réseau réaménagée, se montre un
adversaire redoutable. Concurrence accrue et disponibilité
rapidement croissante de la bande passante en réduisent la
valeur et surtout érodent les marges de profit, conduisant
ainsi progressivement le secteur privé à investir dans des
champs d'activité plus rentables. On peut dès lors se demander
si les tuyaux d'Internet ne tomberont pas, tôt ou tard, dans
le domaine public, comme le firent les « turnpikes »
anglais au XIXe siècle, dans la mesure où l'importance de
cette immense infrastructure ne pourra être niée mais
n'intéressera plus le secteur privé. Beau paradoxe et
étonnante surprise : l'enfant de l'ultralibéralisme conduirait
finalement à renforcer certains aspects du secteur public !
Bien d'autres questions vont continuer de hanter
Internet dans les années à venir. Responsabilité vis-à-vis des
contenus, confidentialité des données, anonymat, sécurité des
réseaux : tous ces enjeux ne cesseront de défrayer les
chroniques et d'agiter les esprits. Le développement du
commerce électronique et les effets de déterritorialisation
qu'il va engendrer vont alimenter bien des ambitions et encore
plus d'inquiétudes. Mais, derrière toute cette agitation de
surface, demeure une grande question fondamentale qui peut se
résumer ainsi : arrivera-t-on à assigner, à assujettir les
individus en simples utilisateurs, en consommateurs
d'Internet, reprenant ainsi la route déjà tracée par le
Minitel en France, ou, inversement, arrivera-t-on à préserver
pour chaque individu le droit, la capacité et les moyens de
s'exprimer ? La radio avait commencé un peu comme Internet,
vaste système d'échange et de communication, puis, sous
couvert de manque de fréquences, de sécurité nationale, de
besoins militaires, tout cela avait été confisqué au profit
des Etats et des grandes entreprises.
La même bataille recommence avec Internet et
l'issue demeure incertaine. Multinationales et Etats se
disputent la maîtrise du dispositif tandis que les individus
cherchent à maintenir des zones d'autonomie, à alimenter des
activités et pratiques où règne l'idéal de l'intelligence
distribuée plutôt que l'obéissance à de grands pouvoirs. Pour
évaluer les tendances en cours, il suffira de suivre quelques
signes qui ne trompent pas : si les fournisseurs de service
n'offrent que des adresses dynamiques à l'intérieur de leur
système (sous couvert d'optimisation des ressources), si ces
mêmes fournisseurs de service construisent, grâce à une forte
asymétrie dans la connexion entre un amont et un aval, si les
coûts d'utilisation sont toujours minutés, alors Internet sera
inéluctablement confisqué par diverses formes de pouvoir et
les chantres de la « logique de l'offre » pourront enfin se
réjouir : le potentiel de la bête aura bel et bien été
étouffé. En revanche, si les institutions publiques offrent
accès à du matériel de connexion, offrent des formations,
offrent enfin des adresses fixes permettant de monter des
sites Web, alors le vieux rêve de Benjamin Franklin arrivera :
chacun aura son imprimerie, et une explosion culturelle et
intellectuelle, assez inimaginable actuellement, pourra voir
le jour. Renaissance 2.0 en somme !
Jean-Claude Guédon SPÉCIAL
INTERNET |
|