C’est encore la faute des militaires …
C’est vrai, chacun y va de sa propre petite histoire sur IP. On trouve cependant quelques accords. Tout le monde s’accordent à dire qu’il a pour origine un cahier des charges militaire. En effet, l’US Army possédait déjà dans les années 60 pas mal d’ordinateurs raccordés entre-eux par des réseaux d’échanges de messages.
Certains diront qu’IP est une des conséquences de l’effet Spoutnik ! Les US se sont, un jour, réveillés avec un satellite Russe qui faisait Bip-Bip au dessus de leurs têtes. Celui-ci pouvait les atteindre sans qu’ils puissent réagir (pour peu qu’il ait été armé !), et il faisait plusieurs fois le tour de la terre en moins de temps qu’il ne faut pour le dire !
Terrorisés (craintifs ses riquains !) ils se sont rendus compte que, depuis le ciel, des missiles correctement placés pouvaient isoler leurs centres de commandements en cassant leurs réseaux de raccordement. Ceux-ci étaient en effet peu fiables, pas de routage de secours, configuration manuelle, enfin bref, la préhistoire quoi !!
Ils ont donc demandé l’étude d’un nouveau réseau à commutation de paquets qui serait capable de résister à une amputation partielle de ses infrastructures.
L’ ARPA (Advanced Research Project Agency) a été chargé d’établir un cahier des charges d’un protocole d’interconnexion des réseaux de défense américains avec reconfigurations automatiques en cas de ruptures. C’est la définition du mode de transfert en paquets et bientôt la naissance de l’IP/DoD (Department Of Defense).
En 1969, les premiers tests d’IP se déroulent sur un réseau de 4 noeuds interconnectés. C’est, je pense, la première fois qu’IP se proméne si je puis dire ! Très rapidement l’armée étend son réseau de défense sur IP et on assiste à la création d’ARPANET (ARPA Network).
Oui … Mais si les Universités s’en mêlent …
L’armée, pour ses besoins de recherche (d’armes toujours plus high-tech !), utilise de nombreux scientifiques généralement basés en Universités (sauf pour la bombe A où ils les avait mis dans un camp !!), et a donc petit à petit proposé le raccordement de certaines universités au réseau ARPANET. Petit à petit le réseau a grossi. Et l’armée a donc isolé la partie militaire du réseau qui s’est alors appelé : MilNet (Military Network).
Autre fait concourant à la popularisation d’IP fût la libération du code UNIX développé par ATT (inutile de les présenter je pense !) à l’université de Berkeley (Unix BSD). IP a alors été intégré au noyau UNIX, ce qui a largement contribué à son expansion, sachant qu’UNIX était l’OS start de l’époque (tout ça c’était avant l’arrivée de notre Bilou International, que dis-je … galactique !).
Et, il y a eu les LAN aussi …
Sont apparues dans les années 70 et 80 des nouvelles technologies de réseaux sur support dits « fiables ». Ces réseaux avaient une couverture limitée à celle de l’entreprise, ils étaient donc locaux. Ce sont des RLE (Réseaux Locaux d’Entreprises) plus connus sous l’appelation de LAN (Local Area Network). Leurs noms vous sont sans doute familiers : Ethernet, Token Ring ou FDDI (attention c’est un MAN : Metropolitan Area Network). Leur caractéristique principale de support fiable, garantissait une transmission avec un minimum d’erreurs. Il n’y avait alors plus lieu d’utiliser des protocoles complexes (connexion, gestion de flux, contrôle d’erreur, reprise sur erreur, …) comme X25 pour assurer le transport de l’information. Ils sont devenus le terrain de prédilection d’IP !
Et puis, VINTCERF : le Papa d’Internet !
Puis le Papa d’Internet est arrivé : Vintcerf qui défini le protocole TCP qui va pallier aux insuffisances d’IP. En effet, je l’ai dit, IP est un protocole très simple qui ne garanti aucune livraison d’information, ne fait pas de contrôle ou de reprise sur erreur, n’établi pas de connexion et encore moins de gestion de flux. Si ces caractéristiques sont garantes d’un excellent rendement de transmission (mois de contrôles = moins d’infos de gestion = meilleur débit utile) elles avaient du mal à s’appliquer aux réseaux longues distance de l’époque qui étaient avouons le tout sauf performants ! Le protocole TCP a permis d’établir au-dessus d’IP (en couche 4) une connexion entre deux machines qui permettait le contrôle et la reprise d’erreur, la gestion de flux, et d’autres subtilités comme l’adressage de sockets ! Ce fut une réelle avancée !
IP certes ! Mais IP et ses petits amis …
Puis sont né un tas de protocoles annexes, véritables greffons d’IP qui sont venus enrichir les fonctions, et ont fini par le propulser à la première place aujourd’hui. Ces protocoles sont HTTP (pour l’HTML et le Web), NNTP (pour les News), SMTP (pour le Mail), SNMP (pour l’administration), TELNET (pour l’émulation d’écran virtuel), …
Certains protocoles moins connus par le grand public contribuent cependant à la notoriété d’IP, ce sont les protocoles de routage que j’espère nous aurons un jour la chance d’étudier ensemble. Ils se nomment RIP, EGP, IGRP, OSPF, BGP(4) et c’est en fait eux les garants de l’acheminement de vos pages Web sur vore navigateur. Sans eux, Internet ne serait pas ce qu’il est aujourd’hui !
Tout ça c’est bien, mais ça ne remplacera pas l’homme !
Mais le facteur le plus important dans la popularisation d’IP ne se situe pas au niveau technique. Il est au niveau humain, et il tient à son principe d’évolution. En effet tout l’environnement protocolaire IP est en vérité le fruit de travaux collégiaux entre des centaines de passionnés. On dit qu’Internet ne supporte aucune loi, et c’est vrai. C’est l’utilisateur qui l’a fait évoluer en fonction de ses besoins. Chaque protocole est le résultat de travaux d’un ou plusieurs groupes qui avaient des besoins et ont cherché des solutions. Ils ont ensuite publié le résultat de leurs cogitations sous forme de brouillons (des DRAFTS) pour information et participation. Lorsqu’un consensus est adopté, le DRAFT se mue en RFC (Request For Comments = Appel à commentaire). Cette RFC fait office de norme, mais n’en est pas une. C’est à dire que chacun peut se l’approprier, la modifier et sortir sa propre version. Il n’y a aucune information émise sur l’évolution d’une RFC, il faut s’enquérir soit même d’une possible évolution.
Ce principe de fonctionnement peut paraître brouillon mais il a l’avantage d’être extrêmement dynamique ! C’est ce mode de fonctionnement qui a permis à IP de supplanter les environnements OSI, qui s’ils sont parfaitement cernés et normalisés, n’en mettent pas moins dix ans pour paraître !!
Oui, mais c’est qui le Chef ?
Il n’existe pas comme avec OSI, sur Internet d’organisme de réglementation des normes. Sur Internet il n’y a pas de normes, il y a des RFC, qui comme leur nom l’indique sont des Avis que l’on peut commenter (pour modifier !). Les seuls organismes vaguement réglementaires que l’on peut trouver sont :
- l’IAB : Internet Architecture Board qui a pour rôle d’essayer de surveiller, planifier et proposer les évolutions d’architecture d’Internet, en terme d’interconnexion de noeuds de réseaux ou de protocoles de routage. Pour la petite histoire, IAB voulait au départ dire : Internet Authority Board ! La communauté Internet a vigoureusement protesté, arguant qu’il n’y avait pas d’autorité sur Internet ! Le sigle est resté le même mais la définition a changée !
- l’IETF : Internet Engineering Tasks Forces, est en fait un organisme quelque peu fantôme. Il représente l’ensemble des groupes d’utilisateurs et chercheurs qui se forment et se cassent pour faire évoluer Internet. L’IETF est en quelque sorte l’organisme central de publication des RFC ! Mais ce serait une coquille vide sans la communauté Internet des passionnés qui se réunissent pour changer le monde des transmissions IP.
- le NIC : qui a aujourd’hui énormément délégué ses responsabilités au niveau national a en charge la cohérence du plan d’adressage dans le réseau Internet ainsi que la cohérence du nommage des machines (le DNS pour les intimes). En France il est relayé par l’AFNIC, et vient aussi de déléguer les noms de domaine à Oléane (filiale récente de France Télécom).
Conclusion du chapitre
Voici une petite présentation de la naissance et de l’environnement d’IP, qui en vaut bien une autre ! A l’évidence le nombre de facteurs à prendre en compte est suffisament important pour justifier les différentes versions que l’on peut entendre.
Dans les prochaines pages nous entrerons dans le vif de la technique et laisserons ces interprétations politico-économico-sociolo-historiquo aux érudits !