Histoire du numérique

Gérard Le Lann : de l'invention d'Internet à l'intelligence algorithmique

Date:
Mis à jour le 17/06/2024
Pionnier d'Internet, Gérard Le Lann a commencé sa carrière au CERN avant d'intégrer le projet Cyclades à l'IRIA (aujourd'hui Inria) ; il rejoint Stanford par la suite où il travaille avec Vinton Cerf sur Arpanet. Après ses aventures outre-Atlantique, le spécialiste des systèmes distribués a poursuivi son travail chez Inria où il est aujourd'hui directeur de recherche émérite. Gérard Le Lann nous retrace son histoire d'Internet et expose sa vision des grands enjeux numériques contemporains, notamment en intelligence artificielle.
Portrait de Gérard Le Lann
© Inria / Photo C. Tourniaire

Comment l’aventure d’Internet a-t-elle commencé pour vous ?

En 1958, âgé de quinze ans, je découvre un article de Sciences et Vie qui m’apprend l’existence des cerveaux électroniques. Alors que j’hésitais encore à m’engager dans une voie littéraire, je décide de m’orienter vers une filière scientifique. Après avoir fait mes classes en Mathématiques Élémentaires, je postule dans l’une des deux écoles d’ingénieurs en France comprenant une option « programmation des calculateurs », et je choisis l’ENSEEIHT à Toulouse. En 1966, nanti du diplôme d’ingénieur, fin du sursis pour le service militaire, j’opte pour la Marine nationale, en tant qu’appelé scientifique. Les trois Armes étaient alors en quête d’ingénieurs-programmeurs (le terme « informaticiens » n’existait pas encore).

Après les seize mois réglementaires, la Marine m’a proposé de passer deux mois supplémentaires sous les drapeaux, puis un an et demi en tant qu’ingénieur. À Paris au Centre de Programmation de la Marine, et à Brest, je fus membre du groupe Cœlacanthe chargé de développer le système de quatre ordinateurs temps réel TRW-133 (également utilisés par l’US Navy) et les logiciels destinés au sous-marin nucléaire Le Redoutable. Tout était à découvrir dans ce vaisseau doté d’une haute technologie : veille tactique, recalage astral par calculs d’azimut, fonctionnement des radars et des sonars, plongées longues en silence absolu, leurres, etc.

Qu’avez-vous fait en sortant de l’armée ?

En 1969, j’ai postulé dans différents organismes. Quand le CERN a reçu ma candidature, ils m’ont répondu en m’envoyant un billet de train par courrier retour : « Venez nous voir ! » À la fin de l’entretien d’embauche, ils m’ont proposé un contrat, date de début « maintenant » ! Je me suis installé à Genève et j’ai travaillé au CERN, durant trois ans, à nouveau. Dans le projet Omega, j’ai utilisé les connaissances acquises sur le système temps réel du Redoutable. Le but était d’aider les physiciens des douze nations membres du CERN à comprendre ce qui se passait dans l’accélérateur de particules lorsque ces dernières entrent en collision. Pour cela, ils utilisaient un système de chambre à bulles permettant de capter les radiations et les trajectoires de particules quand les atomes sont fractionnés. Les « photos » étaient lues par un réseau de huit mini-ordinateurs installés tout au long de l’accélérateur. La mission du projet Omega était de produire les logiciels d’acquisition des « photos » prises « au bon moment » et de les remonter vers un ordinateur central chargé de reconstruire le faisceau des radiations et des particules, pour analyses par les physiciens.

C’est alors que vous allez rejoindre le projet Arpanet aux États-Unis…

Plaque en l'honneur de la naissance d'internet
Plaque en l'honneur de la naissance d'Internet
© Tous droits réservés
Cliquez sur l'image pour l'agrandir

Oui, tandis que la France lançait le projet Cyclades en 1972, son rival nord-américain avait déjà une bonne longueur d’avance. Pendant la guerre froide, le Pentagone avait déployé tout au long de la côte Ouest une batterie de radars hypersophistiqués, connectés aux ordinateurs utilisés par les militaires chargés de détecter, dès leur décollage depuis l’URSS, et de les détruire en vol, les missiles balistiques intercontinentaux à tête nucléaire lancés en direction du territoire nord-américain. Mais ce système (appelé SAGE) est devenu inadapté lorsque les Soviétiques ont réussi l’envoi du satellite Spoutnik (le 4 octobre 1957). La menace nucléaire n'était plus seulement « latérale » mais aussi « verticale ». 

C’est alors que Joseph C. Licklider, professeur au MIT, rédige un mémorandum visionnaire intitulé « A Truly SAGE System » fondé sur l’idée que les humains communiqueraient mieux entre eux grâce aux ordinateurs, lesquels seraient interconnectés à travers un réseau de communications à usage à la fois civil et militaire. Conséquences quasi immédiates : en 1958, le DoD (Department of Defense) créée l’ARPA (Advanced Research Projects Agency), et en 1959, la Rand Corporation est choisie par l’ARPA pour concevoir un réseau « à la Licklider ». Le responsable de ce contrat est Paul Baran, débauché de chez Hughes Aircraft. Entre 1960 et 1964, Paul Baran invente la « commutation de paquets » (packet-switching), les réseaux à topologie maillée redondante, le routage dynamique, et la fragmentation des messages en paquets. Les paquets sont des fragments de messages injectés dans le réseau. Presque simultanément, les mêmes concepts sont élaborés en Grande-Bretagne par Donald Davies, du National Physical Laboratory

Il restait cependant à résoudre le problème de communication entre ordinateurs. En faisant une analogie avec le transport maritime, les paquets de Baran et Davies sont les conteneurs expédiés par bateaux et supertankers. Mais tout était à inventer concernant la gestion des ressources portuaires, du trafic maritime, les pertes de conteneurs, etc. L’étude des protocoles de communication entre ordinateurs a commencé en 1970. J’ai rejoint l’IRIA (Inria à présent) en 1972, et j’ai dédié mes recherches à l’étude de ces protocoles. Grâce à des simulations, j’ai découvert le mécanisme de « fenêtre glissante » (sliding window), qui assure les contrôles d’erreur et de flux lors des transmissions entre ordinateurs (pas de pertes, pas de saturation des ressources, et livraison des messages dans l’ordre de leur émission). 

En mars 1973, j’ai eu l’opportunité de présenter mes résultats à Vint Cerf, professeur à l’université de Stanford, qui a été convaincu : « Ce que tu fais c’est exactement ce dont on a besoin pour résoudre nos problèmes. » Trois mois plus tard, j’intégrais son équipe à Stanford, le but étant d’intégrer le mécanisme de « fenêtre glissante » dans le protocole TCP en cours de conception. Ce protocole, ossature fondamentale d’Internet, et le mécanisme de « fenêtre glissante », sont à présent activés plusieurs milliards de fois par jour.

Aviez-vous conscience de l’ampleur des travaux que vous entrepreniez à Stanford ?

Seulement petit à petit, en partie grâce aux visiteurs qui venaient à Stanford assez régulièrement. Je me souviens de ce livre prémonitoire « Year 2000 : The Networked Society », qui décrivait une société où tout pourrait se faire depuis un ordinateur connecté à un réseau (s’éduquer, commander de la nourriture, des films, faire des voyages virtuels, etc.). Ce qui a inspiré cette remarque à Vint Cerf : « C’est plutôt inquiétant ce monde dans lequel, de notre naissance à notre mort, nous n’aurons pas besoin de bouger ».

Effectivement, pendant que nous étions concentrés sur des problèmes de pertes de messages et de saturation de mémoire dans les ordinateurs, certains voyaient déjà le monde qui allait se dessiner devant nous, le cyber monde actuel. Des ingénieurs de la NASA sont venus nous parler du projet GPS : installer des satellites autour de la Terre pour avoir un temps universel et une géolocalisation avec une très grande précision. Plutôt high-tech pour l’époque !

Vous ne mesuriez pas encore les conséquences de vos inventions…

Absolument pas ! Certes, en 1973, on s’envoyait déjà des e-mails pour un oui pour un non. Par exemple, on s’invitait à prendre le café, entre chercheurs qui vivaient sur la côte ouest et sur la côte est. Dans ce qui ne s’appelait pas encore la Silicon Valley régnait une ambiance post-hippie, et nous nous demandions chaque matin quoi inventer de vraiment révolutionnaire. On n’anticipait pas du tout les dévoiements du réseau qui allaient survenir plus tard. Nous étions concentrés sur un outil qui allait avoir la faculté suprême d’annihiler plus ou moins le temps et l’espace entre les êtres humains ! Pour la première fois dans l’histoire de l’humanité, des locuteurs pouvaient communiquer à loisir sans se trouver en même temps chacun à un bout d’une ligne de téléphone. Les communications asynchrones, c’était déjà cela Arpanet : je consulte mes messages et j’en envoie quand j’en ai envie. Et c’était un énorme pas en avant. 

On a aussi commencé à constituer des bases de données, qui sont vite devenues populaires. Dans le Network Information Register, entretenu par le SRI, on trouvait en accès libre tous les utilisateurs du réseau Arpanet (noms, numéros de téléphone, adresses géographiques et adresses mail), soit quelques milliers de personnes. On était alors loin de penser qu’un jour un réseau comme Arpanet (l’ancêtre de Internet) serait utilisé pour mener des cyberattaques, le piratage des données, l’usurpation d’identité, ou le rançonnage.

Comment Internet va-t-il se déployer ensuite ?

Bien avant 1977, l’année de la fin du projet Cyclades (précipitée par les attaques incessantes de Louis Pouzin contre les PTT et l’Administration), les Nord-Américains avaient décidé d’expérimenter l’envoi de messages par communications satellitaires. N’oublions pas que l’aventure Arpanet/Internet se déroule pendant la guerre froide. C’est ainsi qu’un nœud Arpanet a été installé au NORSAR (organisme chargé de détecter des secousses sismiques) en Norvège, allié stratégique des États-Unis, et géographiquement si proche de … l’URSS. Puis, une extension a permis de connecter Londres, la Grande-Bretagne étant un autre allié des ÉtatsUnis. Bob Kahn m’a confié qu’une installation de nœud à Berlin avait été envisagée, abandonnée pour raison de tension politique (l’avenir de Berlin-Ouest restait incertain).

Et voilà qu’Internet a 40 ans aujourd’hui…

En effet ! Depuis la transmission du premier paquet en 1969 dans Arpanet, il s’est passé beaucoup de choses. Notamment entre 1974 et 1982. Une première version du protocole TCP et ses nombreuses variantes ont été expérimentées, avant d’obtenir deux spécifications distinctes, l’une pour TCP, l’autre pour IP. Le réseau Arpanet était devenu une technologie incontournable, utilisée à la fois par des Nord-Américains, des Européens, des civils et des militaires. Ce qui a fini par inquiéter la DCA (Defense Communication Agency). Mi-1982, la DCA et DARPA (D pour Defense) annoncent qu’au 1er janvier 1983 (le « switch day »), TCP-IP sera mis à disposition dans le domaine public, et Arpanet sera scindé en deux réseaux distincts : l’un baptisé Milnet pour les militaires, l’autre baptisé Internet pour les civils.   

Gérard Le Lann, Ingénieur ENSEEIHT, docteur d’État en Informatique, a été l’un des pionniers d’Internet, tout d’abord à l’IRIA/Université de Rennes, puis à l’Université de Stanford, Palo Alto, Californie. En 2012, Gérard Le Lann a reçu le prix Willis Lamb de l’Académie des Sciences. Il est à présent directeur de recherche émérite chez Inria.

En France, on n’en a pourtant pas entendu parler à l’époque…

En effet, car une guerre de tranchées avait été déclenchée par les PTT, qui ne voulaient pas que la commutation de paquets (instanciée par Internet) soit « importée » en France. À l’instar de la résistance contre l’arrivée des magnétoscopes japonais. Le gouvernement français a préféré promouvoir la commutation de circuits numériques, utilisée dans le réseau Transpac (un succès, contrairement au réseau Cyclades), et miser sur le vidéo-texte (le Minitel). Tous ceux (dont j’étais) qui avaient « vu » les technologies qui fleurissaient en Californie (Arpanet/Internet, les premiers PC dans les bureaux de Xerox PARC, Ethernet, etc.) savaient qu’il s’agissait d’un choix perdant. Comme toujours, la réalité est la plus forte. Il est impossible de cacher longtemps ce qui se passe à l’étranger (« faire du réseau » sur Internet via TCP-IP était bien moins coûteux et plus performant que sur Transpac via un Minitel), à moins de fermer complètement les frontières, et encore…

On se souvient alors des fameux modems et du bruit de leur connexion…

Oui, et c’est l’occasion de souligner l’ironie de cette histoire. Au commencement, Arpanet/Internet étaient construits sur des lignes téléphoniques analogiques conçues pour la voix humaine, sur lesquelles on devait faire passer du numérique (des bits). Il fallait donc des modems pour assurer les conversions analogiques-numériques-analogiques. Aujourd’hui, on fait exactement le contraire. Sur des lignes de communication numérique, on fait passer de la voix humaine (de l’analogique, donc) via des protocoles de type VoIP (voice-over-IP).

À l’époque, comment se font les transmissions ? Par câbles ?

Oui, principalement, pour tout ce qui était continental. Une première exception : les expérimentations « packet-radio » entre mobiles en Californie, dès 1974. Pour franchir les océans, dès le début des années 1970, on a eu recours aux communications par radio (le réseau Aloha aux iles Hawaï) et par satellites (voir ci-dessus). Actuellement, concernant ces dernières, il faut citer OneWeb et Starlink (plus de 3 000 satellites en orbite basse (550 km), propriété de Elon Musk). Depuis une bonne dizaine d’années, les géants du numérique (Alphabet, Meta, Amazon, etc.) et des industriels des communications, ont investi dans les câbles optiques sous-marins à plusieurs dizaines ou centaines de térabits par seconde. Environ 90 % du trafic de données intercontinental transite via ces câbles, dont environ 25 % appartiennent aux géants du numérique. Ces derniers peuvent ainsi assurer non seulement les transmissions, mais aussi les traitements des données, sur leurs superclusters de serveurs. Ce qui nécessite des investissements énormes. Ainsi que des moyens particuliers pour surveiller et sécuriser les sites d’ancrage des câbles sur les côtes, comme à Saint-Hilaire-de-Riez, en Vendée, et en Virginie (le câble Dunant, d’Alphabet). Pas question pour ces géants de dépendre des réseaux de concurrents comme Alcatel Submarine Networks.

Les contenus de l’article que vous avez lu dans Science et Vie en 1958 se sont donc révélés justes. Soixante-cinq ans après, impossible d’échapper au vaste « cerveau électronique » mondial …

Oui, car nous en avons besoin, et donc nous devenons vulnérables ! Même en allant sur Thor, l’anonymat et le secret des échanges (sur le Dark Web par exemple) ne sont pas du tout garantis. Des agences gouvernementales peuvent très bien utiliser des logiciels espions dans ce réseau crypté. Tous les systèmes ont des failles : déchiffrement possible, attaques sur les canaux d’entrées-sorties, etc. Surtout, il faut prendre conscience d’une réalité que tous feignent d’ignorer : personne n’est en mesure de savoir ce qu’il y a vraiment dans ces appareils que nous utilisons au quotidien. Téléphones, ordinateurs, smartphones sont basés sur des technologies que les Européens ne maîtrisent pas. Qui peut dire ce qui est gravé dans les circuits intégrés fabriqués aux États-Unis ou à Taïwan ? Qui sait ce qu’il y a vraiment dans les systèmes d’exploitation iOS d’Apple, Android de Google, Windows de Microsoft ? Qui peut certifier qu’il n’y a pas de backdoors ou de firmwares qui surveillent ce que vous faites avec votre appareil ? Personne. Dans la plupart des cas, espionner ce que fait un individu n’est pas très intéressant. Mais espionner et/ou cyberattaquer un industriel ou un site sensible (infrastructure, hôpital, etc.) peut être très intéressant, même si le but n’est pas de pirater ou de supprimer des données, et d’exiger ensuite une rançon pour un retour à fonctionnement normal.

La sécurité ou la protection de la vie privée demeurent des sujets centraux du futur de ces technologies …

Le futur de l’humanité, désormais prise dans le vortex cyberphysique qu’elle a elle-même créé et amplifié depuis l’invention d’Internet, pose de nombreuses questions, parmi lesquelles, sécurité cyber et physique, protection de la vie privée, régulations et souverainetés numériques, transhumanisme. Les intelligences artificielles (IA) domineront-elles l’intelligence humaine — la singularity ? L’IA suscite de nombreuses déclarations, éclairantes de la part des scientifiques, péremptoires de la part de « visionnaires » autoproclamés, peu avares en IA (incongruités anthropomorphiques) à propos des IA. Ainsi, avec les IA génératives conversationnelles (ChatGPT, Bard, Midjourney, …), nous nous rapprocherions de la singularity, et ces IA seraient capables de sentiments, d’empathie par exemple. Un humain peut éprouver de l’empathie au vu de ce que produisent ces IA qui, à l’instar des œuvres d’art, ne « comprennent » pas ce qu’elles génèrent. Projeter sur elles des sentiments humains est absurde !

Les IA actuelles sont des Intelligences Algorithmiques (réseaux neuronaux, inférences bayésiennes, analyses spectrales) qui aident les humains, par exemple à gagner du temps sans devoir mémoriser des sommes colossales de connaissances. Pour la singularity, rendez-vous lorsque nous aurons vu, à l’œuvre, des androïdes ou des robots humanoïdes dotés d’IA générale, c’est-à-dire dotés des cinq sens (vue, ouïe, odorat, goût, toucher).

L’intelligence humaine est et sera magnifiée par les IA. Réciproquement, les IA sont et seront magnifiées par l’intelligence humaine. La coexistence est inévitable, sur Terre et ailleurs (autres planètes, multivers). La grande question est : selon quelles valeurs éthiques, sociétales, morales, civilisationnelles cet univers cyberphysique qui nous attend sera-t-il façonné ?

Et que se passe-t-il si Internet s’arrête ?

Eh bien, on ne peut tout simplement plus rien faire. C’est là que me revient la plus grande ânerie que j’ai entendue lors de l’avènement des ordinateurs « grand public », considérés par certains comme potentiellement dangereux pour l’avenir de la société. Alors qu’on lui avait posé la question de notre dépendance aux ordinateurs, un des plus grands « sachants » de l’époque avait eu cette réponse : « Ne vous inquiétez pas, si ça devient néfaste, on débranchera les ordinateurs » ! Assez stupide … Une fois que vous avez votre compte en banque géré sur ordinateur, vous ne pouvez plus « débrancher », tout simplement ! Et si cela arrive accidentellement, c’est très grave, qu’il s’agisse d’un ordinateur ou d’Internet. En 2019, lors d’une mise à jour du logiciel assurant le routage, une grande partie du réseau est restée muette pendant des heures. Plus d’accès aux marchés financiers, plus de suivi des dossiers médicaux, etc. 

Les mêmes erreurs sont de retour avec les IA : il faut pouvoir les « débrancher », en arrêtant les recherches (c’est trop dangereux) ou en interdisant leur emploi… Nous sommes désormais « condamnés » à vivre avec les IA, sur Terre et ailleurs ! 

Depuis toujours, nous cohabitons avec nos créations, celles qui « augmentent » ce que la Nature nous fournit (animaux domestiqués) et celles qui « augmentent » nos capacités intrinsèques : imprimerie, moyens de propulsion, de production, de communication, en matière de santé (sciences de la vie), etc. Pour notre bien, abstraction faite des réalisations incorrectes et des utilisations malveillantes. Il en sera de même avec les IA. Et avec les inventions qui suivront. Je ne suis pas prêt à parier sur la fin de l’Humanité.

 

Cet entretien a été réalisé par les éditions Plon, à l'occasion de la publication de Mondes de demain de Julien Civange (Plon, 2023, 312p.).

 

Pour en savoir plus