jeudi, 30 mars 2017

Les toutes, toutes premières fois

Comment tout (ou presque) a commencé !

La première croissance technologique exponentielle

(votes : 4)
Loading ... Loading ...
Posté par fabrice
 

19 avril 1965

loi-moore-home

« Toujours plus, always mo(o)re »

 

En 1965, la loi de Moore prophétise une première dans l’histoire des innovations technologiques : une croissance exponentielle de la puissance de calculs des ordinateurs grâce à un doublement tous les 18 mois du nombre de transistors logés dans un micro-processeur. 50 ans plus tard, les limites sont atteintes mais les bouleversements à venir restent immenses.

Gordon-Moore-Intel-ITWTout a commencé dans la revue « Electronics » un jour d’avril 1965 dans un article intitulé « Mettre plus de composants sur des circuits intégrés ». Le Dr Gordon Moore (1) constate que le nombre de transistors gravés sur un circuit électronique double tous les 18 mois depuis son invention, en 1958.
A ce rythme prédit-il, il faudra 10 ans pour atteindre le nombre fabuleux (pour l’époque) de 65 000 transistors. Rappelons qu’en 1965, à l’époque où est écrit l’article, le circuit le plus performant contenait 64 transistors. En 2010, le processeur Intel Core i7 (Gulftown) contenait plus d’un milliard de transistors et Intel prévoit d’atteindre 120 milliards de transistors sur une simple puce en 2018.

Un progrès rythmé par la loi de Moore

Durant plus de 50 ans, le pronostic formulé par Gordon Moore qui deviendra l’un des fondateurs d’Intel, se réalisera comme par enchantement.

En réalité, Gordon Moore ajustera en 1975 sa loi en prenant en compte des composants plus complexes que les simples circuits intégrés et portera à 2 ans le doublement de la puissance.
Avec du recul, les faits lui donneront raison : tous les 2 ans (1.96 an pour être exact), le nombre de transistors par puce doublera et cela pour le même prix !

64 transistors en 1965, puis 128, 256…au début cela semble une croissance molle mais très vite les chiffres s’envolent. C’est ce qu’on appelle une croissance exponentielle.
Cette multiplication de la puissance presque aussi miraculeuse que la multiplication des pains par Jésus correspond à une stratégie conduite par l’ensemble de l’industrie des semi-conducteurs, avec à sa tête Intel, bien sûr.
D’ailleurs chez Intel, on appelle cela la « stratégie du tic-tac » : le constructeur annonce une finesse de gravure accrue en année « tic » puis améliore le dessin de ses puces, en année « tac » (2).

Une prophétie autoréalisatrice

transistors_PrixLa clé de ce processus tient dans le fait que les bénéfices issus de la montée en puissance de l’informatique sont réinvestis en recherche pour préparer la génération suivante qui rendra obsolète la précédente et générera donc de nouveaux profits…et de nouvelles recherches. C’est ce qu’on appelle une prophétie auto-réalisatrice.

Malgré les difficultés rencontrées qui, elles aussi vont en s’amplifiant comme la chaleur générée par les microprocesseurs ou la difficulté à réaliser des gravures sous la barre de 20 nanomètres, la Loi de Moore s’est, jusqu’à présent toujours vérifiée.

La loi de Moore au pied du mur…technologique

Mais, en 2016, pour la première fois, il semblerait que la loi de Moore batte de l’aile. Avec des transistors toujours plus petits, on se heurte à un double mur : celui de la physique car il arrive un moment où il devient impossible de faire maigrir les composants et un mur économique cette course à la miniaturisation devient de plus en plus onéreuse avec des usines dont les coûts sont exorbitants.
Et ceci n’est pas anecdotique car en matière d’exponentielle, les petits ralentissements font à terme des grands changements et, en l’occurrence, devrait conduire dans la décennie à venir à une réduction de moitié de la puissance prévue et donc des applications.

Heureusement, les labos n’ont pas dit leur dernier mot. On devrait passer de la quantité à la qualité, en faisant en sorte que les futures puces soient plus performantes avec le même nombre de composants.
En effet, si la course à la miniaturisation semble toucher à sa fin, il reste encore une marge énorme pour améliorer la puissance des micro-processeurs.

Si une nouvelle loi de Moore reste à formuler, son postulat basé sur la croissance exponentielle, pourrait être élargie du hardware au software.
C’est du moins, ce que prétend, Ray Kurzweil, le futurologue de Google, qui prédit que l’intelligence des ordinateurs dépassera celle des humains vers 2045 (3) conduisant à une fusion entre l’homme et la machine, étape qu’il nomme la Singularité.

La loi de Moore est morte, vive la loi de Moore !


Les jalons de la loi de Moore

evolution_transistors

  • 1958 : première puce de l’histoire comportant un seul transistor
  • 1965 : Evocation de la fameuse loi de Moore
  • 1971 : tout premier processeur (le 4004 d’Intel) doté de 2300 transistors
  • 1977 : premier ordinateur grand public à utiliser des puces avec une gravure de 8000 nanomètres.
  • 1989 : la barre du million de transistors est franchie (processeur i860 d’Intel)
  • 2004 : coup d’arrêt à l’augmentation de la fréquence des horloges en raison de la chaleur dégagée par les puces
  • 2007 : première puce à dépasser le milliard de transistors
  • 2016 : Intel met fin à la loi de Moore en réduisant le rythme des gravures de plus en plus fines.  

La R&D n’a pas dit son dernier mot !

ordinateurs_Quantique

Au-delà de la taille, les projets ne manquent pas pour rendre les processeurs plus performants.
On pourrait utiliser les photons à la place des électrons, ou remplacer le silicium par d’autres matériaux comme le germanium ou le graphène ou encore miser sur l’ordinateur quantique, le graal de l’informatique.

Une autre piste très prometteuse vise à améliorer la communication entre les composants en optimisant leur organisation.
Enfin, les puces universelles devront faire la place à des processeurs spécialisés comme c’est le cas avec les processeurs graphiques.

 


1 – Gordon Moore est alors Directeur de la R&D de Fairchild semiconductors
2- Les Echos – 14 juin 2016- P.10
3- Nouvel économiste, publié le 30 juillet 2015 / The Financial Times Limited


A visionner pour mieux comprendre :

La toute première épidémie numérique

(votes : 5)
Loading ... Loading ...
Posté par fabrice
 

2 septembre 1988

vers_virus_top

D’ ram…en ligne


Tout a commencé le 2 novembre 1988. Nous sommes au beau milieu de l’automne, or la saison n’est pas assez avancée pour une épidémie de grippe saisonnière. Pourtant, le monde va connaître bel et bien une épidémie;  une épidémie d’un genre totalement nouveau : la toute première épidémie non biologique, le virus informatique proliférant grâce à internet.

L’appellation de virus n’est pas usurpée car, à l’instar de son cousin biologique, le virus informatique utilise un hôte, en l’occurrence l’ordinateur, qu’il infecte pour se reproduire. Et si l’on évoque la notion d’épidémie, c’est qu’il se répand comme une traînée de poudre via le réseau internet balbutiant.

Ce virus se révèle très contagieux, presque autant que le virus grippal H1N1 ! Il va infecter 6 000 ordinateurs [1] sur les 60 000 environ que compte alors internet (moins de 100 000 internautes).

Ce jour là l’humanité rentre dans une phase totalement inédite de son évolution : pour la toute première fois, elle engendre un instrument autonome dont elle perd tout contrôle.

Un virus qui n’aurait pas fait de mal à une souris…

Robert Morris, le premier hacker malgré lui
Robert Morris, le premier hacker malgré lui

L’auteur de cette agression numérique « on-line » est un étudiant de l’Université de Cornell : Robert Morris Jr, baptisé par la suite Morris Worm. Son intention n’est pas malveillante. Féru d’informatique, il développe un programme capable de se propager et de se répliquer de manière autonome. Et cela indéfiniment. C’est ce que l’on appelle un ver. A cet effet, il exploite les failles de sécurité du système d’exploitation Unix (système d’exploitation très utilisé sur Internet notamment dans le domaine des serveurs).

Mais voilà, suite à une erreur de programmation, son programme comporte lui aussi une faille. Lorsque Morris lâche « sa créature » sur le réseau, celle-ci se répand à travers le réseau en se dupliquant à une vitesse folle. Bien que dépourvu de fonctions agressives, le ver  infecte une bonne partie des ordinateurs américains qui sont connectés au réseau qu’il va saturer. Non préparées à une telle intrusion totalement incongrue pour l’époque, ces machines se révèlent particulièrement vulnérables. En moins de 24 heures, le seuil de 3 ou 4 % de machines contaminées est atteint. Le réseau devient alors totalement paralysé pendant plusieurs jours. Nous venons d’assister à la toute première offensive numérique sur le réseau.

Le jeu du chat et de la souris.

Après l’attaque, l’heure est à la réparation des dégâts commis. Des experts notamment du MIT sont appelés à la rescousse. Ils vont jouer au chat et à la souris durant des semaines. Car, si la solution paraît simple dans son principe –il suffit d’éteindre simultanément tous les ordinateurs infectés-, elle se révèle néanmoins inapplicable pour des ordinateurs distants et en réseau. L’antidote passa donc par une analyse de « l’ADN » du virus, puis son recodage en vue d’un redéploiement sur le réseau. La situation fut débloquée qu’au bout de plusieurs semaines et pour un coût évalué entre 150 000 et 1 million de dollars.

Depuis cet incident de nombreuses mesures ont été prises : création d’une structure permanente le CERT Coordination Center (CERT/CC) et politique sécuritaire qui a ouvert un boulevard à  l’industrie de la sécurité sur Internet. Avec les millions d’ordinateurs connectés en permanence à travers le monde et les enjeux économiques, les sources d’agressions se sont multipliées.

Plus nombreux, plus sophistiqués, plus virulents que leurs ancêtres, les malwares, spywares et autres adwares procurent des sueurs froides aux internautes, donnent des cheveux blancs aux DSI et font les choux gras des dizaines de sociétés spécialisés dans l’antivirus. Le marché mondial de l’antivirus représentait 4 milliards de dollars, en 2005. On estime en effet à 100 000 environ le nombre de programmes malveillants (225 en 1990 et 2350 en 1993) mais « seuls » quelques milliers seraient en circulation et actifs [2].

Ram…dam dans les ordis dès 1982

« Il s’installera sur tous vos disques, il infiltrera tous vos processeurs, oui, c’est Cloner! »[3] Voici ceux qu’ont vu apparaître sur leurs écrans d’Apple II, à partir de juillet 1982, les toutes premières victimes ébahies de virus informatiques. Elk Cloner est probablement le tout premier virus informatique connu.

La différence avec celui de Morris cécrit plus haut tient au mode de transmission. Tandis que ce dernier s’appuie sur le réseau internet pour se propager, Elk Cloner utilise un vecteur non connecté, la disquette. La transmission est évidement moins rapide et moins étendue puisque dépendante du moyen de locomotion du porteur de la disquette infectée ! Il ne s’agit donc pas d’épidémie.

Son auteur, Richard Skrenta, un lycéen américain de 15 ans, va concevoir son propre « contrepoison » qui deviendra le tout premier antivirus numérique.

Tout cela était prévisible et, d’une certaine manière, prévu. Dès 1949, le célèbre physicien et mathématicien Von Neumann, l’un des fondateurs de l’informatique, conçoit une structure autoreproductible. Il s’agit d’automates cellulaires [4], connue sous le vocable de « constructeur universel ». Il ouvre la voie à un monde cybernétique capable de voler de ses propres ailes…et peut-être de faire battre de l’aile le genre humain.

Les pirates de l’ère…numérique

Même si le terme de virus informatique date officiellement de 1983, la pratique du piratage électronique est en réalité bien antérieure. Elle s’est nourrie de la montée en puissance des télécommunications et de l’informatique. Elle a profité des possibilités d’opérations illicites (appels gratuits) sur les réseaux téléphoniques. Pirates et auteurs de virus sont cousins germains. Ces protagonistes n’ont pas à l’origine les mêmes objectifs : cupidité pour les uns, recherche de performance technique pour les autres et pour les deux, la même volonté de voir ce qu’il a dans le moteur et de se faire mousser auprès de ses pôtes ou de ses pairs !

Le jeu Core War, inventé par des informaticiens des laboratoires Bell dans les années 60, en est une illustration ludique. Le jeu consiste, sans aucune intervention humaine, à un combat à mort entre 2 programmes informatiques implémentés dans deux ordinateurs. Chacun dispose de la faculté de se dupliquer et de s’autoréparer.

L'article publié par American Scientific, de A.K. Dewdney
L’article publié par American Scientific, de A.K. Dewdney

Cette application révolutionnaire sur le principe restera confidentielle durant près de 20 ans. Or, ironie de l’histoire, en 1984 (rappellez-vous 1984 d’Orwell) la revue grand-public Scientific Américan publia un article décrivant la méthodologie pour créer un programme s’inspirant de Core War. Ni plus, ni moins qu’un guide pour fabriquer ses propres virus. Par sécurité, son action se limitait à la mémoire vive (RAM) et devenait inopérant après le redémarrage de l’ordinateur.

Cette nouvelle fît grand bruit, car elle s’adressait pour la première fois à un public non averti. En devenant acteur, celui-ci s’aventurait tout doucement sur le chemin du piratage qui allait bouleverser l’économie dématérialisée. On connaît la…musique !

Une plaie économique

Pour la seule année 2008, « la criminalité informatique » aurait coûté, au niveau mondial, près de 760 milliards d’euros de préjudice aux entreprises [5]. Marché juteux où des informations relatives au code d’accès à une carte bancaire se revendent, au marché noir, plus de 700 euros. Notons néanmoins que le gros du butin des pirates informatiques ne provient pas de ces larcins liés aux cartes bancaires. A titre d’exemple, en 2007, leurs montants n’atteignaient pas en Belgique 300 000 euros.

Parallèlement à ces méthodes que l’on peut qualifier d’effraction immatérielle, se développe également une forme de rackettage  technologique vis à vis d’entreprises ayant une présence plus ou moins importante sur la web. Le mode opératoire est simple.  Soit l’entreprise paie une « rançon » ou achète une technologie, soit elle se voit la proie des cyberbrigands qui vont (si ce n’est déjà fait), s’inflitrer dans son réseau ou rendre son site inopérant. La vidéo en consultation à la fin de l’article évoque une entreprise victime de ces pratiques ayant perdu 20 000 euros de chiffres d’affaire en une semaine.

En marge de cette cybercriminalité organisée, il y a nos petits larcins quotidiens; autrement dit nos propres téléchargements. Au-delà des polémiques et si l’on se place  d’un point de vue purement économique, L’IPI (Institute for Policy Innovation) a publié en 2007 une évaluation du manque à gagner pour l’économie américaine du piratage de musique. Pour la première fois, ce coût est assorti d’une modération estimant que seuls 20% des titres téléchargés auraient été effectivement achetés.  Le montant s’élève à 12.5 milliards de dollars et correspond à plus de 70 000 emplois.

On estime qu’une réduction d’un tiers du taux de piratage informatique tout secteurs confondus injecterait 400 milliard de dollars dans l’économie mondiale et engendrerait un million cinq cents mille emplois supplémentaires à travers le monde[6].

On le voit,  virus et pirates (ou piratage) sont dans le même bateau. Un bateau qui sillonnent  les méandres du web, plaçant l’internaute dans une situation schizophrène où il apparaît autant victime que complice. « Alors, avant les virus, c’était comment le numérique ?  Tais-toi et ram… »

Les dates clés à retenir :

  • 1939 : Von Neumann publie un article sur la prise de contrôle d’un programme par un autre;
  • 15 février 1946 : premier « gros » ordinateurs, dit de 1ère génération;
  • 1949 : le même Von Neumann élabore les principes de base des logiciels autorepliqués;
  • 15 février 1946 : premier « gros » ordinateurs, dit de 1ère génération;
  • 1960 : apparition des boucles « auto-réplicantes », appelées « lièvres », incapable encore de sauter d’une machine à une autre;
  • 1960 (années)  : création du jeu Core War (ou Core Warrior), programme visant à bloquer l’ordinateur de son adversaire;
  • 1972 : Un utilitaire « the creeper » est capable de sauter d’une machine à l’autre; première utilisation du terme virus dans un ouvrage;
  • 1982 : Elk cloner, un programme d’autoréplication pour Apple II
  • 1984 : l’article « Computer recreations in the game call Core War hostile programs engage in a batle of bits » est un guide pour créer ses propres virus, publié par American Scientific et tranduit en français par le magazine Pour la Science;
  • 1988 : Robert Morris est arrêté pour fraude informatique pour le premier virus internet;
  • 1989: la France prend conscience du risque des virus informatiques;
  • 1995 : premiers virus macros destructeurs;
  • 1999 : le virus Mélissa infecte 300 000 ordianteurs;
  • 2000 : c’est le tour au virus I love you
  • 2003 : le virus MyDoom se répand par les pièces jointes de la messagerie : 1 million d’ordinateurs infectés. Microsoft offre une prime  à quiconque trouve son auteur.
    Publié le 15 septembre 2009

1 – ce chiffre varie de 2000 à 6000 selon les sources
2 – Sophos, éditeur de logiciel de sécurité avance le chiffre de 95 000, quand aux virus en circulation, les données sont fournies par la Wildlist organisation.
3 – It will get on all your disks, It will infiltrate your chips, Yes it’s Cloner!
4 -  Le jeu de la vie est le plus célèbre d’entre eux ; il a été conçu en 1970 par John Horton Conway en 1970
5 -  Étude de la société Mcaffe, spécialisée dans la sécurité informatique
6-  Etude commandée par la Business Software Alliance, en 2003

 


A consulter pour mieux comprendre :   


A voir, à lire et à installer pour aller plus loin avec votre ordinateur :    

  • Virus, troyens, dialers, pirates… Ces mots ne vous disent peut-être rien, mais ce sont de réels dangers pour votre ordinateur. Vous trouverez sur Inoculer.com de quoi en apprendre plus sur ces menaces et surtout de quoi vous en protéger gratuitement. Si ça c’est pas une bonne nouvelle !
  • Cybercriminalité : Les mafias envahissent le web – Les temps sont révolus où les menaces informatiques se limitaient aux virus créés par des étudiants isolés. Cet ouvrage est d’abord une mise en garde contre toutes les escroqueries qui menacent aujourd’hui tant les particuliers que les entreprises. Il vous fournira toutes les informations utiles sur le phishing, le spam, les virus, l’ingénierie sociale, les vols de données bancaires, l’espionnage industriel, la prise de contrôle de machines à distance, etc. Les derniers chapitres constituent un cri d’alerte sur les nouvelles formes de criminalité (voire de terrorisme) qui émergent aujourd’hui et vont se répandre sur le Net dans les prochaines années.

Le tout premier lien du nouveau monde virtuel

(votes : 3)
Loading ... Loading ...
Posté par fabrice
 

21 novembre 1969

Carte des connexions de 10 millions d'amis de Facebook

Un tout petit lien mais un grand « dé…clic » pour l’humanité !

4 mois, jour pour jour après le premier pas historique sur la Lune, premier lien physique entre l’humanité et un monde extérieur, un autre lien, cette fois virtuel, engage une nouvelle ère qui va bouleverser les relations entre les humains comme jamais dans l’Histoire.

Ce tout premier lien permanent est établi le 21 novembre 1969, entre l’Université de Californie à Los Angeles (Ucla) et le Stanford Research Institute à Santa Barbara (au nord de la Californie).

Première liaison Arpanet entre Ucla Stanford Institute et Université de l'Utah

L’ARPA, une réponse au défi spatial Soviétique

Tout a commencé en octobre 1957 (1). En apprenant que les Soviétiques viennent de lancer avec succès le tout premier satellite dans l’espace, l’Amérique du président Eisenhower prend peur. Comment se protéger d’une attaque de missiles des Russes et comment rattraper le retard par rapport aux Soviétiques ?

La réponse viendra l’année suivante, avec la création de l’Advenced Research Project Agency, autrement dit l’ARPA. Dotée d’un budget de plusieurs millions de dollars, l’Agence a vocation à explorer toutes pistes, notamment spatiales, permettant de mettre les Etats-Unis à l’abri d’une hypothétique attaque nucléaire.

Mais c’est un jour de 1961, lorsque l’ARPA s’équipe, à la demande de l’US Air Force, d’un super-ordinateur d’IBM, le Q-32, une bête de calculs pour l’époque, que les choses sérieuses commencent vraiment.

L’année suivante, Joseph Carl Robnett (J.C.R.) Licklider, un docteur en psycho-acoustique de l’université de Rochester, ainsi que Fred Frick, un petit génie de l’informatique, qui a travaillé au Lincoln Lab, tout comme Licklider, sont recrutés par l’ARPA.

Mutualisation des ressources : une idée qui va faire son chemin

Leur idée repose sur le concept nouveau du « time-sharing », inventé par des chercheurs du MIT (2]. Ce dispositif vise le partage des ressources d’un même ordinateur via de simples terminaux qu’utiliseraient plusieurs utilisateurs.

Si l’idée est séduisante, elle a toutefois ses limites : les capacités d’utilisation sont très restreintes en nombre d’utilisateurs et en ressources disponibles.

Qu’à cela ne tienne, il convient donc de repousser ces limites ! C’est le job auquel vont s’atteler nos deux comparses. En août 1962, J.C.R. Licklider baptise son projet, en toute modestie mais surtout avec beaucoup d’humour : « Le réseau informatique intergalactique » !

Contrairement aux idées recçues, le projet ne présente pas, à ce stade, de spécificités militaires puisque qu’il agit avant tout dans l’esprit de Licklider d’améliorer les échanges entre chercheurs et d’éviter les « doublons ».

Un terminal capable de communiquer avec n’importe quel ordinateur : le rêve !

Premier ordinateur fonctionnant en temps réel

Premier ordinateur fonctionnant en temps réel – History of computer

En 1964, Licklider à la tête du « Bureau des techniques de traitement de l’information (IPTO, en anglais) », va s’adjoindre deux experts en informatique. Fort de ces nouvelles recrues, Ivan Sutherland et Robert Taylor, incontestablement, le projet prend un nouveau virage.

Le problème auquel est confronté Robert Taylor est simple : dans ses locaux de l’ARPA à Washington, Bob dispose de 3 terminaux reliés respectivement à l’ordinateur central d’un des 3 centres de recherches concernés. Pour communiquer avec chacun des centres, Bob devait donc changer de terminal.

Un terminal unique capable de communiquer avec n’importe quel ordinateur central, quel que soit l’endroit et le constructeur, un rêve qui va devenir réalité. C’est le projet ARPANET.

Un troisième larron, Larry Roberts, qui lui aussi vient du Lincoln Lab, va apporter main forte et décisive à la conception de ce fameux réseau informatique. Nous sommes en 1966.

Un réseau à l’image du Pentagone

2 ans plus tard, en 1968, Roberts élabore enfin le réseau informatique dont sera issu quelques années plus tard le Web. Ce réseau présente une topographie en étoiles ressemblant à celle du Pentagone (ministère de la Défense américain), dont Larry est familier.  Des centaines de points représentant des ordinateurs reliés entre eux, tout comme les chemins les plus courts reliant les bureaux et salles de réunion du Pentagone.

D’un point de vue technique, nous trouvons déjà les principes de base de l’internet d’aujourd’hui : à savoir, le recours au réseau téléphonique pour les échanges de données qui elles-mêmes sont gérées non pas par un seul ordinateur central mais par des petits ordinateurs intermédiaires (1).

En juillet 1968, l’ARPA veut expérimenter ce dispositif de réseau. Son objectif : relier plusieurs centres de recherche entre eux : l »université  de Los Angeles (Ucla),  celles de Santa Barbara et de l’Utah et le centre de recherche de Stanford. ; Elle lance à cet effet une consultation auprès de tous les grands acteurs de l’informatique de l’époque.

Tous, dont IBM, sauf deux déclineront l’offre. Au final, c’est une firme méconnue de consultants informatiques, Bolt Beranek and Newman, qui remportera le marché.

Entrée en scène d’ARPANET, réseau précurseur d’internet

Le temps d’une gestation humaine, l’équipe de cette petite firme du Massachusetts, qui se compte sur les doigts de deux mains, accouchera de manière opérationnelle de ce concept de Réseau.

Tout est là, ou presque : le dispositif de routeurs, dénommés à l’époque IMP pour « interface message processors », chargés d’assurer la liaison entre les ordinateurs (clients et ceux qui délivrent les données) et la communication par paquets. Seule la vitesse de transmission n’est pas encore au rendez-vous : 50 kilobits par seconde.

L’Automne 1969 voit ainsi bourgeonner pour la toute première fois ARPANET, le réseau qui deviendra par la suite  Internet. Le 2 septembre 1969 (certains évoquent le 20 octobre) l’équipe de Leonard Kleinrock de l’Ucla parviennent à mettre en relation un ordinateur, ou plutôt un énorme calculateur électronique avec un routeur.

Le lien qui va changer la vie

Pour la première fois de l’histoire, des données par paquets sont échangées au travers d’un simple cable cuivré (3). Le 20 octobre la même équipe établit une connexion entre un ordinateur d’Ucla et un ordinateur de Stanford.

Puis, ce fut le tout premier lien du tout nouveau monde virtuel, le 21 novembre 1969, comme on vient de le voir.

Tim Berners Lee, le fondateur du Web

En 1980, Arpanet se divisera en deux branches distinctes : le Milnet, un réseau exclusivement militaire et le NFSnet, le réseau universitaire. En 1982, le terme Internet qui signifie Internetting est officialisé.  

Internet tisse sa toile

Le 1er janvier 1983, Arpanet bascule totalement sur le protocole TCP-IP, le principe de base des échanges sur la toile, développé par Vinton Cerf de l’université de Stanford et Robert Khan. A partir de ce jour, Arpanet adopte pour le terme d’arpa-internet. Pour la toute première fois, le vocable internet s’affiche au grand jour.  30 ans plus tard, Internet véhiculera quotidiennement l’équivalent de 170 millions de DVD ! 

En 1985, le réseau compte déjà –ou seulement – mille ordinateurs reliés. Il faudra attendre 1992 pour voir apparaitre les tout premiers sites et  disposer de la toute première photo cliquable ! et 1993 pour pouvoir utiliser le tout premier navigateur : Mosaic.

Entre temps, Tim Berners Lee du CERN, futur fondateur du W3C (6),  sera passé par là: . En 1980, il invente la navigation hypertexte, puis le protocole HTTP (Hyper Text Transfer Protocol). Cette fois, le World Wide Web (www)  est vraiment né. Le web peut étendre sa toile et bientôt relier pour la toute première fois un tiers de l’humanité.

500 ans après la découverte d’un nouveau monde physique, un nouveau monde virtuel est donc à portée de clics pour un monde qui est aujourd’hui totalement interconnecté (4) :

  • 2 milliards 100 millions d’internautes dans le monde (décebre 2011), dont 485 millions de chinois ;
  • 555 millions de sites web dans le monde (*), dont 70 millions de blogs WordPress
  • plus de 3 milliards de comptes de messageries et près de 300 milliards de mails par jour (chiffre 2010), dont 89 % de spams***;
  • plus de 900 millions d’utilisateurs actifs de Facebook , dont 526 millions d’utilisateurs quotidiens **;
  • 225 millions de comptes Twitter (octobre 2011) , dont 27 millions de followers pour Lady Gaga, en tête du « box office » de Twitter (7);
  • 1 000 milliards de vidéos visionnées sur Youtube ;
  • 100 milliards de photos publiées sur Facebook (mi 2011)
  • 667 millions de milliards d’adresses internet, c’est ce que permet le nouveau dispositif d’adressage internet ipv6, le précédent ipv4 ayant fourni la dernière adresse disponible le 3 février 2011

Big Data ou comment tirer profit des liens internet !

Selon Eric Schmidt, patron de Google (5), nous produisons aujourd’hui autant d’informations en 2 jours qu’en a produit l’humanité entre ses début et 2003, soit 5 pétaoctets !

Nous sommes donc entrés dans l’ère du Big data, autrement dit, les données massives. Un véritable déluge d’informations qui envahit notre quotidien. Il y a 60 ans l’ordinateur a rendu l’information lisible, il y a 30 ans, l’internet l’a rendu accessible maintenant, les outils de recherche la rendent compréhensible.

Big Data : un déluge d'informations

En effet, face à ce déluge d’informations hétéroclites, seuls les moteurs de recherche et les outils de traitement statistiques sont en mesure de découvrir des corrélations inattendues. Puis d’en faire émerger des découvertes exploitables qui, sans ces outils et sans internet, seraient restés masqués probablement pour longtemps, peut-être même pour l’éternité.

Qui, en dehors des logiciels de recherche comme Google, est en mesure de traiter efficacement l’équivalent de 20 fois les données stockées par la Bibliothèque Nationale de France (20 pétaoctects), en quelque centième de seconde ? Il faut se rendre à l’évidence, pour la première fois dans notre histoire, l’intelligence humaine est dépassée, du moins pour ce type de traitement.

Désormais, la recherche s’appuie sur des robots chercheurs algotithmiques qui balaient obstinément, à la façon de Google, les serveurs du monde entier. Ils partent à la recherche de la corrélation entre données en mettant en exergue les liens pertinents. Ces fameux liens inventés il y a plus de 40 ans et qui sont maintenant à l’origine d’une révolution sans précédent de la science.

Et parfois, à grand renfort de mots-clés (foie, cancer, alcool…), ils permettent des découvertes étonnantes. Ce fut le cas récemment avec la découverte de 4 gènes associés au cancer du foie ou encore l’origine probable de la migraine jusqu’ici passée inaperçue.

Toutes les disciplines et tous les domaines d’activités s’en voient bouleversés. Le marketing, bien sûr, la génétique, l’astronomie, la chimie, les neurosciences, la climatologie, sans parler des renseignements qui bientôt seront capable de traiter simultanément l’équivalent de 1000 milliards de disques durs ! Certains évoquent même une quatrième révolution industrielle.

Aujourd’hui, on est convaincu que les découvertes les plus accessibles sont déjà réalisées. Reste, celles qui se situent en haut de l’arbre de la connaissance. Mais, sont-elles encore à portée de mains -ou d’esprits-  humaines ?

Le traitement des liens entre données, via internet, est peut-être en train de casser le lien entre la notion de génie et celle d’humain. Dit autrement : cela sonne-t-il le glas du génie humain ?


 Le tout premier smiley aurait-il plus de 100 ans ?

Officiellement, l’émoticône, ou si vous préférez le smiley, a tout juste 30 ans, puisque le premier est daté de 1982. Mais, il se pourrait que le tout, tout premier smiley soit beaucoup plus ancien : 1862 !

le premier smiley d'Abraham Lincoln !

L’internet et le mail n’existaient évidement pas; alors comment est-ce possible ? Le New york Times (voir article) a découvert dans une retranscription d’un discours prononcé par Abraham Lincoln le 7 août 1862 un clin d’oeil «  ;)  » qui ressemble furieusement à nos smileys ;).

Ce signe devenu célébre un siècle plus tard apparait en effet dans un extrait du discours « imprimé » de l’époque. Il figure à la suite d’un passage où le président américain prévoit une réaction positive de son auditoire. Le fameux signe vient ponctuer deux mots (applause and laughter «  ;)  » .

Evidemment, ce qui vient à l’esprit, c’est qu’il s’agit d’une faute de frappe. Problème, les machines à écrire n’existent pas encore. Le texte a donc été imprimé à l’aide de caractère, un par un. Une erreur d’imprimeur, alors ? Pourquoi pas mais bizarrement, dans l’ensemble du texte ce type d’indication est signalée par des crochets et non pas par des parenthèses.

Alors, le 16 ème président américain aurait-il fait un crochet à ses habitudes en inventant le smiley ? Même pas en rêve…américain ou réalité ?


1- Récit inspiré de l’article de Tristant Gaston-Breton – Publié dans Les Echos – Vendredi 3 et samedi 4 août 2012
2 - Kleinrok du MIT est l’auteur du tout premier document traitant de la théorie de la transmission de données par paquets (information Flow in Large Communication Nets) ;
3- Reportage du National Geographic de 2009 « Internet’s 40 th « birthday » marked », raporté dans Le Figaro.fr, article « Il y a 40 ans naissait (presque) Internet » – 3 septembre 2009
4- Sources : * données 2011, publiées sur le site anglophone pingdom; **données du 1er trimestre 2012 publiées par Facebook (source « Etreintes dégitales, blog du Figaro); *** Le Mode informatique 14 janvier 2011;
5- Google : le nouvel Einstein – Science & vie N°1138 – Juillet 2012;
6 – Consortium chargé d’assurer la normalisation et la compatibilité des technologies du web ; le W3c est présidé depuis 1994 par Tim Berners Lee;
7- Le Figaro Economie – 21 août 2012


A visionner pour mieux comprendre :

  • Comment fonctionne internet et d’où vient-il ?  Une épopée qui débute dans les années 50 :


A voir et à lire pour aller plus loin :