mercredi, 20 septembre 2017

Les toutes, toutes premières fois

Comment tout (ou presque) a commencé !

La première croissance technologique exponentielle

(votes : 4)
Loading ... Loading ...
Posté par fabrice
 

19 avril 1965

loi-moore-home

« Toujours plus, always mo(o)re »

 

En 1965, la loi de Moore prophétise une première dans l’histoire des innovations technologiques : une croissance exponentielle de la puissance de calculs des ordinateurs grâce à un doublement tous les 18 mois du nombre de transistors logés dans un micro-processeur. 50 ans plus tard, les limites sont atteintes mais les bouleversements à venir restent immenses.

Gordon-Moore-Intel-ITWTout a commencé dans la revue « Electronics » un jour d’avril 1965 dans un article intitulé « Mettre plus de composants sur des circuits intégrés ». Le Dr Gordon Moore (1) constate que le nombre de transistors gravés sur un circuit électronique double tous les 18 mois depuis son invention, en 1958.
A ce rythme prédit-il, il faudra 10 ans pour atteindre le nombre fabuleux (pour l’époque) de 65 000 transistors. Rappelons qu’en 1965, à l’époque où est écrit l’article, le circuit le plus performant contenait 64 transistors. En 2010, le processeur Intel Core i7 (Gulftown) contenait plus d’un milliard de transistors et Intel prévoit d’atteindre 120 milliards de transistors sur une simple puce en 2018.

Un progrès rythmé par la loi de Moore

Durant plus de 50 ans, le pronostic formulé par Gordon Moore qui deviendra l’un des fondateurs d’Intel, se réalisera comme par enchantement.

En réalité, Gordon Moore ajustera en 1975 sa loi en prenant en compte des composants plus complexes que les simples circuits intégrés et portera à 2 ans le doublement de la puissance.
Avec du recul, les faits lui donneront raison : tous les 2 ans (1.96 an pour être exact), le nombre de transistors par puce doublera et cela pour le même prix !

64 transistors en 1965, puis 128, 256…au début cela semble une croissance molle mais très vite les chiffres s’envolent. C’est ce qu’on appelle une croissance exponentielle.
Cette multiplication de la puissance presque aussi miraculeuse que la multiplication des pains par Jésus correspond à une stratégie conduite par l’ensemble de l’industrie des semi-conducteurs, avec à sa tête Intel, bien sûr.
D’ailleurs chez Intel, on appelle cela la « stratégie du tic-tac » : le constructeur annonce une finesse de gravure accrue en année « tic » puis améliore le dessin de ses puces, en année « tac » (2).

Une prophétie autoréalisatrice

transistors_PrixLa clé de ce processus tient dans le fait que les bénéfices issus de la montée en puissance de l’informatique sont réinvestis en recherche pour préparer la génération suivante qui rendra obsolète la précédente et générera donc de nouveaux profits…et de nouvelles recherches. C’est ce qu’on appelle une prophétie auto-réalisatrice.

Malgré les difficultés rencontrées qui, elles aussi vont en s’amplifiant comme la chaleur générée par les microprocesseurs ou la difficulté à réaliser des gravures sous la barre de 20 nanomètres, la Loi de Moore s’est, jusqu’à présent toujours vérifiée.

La loi de Moore au pied du mur…technologique

Mais, en 2016, pour la première fois, il semblerait que la loi de Moore batte de l’aile. Avec des transistors toujours plus petits, on se heurte à un double mur : celui de la physique car il arrive un moment où il devient impossible de faire maigrir les composants et un mur économique cette course à la miniaturisation devient de plus en plus onéreuse avec des usines dont les coûts sont exorbitants.
Et ceci n’est pas anecdotique car en matière d’exponentielle, les petits ralentissements font à terme des grands changements et, en l’occurrence, devrait conduire dans la décennie à venir à une réduction de moitié de la puissance prévue et donc des applications.

Heureusement, les labos n’ont pas dit leur dernier mot. On devrait passer de la quantité à la qualité, en faisant en sorte que les futures puces soient plus performantes avec le même nombre de composants.
En effet, si la course à la miniaturisation semble toucher à sa fin, il reste encore une marge énorme pour améliorer la puissance des micro-processeurs.

Si une nouvelle loi de Moore reste à formuler, son postulat basé sur la croissance exponentielle, pourrait être élargie du hardware au software.
C’est du moins, ce que prétend, Ray Kurzweil, le futurologue de Google, qui prédit que l’intelligence des ordinateurs dépassera celle des humains vers 2045 (3) conduisant à une fusion entre l’homme et la machine, étape qu’il nomme la Singularité.

La loi de Moore est morte, vive la loi de Moore !


Les jalons de la loi de Moore

evolution_transistors

  • 1958 : première puce de l’histoire comportant un seul transistor
  • 1965 : Evocation de la fameuse loi de Moore
  • 1971 : tout premier processeur (le 4004 d’Intel) doté de 2300 transistors
  • 1977 : premier ordinateur grand public à utiliser des puces avec une gravure de 8000 nanomètres.
  • 1989 : la barre du million de transistors est franchie (processeur i860 d’Intel)
  • 2004 : coup d’arrêt à l’augmentation de la fréquence des horloges en raison de la chaleur dégagée par les puces
  • 2007 : première puce à dépasser le milliard de transistors
  • 2016 : Intel met fin à la loi de Moore en réduisant le rythme des gravures de plus en plus fines.  

La R&D n’a pas dit son dernier mot !

ordinateurs_Quantique

Au-delà de la taille, les projets ne manquent pas pour rendre les processeurs plus performants.
On pourrait utiliser les photons à la place des électrons, ou remplacer le silicium par d’autres matériaux comme le germanium ou le graphène ou encore miser sur l’ordinateur quantique, le graal de l’informatique.

Une autre piste très prometteuse vise à améliorer la communication entre les composants en optimisant leur organisation.
Enfin, les puces universelles devront faire la place à des processeurs spécialisés comme c’est le cas avec les processeurs graphiques.

 


1 – Gordon Moore est alors Directeur de la R&D de Fairchild semiconductors
2- Les Echos – 14 juin 2016- P.10
3- Nouvel économiste, publié le 30 juillet 2015 / The Financial Times Limited


A visionner pour mieux comprendre :

Vers la suprématie de l’Intelligence Artificielle ?

(votes : 7)
Loading ... Loading ...
Posté par fabrice
 

Octobre 2015

match-IA-Humain-pano

Quand l’intelligence artificielle avance ses pions

Avec cette toute 1ère victoire remportée par un ordinateur au jeu de GO, une étape majeure dans la course à l’intelligence vient d’être franchie ! Est-ce le point de rupture qui marque le début de la fin de la suprématie de l’intelligence humaine ? L’avenir nous le dira !

Si l’intelligence (tout court) a fait ses tout premiers pas sur Terre, il y a plus de 3 millions d’années, comme l’affirme le paléontologue Yves Coppens, lorsqu’un hominidé a eu l’idée d’utiliser un caillou pour en transformer en autre en le frappant à l’aide du premier, il est plus difficile encore, semble-t-il, de dater l’avènement de l’Intelligence Artificielle.

Ceci est d’autant plus compliqué qu’il n’est pas aisé non plus de la définir. De manière imprécise, on évoque un dispositif fondé sur les mathématiques, les algorithmes et la sémantique dont les de compétences et de savoir-faire offrent une efficacité comparable voire supérieure à l’intelligence humaines(4).

L’Intelligence Artificielle a gagné ses lettres de noblesse

jeu-de-go_vignette

De ce point de vue et dans un registre spécifique, le pas semble définitivement et irrémédiablement franchi. L’intelligence Artificielle a gagné ses lettres de noblesse en remportant une victoire sans précédent sur l’intelligence humaine. En effet, le jeu de Go était le dernier jeu (de plateau) où l’homme battait encore la machine. Dorénavant, cette époque est révolue !

Tout s’est joué à Londres en octobre 2015. AlphaGo, le programme d’ordinateur de Google développé par sa filiale DeepMind, bat par 5 victoires à zéro le champion de jeu de Go européen, le Français Fan Fui.

Face à l’intelligence humaine, l’ordinateur s’est montré impitoyable en défiant pour la toute première fois, notre honneur. Car, c’est bien de cela dont il s’agit.

C’est un véritable exploit : le jeu de Go, inventé par les chinois il y a 3 000 ans, est considéré comme le jeu de société (dit de plateau) le plus complexe imaginé par l’homme. Le nombre de combinaisons dépasse l’entendement : 10 puissance 172, à comparer au 10 puissance 128 combinaisons du jeu d’Echec, soit des centaines de millions de milliards de milliards de milliards de milliards de fois plus ! (5).  Il est même supérieur au nombre d’atomes de l’univers. A titre de comparaison, le tout premier jeu vidéo, Tic Tac Toe en 1952 ne disposait que de 765 combinaisons possibles !

Après Deep Blue, une nouvelle Frontière vient d’être franchie !

garry-kasparov-face-deep-blue-IA

Il y a presque 20 ans (le 10 février 1996), se produisit déjà un tout premier exploit de l’intelligence artificielle. Le champion d’échecs, Garry Kasparov, perdait une première manche, avant de s’incliner, l’année suivante, lors de la revanche contre un adversaire beaucoup plus lourd que lui mais pas moins habile : Deep Blue d’IBM, une machine de 700 kilos, excusez du peu !

15 ans plus tard, en février 2011, le système d’Intelligence Artificielle d’IBM ; Watson(voir encart) remporte le jeu télévisé, Jeopardy ! qui consiste à trouver la question face à une réponse énoncée.

Cette fois, il s’agissait d’intégrer autant de connaissances qu’un être humain et de comprendre les questions, autrement dit le langage naturel.

Mais avec le jeu de Go, qui offre plusieurs centaines de positions à chacun des coups, une nouvelle étape est atteinte comme l’explique Tristan Cazenave, spécialiste de la programmation des jeux : « c’est le graal de l’intelligence artificielle, un des objectifs les plus durs à atteindre ».

Relativisons toutefois, d’autres jeux très intuitifs comme le Poker résiste encore en partie aux ordinateurs.

intelligence-artificielle-contre-homme

S’inspirer du fonctionnement du cerveau humain

Le principe de base de cette prouesse repose sur des techniques d’apprentissage automatique, dites deep learning et sur des réseaux de neurones artificiels. Le tout doté d’une puissance de calcul phénoménale comprenant un millier de processeurs(1). Tout de même !

Autrement dit, les algorithmes s’inspirent du fonctionnement du cerveau humain en utilisant les toutes dernières études des neuroscientifiques.

L’objectif, peut-être le plus ambitieux du millénaire, est de comprendre comme fonctionne l’apprentissage dans un cerveau humain et de réutiliser ces mécanismes pour enseigner « le sens commun » aux machines.

IBM, Google, Facebook, tous à la recherche du conceptuel

IBM, Google, Facebook et de nombreuses start-up, tous avancent sur le terrain de l’Intelligence Artificielle. Les progrès passent par la prise en compte de concepts et d’avancées sur le terrain de l’intelligence émotionnelle et affective.

Par exemple en 2012, Google a mis au point un programme permettant de discerner un félin, sans aucune aide humaine, après avoir passé en revue 10 millions d’images aléatoires provenant du Youtube.

Autre exemple porté par Yann LeCun (2), spécialiste de l’Intelligence Artificielle chez Facebook, la firme de Mark Zuckerberg travaille à la mise au point d’un assistant personnel en mesure de répondre à toutes questions posées en langage naturel par son interlocuteur. Quant à Microsoft, il lance un programme d’IA sur la plateforme de construction Minecraft (un monde virtuel où les joueurs bâtissent des décors et autres outils) avec comme objectif de tester un large éventail de capacité cognitives grâce à l’environnement « flexible » qu’offre Minecraft (5).

Résoudre les problèmes du monde réel, tel est le nouveau mot d’ordre qui hante les équipes de développement de l’I.A.

Gardons toutefois les pieds sur Terre, car comme le souligne Gary Marcus, l’un des spécialistes de l’Intelligence Artificielle : «L’intelligence artificielle est encore peu à l’aise dans le monde réel. La question clef –dont personne ne connaît la réponse pour l’instant– est de savoir si un succès au go va nous y amener plus vite.»(3)

Pour conclure, laissons le mot de la fin à l’un des cerveaux les plus brillants que l’humanité ait connu, l’astrophysicien Stephen Hawking qui exprimait en décembre 2014: « le développement de l’intelligence artificielle pourrait signifier la fin du genre humain(1) ».

Face à la compétition qui s’annonce entre l’homme et la machine, il reste malgré tout une lueur d’espoir : l’intelligence artificielle aujourd’hui est incapable de mentir…du moins de son propre chef.

Mais là aussi, rien n’est joué !

Mis à jour le 28 avril 2016

Quand l’Intelligence Artificielle rentre dans le jeu

jeopardi-IA

  • 1951 : Christopher Strachey conçoit le premier programme de jeu de Dames puis celui du jeu d’Echecs ;
  • 31 août 1955 : 4 experts de l’informatique balbutiante (McCarthy, Minsky, Rochester, Shannon), décident d’organiser un séminaire visant à simuler les manifestations de l’intelligence humaine ; c’est le vrai coup d’envoi de l’I.A.;
  • 1997 : Deep Blue d’IBM bat le champion du monde d’échecs, Kasparov ;
  • 2003 : Buggy bat N’Diaga Samb aux dames;
  • 2005, un robot remporte le Darpa Grand Challenge en conduisant de manière autonome durant 131 miles sur une piste sans connaissance préalable ;
  • 2011 : Watson, un programme développé par IBM bat largement 2 champions américains au jeu télévisé Jeopardy ;
  • Février 2015 : Deep-Q-Network (DQN) de Google bat un champion de jeux vidéos développés par Atari, au total 27 jeux vidéos des années 70 & 80 dont le célèbre Space Invaders ;
  • Octobre 2015, avec la victoire contre le champion d’Europe du jeu de GO, plus aucun jeu, dit de plateau, ne résiste aux « robots »
  • 15 mars 2016 : victoire finale  du programme de Deep mind  (4 manches à 1) contre le  Sud-Coréen Lee Sedol, numéro 3 mondial du jeu de GO

Pas si élémentaire que ça, mon cher Watson !

IBM_Watson

Watson le logiciel d’intelligence artificielle d’IBM est capable face à un volume considérable de données, d’extraire ce qui fait sens dans le cadre d’un domaine donné(4).

Ainsi, Watson après avoir « digéré » un volume considérable de données médicales,  publications scientifiques, études des laboratoires, rapports établis par les médecins, documents relatifs aux protocoles..)  est en mesure de conseiller le médecin sur le traitement le plus approprié pour son patient.

Sur certains registres, comme la capacité à ingurgiter des données non structurées phénoménales et à en extraire rapidement quelque chose d’exploitable, Watson surpasse l’intelligence humaine. D’autant, qu’il a la capacité, dans son domaine, d’auto-apprentissage.

 


1 – Intelligence Artificielle : Google a battu un champion au jeu de Go – Les Echos – 27 janvier 2016
2- « le jeu de Go, paroxysme de la guerre entre Facebook et Google sur l’Intelligence artificielle ;
3- « L’intelligence Artificielle nous a battu au jeu de Go mais encore loin de régner sur le Monde » : http://www.slate.fr/story/113411/intelligence-artificielle-go
4- « 2016, l’année de l’Intelligence Artificielle ? – La Tribune – 2 février 2016
5 – Science & Vie N° 1184 – Mai 2016 – p.98 &99


A visionner pour mieux comprendre :

La première crise planétaire provoquée par des robots !

(votes : 13)
Loading ... Loading ...
Posté par fabrice
 

 6 mai 2010

 Un grain de silicium dans les marchés

 

6 mai 2010, 14 h 32′ 44″  : un courtier ordonne la vente de Contrats à Terme pour un montant de 4 milliards de dollars mais une erreur se glisse dans l’ordre, celui-ci ne comporte pas de prix de vente. En un clin d’oeil, toute la planète finance bascule dans une spirale infernale conduite à un train d’enfer par les robots traders.

Le robot trader en cause appartient à Waddell & Reed, un fonds de pension américain. Sans se poser de question et surtout dans le même instant, puisqu’il est programmé pour, le robot passe plus de 3000 contrats de vente. Wall street dévisse.  Pour la toute première fois de l’histoire, on a perdu le contrôle des machines !

La créature, le robot trader, échappe à son créateur

Le problème vient du fait que le Robot de Waddell & Reed va être suivi par ses petits copains; des centaines d’autres robots « paniqués » par la situation inhabituelle qui lui emboitent le pas. Et comme leurs algorythmes de plus en plus sophistiqués, fonctionnent à un rythme effréné, totalement hors de portée de l’esprit humain, cela enclenche un effet domino dévastateur.

Pour la toute première fois dans le monde feutré de la finance, en raison de l’exécution massive d’ordres de ventes automatiques, nous assistons à un krach éclair ou Flash Crash d’une ampleur inégalée que l’homme ne maîtrise pas.

La panique envahit les salles de marché, alimentée par une vente en cascade que rien ne semble pouvoir stopper. Plus tard, les rapports de la SEC (organisme américain de réguluation des marchés financiers) constatera que certains titres ont changé 27000 fois de mains, en moins de 15 secondes. Facteur aggravant, la journée est marquée par la crise grecque qui pèse sur l’Euro, rendant les marchés particulièrement nerveux.

A 14 h 44, tandis que le marché des actions de Wall Street vient d’entrer dans la tourmente, après celui des Futurs de Chicago d’où vient le tsunami, l’action Apple perd 23 dollars (-20 %) en 2 minutes. Pour d’autres sociétés, c’est encore pire. Procter & Gamble voit son cours chuter de près de 50 %.  Les cours du pétrole s’effondrent de 6% .  Bref, c’est la panique.

A 14 h 45: Les ventes automatiques se poursuivent et en l’espace de quelques minutes, entrainant la saturation des réseaux. C’est près de 1000 milliards de dollars qui se sont alors envolés faisant plonger Wall Street de près 10 %.  .

A 14 h 52 : La bourse de Chicago décide une mesure exceptionnelle. Elle suspend durant 5 secondes toutes les cotations. La descente aux enfers est enrayée. Après 15 heures, les hommes reprennent le contrôle de la situation en mode « manuel », écartant les robots. Les autorités decideront d’annuler toutes les opérations effectuées entre 14 h 40 et 15 heures. Au terme de la journée, Wall Street aura perdu « seulement » 3,2 %.

Le speed trading : un million de fois plus rapide que les humains 

Le coupable est identifié. Il s’appelle le « le Trading Haute Fréquence », ou THT ou encore Algotrading. Il s’agit d’une technique qui consiste, grâce à des algorythmes très complexes utilisant des ordinateurs hyperpuissants et des réseaux de plus en plus rapide, à profiter des micromouvements du marché. Tout se joue au niveau du millionième de seconde; en une second, plus de 1000 ordres peuvent être donnés. A ce stade le cerveau humain ne peut pas suivre.

Cette méthode représente désormais les 2/3 des transactions aux Etats-Unis, plus de  25% en Europe.  La moitié des ordres concernant les entreprises françaises du CAC 40 (le Royaume Uni serait à près de 70%) relève de ce dispositif, l’objectif étant de dénicher les meilleurs cours possibles. On estime qu’en 2009, ce principe est à l’origine d’au moins 20 milliards de dollars de profit. Rien qu’à Wall Street, les sociétés de Trading Haute Fréquence ont réalisé 3,7 milliards de dollars de profit en 2011.

Quant les robots prennent le pouvoir sur les hommes

Les risques de l’AlgoTrading sont considérables comme on vient de le voir. Déjà, en 2002, il y avait eu un coup de semonce, sans parler du krack d’octobre 1987 qui avait été déjà aggravé par le trading informatique; toutefois, à l’époque, les transactions n’étaient pas aussi rapides qu’aujourd’hui.

Au-delà de ces robots traders parfois en proie à la folie qui bouleversent le monde de la finance, c’est un nouveau monde que l’on voit émerger. Celui des robots qui, peu à peu, à notre insu, prennent le contrôle des choses, là où le cerveau humain est hors course.

L’événement du 6 mai 2010, bien qu’exceptionnel, n’est plus isolé. Ce phénomène touche désormais d’autres types de transactions comme le marché des matières premières.  En mars 2010, les cours du cacao ont mystérieusement décroché de plus de 12 % en l’espace d’une minute.

Au-delà de ce Flash crach, ce 6 mai 2010 marque un tournant dans notre histoire.  Pour la toute première fois, une erreur de portée planètaire, n’est pas d’origine humaine mais relève d’une « intelligence »  non humaine !

Ne faut-il pas un grain de folies pour s’en remettre aux grains de silicium des puces informatiques…au risque qu’un grain de sable grippe tout le système ??

Mise à jour : 10 juin 2012

Les cordons -électroniques- de la bourse

En août 2010, ouvre le nouveau centre de données du New York Stock Exchange (NYSE) qui se veut le must technologique en matière de transactions financières virtuelles. 45 000 ordinateurs surdoués, connectés par un réseau Ethernet réagissant à la vitesse de 50 microsecondes permettant d’effectuer un ordre de bourse en 10 microseconde. A ce stade, même la distance joue. Se situer à quelques centimètres du dispositif d’échanges électronique fait gagner quelques centaines de millisecondes par rapport à un concurrent plus éloigné et au final quelques millions de dollars.

Pour les bolides de la finance, il n’ y a pas d’excès de vitesse, bien au contraire. On envisage même de leur construire  des « autoroutes » de fibre optiques. Ainsi, sur les 1300 km séparant les bourses de Chicago et de New York, les traders de haute voltige  pourraient  grapiller 3 millièmes de seconde sur une transaction.  On imagine que les gains sont à la hauteur d’un tel chantier estimé à 300 millions de dollars (source : L’échéance, François de Closets ; Ed. Fayard) .


Les gros cerveaux ne sont plus humains !

Pour la première fois le marché mondial du calcul intensif (HPC), celui des supercalculateurs, a franchi en 2011 la barre des 10 milliards de dollars. Ces machines peuvent effectuer des millions de milliards d’opérations à la seconde et occuper jusqu’à 1000 m2 de surface. Total s’est équipé récemment d’un serveur de calcul capable de procéder à 2.3 millions de milliards d’opérations à la seconde (2.3 pétaflops).

Autre exemple, Airbus vient d’acquérir un supercalculateur regroupant plus de 2000 serveurs afin de modéliser ses futurs avions. Mais la nouveauté vient des banques. Le Crédit agricole, la Société Générale ou encore JP Morgan ont recours à ce type de ressources pour leur calculs de risques financiers et autres opérations de finance et de bourse.

A l’horizon 2020, les ordinateurs les plus puissants rivaliseront avec les capacités d’un cerveau humain et un 2040, leur intelligence devrait atteindre celles de 6 milliards de cerveaux(1).

(1) Selon Philippe Vannier, PDG de Bull -  Source : Les Echos / rubrique High-tech & média – Mardi 3 avril 2012


A visionner pour mieux comprendre :
    • Cash Investigation : le trading haute fréquence – France 2 :

 

Tout premier homicide commis par un robot

(votes : 3)
Loading ... Loading ...
Posté par fabrice
 

25 janvier 1979

Partie de bras de fer…

 

La scène se déroule dans le Michigan (USA), au sein de l’usine Ford de Flat Rock. Nous sommes le 25 janvier 1979. Robert Williams est un des employés de l’usine, usine qui emploie également des robots.

L’un d’entre eux, pesant une tonne, dont l’histoire ne fournit ni le nom, ni le matricule, est chargé de collecter des pièces dans un des entrepôts. Est-ce par lassitude, par paresse ou plus vraisemblablement en raison d’un dysfonctionnement technique, le robot, ce jour-là, est particulièrement lent. Du moins, c’est la perception qu’en a Robert. Agacé par cette nonchalance, Robert, tournant le dos à son « collègue » robot, se saisit d’une pièce afin d’accélérer la cadence. Erreur fatale.

 

Le bras métallique du robot percute violemment Robert entre le cou et sa tête au niveau de l’occiput. Le robot, avait-il repris de la vigueur se sentant atteint dans son amour-propre ? Quoi qu’il en soit le choc va tuer sur le champ le pauvre ouvrier dévoué. Celui-ci s’effondrera sur le sol et son corps inanimé sera découvert par ses collègues une demi-heure plus tard. Le robot sera mis immédiatement hors d’état de nuire, c’est-à-dire débranché !

Pour la toute première fois, un humain est victime d’un robot (1) dans un homicide que l’on peut qualifier d’involontaire bien qu’aucun témoin ne puisse confirmer ou infirmer cette thèse !!

Responsables de l’usine et le fabricant du robot furent condamné à payer 10 millions de dollars à la famille, considérant qu’aucun mécanisme n’avait été prévu pour éviter ce genre de drame.

 

Le facteur « malchance » sonne toujours deux fois

Hélas ce drame ne restera pas isolé. Deux ans et demi plus tard, un second meurtre se produit, cette fois au Japon. La victime, Kenji Urada, est un ingénieur de 37 ans travaillant dans une usine Kawasaki. Constatant une panne sur un des robots de l’usine Kenji, chargé de la maintenance de ces ouvriers somme toute capricieux, accoure à son chevet pour établir un diagnostic et tenter de le rétablir.

Las ! Sans doute, sans mauvaise intention aucune, le bras hydraulique se remet en marche spontanément. Le pauvre Kenji est alors poussé vers une broyeuse qui va en faire de la charpie. De mémoire de robots, il s’agit là du second meurtre répertorié.

Si les robots ne sont pas foncièrement méchants, ils n’en sont pas moins dangereux !

 Publié le 4 février 2012

De la machine aux robots : une longue histoire

  •  - 3500 avant notre ère : premières machines-outils ; des tours de potiers transforment des boulent d’argile en vase ;
  • Egypte ancienne (-1085 -950) : Anubis, tête de chien avec une mâchoire articulée ;
  • -380, Archytas de Tarente, ami de Platon, construit un pigeon mécanique en bois ;
  • - 270 , premiers automates hydrauliques et pneumatiques à Alexandrie ;
  • en 809, Charlemagne aurait reçu du grand calife Haroun al-Rachid une pendule animée , qui serait le premier automate mécanique reposant sur une horlogerie interne ;
  • 1 er siècle après J.-C, premier traité des automates de Héron d’Alexandrie
  • XIIème siècle : Roger Bacon met au point une tête parlante ;
  • XIVème siècle : Les horloges animées des cathédrales mettent en mouvement des personnages ;
  •  XVIème siècle : Léonard de Vinci perfectionne les tours à bois, conçoit des oiseaux volants et un lion articulé doté d’engrenages ;
  • 1642, Pascal ( 1623-1662 ) élabore le premier automate logique, comportant un principe de programmation : c’est la Pascaline, considéré comme l’ancêtre de l’ordinateur ;
  • 1760 environ : la machine à aléser permet de calibrer les canons ;
  • vers 1775 : la machine-outil commence à utiliser la vapeur comme force motrice ;
  • 1803 : première chaîne de montage comprenant 45 machines est installée à Portsmouth pour le compte de la Marine anglaise ;
  • A partir de 1830 : les machines-outils deviennent de véritables machines industrielles ;
  • 1942 : le romancier Isaac Asimov introduit pour la première fois le terme robotique dans son livre Runaround ;
  • 1961 : le premier robot industriel, Unimate, conçu par la société Unimation intègre les chaînes de montage de General Motors ;
  • Années 1970 : les machines-outils à commandes numériques font leur apparition ;
  • 1997 : Deep Blue, un ordinateur d’IBM, bat aux échecs le champion du monde Garry Kasparov ;
  • 2008 : Kevin Warwick, chercheur britannique, est devenu le premier cyborg en procédant à des greffes électroniques sur son propre corps ;

Le jour où les machines s’éveilleront !

Raymond Kurzweil, informaticien américain, futurologue, inventeur dans le domaine de l’intelligence artificielle, reprend à son compte la théorie de la « singularité technologique », notion introduite par John Von Neumann, dans les années 1950. Celle-ci postule qu’au-delà d’un certain niveau de développement technologique, le progrès serait l’œuvre uniquement de l’intelligence artificielle.

Sur ce principe, Raymond Kurzweil, en observant l’accroissement de la puissance de calculs des ordinateurs qui est exponentielle, prévoit deux phases qui marqueront un tournant majeur pour l’humanité. 2029 : année où un ordinateur réussira le test de Turing et 2045, lorsque, selon lui, la quantité d’intelligence artificielle présente sur l’ensemble de la planète sera un milliard de fois supérieure à la totalité de l’intelligence humaine, c’est-à-dire de l’ensemble des cerveaux de la planète.

Raymond Kurzweill ajoute « Nous entrerons alors dans l’ère de la Singularité, stade où il ne sera plus possible d’effectuer raisonnablement des prévisions. Ce sera l’explosion de l’intelligence artificielle qui, obéissant plus que jamais aux lois exponentielles, dépassera l’intelligence biologique et sera en mesure de procéder elle-même à ses propres améliorations. » (2)


Le test de Turing

Il consiste à mettre en concurrence interlocuteurs humains et ordinateur dans un test portant sur la capacité à dialoguer de manière intelligente et humaine.

Concrètement, 5 interlocuteurs, 4 humains et une machine, dialoguent par écrit pendant une durée de 3 heures. Si au terme de ces 3 heures, la personne chargée de l’expérience est incapable de déterminer lequel des interlocuteurs n’est pas humain, le test est réussi.


1 – Le Point.fr – Pour la toute première fois, un être humain est tué par un robot – Publié le 25 janvier 2012
2- Cité dans Paris Match, N° 3271, 26 janvier 2012, par Roman Clergeat.
A télécharger : Histoire de la Robotique de A à Z par Agnès Guillot (Futura-sciences)


A visionner pour mieux comprendre :




A lire par curiosité :

  • Le Grand Livre des robots, tome 1 : Prélude à Trantor de Isaac Asimov.
  • Le Grand Livre des robots, tome 2 : La gloire de Trantor de Isaac Asimov.
  • L’oeuvre d’Isaac Asimov sur les robots regroupe de très nombreuses nouvelles et plusieurs romans. L’ensemble forme une seule grande histoire, le cycle des Robots, qui s’étale sur plusieurs millénaires. Toutes les nouvelles de robotique publiées par l’auteur ont été regroupées dans ces deux grands recueils.
    Asimov renouvelle complètement ce thème en inventant des « robots positroniques » gouvernés par trois lois protégeant les êtres humains et, a priori, parfaites et inviolables. Le jeu d’Asimov consiste à imaginer des situations révélant des failles de ces lois (exemple : un robot peut-il, restant passif, laisser un humain fumer une cigarette ?) et des bizarreries de comportement de robots qui semblent les enfreindre, puis à faire découvrir au lecteur comment cela est possible, à la manière d’une enquête policière.

  • Survivre à une invasion robot: Ils arrivent, soyez prêts, de Daniel H. Wilson.
    (à paraître le 22 février 2012)

    Ils arrivent… Soyez prêts ! Comment démasquer un robot qui imite un humain ? Comment désactiver un robot ménager qui se rebelle ? Comment fuir un essaim de mouches électroniques en maraude ? Dans cet indispensable guide de survie, le spécialiste Daniel H. Wilson livre tous les secrets pour réprimer une mutinerie de robots. Remèdes contre les blessures au laser, reconnaissance des faux visages et discours, combat main contre pince… SURVIVRE à une invasion Robot couvre tous les scénarios possibles qui menacent l’espèce la plus en voie de disparition aujourd’hui : l’homme. Fondé sur des interviews pointues avec d’éminents scientifiques, et incluant de nombreuses images de prototypes actuels, SURVIVRE à une invasion Robot est aussi une introduction parfaite à la robotique contemporaine. N’attendez pas qu’il soit trop tard ! Découvrez toutes les astuces pour vous défendre contre l’invasion imminente !
    L’auteur, Daniel H. Wilson, est docteur en robotique de l’université Carnegie Mellon

Tout premiers pas sur la Lune

(votes : 19)
Loading ... Loading ...
Posté par fabrice
 

21 juillet 1969

Un petit pas pour une immense première fois

 

 

« Un petit pas pour l’homme, un  bond de géant pour l’humanité »

Mon père me réveille au beau milieu de la nuit. C’est ce que nous avions convenu. Je viens juste de fêter mes 12 ans. Encore embrumé de sommeil, on s’installe, mon père et moi, devant le téléviseur Ducretet Thomson. L’image noir & blanc est constellée de tâches blanches comme pour nous rappeler que nous sommes en direct des étoiles. Malgré l’insouciance de ma jeunesse, j’ai vraiment conscience de vivre un moment extraordinaire.

Les premiers mots du tout premier « extraterrestre »[1]

3 heures 56 (heure française, -2 heures 56 GMT-nuit du 20 au 21 juillet 1969), l’émotion se lit dans le regard de mon père. Neil Armstrong descend du module lunaire « Eagle »[2] et pose son pied gauche sur la surface lunaire.  Le premier pas d’un Homo sapiens sur un autre sol que celui de notre bonne vieille planète [3]. Ça plane pour moi comme probablement pour les quelques 600 millions de téléspectateurs témoins de ce moment historique.

On mesure d’autant plus l’exploit aujourd’hui lorsqu’on sait que le module lunaire appelé LEM était doté d’un ordinateur de bord qui ne disposait que de 4 Kb de mémoire vive (RAM) et de 74 kb de capacité de disque dur. Autant dire moins que le plus petit des smartphones de 2009 et sans aucune mesure avec nos PC domestiques.

Avec un brin d’ironie on pourrait comparer la modestie de la mémoire de l’ordinateur à la faiblesse des dialogues qui  s’engagèrent ensuite entre Armstong et Buzz Aldrin venant le rejoindre : « C’est quelque chose, n’est-ce pas ? Une magnifique vue », s’enthousiasme  Armtrong. Auquel répond Aldrin :  « Une magnifique désolation ».   Formules lapidaires compte tenu de l’évènement mais qui n’en demeure pas moins le tout premier dialogue prononcé hors de notre planète !

Illustration adressé par Hergé à Amstrong en 1969 - © Hergé - Moulinsart SA

Dessin offert par Hergé à Neil Armstrong

Apollo 11 : les premiers pas sur la Lune – Archives de l’Ina

« Ce programme est important pour des raisons politiques internationales »

7 ans plus tôt, en 1962, un autre dialogue, qui a lieu cette fois dans le bureau ovale de la Maison Blanche, donne une vision moins idylique de cette aventure spatiale. « Ce programme est important pour des raisons politiques, des raisons de politique internationale, et qu’on le veuille ou non, il s’agit d’un énorme défi à relever »;  le président Kennedy s’adresse ainsi au patron de la Nasa de l’époque, James Webb.

Il ajoute : « sans quoi, on aurait pas besoin de dépenser tout cet argent ». D’ailleurs, la population américaine reste très partagée sur l’intérêt de cette mission et ne sera véritablement conquise qu’un après la mission Apollo 11.

La face cachée de la Lune…

« We choose to go to the moon. » Cette déclaration de John F. Kennedy fixe un nouveau cap dans cette course aux étoiles dont  le point d’orgue sera le premier pas sur la Lune.

Cet événement unique dans l’histoire de l’humanité a aussi ses détracteurs. Il s’agit d’adeptes de la thèse du moon hoax ou canular lunaire.  Ses partisans contestent la théorie officielle de la Nasa estimant que l’alunissage n’est qu’une reconstitution en studio.  Le tout aurait été réalisé au sein d’une base militaire secrète située dans le désert du Nevada.

En 1974, un auteur, Bill Kaysing, relève dans son livre de nombreuses « bizarreries » comme l’absence d’étoiles dans le ciel, de cratère dans le sol où se pose l’engin spatial, ou  le fait que le drapeau flotte alors que sans atmosphère pas de vent…  Bref, une série d’observations et de déductions qui sème le trouble dans certains esprits et parvint à convaincre 6 % des américains (sondage Galupp, 1999).

Depuis cette idée « du complot »  fait son chemin réactivée par certains médias et surtout par internet. Les sceptiques sont désormais près de 20 %.  La Nasa conteste preuves à l’appui ces théories qu’elle considère aussi farfelues que le professeur Tournesol.


De nombreux petits pas pour un grand bond pour l’humanité

Ces premiers pas historiques sur notre satellite naturel  ont été précédés des premières pattes dans l’espace. Laïka a été la première chienne mise sur orbite à bord de Spoutnik 2. Elle vécut un enfer qui heureusement ne dura que quelques heures. Victime d’un manque de préparation et probablement de la désinvolture des techniciens chargés de préparer le dispositif, elle mourut par manque d’oxygène, dans une température invivable.

Strelka, une femelle Husky, eut plus de chance en revenant saine et sauve d’un vol sur Spoutnik 5. Sans le savoir, elle participa au réchauffement de la guerre froide, en mettant au monde une chienne, Puchinka, qui sera offerte par Khrouchtchev à Kennedy. Cette dernière ira fricoter avec le terrier des Kennedy et leur donna quatre beaux chiots.

montgolfière-versailles-1783

Celui qui a véritablement l’étoffe d’un héros, s’appelle Ham. C’est un chimpanzé de 3 ans et 7 mois. Il est propulsé le 31 janvier 1961 dans la stratosphère par une fusée Mercury. Résistant aux fortes pressions et à des températures élevées, on le récupéra dans l’Atlantique. Il sera le tout premier « terrien » à quitter la Terre et à y revenir vivant.

Cependant, les tout premiers passagers aériens de l’histoire sont un canard, un coq et un mouton. C’était le 19 septembre 1783 à Versailles. Ils ont pris place dans un ballon des frères Montgolfier, firent une ascension de 500 mètres et se déplacèrent sur 1700 mètres pour un vol qui dura 8 minutes.

 


« Bonne chance Monsieur Gorsky » ou la fesse cachée de la Lune !

Neil Armstrong  ne se contenta pas de prononcer  l’une des phrases les plus célèbres de l’histoire en posant son pied sur la Lune.  Au cours de la mission d’Apollo 11, il ajouta une interjection très énigmatique : « Bonne chance Monsieur Gorsky ! ».

Journalistes, la Nasa et bien d’autres tentèrent de découvrir l’identité de cet énigmatique Monsieur Gorsky. En vain. Aucun astronaute ni cosmonaute soviétique ne portait ce nom, ni aucune personnalité étant susceptible de retenir l’attention d’Armstrong. Interrogé sur ce point, ce dernier garda le silence durant 30 ans.

Puis, un jour de 1995 à la suite d’une réunion en Floride, il aurait enfin accepté d’éclaircir cette zone d’ombre :

« Monsieur Gorsky est mort maintenant. Je vais pouvoir répondre a votre question : lorsque j’étais gosse, j’avais l’habitude de jouer au basket dans le jardin. Un jour, la balle atterrit dans le jardin du voisin. Au moment ou j’allais la ramasser dans leur jardin, je suis passe devant la fenêtre de la chambre a coucher de M et Mme Gorsky, nos voisins. Et là, j’ai pu entendre madame Gorsky qui disait a monsieur Gorsky :

- Une fellation ? Tu veux que je te fasse une fellation ? Je t’en ferai une le jour où le gosse du voisin marchera sur la lune… « 

Moralité de cette histoire (vraie ?) : tête en l’air ou pas,  les paroles en l’air, surtout lorsqu’il s’agit de parties de jambes en l’air,  finissent toujours par retomber sur Terre !!


 Quelques dates qui ont tracé le chemin de la Lune   :

  • 4 octobre 1957, l’URSS lance le tout premier satellite artificiel : Spoutnik. 4 antennes, 84 kilos et 58 cm de diamètre.
  • 4 janvier 1959, premier survol de la Lune par la sonde Luna 1;
  • puis les premières images de la face cachée de la Lune (Luna 3, 18 octobre 1959);
  • Premier homme dans l’espace, Youri Gagarine (12 avril 1961);
  • Premier survol d’une planète autre que la Terre, Vénus par la sonde Mariner 2 (14 décembre 1962)…
  • première femme dans le cosmos, Valentina Terechkova (16 juin 1963);
  • Alexeï Leonov, premier homme à effectuer une sortie dans l’espace (18 mars 1965);
  • première sonde à se poser sur la Lune (3 février 1966);
  • 1972, fin du programme Apollo
  • …2019, une petite colonie pourrait s’établir sur la Lune (annonce faite par la Nasa), base permanente destinée à préparer les premiers voyages vers Mars.
  • 25 août 2012, décès de Neil Armstrong, âgé de 82 ans, des suites d’une opération cardio-vasculaire;
  • 28 août 2012, pour la première fois, le lancement d’un nouveau single (du rappeur Will.I.Am), se fait d’une autre planète que la Terre (4)
Actualisé le 26 août 2012 

1 -  Avec beaucoup d’humour, Niel Armstrong se qualifiait de « tout premier extraterrestre ! »
2 - Ces premiers pas dureront près de 2 heures 30, au cours desquelles, seront parcourus 60 mètres et récoltés 21 kg de roches lunaires.
3 - Lors d’un salon du Bourget, Neil Armstrong, chercha à relativiser sa performance en expliquant que derrière cet exploit, il y avait 20 000 entreprises, 300 000 hommes et 3% du budget américain.
4 – Passionné de science, le rappeur américain Will. I.Am diffusera, le 28 août 2012, en avant première son single  » Reach for the star » via le robot Curiosity situé sur la planète Mars. Aucun haut parleur sur Mars, et pour cause, personne pour écouter, le morceau est diffusé sous forme d’ondes relayées par les antennes de la Nasa. Pour en savoir plus, cliquez ici


A découvrir pour mieux comprendre :

Emission de France 2 : Un jour, un destin


A lire ou à relire avec plaisir :

  • « À la conquête de la Lune », un web documentaire de France 24 et RFI.
  • A l’occasion de l’anniversaire du lancement d’Apollo 11, le 16 juillet 1969, le blog «Big Picture» présente quarante clichés commémorant l’événement: des photos de la navette, des astronautes Neil A. Armstrong, Michael Collins et Edwin E. «Buzz» Aldrin Junior, de la lune, des réactions de l’époque.
  • «Le plus fort, c’est quand Armstrong est descendu de son échelle» Le 21 juillet 1969, Neil Armstrong a été le premier homme à marcher sur la lune. Spécialiste scientifique à l’époque, Alain Schärlig, 73 ans aujourd’hui, a commenté, en direct sur la TSR (un autre exploit pour l’époque!) ce moment historique. Il se souvient dans une interview de l’édition suisse de 20 Minutes.
  • On a marché sur la lune Les aventures de Tintin – Hergé. Ca y est, la fusée a bel et bien décollé ! A son bord, Tintin, le Capitaine Haddock, le Professeur Tournesol et son assistant s’apprêtent à un long voyage dont les moindres détails ont été minutieusement préparés. Mais le décollage est à peine achevé que surviennent les premières surprises !
  • Apollo en route vers les étoiles Retrouvez la fantastique histoire du Programme Apollo à travers un document fascinant de 80 minutes: un panorama complet et chronologique de l’extraordinaire aventure du programme américain d’exploration de l’espace de la 1ère mission en 1961 à la fin du programme en 1972.

Le tout premier courrier électronique

(votes : 15)
Loading ... Loading ...
Posté par fabrice
 

Octobre 1971

Quand la technologie s’en mail !


Qwertyuiop :  peu romantique ce premier message électronique préfigure une nouvelle manière de communiquer qui bouleversera autant la sphère privée que professionnelle; pour la toute première fois le courrier s’affranchit du papier et du temps. Plus qu’une invention, c’est une révolution sociétale.  Alors, quel en a été le facteur déclenchant ?!

Une correspondance qui s’affranchit des contraintes 

En ce début d’automne 1971[1], personne n’imagine encore la révolution « épistolaire » qui se fomente quelque part en Angleterre, à Cambridge pour être précis. Ce qui se joue à cet instant, c’est une manière totalement inédite de correspondre par écrit, d’une personne à une autre, sans intermédiaire, sans délai, sans affranchissement, et cela quelle que soit la distance.

Ray Tomlinson, l'inventeur de l'E-Mail
Ray Tomlinson, l’inventeur de l’E-Mail

Comme beaucoup de révolutions, celle-ci débute discrètement. Nous sommes dans les locaux de la société BBN collaborant, pour le compte du gouvernement américain, au projet Arpanet, l’ancêtre d’Internet.

Là, un ingénieur, Ray Tomlinson, a l’idée d’associer deux programmes d’ordinateurs existants (SNDMSG / READMAIL) : l’un permettant de partager des messages entre plusieurs utilisateurs d’un même ordinateur et l’autre conçu pour copier simultanément le même fichier sur les 15 ordinateurs que compte le réseau Arpanet, balbutiant.

L’arobase : la base de la messagerie électronique !

200 lignes de code plus tard, il crée les 2 premières boites de messagerie de l’histoire sur 2 ordinateurs voisins. Dans la foulée, il adopte le fameux arobase [@]  afin d’identifier les adresses de ces boites, en séparant le nom de l’utilisateur de celui de l’ordinateur. Pourquoi l’arobase ? Parce que l’arobase [2] a du caractère, il ne figure dans aucun des noms propres ou figurés et de surcroît se prononce « at » en anglais ce qui signifie « chez ».

Et voici le résultat, avec la toute première adresse électronique : tomlinson@bbn-tenexa et le tout premier message : qwertyuiop, qui correspond aux premières lettres du clavier, version anglo-saxonne.

Ce programme et ses versions plus élaborées (programme MSG conçu par John Vittal en 1975) vont être adoptés d’abord par la petite communauté d’ingénieurs (15 puis 23 ordinateurs reliés entre-eux) avant de se développer bien au-delà de cette communauté.

L’e-mail : un succès annoncé

En 1978, un rapport de l’ARPA (Advenced Research Projects Agency) annonce le raz de marée que l’on connaît : plus de 200 milliards de mails échangés quotidiennement dans le monde dont plus des deux tiers sont des spams.

Et nous y voilà, car la technologie du courrier en réseau, selon l’appellation de l’ARPA, est à des années-lumière de la valeur littéraire des échanges de correspondances qui animait l’intelligentsia européenne à l’époque de Voltaire, de Madame Sévigné ou de Flaubert. Goethe, qui s’inquiétait déjà de la rapidité des échanges par correspondance en Europe, en qualifiant l’époque de « vélocifère », serait abasourdi par « le temps réel ».  Et que dirait-il face à  la médiocrité pour ne pas dire vulgarité de la plupart des contenus ?

arobaze

Avec les spams, nous atteignons le niveau zéro de la correspondance auquel Goethe n’aurait probablement pas survécu ! Pourtant, il n’aura pas fallu longtemps pour que ce type de messages, dit pourriels, apparaissent : 7 ans, après le premier e-mail. C’était le 3 mai 1978.

Un commercial de la société informatique DEC adressait un mail à 393 personnes pour les inviter à découvrir son nouvel ordinateur. Le message indésirable était né, né pour encombrer le réseau et les esprits. Quatre ans plus tard, en 1982, un chercheur américain,  Scott Fahlman) crée une nouvelle forme de langage, les smileys.

Créer  du lien : la vocation du courrier depuis toujours

Créer du lien malgré les distances géographiques et culturelles, c’est la fonction du courrier depuis toujours. Entre 1820 et 1914, 280 millions de lettres seront expédiés par les immigrants allemands, des Etats-Unis vers l’Allemagne ; mais aujourd’hui, grâce à cette mise en relation instantanée, cela dépasse l’entendement : 80 000 milliards de mails par an, 1 milliard 200 millions de destinataires potentiels. Comparativement, les lettres expédiées de manière traditionnelle dans le monde atteignent à peine les 500 milliards annuellement.

Signe Arobase dans une lettre de marchands vénétiens datant de plus de 500 ans
Signe Arobase dans une lettre de marchands vénitiens datant de plus de 500 ans

Lorsque l’empereur romain Auguste, en l’an 22 av J.-C instaure le premier service de courrier régulier (Cursus publicus) destiné à acheminer des messages à travers tout l’Empire, il ne pouvait imaginer que 2000 ans plus tard la transmission de messages deviendrait une des principales occupations du velgum pecus. Il ne pouvait encore moins concevoir que le temps de transmission serait, dans 91 % des cas, bien inférieur à 5 minutes, alors qu’il y a 200 ans seulement une lettre expédiée de Paris mettait plus de 4 jours pour atteindre Marseille.

Sans aucun doute, en ce jour d’automne 1971, en matière de correspondance, l’humanité s’est affranchie de tout ou presque…même de l’affranchissement !

 

 

Mise à jour le 21 juillet 2012 

Un petit Click pour un grand clap : première photo cliquable du web

Les Horribles Cernettes

Nous sommes en 1992, au laboratoire du CERN près de Genève.  Tim Berners-Lee, peaufine le concept du web (World Wide Web) basé sur les liens hypertextes qu’il vient d’inventer. Il décide ce jour-là de tester le principe de l’image cliquable.

Pour cela, il demande à des jeunes filles du CERN de Berne (Suisse) une photo. Cette photo, prise avec un Canon EOS 650, deviendra historique  existe en deux versions : l’une, originale, sans retouche et la seconde retouchée qui sera publiée (3).

Ce cliché est une mise en scène pour un groupe de musique amateur « Les horribles cernettes ».  Il s’agit là de la toute première photo publiée sur le web. Et elle porte un titre en français !


Les jalons du web

  • 1971 : premier mail envoyé par l’ingénieur par Ray Tomlinson ;
  • 1987 : création du GIF (Graphics Interchange Format), se format sera supporté par les navigateurs à partir de 1993 et le premier Gif publié sont des flammes ;
  • 1992 : le réseau internet se nomme en France RENATER, réseau créé par le CEA, EDF, CNRS, le CNES, l’INRIA et le ministère de l’Enseignement supérieur ;
  • 30 avril 1993 : naissance du tout premier site web de l’histoire; un mois plus tars  on compte déjà 100 sites, 600 à la fin de l’année 1993 ;
  • 1994 : premier moteur de recherche internet en full texte : webcrawler ;
  • 23 avril 2005 : première vidéo publiée sur Youtube, « Me at the zoo » (4) ;
  • 21 mars 2006 : premier tweet, posté par  Jack Dorsey, un des fondateurs de Twitter qui à sa naissance se nommait  « twttr ».

L’histoire des lettres, en quelques chiffres :

  • 500 ans, avant J.-C., le roi perse Cyrus installe les premiers relais sur les routes de son vaste empire;
  • 22 avant J.-C., l’empereur romain Auguste créée le premier réseau de courrier;
  • 745, premier véritable service postal, en Chine;
  • 1477, créations des premiers relais de poste par Louis XI, uniquement destiné à la correspondance du roi, relais espacé de 7 lieues, soit 28 Km, d’où l’expression des bottes de 7 lieues, bottes très lourdes dont étaient dotés les postillons;
  • 1630, Descartes expédie un dessin non protégé par une enveloppe, et d’une certaine manière inaugure la carte postale;
  • 1653, première boite à lettre, à Paris;
  • 1760, Les tout premiers facteurs, dans un premier temps de ville;
  • 1796, la célèbre attaque du Courrier de Lyon;
  • 1830, les facteurs arrivent dans les campagnes;
  • 1840, premier timbre, en Angleterre;
  • 1849, premier timbre français;
  • 1870, première véritable carte postale (cartes postales illustrées en 1889).

1 –   Certaines sources mentionnent la date de mars 1972
2-  L’origine du signe correspondrait à une fusion de deux caractères consécutifs (une ligature), le a et le d, qu’auraient utilisés des moines copistes au VIème siècle.  L’@ ressurgit chez les marchands florentins du XIIème siècle, comme unité de mesure et son usage devient assez répandu aux Etats-Unis, au XIXème, sous la forme : « 2 objets@$ 10 » qui signifie : deux objets à 10 dollars pièce.
3- C’était en 1992, première image cliquable du web
4- Le Huffington Post : les premières fois du web


A voir pour mieux comprendre :

  • Le terme Spam viendrait d’un sketch des Monty Python, où le mot spam, marque d’un jambon en boîte, est sans cesse répété.

  • Une histoire de l’internet (en anglais)

A lire, à voir ou à visiter :

  • Internet pour les Nuls – Vous n’avez pas de diplôme d’informatique et vous rêvez de surfer sur la toile comme un pro ? Sans jargon informatique inutile mais avec des explications claires et simples agrémentées d’une bonne dose d’humour, ce livre a été spécialement conçu pour guider vos premiers pas dans le monde merveilleux d’Internet jusqu’à une maîtrise totale, sans stress, avec le sourire !
  • Les dix plaies d’Internet : Les dangers d’un outil fabuleux. Avez-vous déjà réfléchi aux questions suivantes : Lorsque vous consultez un moteur de recherche, savez-vous comment se  » calculent  » les résultats ? Peut-on faire confiance à Wikipedia ? Nos enfants collégiens ou lycéens recourent-ils massivement au copier-coller ? Est-ce ainsi que nous leur apprendrons à penser par eux-mêmes ? Avez-vous vraiment envie d’une société où tout le monde peut s’exprimer tout le temps sur tous les sujets ? À vous de réfléchir…
  • Traque sur internet – DVD avec Sandra Bullock. Angela BENNETT brillante informaticienne passe son temps branchée sur son ordinateur, sa spécialité traquer les virus. Comme souvent, un de ses correspondants lui envoie un programme à étudier, Angela découvre que cette disquette contient des données top secret. Elle va rapidement comprendre que, pour sa sécurité, elle n’aurait jamais dû y avoir accès.
  • Le Musée de la Poste – Le Musée de La Poste de Paris retrace l’histoire du transport du message écrit, de la tablette d’argile à l’aéropostale en passant par les boules de Moulins, la malle-poste et les ballons montés, les timbres-poste sans oublier les personnages emblématiques tels le postillon ou le facteur.