Des monstres à apprivoiser : les ordinateurs

24 février 1966
05m 38s
Réf. 00132

Notice

Résumé :

En 1966, dans le centre de calcul de La Gaude (IBM), le directeur présente un ordinateur, machine de grande taille, qui permet d'effectuer des calculs et des opérations logiques de façon extrêmement rapide.

Type de média :
Date de diffusion :
24 février 1966
Source :
Personnalité(s) :

Éclairage

L' "ordinateur" apparaît pour la première fois dans la langue française en 1956 : IBM dépose une appellation contrôlée pour une traduction de "Data Processing Machine", machine pour le traitement de données. Cette traduction est significative d'un changement technologique : les ordinateurs, jusqu'alors machines fabriquées par de rares universités, deviennent des produits commercialisés à grande échelle. Plus que jamais toutefois, ils apparaissent comme des outils stratégiques, tout particulièrement dans le domaine militaire. Dans un contexte diplomatique marqué par la volonté du général de Gaulle de rejeter la domination des États-Unis, l'ordinateur représente bientôt un enjeu stratégique. En effet, pour pouvoir se doter de l'arme atomique, la France nécessite de recourir aux ordinateurs centraux (mainframes, ordinateurs de très grande puissance de traitement fonctionnant suivant un modèle centralisé) : en 1963, les États-Unis refusent leur vente à la France. Trois ans plus tard, le général de Gaulle commande un rapport à François-Xavier Ortoli sur l'indépendance en matière de traitements de données.

L'ordinateur, en anglais computer, est une machine qui constitue l'aboutissement de trois innovations. La première d'entre elles fut développée en Europe à partir du 17e siècle : il s'agit de la mécanisation des opérations de calcul, à partir de tables ou de machines simples, comme les bouliers. La seconde technique est la programmation, utilisée dès le Moyen-Âge et particulièrement développée pour l'animation des automates, puis, à la fin du 18e siècle, pour la mise en marche des machines industrielles. Avec l'industrialisation, le besoin se fait sentir de machines qui facilitent les calculs, à la fois fiables et rapides. De nombreux projets voient le jour : le plus connu de ces "calculateurs" est celui de l'Anglais Charles Babbage (1792-1871), dans lequel l'État britannique investit massivement, sans succès. Dernier outil intellectuel : la notion d'algorithme, qui décrit de façon précise et systématique, l'ensemble déterminé et fini, des processus nécessaires à la résolution d'un problème donné. Les algorithmes, utilisés dès le 9e siècle avant Jésus-Christ en Perse, sont formalisés en mathématiques en 1936 par Alan Turing. Ce dernier invente une machine hypothétique, la "machine de Turing", par laquelle il les met en oeuvre et démontre la validité d'un telle technique mathématique. Pour ce faire, il utilise le langage logique développé par le mathématicien George Boole (1815-1864) dans son ouvrage Les Lois de la pensée (1854), se fondant sur un système binaire pour formaliser toutes les opérations de sa machine. Avec succès, il peut faire équivaloir la logique et la mécanique, c'est-à-dire les décisions logiques et les interrupteurs électriques. Dès les années 1930, l'intérêt de la réalisation d'une "machine" électrique pour traiter les calculs est sensible : ceux-ci, devenus de plus en plus complexes, exigent la mise en oeuvre de véritables équipes humaines, en dépit de leur caractère répétitif. La guerre, en raison des financements de l'armée, a toutefois un effet décisif sur les développements.

La machine la plus connue de cette période est l'ENIAC, machine colossale par ses dimensions, conçue pour faciliter les calculs de balistique, en lien étroit avec l'armée. Elle fait usage des tubes à vide, débuts de l'électronique, ce qui accélère considérablement les calculs, en raison de l'absence de frottements des systèmes mécaniques qui étaient jusqu'alors privilégiés. Cette machine, encore fragile, permettait certes d'effectuer des milliers de calcul à la seconde, mais, à la manière d'un boulier, ne peut pas garder la trace d'une opération, si elle doit en effectuer une seconde. C'est ainsi que l'architecture de machine à calculer conçue en 1945 par le mathématicien Joseph von Neumann (1903-1957) constitue une révolution. Aujourd'hui encore, tous les ordinateurs sont encore aujourd'hui conçus sur ce plan. Il y distingue (i) un organe de calcul, qui effectue les opérations, (ii) une mémoire qui sert à contenir les programmes décrivant la façon d'arriver aux résultats, et les données à traiter, (iii) des organes d'entrée-sortie ou périphériques, servant d'organes de communication avec l'environnement et avec l'homme et, enfin, (iv) une unité de commande permettant d'assurer un fonctionnement cohérent des autres éléments. Le plan de von Neumann s'inscrit dans un contexte où se développent les "théories de l'information". Le mathématicien entend, en effet, fabriquer un "cerveau artificiel" en imitant moins la physiologie du cerveau humain que son comportement logique, en différents "états de pensée" : il crée ainsi l'EDVAC, le Calculateur Electronique à Variables Discontinues. Son invention qu'il partage avec deux ingénieurs s'inscrit dans un contexte plus large d'étude de l'information et de la communication, entreprises par des psychologues et des mathématiciens. Dans le contexte de l'immédiat après-guerre, les travaux entendent rendre compte des problèmes de la transmission de l'information et du codage de celle-ci. Parmi ces "théories de l'information", la plus connue est celle que Norbert Wiener publie en 1948.

Christelle Rabier

Transcription

Marx (Monsieur)
Bien, vous avez là un ordinateur déjà d'une assez grande puissance qui sert pratiquement exclusivement aux travaux de nos ingénieurs au Centre d'études et de recherche. Comme vous le voyez, il se compose d'un certain nombre d'éléments physiquement séparés mais il faut comprendre que l'ordinateur, c'est bien cet ensemble de meubles, ils sont en effet reliés entre eux électriquement et cet ensemble constitue l'ordinateur. Bien entendu, le fait qu'il y ait de nombreux meubles montre déjà que c'est déjà un ordinateur assez puissant.
Robert Clarke
On a l'habitude en effet de voir les ordinateurs sous cette forme, c'est-à-dire des armoires, à l'intérieur desquelles il se passe quelque chose mais on voudrait bien savoir ce qui se passe. Est-ce que vous pourriez nous expliquer comment ça fonctionne ?
Marx (Monsieur)
Et bien, je vais essayer, je pense qu'il faut tout de suite éviter de parler de cerveau électronique, un ordinateur, c'est des fils, c'est de la ferraille, c'est des plaques de circuits imprimés, c'est des transistors et des résistances, par conséquent rien qui ne fait penser à quelque chose d'extrêmement complexe comme un cerveau humain, par exemple. Mais pourtant, c'est quelque chose de merveilleux et c'est merveilleux tout simplement parce que ça peut exécuter très vite des choses extrêmement simples. Ça peut exécuter des calculs très vite, ça a donc la fonction calculateur mais ça a une fonction de plus qui fait qu'on l'appelle ordinateur, ça peut exécuter des fonctions, des décisions logiques extrêmement vite or les décisions logiques, nous en prenons, par exemple, tous les matins en allant à notre travail quand nous disons : Est-ce que c'est un dimanche ou est-ce que c'est un jour férié ? Et si ce n'est pas un dimanche ou un jour férié et bien, c'est un jour de semaine et il faut peut-être aller au travail. Est-ce qu'on va au travail à ce moment-là ? Oui, si on est en bonne santé et si on n'est pas en bonne santé, on ne va pas au travail. Vous voyez apparaître des fonctions, ou dimanche, ou jour férié, des fonctions et je vais si c'est un jour de semaine et si je suis en bonne santé, pour déclencher une activité, aller au travail. Et bien l'ordinateur, finalement, c'est un assemblage de petits circuits de base qui font ces fonctions de base. Il y en a bien entendu des milliers, par exemple, sur un panneau comme ceux-ci et ils sont extrêmement rapides puisque on peut actuellement dans ce modèle prendre des décisions logiques, 200 000 décisions logiques à la seconde et on va actuellement dans les techniques modernes de nos jours jusqu'à 2 millions de décisions logiques à la seconde. Voilà la merveille, si vous voulez, je pense que ça a constitué effectivement une merveille.
Robert Clarke
En effet. Donc au coeur de l'ordinateur se trouve cet ensemble de circuits qui sont faits finalement de fils électriques et de transistors et ce raisonnement dont vous nous parliez tout à l'heure, je vais au travail ou je n'y vais pas, se traduit dans la machine, par quoi ? Par le courant passe ou ne passe pas par exemple.
Marx (Monsieur)
Exactement, c'est un phénomène binaire, nous appelons dans notre jargon binaire, en effet, il y a deux positions stables, oui ou non, vrai ou faux. Or tout raisonnement logique et aussi tout calcul numérique, en utilisant alors le système d'énumération binaire qui s'y prête par définition, peut se ramener à une séquence organisée de décisions de ce genre, utilisant des phénomènes bistables, des phénomènes binaires. Or, ces phénomènes peuvent se réaliser assez facilement en technique par des relais qui excités ou non excités, par une lampe qui allumée ou éteinte, par un fil qui a une tension de plus 5 volts ou 0 volt et par un Tor magnétique qui est aimanté dans un sens ou dans un autre. Et vous concevez que tout ça peut se traduire par des circuits physiques qui réalisent tout simplement les fonctions de base de tout à l'heure. Nous appelons d'ailleurs ces circuits, des circuits de base.
Robert Clarke
Aussi perfectionné qu'il soit, un ordinateur ne mérite donc pas d'être qualifié de cerveau artificiel car son intelligence est nulle. Il ne sait que répondre par oui ou par non aux questions qu'on lui pose. Et cela selon un programme, un câblage de ses circuits dont tout le mérite revient à l'ingénieur qui l'a réalisé. La merveille de l'ordinateur, c'est sa rapidité, dans ses tors de ferrite qui sont autant de petites mémoires temporaires, où sont retenues les données pendant le temps nécessaire au calcul, le courant électrique circule à 300 000 kilomètres à la seconde, tout comme dans les circuits dont vous voyez la fabrication.
(Musique)
Robert Clarke
Un autre exploit de ceux qui conçoivent et construisent les ordinateurs, c'est le degré de miniaturisation atteint. Les lampes d'autrefois sont remplacées par des transistors devenus si petits qu'il faut une loupe pour les voir. Le câblage classique des circuits disparaît, les fils sont maintenant souvent remplacés par des liaisons imprimées. Chaque élément d'un ordinateur moderne est 150 000 fois plus petit que celui qui existait il y a 20 ans. Le merveilleux enfin, c'est que tout se passe automatiquement et que l'ordinateur travaille sans jamais faire d'erreur car il fonctionne si vite qu'il a le temps en quelques secondes de vérifier la justesse de ses calculs puisque les derniers-nés de ces éléments réagissent au milliardième de seconde en attendant mieux.