Qui a invente l’ordinateur ?

Qui a invente l’ordinateur ?

Ni une encyclopédie ni Google ne sont en mesure de répondre à des questions qui semblent aussi simples que celle-ci : Qui a inventé le premier ordinateur ? Si nous commençons à creuser, nous trouvons rapidement de nombreuses réponses différentes, et la plupart d’entre elles sont correctes. La recherche d’une réponse nous invite à passer en revue l’histoire de l’informatique, à rencontrer ses pionniers et à découvrir que l’on ne sait toujours pas très bien ce qu’est un ordinateur. Aujourd’hui, qui-a-invente.eu vous propose son guide : Qui a invente l’ordinateur ?

Charles Babbage et l’ordinateur mécanique

Avant Babbage, les ordinateurs étaient des humains. C’était le nom donné aux personnes spécialisées dans les calculs numériques – celles qui passaient de longues heures à effectuer des opérations arithmétiques, répétant les processus encore et encore et laissant les résultats de leurs calculs écrits dans des tables, qui étaient compilées dans des livres précieux. Ces tables facilitaient la vie d’autres spécialistes, dont le travail consistait à utiliser ces résultats pour effectuer toutes sortes de tâches : des officiers d’artillerie qui décidaient comment diriger les canons, aux collecteurs d’impôts qui calculaient les taxes, en passant par les scientifiques qui prédisaient les marées ou le mouvement des étoiles dans le ciel.

Ainsi, à la fin du XVIIe siècle, Napoléon confie à Gaspard de Prony (22 juillet 1755 – 29 juillet 1839) la tâche révolutionnaire de produire les tables logarithmiques et trigonométriques (avec entre 14 et 29 décimales) les plus précises jamais réalisées, afin d’affiner et de faciliter les calculs astronomiques de l’Observatoire de Paris, et de pouvoir unifier toutes les mesures effectuées par l’administration française. Pour cette tâche colossale, de Prony a eu la brillante idée de diviser les calculs les plus complexes en opérations mathématiques plus simples pouvant être effectuées par des ordinateurs humains moins qualifiés. Cette façon d’accélérer le travail et d’éviter les erreurs est l’une des choses qui a inspiré le polymathe anglais Charles Babbage (26 décembre 1791 – 18 octobre 1871) à franchir l’étape suivante : remplacer les ordinateurs humains par des machines.

Babbage est considéré par beaucoup comme le père de l’informatique en raison de cette vision, qui ne s’est jamais vraiment concrétisée par ses efforts. Sa première tentative fut le Difference Engine, qu’il commença à construire en 1822, sur le principe des différences finies, afin d’effectuer des calculs mathématiques complexes au moyen d’une simple série d’additions et de soustractions, en évitant les multiplications et les divisions. Il a même créé une petite calculatrice qui a prouvé que sa méthode fonctionnait, mais il n’a pas été capable de construire un moteur différentiel pour remplir ces tables logarithmiques et trigonométriques tant convoitées avec des données précises. Lady Byron, la mère d’Ada Lovelace, affirme avoir vu un prototype fonctionnel en 1833 – bien que limité en complexité et en précision – mais à ce moment-là, Babbage avait déjà épuisé les fonds fournis par le gouvernement britannique.

Loin de se laisser décourager par cet échec, le mathématicien, philosophe, ingénieur et inventeur Charles Babbage redouble d’efforts. Il concentre toute son énergie sur le développement de l’Analytical Engine, beaucoup plus ambitieux puisqu’il serait capable d’effectuer des calculs encore plus complexes en calculant des multiplications et des divisions. Une fois de plus, Babbage n’a jamais dépassé le stade de la conception, mais ce sont les dessins qu’il a commencés en 1837 qui ont fait de lui, peut-être pas le père de l’informatique, mais certainement un prophète de ce qui allait arriver.

Les milliers de pages d’annotations et de croquis de Babbage sur le moteur analytique contenaient des composants et des processus communs à tout ordinateur moderne : une unité logique pour effectuer des calculs arithmétiques (l’équivalent d’un processeur ou d’une unité centrale de traitement), une structure de contrôle avec des instructions, des boucles et des branchements conditionnels (comme un langage de programmation), et le stockage des données sur des cartes perforées (une première version de la mémoire), une idée qu’il a empruntée à la machine Jacquard. Babbage a même pensé à enregistrer les résultats des calculs sur papier, en utilisant un dispositif de sortie qui était un précurseur des imprimantes d’aujourd’hui.

Les frères Thomson et les ordinateurs analogiques

En 1872, un an après la mort de Charles Babbage, le grand physicien William Thomson (Lord Kelvin) invente une machine capable d’effectuer des calculs complexes et de prédire les marées en un lieu donné. Elle est considérée comme le premier ordinateur analogique, partageant les honneurs avec l’analyseur différentiel construit en 1876 par son frère James Thomson. Ce dernier appareil était une version plus avancée et plus complète, qui parvenait à résoudre des équations différentielles par intégration, en utilisant des mécanismes à roue et à disque.

Il faudra cependant attendre encore plusieurs décennies pour que, bien après le début du XXe siècle, H.L. Hazen et Vannevar Bush perfectionnent l’idée de l’ordinateur mécanique analogique au MIT (Massachusetts Institute of Technology). Entre 1928 et 1931, ils ont construit un analyseur différentiel qui était réellement pratique puisqu’il pouvait être utilisé pour résoudre différents problèmes et, à ce titre, selon ce critère, il pouvait être considéré comme le premier ordinateur.

Turing et la machine à calculer universelle

À ce stade, ces machines analogiques pouvaient déjà remplacer les ordinateurs humains dans certaines tâches et calculaient de plus en plus vite, surtout lorsque leurs engrenages ont commencé à être remplacés par des composants électroniques. Mais elles présentaient encore un grave inconvénient. Elles étaient conçues pour effectuer un type de calcul et si elles devaient être utilisées pour un autre, leurs engrenages ou leurs circuits devaient être remplacés.

Il en fut ainsi jusqu’en 1936, lorsqu’un jeune étudiant anglais, Alan Turing, imagina un ordinateur capable de résoudre tout problème pouvant être traduit en termes mathématiques, puis réduit à une chaîne d’opérations logiques avec des nombres binaires, dans laquelle seules deux décisions pouvaient être prises : vrai ou faux. L’idée était de tout réduire (chiffres, lettres, images, sons) à des chaînes de uns et de zéros et d’utiliser une recette (un programme) pour résoudre les problèmes en étapes très simples. L’ordinateur numérique était né, mais il n’était pour l’instant qu’une machine imaginaire.

La machine analytique de Babbage aurait probablement rempli (presque un siècle plus tôt) les conditions pour être une machine de Turing universelle… si elle avait jamais été construite. À la fin de la Seconde Guerre mondiale – au cours de laquelle il a contribué à déchiffrer le code Enigma des messages codés nazis – Turing a créé l’un des premiers ordinateurs semblables aux ordinateurs modernes, l’Automatic Computing Engine, qui, en plus d’être numérique, était programmable ; en d’autres termes, il pouvait être utilisé pour de nombreuses choses en changeant simplement le programme.

Zuse et l’ordinateur numérique

Bien que Turing ait établi ce à quoi un ordinateur devrait ressembler en théorie, il n’a pas été le premier à le mettre en pratique. Cet honneur revient à un ingénieur qui a mis du temps à être reconnu, en partie parce que ses travaux étaient financés par le régime nazi en pleine guerre mondiale. Le 12 mai 1941, Konrad Zuse a terminé le Z3 à Berlin, qui était le premier ordinateur numérique entièrement fonctionnel (programmable et automatique). Tout comme les pionniers de la Silicon Valley le feront plus tard, Zuse a réussi à construire le Z3 dans son atelier personnel, sans composants électroniques, mais en utilisant des relais téléphoniques. Le premier ordinateur numérique était donc électromécanique, et il n’a pas été transformé en version électronique parce que le gouvernement allemand a exclu de le financer, car il n’était pas considéré comme « stratégiquement important » en temps de guerre.

De l’autre côté de la guerre, les puissances alliées ont attaché de l’importance à la construction d’ordinateurs électroniques, utilisant des milliers de tubes à vide. Le premier fut l’ABC (Atanasoff-Berry Computer), créé en 1942 aux États-Unis par John Vincent Atanasoff et Clifford E. Berry, qui n’était toutefois ni programmable ni « complet selon Turing ». Pendant ce temps, en Grande-Bretagne, deux collègues d’Alan Turing -Tommy Flowers et Max Newman, qui travaillaient également à Bletchley Park pour déchiffrer les codes nazis- créaient le Colossus, le premier ordinateur électronique, numérique et programmable. Mais Colossus, comme ABC, manquait aussi d’un dernier détail : il n’était pas « Turing-complet ».

Le premier ordinateur qui était complet selon Turing et qui possédait les quatre caractéristiques de base de nos ordinateurs actuels était l’ENIAC (Electronic Numerical Integrator and Computer), développé secrètement par l’armée américaine et mis en service pour la première fois à l’université de Pennsylvanie le 10 décembre 1945 afin d’étudier la faisabilité de la bombe à hydrogène. Pour effectuer d’autres calculs, son « programme » devait être modifié, c’est-à-dire qu’une multitude de câbles et de commutateurs devaient être repositionnés manuellement. L’ENIAC, conçu par John Mauchly et J. Presper Eckert, occupait 167 m2, pesait 30 tonnes, consommait 150 kilowatts d’électricité et contenait quelque 20 000 tubes à vide.

L’ENIAC fut rapidement dépassé par d’autres ordinateurs qui stockaient leurs programmes dans des mémoires électroniques. Les tubes à vide ont d’abord été remplacés par des transistors et finalement par des micropuces, avec lesquelles la course à la miniaturisation des ordinateurs a commencé. Mais cette machine géante, construite par le grand vainqueur de la Seconde Guerre mondiale, a lancé notre ère numérique. De nos jours, elle serait unanimement considérée comme le premier véritable ordinateur de l’histoire si ce n’était de Konrad Zuse (1910-1995), qui décida en 1961 de reconstruire son Z3, qui avait été détruit par un bombardement en 1943. La réplique a été exposée au Deutsches Museum de Munich, où elle se trouve aujourd’hui. Plusieurs décennies se sont écoulées jusqu’à ce qu’en 1998, un informaticien mexicain, Raúl Rojas, fasse l’effort d’étudier le Z3 en profondeur et parvienne à prouver qu’il pouvait être « Turing-complet », ce que même son créateur décédé n’avait pas envisagé.

Concentré sur son fonctionnement, Zuse ne s’est jamais rendu compte qu’il tenait entre ses mains la première machine à calculer universelle. En fait, il n’a jamais fait fonctionner son invention de cette façon… Alors, Charles Babbage, Konrad Zuse ou Alan Turing sont-ils les inventeurs de l’ordinateur ? Le Z3, le Colossus ou l’ENIAC étaient-ils le premier ordinateur moderne ? Cela dépend. La question reste aujourd’hui aussi ouverte que celle-ci : Qu’est-ce qui fait d’une machine un ordinateur ? Vous savez maintenant qui à inventé l’ordinateur, toute l’équipe du blog qui-a-invente.eu reste à votre disposition dans l’espace commentaire du blog.

adminmalou

adminmalou

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.