¿Fue Charles Babbage el inventor del ordenador? ¿O quizás el mérito debiera ser para Konrad Zuse? Del ábaco a la computación cuántica, a lo largo de la historia hay hitos fundamentales para el desarrollo de una tecnología que define pasado, presente y futuro.
A día de hoy parece natural llevar en nuestros bolsillos herramientas tan potentes como un smartphone. Pero para llegar a este momento en el cual se empieza a definir la web 3.0 y se anticipa el metaverso han sido necesarios pequeños pasos de grandes inventores.
Siglos antes de que Silicon Valley (Estados Unidos) se convirtiera en lo que ahora es, la posibilidad de agilizar cálculos matemáticos y manejar ingentes cantidades de datos era una preocupación para matemáticos e inventores. Los primeros ábacos, cuya cronología se sitúa alrededor del 2500 a.C., ya permitían realizar operaciones simples.
El ábaco y otros inventos que influyeron en la creación del ordenador
Con ciertas diferencias, estos rudimentarios aparatos de cálculo fueron capitales en el desarrollo de civilizaciones como la griega o la egipcia. Aunque Leonardo Bonacci o Fibonacci fue el primero en usar la expresión abacus en su obra de 1202 ‘Líber abad’, el ábaco que conocemos actualmente se basa en el popularizado en China alrededor del 1300.
Se han rastreado instrumentos similares en medio mundo, de Babilonia a Chipre, donde se encontró el llamado ‘tablero de Salamis’. Un precursor de la regla de cálculo es el ‘sistema de huesos’ de Napier, concebido por el inventor de los logaritmos en 1627 y formalizado por un amigo suyo, el matemático inglés William Oughtred, en 1621.
Tres años más tarde el alemán Wílhelm Schickard se basó en dichos huesos para construir la primera calculadora mecánica. La segunda fue la Pascalina del francés Blaise Pascal, que ya sumaba y restaba en 1645. Otro paso de gigante fue la invención del sistema binario en 1670, que permitió a la Stepped Reckoner de Wilhem Leibnitz realizar las cuatro operaciones básicas.
El primer ordenador: Charles Babbage y su máquina analítica
Hay más avances capitales como el del matemático francés Joseph Jacquard, quien en 1800 desarrolló un sistema de tarjetas perforadas capaz de ‘dibujar’ un telar. Pero hay consenso en citar al científico y matemático británico Charles Babbage (1791-1871) como el inventor espiritual del ordenador.
En 1822 presentó a la Royal Astronomical Society su proyecto de máquina diferencial para evaluar polinomios. Imaginaba una capaz de ejecutar complejas operaciones matemáticas imposibles de abarcar por un humano a lo largo de su existencia. El peso de su propuesta fue tal que el gobierno británico decidió financiar este “ingenio analítico”.
En 1835 presentó una máquina analítica basada en las tarjetas de Jacquard, pero, al igual que con su máquina diferencial, nunca fue capaz de acabarla. Veinte años más tarde el sueco Georg Scheutz construyó una basándose en este diseño. Y en 1859, otro hito: el álgebra booleana de George Boole sentaba las bases de la ciencia computacional.
Konrad Zuse, ¿el inventor de la primera computadora?
Hay quien considera como ‘el primer informático’ a Hermán Hollerith, quien en 1885 construyó una máquina tabuladora que agilizaba el censo. Otra figura relevante es la del ingeniero y matemático español Leonardo Torres Quevedo, que en 1894 creó una máquina basada en su ‘Memoria sobre las máquinas algebraicas’.
Sin embargo, el único comparable a Babbage en relevancia es Konrad Zuse, ingeniero civil que construyó la primera computadora funcional. Fue el Z1, ordenador capaz de guardar 64 palabras diseñado con varas, latas y palancas en el salón de la casa de sus padres. Su siguiente modelo, el Z2, ya contaba con un relé telefónico.
En 1941 apareció Z3, la primera computadora del mundo, que ocupaba como un armario y contenía hasta 600 relés. Zuse no solo concibió el hardware: para que su artilugio funcionara también creó un sencillo lenguaje de programación, el Rechenkalkül, que introducía en la máquina con tiras perforadas.
La evolución del ordenador hasta nuestros días
Las últimas décadas son vertiginosas. En 1942 el ingeniero electrónico estadounidense John Vincent Atanassoff produjo la primera computadora digital, y un año más tarde se ensambló en Bletchley (Inglaterra) el computador electromecánico Colossus. Tampoco hay que olvidar avances como las máquinas de Turing y los ingenios para descodificar mensajes enemigos durante la II Guerra Mundial.
De las 30 toneladas del ENIAC de 1946 a los portátiles actuales hay varios pasos: la invención del transistor en 1947 y la aparición en los sesenta de los microchips. La primera mención a un “ordenador personal” data de 1964 y fue escrita por Arthur L. Samuel en la revista New Scientist. El primer ordenador apareció en 1981 gracias a IBM y el resto, como se suele decir, es historia.
Una medida habitual para evaluar progresos informáticos ha sido la Ley de Moore, que anticipa la duplicación del número de transistores de un microprocesador cada dos años. Pero ya se vislumbra su ruptura con la llegada de la computación cuántica. Estos ordenadores, capaces de manipular cúbits o qubits, formulan un futuro deslumbrante que se ha construido afrontando pequeños pasos a lo largo de siglos de innovación.
Por Pablo Vinuesa
Imágenes | Portada: foto de Glenn Carstens-Peters en Unsplash. Interiores: retrato de Charles Babbage en WikiMedia Commons e imagen del ordenador Z3 por Venusianer en WikiMedia Commons.