No hay palabra de la que se haya abusado más al hablar de
informática que «revolución». Si creemos lo que dicen la prensa diaria y
la televisión, cada modelo nuevo de chip, cada componente nuevo de
software, cada nuevo adelanto en las redes sociales y cada modelo nuevo
de teléfono móvil u otro dispositivo portátil cambiarán nuestra vida de
forma revolucionaria. Unas semanas más tarde el objeto de esos
reportajes curiosamente queda olvidado y pasa a sustituirse por un nuevo
avance, el cual, se nos asegura, constituye, esta vez sí, el verdadero
punto de inflexión.
Sin embargo es indiscutible que el efecto de la tecnología
informática en la vida diaria del ciudadano de a pie ha sido
revolucionario. Sólo con medir la capacidad de cálculo de estas
máquinas, tomando como referencia la cantidad de datos que pueden
almacenar y recuperar de su memoria interna, se pone de manifiesto un
ritmo de progreso que ninguna otra tecnología, ni antigua ni moderna, ha
alcanzado. No hace falta recurrir a los lenguajes especializados de
ingenieros o programadores informáticos, pues la enorme cantidad de
ordenadores y aparatos digitales que hay instalados en nuestros hogares y
oficinas o que los consumidores llevan de un lado a otro por todo el
mundo revela un ritmo de crecimiento parecido y que no da muestras de
estar aminorando. Una medida aún más significativa nos la proporciona lo
que estas máquinas son capaces de hacer. El transporte aéreo comercial,
la recaudación de impuestos, la administración e investigación médica,
la planificación y las operaciones militares; estas y muchísimas otras
actividades llevan el sello indeleble del apoyo informático, sin el cual
serían muy diferentes o, sencillamente, no existirían.
Al intentar resumir la historia de la informática a lo largo de las
últimas décadas nos enfrentamos a la dificultad de escribir en medio de
esta fulgurante evolución. Si queremos hacerlo con el rigor debido,
habremos de reconocer que tiene sus raíces históricas en la base de la
civilización, que en parte se ha caracterizado por la capacidad de las
personas de manejar y almacenar información por medio de símbolos. Pero
en ella también debemos recoger los rápidos avances y la difusión
vertiginosa de que ha sido objeto desde 1945, lo que no es fácil, si
queremos conservar simultáneamente la perspectiva histórica. Este
artículo es un breve repaso de las personas, las máquinas, las
instituciones y los conceptos fundamentales que constituyen la
revolución informática tal y como la conocemos en la actualidad. Empieza
con el ábaco —que además del primero por orden alfabético es,
cronológicamente, uno de los primeros instrumentos de cálculo— y llega
hasta el siglo xxi, en el que las redes de ordenadores personales se han
convertido en algo habitual y en el que la potencia informática ha
terminado por integrarse en minúsculos dispositivos portátiles.
Aunque los aparatos digitales siguen evolucionando a mayor velocidad
que nunca, los ordenadores personales se han estancado. Sus componentes
físicos se han estabilizado: un teclado (procedente de la famosa máquina
de escribir de la década de 1890); una caja rectangular que contiene
los circuitos electrónicos y la unidad de almacenamiento, y encima de
ella, un terminal de visualización (heredero de la ya mítica pantalla de
televisión de finales de la década de 1940). Lo mismo ha ocurrido con
los circuitos electrónicos que hay en su interior, al margen de que cada
año tengan mayor capacidad: durante los últimos treinta y cinco años
han estado compuestos de circuitos integrados de silicio revestidos de
tubos de plástico negro montados en paneles también de plástico. Los
ordenadores portátiles dieron al traste con esta configuración, pero
esencialmente son iguales. Tanto ingenieros como usuarios están de
acuerdo en que su diseño físico presenta numerosos inconvenientes.
Pensemos, por ejemplo, en las lesiones de los músculos de las manos que
se producen por el uso excesivo de un teclado que se diseñó hace un
siglo. Ahora bien, todavía no ha tenido éxito ninguno de los muchos
intentos por lograr una potencia, una versatilidad y una facilidad de
uso equivalentes en otras plataformas, en especial en teléfonos
portátiles.
Los programas que estos ordenadores ejecutan, el software, continúan
evolucionando a gran velocidad, como también lo hacen los elementos a
los que están conectados, las bases de datos y las redes mundiales de
comunicaciones. Es imposible prever adónde nos llevará todo ello. En el
lapso de tiempo que transcurrirá desde la redacción de este ensayo hasta
su publicación, puede que la naturaleza de la informática haya cambiado
tanto que algunas partes de este estudio habrán quedado obsoletas. Los
ingenieros de Silicon Valley hablan de que los avances en informática se
desarrollan en tiempo Internet, unos seis años más rápido de lo que lo
hacen en cualquier otro lugar. Incluso tras eliminar parte de esta
hipérbole publicitaria, esta observación parece ser cierta.
Los orígenes de la informática pueden situarse al menos en cuatro
momentos históricos. El primero es el más obvio: la Antigüedad, cuando
civilizaciones nacientes empezaron a ayudarse de objetos para calcular y
contar tales como las piedrecillas (en latín calculi, del que viene el
término actual calcular), los tableros de cálculo y los ábacos, todos
los cuales han llegado hasta el siglo xx (Aspray 1990).
Ahora bien, ninguno de estos instrumentos se parece a lo que hoy nos
referimos con el término ordenador. Para los ciudadanos de la época
actual, un ordenador es un dispositivo o conjunto de dispositivos que
nos libera de la pesadez que suponen las tareas de cálculo, así como de
la actividad paralela de almacenar y recuperar información. Por tanto,
el segundo hito histórico en la historia de la informática sería 1890,
año en el que Herman Hollerith concibió la tarjeta perforada junto con
un sistema de máquinas que procesaban, evaluaban y clasificaban la
información codificada en ellas para la elaboración del censo de Estados
Unidos. El sistema de Hollerith surgió en un momento crucial de la
historia: cuando la maquinaria mecánica, cuyo mayor exponente son el
motor de vapor y las turbinas hidráulicas y de vapor, había transformado
la industria. La conexión entre energía y producción hacía necesaria
una mayor supervisión, no sólo física, también de la gestión de datos
que la industrialización trajo consigo. Los tabuladores de Hollerith (y
la empresa que éste fundó y que sería la base del grupo IBM) fueron una
de tantas respuestas, pero hubo otras, como las máquinas eléctricas de
contabilidad, las cajas registradoras, las máquinas de sumar mecánicas,
la conmutación automática y los mecanismos de control para los
ferrocarriles, las centrales telefónicas y telegráficas junto con los
sistemas de información para los mercados internacionales de valores y
materias primas.
No obstante, el lector actual podría quejarse y aducir que éste
tampoco es el punto de partida adecuado. Parece que la auténtica
revolución informática guarda relación con la electrónica, si no con los
microprocesadores de silicio, que en la actualidad están en todas
partes, al menos con sus antepasados inmediatos, los transistores y los
tubos de vacío. Según esto, la era de la informática comenzó en febrero
de 1946, cuando el ejército de Estados Unidos hizo público el Calculador
e integrador numérico electrónico (Electronic Numerical Integrator and
Computer, ENIAC) en un acto celebrado en la Moore School of Electrical
Engineering de Filadelfia. El ENIAC, que contaba con 18.000 tubos de
vacío, se presentó como un instrumento capaz de calcular la trayectoria
de un proyectil lanzado desde un cañón antes de que el proyectil
realizara el recorrido. Eligieron muy bien el ejemplo, pues este tipo de
cálculos era el motivo por el cual el ejército había invertido más de
medio millón de dólares de entonces (lo que equivaldría a varios
millones de dólares en la actualidad) en una técnica que, se reconocía,
era arriesgada y estaba por demostrar.
Un estudio histórico reciente ha desvelado que previamente existía
otra máquina que realizaba operaciones de cálculo con tubos de vacío. Se
trata del Colossus británico, del que se fabricaron varias unidades que
se instalaron en Bletchley Park, Inglaterra, durante la Segunda Guerra
Mundial, y se usaron con éxito para descifrar los códigos alemanes. A
diferencia del ENIAC, estas máquinas no realizaban operaciones
aritméticas convencionales, pero sí llevaban a cabo operaciones de
lógica a gran velocidad, y al menos algunas de ellas llevaban varios
años en funcionamiento antes de la presentación pública del invento
estadounidense. Tanto el ENIAC como el Colossus estuvieron precedidos de
un dispositivo experimental que diseñó en la Universidad de Iowa un
catedrático de Física llamado John V. Atanasoff, con la colaboración de
Clifford Berry. Esta máquina también realizaba operaciones de cálculo
por medio de tubos de vacío, pero, aunque sus componentes principales se
presentaron en 1942, nunca llegó a estar en funcionamiento (Burks y
Burks 1988).
El lector podría observar de nuevo que lo fundamental no es
simplemente que una tecnología exista, sino que pase a ser de uso
habitual en las mesas de trabajo y los hogares del ciudadano normal.
Después de todo no han sido muchas las personas, como máximo una docena,
que hayan tenido la oportunidad de utilizar el ENIAC y sacar provecho
de su extraordinaria potencia. Lo mismo ocurre con los ordenadores
Colossus, que se desmontaron después de la Segunda Guerra Mundial. Según
esto, habría que fechar el verdadero origen de la revolución
informática no en 1946 sino en 1977, año en el que dos jóvenes, Steve
Jobs y Steve Wozniak, originarios de lo que se conoce como Silicon
Valley, dieron a conocer al mundo un ordenador llamado Apple II. El
Apple II (al igual que su predecesor inmediato el Altair y su sucesor el
IBM PC) sacó a la informática del mundo especializado de las grandes
empresas y el ejército y la llevó al resto del mundo.
Podríamos seguir indefinidamente con este debate. Según los jóvenes
de hoy, la revolución informática es aún más reciente, pues consideran
que se produjo cuando, gracias a Internet, un ordenador en un lugar
determinado intercambió información con ordenadores que estaban en otros
lugares. La más famosa de estas redes la creó la Agencia de proyectos
de investigación avanzada (Advance Research Projects Agency, ARPA) del
Departamento de Defensa de Estados Unidos, que a principios de 1969 ya
tenía una red en marcha (ARPANET). Sin embargo, también hubo otras redes
que conectaron ordenadores personales y miniordenadores. Cuando éstas
se combinaron, en la década de 1980, nació Internet tal y como hoy la
conocemos (Abbate 1999).
Lo cierto es que hay muchos puntos donde se puede empezar esta
historia. Mientras escribo este artículo la informática está
experimentando una nueva transformación. Me refiero a la fusión entre
ordenadores personales y dispositivos de comunicación portátiles. Como
en otras ocasiones, esta transformación viene acompañada de
descripciones en la prensa diaria que hablan de los efectos
revolucionarios que tendrá. Es evidente que el teléfono posee una
historia larga e interesante, pero no es ése el tema que nos ocupa. Sólo
hay una cosa clara: aún no hemos asistido al último episodio de este
fenómeno. Habrá muchos más cambios en el futuro, todos impredecibles,
todos presentados como el último adelanto de la revolución informática y
todos dejarán relegadas al olvido las «revoluciones» anteriores.
Este relato comienza a principios de la década de 1940. La transición
de los ordenadores mecánicos a los electrónicos fue, en efecto,
importante, pues entonces se sentaron las bases para inventos
posteriores, como los ordenadores personales. En aquellos años
ocurrieron más cosas importantes: fue durante esta década cuando surgió
el concepto de programación (posteriormente ampliado al de software)
como actividad independiente del diseño de los equipos informáticos, si
bien de suma importancia para que éstos pudieran emplearse para lo que
habían sido diseñados. Por último, fue en esta época cuando, como
resultado de la experiencia con las primeras enormes computadoras
experimentales ya en funcionamiento, apareció un diseño funcional
básico, una arquitectura, para utilizar el término más reciente, que se
ha mantenido a través de las oleadas sucesivas de avances tecnológicos
hasta la actualidad.
Por tanto, y con todos los matices que habrá que añadir para que la
afirmación resulte admisible para los historiadores, podemos considerar
que el ENIAC constituyó el eje de la revolución informática (Stern
1981). Aquella máquina, concebida y desarrollada en la Universidad de
Pensilvania durante la Segunda Guerra Mundial, inauguró lo que conocemos
por era informática. Siempre y cuando se entienda que cualquier punto
de origen histórico que se elija es en cierto modo arbitrario, y siempre
y cuando se conceda el debido crédito a los adelantos que tuvieron
lugar antes, incluida la labor de Babbage y Hollerith, así como los
inventos de la máquina de sumar, la caja registradora y otros
dispositivos similares, podemos empezar aquí.
Introducción
Casi todas las culturas han compartido la capacidad de contar y de
representar cantidades con notaciones simbólicas de algún tipo, por muy
primitivas que puedan parecerles a los estudiosos actuales. Ahora bien,
conseguir pruebas materiales de ello es mucho más difícil, a menos que
utilizasen materiales duraderos como las tablillas de arcilla. Sabemos
que la idea de representar y manejar información cuantitativa de manera
simbólica con piedrecillas, cuentas, nudos en una cuerda o métodos
similares surgió de manera independiente en todo el mundo antiguo. Por
ejemplo, los exploradores españoles en el Nuevo Mundo descubrieron que
los incas utilizaban un avanzado sistema de cuerdas con nudos llamado
quipu, y que en la Biblia se menciona un sistema parecido de sartas con
nudos, y que al menos una de ellas, el rosario, ha sobrevivido hasta
nuestros días. Un modelo de representación muy abstracto de las cuentas
evolucionó en el ábaco, del que como mínimo han llegado hasta la
actualidad tres tipos diferentes en China, Japón y Rusia, y que en manos
de un operador diestro constituye una herramienta de cálculo potente,
compacta y versátil. En la Edad Media los países occidentales también
utilizaron asistentes de cálculo parecidos, entre ellos unos tableros
(dotados de cuadrículas y patrones para facilitar las sumas) y sus
fichas (que han llegado hasta nosotros en forma de las fichas de juego
empleadas en los casinos).
Es importante señalar que estos instrumentos sólo los usaban aquellas
personas cuyos cargos dentro del gobierno, la Iglesia o los negocios lo
requiriesen. Hecha esta salvedad podría decirse que eran de uso común,
aunque no en el sentido de que estuvieran en todas partes. Esta misma
salvedad se puede aplicar a todas las máquinas de
cálculo, ya que su adopción depende, sin duda, de lo costosas que
sean, si bien resulta además fundamental que se ajusten a las
necesidades de quienes las van a usar. Cuando la sociedad occidental se
industrializó y se volvió más compleja, estas necesidades aumentaron; no
obstante conviene apuntar que a pesar de lo mucho que han bajado los
precios de los ordenadores y del acceso a Internet, no se ha conseguido
aún que penetren completamente en el mercado del consumidor y,
probablemente, nunca lo hagan.
Antes de pasar a las máquinas conviene mencionar otra herramienta de
cálculo que tuvo un uso muy extendido y que ha llegado hasta la época
moderna de forma muy rudimentaria. Se trata de las tablas impresas, en
las que había, por ejemplo, una lista de valores de una función
matemática determinada. Su uso data de la Grecia antigua, pero también
las utilizaron mucho los astrónomos y, aún más importante, los marinos
en alta mar. El negocio de los seguros, por su parte, desarrolló las
llamadas tablas de estadísticas, como las de los índices de mortalidad,
por ejemplo. En la actualidad, las calculadoras de bolsillo y las hojas
de cálculo de los programas informáticos nos permiten realizar
operaciones de manera inmediata, pero las tablas todavía tienen su
valor. Aún es posible encontrar lugares donde se utilizan, lo que pone
de manifiesto su estrecha relación con uno de los usos principales de
los modernos instrumentos de cálculo electrónico (Kidwell y Ceruzzi
1994).
La mayoría de estos instrumentos funcionaban en colaboración con el
sistema de numeración indo-árabe, en el que el valor de un símbolo
depende no sólo del símbolo en sí (1, 2, 3…), sino también del lugar
donde está situado (y en el que el importantísimo cero se usa como un
parámetro de sustitución). Este sistema de numeración era mucho más
avanzado que los de tipo aditivo, como el romano, y su adopción por
parte de los europeos a finales de la Edad Media constituyó un hito en
el camino hacia el cálculo moderno. Cuando realizaban operaciones de
suma, si el total de los dígitos de una columna era superior a nueve
había que llevarlo a la siguiente columna por la izquierda. La
mecanización de este proceso supuso un paso significativo desde las
ayudas de cálculo mencionadas anteriormente hacia el desarrollo del
cálculo automático. Una descripción esquemática y fragmentaria recogida
en una carta a Johannes Kepler revela que el profesor Wilhelm Schickard,
de la localidad alemana de Tubinga, había diseñado un aparato de estas
características a principios del siglo xvii, pero no hay constancia de
que ninguna de las piezas haya llegado hasta nuestros días.
En 1642 el filósofo y matemático francés Blaise Pascal inventó una
máquina de sumar que es la más antigua de cuantas se conservan. Los
dígitos se introducían en la calculadora haciendo girar un conjunto de
ruedas, una por cada columna. Cuando las ruedas superaban el 9, un
diente del engranaje avanzaba una unidad en la rueda contigua. Pascal se
esforzó mucho para asegurarse de que el caso extremo de sumar un 1 a
una serie de 9 no bloquease el mecanismo. Esta máquina inspiró a unos
cuantos inventores a construir aparatos parecidos, pero ninguno se
comercializó con éxito. Ello se debió, por un lado, a que eran frágiles y
delicados y, por lo tanto, costosos y, por otro, a que en la época de
Pascal no se consideraba que estas máquinas fueran necesarias.
Unos treinta años más tarde el filósofo y matemático alemán Gottfried
Wilhelm Leibniz, satirizado por Voltaire en su Cándido y famoso por ser
uno de los creadores del Calculus, tuvo noticias del invento de Pascal e
intentó diseñar una calculadora. Consiguió construir una máquina que no
sólo sumaba sino también multiplicaba mediante el uso de engranajes que
conectaban un número variable de dientes dependiendo de dónde hubiera
puesto el operador el círculo indicador. Esta calculadora no funcionó
bien, pero el tambor escalonado se convirtió en la base para casi todas
las calculadoras de multiplicar hasta finales del siglo xix. Uno de sus
descendientes modernos, el Curta, era lo suficientemente pequeño como
para que cupiese en un bolsillo, y se fabricó y comercializó hasta
comienzos de la década de 1970.
La aparición de una sociedad más mercantil, con una clase media en
aumento, contribuyó a hacer más favorables las condiciones para el éxito
comercial. Hacia 1820, Charles Xavier Thomas, precursor de la
estabilización del sector de seguros en Francia, diseñó y comercializó
su Aritmómetro, en el que utilizó el tambor escalonado de Leibniz para
hacer multiplicaciones. Al principio no se vendieron muchos, pero
después de 1870 su uso se extendió y llegaron a venderse unos cien
ejemplares al año. Para entonces la industrialización estaba en pleno
desarrollo y, junto a la máquina de Thomas, hicieron su aparición una
serie de productos que compitieron entre sí para satisfacer la creciente
demanda (Eames y Eames 1990).
Esto ocurrió a ambos lados del Atlántico. Son especialmente
importantes dos máquinas de sumar desarrolladas en Estados Unidos.
Aunque ninguna de las dos podía multiplicar, sí efectuaban sumas a gran
velocidad, eran fáciles de usar, su coste era modesto (aunque no bajo) y
eran muy resistentes, lo que las hacía rentables. A mediados de la
década de 1880, Dorr E. Felt diseñó y patentó una máquina de sumar que
se usaba presionando un conjunto de teclas numéricas, una serie de
dígitos por cada posición numérica. Y, lo que era más novedoso aún, la
fuerza necesaria para presionar las teclas activaba el mecanismo de
manera que el operador no tenía que detenerse y girar una manivela,
tirar de una palanca o ninguna otra cosa. En manos de un operador
diestro, que no separase los dedos del teclado, ni siquiera lo mirase,
el Comptómetro de Felt podía realizar sumas con enorme rapidez y
precisión. Con un precio de venta de unos 125 dólares, los comptómetros
pronto se convirtieron en una herramienta habitual en las oficinas
estadounidenses de principios del siglo xx. Por la misma época, William
Seward Burroughs inventó una máquina de sumar que imprimía los
resultados en una tira de papel y evitaba tener que consultarlos en la
ventanilla. Su inventó supuso el comienzo de Burroughs Adding Machine
Company, que en la década de 1950 hizo el tránsito a la fabricación de
ordenadores electrónicos, y que tras una fusión con Sperry en 1980 se
conoce con el nombre de Unisys Corporation.
En las oficinas de Europa las máquinas de calcular también se
convirtieron en un producto de uso habitual, aunque tomaron un camino
diferente. El ingeniero sueco W. Odhner inventó una máquina compacta y
sólida que multiplicaba además de sumar, mediante un tipo de engranaje
diferente al de Leibnitz (los números se introducían activando palancas
en lugar de presionando teclas), y que se comercializó con éxito con los
nombres de Odhner, Brunsviga y otros.
No se puede dar por concluido ningún estudio sobre máquinas de
cálculo sin mencionar a Charles Babbage, un británico a quien muchos
consideran el inventor del primer ordenador automático y programable, la
famosa máquina analítica. Esta idea se le ocurrió tras diseñar y montar
parcialmente una máquina diferencial, un proyecto más modesto pero que
representaba un gran avance para la tecnología de cálculo de su época.
Más adelante hablaremos en detalle de la labor de Babbage; baste decir
ahora que lo que presentó, a principios de la década de 1830, era el
proyecto de una máquina con todos los componentes básicos funcionales de
un ordenador moderno: una unidad aritmética que llamó Mill, un
dispositivo de memoria que llamó Store, un método de programar la
máquina por medio de tarjetas y una forma de imprimir los resultados o
perforar las respuestas en otra serie de de tarjetas. Se fabricaría con
metal y funcionaría con un motor de vapor. Babbage pasó muchos años
intentando llevar su idea a buen puerto, pero cuando murió en 1871 sólo
se habían construido algunas partes.
Es curioso pensar en lo diferente que el mundo habría sido si Babbage
hubiera logrado terminar su máquina. Quizás habríamos conocido una era
de la información con motores de vapor. Sin embargo, como ya ocurriera
con las máquinas de Pascal y Leibniz, hay que tener en cuenta que el
mundo entonces no estaba necesariamente preparado para este tipo de
invento. Para que hubiera tenido verdadera repercusión, Babbage no sólo
habría tenido que superar los obstáculos técnicos que malograron su
motor analítico, también desplegar unas dotes comerciales considerables
para convencer a la gente de que su invento era realmente útil. La
prueba de ello está en el hecho de que los suecos Georg Scheutz y su
hijo Edvard finalizaron el diseño de una máquina diferencial operativa
en 1853, considerada la primera calculadora con impresora de uso
comercial (Merzbach 1977). Aunque el observatorio de Dudley de Albany,
en el estado de Nueva York, la adquirió, lo cierto es que la máquina
apenas tuvo repercusiones en la ciencia o el comercio. La era de la
información aún tenía que esperar.
Hacia finales del siglo xix el arte de calcular se había
estabilizado. En el mundo de los negocios el sencillo comptómetro o el
Odhner habían ocupado su lugar junto a otros aparatos de alcance
similar, como la máquina de escribir o el teletipo. En el mundo de la
ciencia, todavía pequeño en aquellos años, había cierto interés, pero no
el suficiente para apoyar la fabricación de algo que fuera más allá de
una máquina especializada aquí y allá. Las ciencias que necesitaban
realizar cálculos, como la astronomía, se las arreglaban con las tablas
impresas y las calculadoras humanas (así se llamaban quienes realizaban
esta tarea) que trabajaban con papel y lápiz, libros de tablas
matemáticas y, quizás, alguna máquina de sumar. Lo mismo ocurría con los
ingenieros, utilizaban libros de tablas matemáticas ayudados en algunos
casos por máquinas especializadas diseñadas para resolver un problema
concreto (por ejemplo, un instrumento para pronosticar mareas o el
analizador diferencial de Bush). A partir de 1900 los ingenieros también
contaron con la ayuda de dispositivos analógicos como el planímetro y,
sobre todo, la regla deslizante, un instrumento de una precisión
limitada, pero versátil, que satisfacía razonablemente la mayoría de las
necesidades de los ingenieros.
Las tarjetas perforadas de Herman Hollerith empezaron como uno de
estos sistemas especializados. En 1889 atendió a una petición del
superintendente del censo de Estados Unidos, a quien cada vez le
resultaba más difícil presentar sus informes en el momento debido. La
tarjeta perforada, junto con el método de codificación de datos por
medio de patrones de agujeros en esta tarjeta, y de clasificación y
recuento de los totales y los subtotales que la acompañaban se ajustaba a
la perfección a las necesidades de la Oficina del Censo. Lo que ocurrió
después se debió sobre todo a la iniciativa de Hollerith quien, tras
haber inventado este sistema, no se conformó con tener un único cliente
que lo utilizase una vez cada diez años, por lo que inició una campaña
para convencer a otros de su utilidad. Fundó una empresa, que en 1911 se
fusionó con otras dos para constituir la Computing-Tabulating-Recording
Corporation, y en 1924, cuando Thomas Watson tomó las riendas, pasó a
llamarse International Business Machines. Watson, como vendedor que era,
comprendió que estos aparatos tenían que satisfacer las necesidades de
los clientes si querían prosperar. Entretanto, la Oficina del Censo, que
no quería depender demasiado de un solo proveedor, fomentó el
crecimiento de una empresa de la competencia, Remington Rand, que se
convirtió en el rival principal de IBM en este tipo de equipos durante
los cincuenta años que siguieron.
Visto en retrospectiva, da la impresión de que el éxito de los
sistemas de tarjetas perforadas vino dictado de antemano, pues su
capacidad para clasificar, recopilar y tabular información encajó a la
perfección con la creciente demanda de datos relativos a las ventas, el
marketing y la fabricación procedentes de una economía industrial en
auge. No hay duda de que el factor suerte contribuyó, pero hay que
conceder a Hollerith el crédito debido por su visión de futuro, al igual
que a Watson por promocionar de manera incansable esta tecnología.
Cuando en 1930 la economía de Estados Unidos se tambaleó, las máquinas
IBM continuaron usándose tanto como antes, pues satisfacían el ansia de
datos estadísticos de las agencias gubernamentales estadounidenses y
extranjeras. Watson, vendedor por antonomasia, promovió y financió
generosamente además posibles aplicaciones de los productos a su empresa
en los ámbitos de la educación y la ciencia. A cambio de ello, algunos
científicos descubrieron que los equipos IBM, con unas modificaciones
mínimas, servían para resolver problemas científicos. Para astrónomos
como L. J. Comrie la tarjeta perforada se convirtió, en efecto, en el
sueño fallido de Babbage llevado a la práctica. Otros científicos, entre
ellos el ya mencionado Atanasoff, habían empezado a diseñar
calculadoras especializadas capaces de realizar una secuencia de
operaciones, como se suponía habría hecho la máquina analítica que
Babbage nunca llegó a completar. Todos ellos lo consiguieron con la
ayuda de los tabuladores y calculadoras mecánicas de IBM que cumplieron
su función de forma tan satisfactoria que casi hicieron innecesario
desarrollar un nuevo tipo de máquina (Eckert 1940).
Al revisar esta época se observa una correspondencia notable entre
estos nuevos diseños de calculadoras programables y el de la máquina
analítica que nunca llegó a completarse. Sin embargo, el único diseñador
que conocía la existencia de Charles Babbage era Howard Aiken, un
catedrático de la Universidad de Harvard, y ni siquiera él adoptó su
modelo cuando desarrolló su propio ordenador. En 1930 Babbage no era un
completo desconocido, pero la mayoría de las historias que sobre él
circulaban coincidían en que su labor había sido un fracaso y sus
máquinas, ideas descabelladas, lo cual no sirvió de gran inspiración a
una nueva generación de jóvenes inventores. Sin embargo, todos los que
tuvieron éxito donde Babbage fracasó compartían su pasión y
determinación por llevar a la práctica, por medio de engranajes y
cables, el concepto de cálculo automático. Además, también contaban con
unas buenas dotes de persuasión, como las de Thomas Watson.
Entre ellos cabe mencionar a Kourand Zuse, quien mientras todavía
cursaba sus estudios de Ingeniería en Berlín, a mediados de la década de
1930, hizo un esbozo de una máquina automática porque, según decía, era
demasiado perezoso para efectuar las operaciones de cálculo necesarias
para sus estudios. La pereza y la necesidad, dicen, son la madre de la
ciencia. Cuando los nazis sumieron al mundo en la guerra, Zuse trabajaba
durante el día en una planta aeronáutica en Berlín y por la noche
construía máquinas experimentales en la casa de sus padres. En diciembre
de 1941 puso en funcionamiento su Z3, utilizando relés telefónicos
sobrantes para los cálculos y el almacenamiento, y películas
fotográficas perforadas de desecho para la programación (Ceruzzi 1983).
En 1937 Howard Aiken se planteó, mientras trabajaba en su tesis de
Física en Harvard, diseñar lo que más tarde se conoció como Calculador
controlado por secuencia automática (Automatic Sequence Controlled
Calculador, ASCC). Eligió las palabras deliberadamente con la intención
de que reflejasen su opinión de que la falta de capacidad de las
máquinas de tarjetas perforadas para efectuar secuencias de operaciones
suponía una limitación para su uso científico. Aiken consiguió el apoyo
de IBM, que construyó la máquina y la llevó a Harvard. Allí, en plena
Segunda Guerra Mundial, en 1944, la dio a conocer. De ahí que el ASCC
también se conozca por ser el primer invento que difundió la noción de
cálculo automático (los espías alemanes comunicaron estas noticias a
Zuse, pero para 1944 él ya tenía muy avanzada la construcción de una
máquina de características similares a la de Aiken). El ASCC, o Harvard
Mark I, como se le suele llamar, utilizaba componentes modificados IBM
para los registros, pero se programaba por medio de una tira de papel
perforado.
En 1937 George Stibitz, un matemático-investigador que trabajaba en
los Bell Telephone Laboratories de Nueva York, diseñó un rudimentario
circuito que efectuaba sumas por medio de la aritmética binaria, un
sistema numérico difícil de usar para los seres humanos, pero que se
adapta a la perfección a estos dispositivos. Al cabo de dos años
consiguió convencer a su empresa para que fabricara una sofisticada
calculadora a base de relés que funcionase con los llamados números
complejos, que con frecuencia aparecían en los análisis de circuitos
telefónicos. Esta calculadora de números complejos no era programable,
pero contribuyó a la creación de otros modelos en los laboratorios Bell
durante la Segunda Guerra Mundial que sí lo fueron. Todo ello culminó
con el diseño de varios ordenadores de uso general de gran tamaño
basados en relés, que tenían la capacidad no sólo de ejecutar una
secuencia de operaciones aritméticas, sino también de modificar su forma
de proceder basándose en los resultados de un cálculo previo. Esta
última característica, junto con la velocidad electrónica (de la que
trataremos después), se considera una diferencia esencial entre lo que
hoy conocemos como ordenadores y sus predecesores de menor capacidad,
las calculadoras (en 1943 Stibitz fue el primero que utilizó la palabra
digital para describir máquinas que realizaban cálculos con números
discretos).
Para completar este estudio de máquinas cabe mencionar al Analizador
diferencial que diseñó el MIT (Massachusetts Institute of Technology,
Instituto tecnológico de Massachussets) bajo la dirección del
catedrático Vannevar Bush a mediados de la década de 1930. Esta máquina
no realizaba cálculos digitalmente, para usar la expresión actual, pero
funcionaba con un principio parecido al de los contadores de vatios
analógicos que se pueden encontrar en las casas. En otros aspectos, el
analizador de Bush era parecido a otras máquinas de las que ya se hemos
hablado anteriormente. Al igual que otros precursores, Bush buscaba
resolver un problema específico: analizar las redes de los generadores
de corriente alterna y las líneas de transmisión. El Analizador
diferencial estaba formado por un complejo ensamblaje de unidades de
cálculo que se podían reconfigurar para resolver una variedad de
problemas. Debido a las necesidades de la Segunda Guerra Mundial se
montaron varias unidades de esta máquina, pero se destinaron a resolver
problemas más urgentes. Una de ellas, la que se instaló en la Moore
School of Electrical Engineering de Filadelfia, sirvió de inspiración
para el ENIAC.
Todas estas máquinas utilizaban engranajes mecánicos, ruedas,
palancas o relés para sus elementos de cálculo. Los relés son
dispositivos eléctricos, pero el interruptor activa la corriente de
manera mecánica, con lo que la velocidad de la operación tiene, en
esencia, las mismas características que las de los dispositivos
completamente mecánicos. Ya en 1919 se sabía que era posible diseñar un
circuito a base de tubos de vacío capaz de realizar la conmutación con
mayor rapidez, al producirse ésta dentro del tubo por medio de una
corriente de electrones de masa insignificante. Los tubos eran propensos
a quemarse, ya que para funcionar requerían una gran potencia que a su
vez era fuente de excesivo calor. Los incentivos para construir una
máquina de cálculo a base de tubos no eran demasiados, a menos que las
ventajas, en lo que a la rapidez se refiere, superasen estos
inconvenientes.
A mediados de la década de 1930 John V. Atanasoff, catedrático de
Física de la Universidad de Iowa, observó las ventajas de emplear
circuitos de tubos para resolver sistemas de ecuaciones lineales. Las
ecuaciones lineales se pueden encontrar en casi todas las ramas de la
Física y su solución requiere realizar un gran número de operaciones de
aritmética ordinarias pero conservando los resultados intermedios. En
1939 Atanasoff, con una modesta beca universitaria, comenzó a diseñar
circuitos y para 1942 tenía listo un prototipo que funcionaba, a
excepción de fallos intermitentes ocurridos en la unidad de
almacenamiento intermedia. Por entonces Atanasoff se trasladó a
Washington para trabajar en otros proyectos durante la guerra y no llegó
a terminar su ordenador. En aquella misma época en Alemania, un
compañero de Zuse llamado Helmut Schreyer diseñó circuitos de tubos que
presentó como sustitutos de los relés que empleaba Zuse. Aunque esta
propuesta constituyó la base de su tesis doctoral, al margen de unos
cuantos paneles experimentales, no avanzó mucho en ella.
La primera vez en la que se aplicaron con éxito los tubos de vacío a
la informática fue en Inglaterra, donde un equipo de personas encargadas
de descifrar códigos diseñó, en el más absoluto secreto, una máquina
que les ayudara a interpretar los mensajes militares transmitidos por
radio de los alemanes. Es un ejemplo que ilustra a la perfección la
necesidad de la velocidad que proporcionaba la electrónica, pues no sólo
había un considerable número de combinaciones de teclas a tener en
cuenta sino que también el contenido de los mensajes interceptados
perdía valor militar según pasaba el tiempo y a menudo quedaba obsoleto
transcurridos unos días. El primero de los llamados Colossus se terminó
en 1943 (más o menos en la época que se empezó el ENIAC), y para el
final de la guerra había diez en funcionamiento. La información relativa
a estas máquinas sigue estando clasificada, incluso después de 65 años,
pero se ha desvelado que aunque no realizaban operaciones aritméticas
como lo hacían las calculadoras, sí podían realizar y, así lo hicieron,
operaciones de lógica con información expresada en símbolos, lo cual
constituye la base de los circuitos electrónicos de procesamiento
actuales.
El ENIAC, diseñado en la Universidad de Pensilvania y presentado al
público en febrero de 1946, sigue más la tradición de las máquinas que
acabamos de ver que la de los ordenadores electrónicos de uso general
que le siguieron. Se concibió, propuso y diseñó para resolver un
problema específico: calcular las tablas de balísticas del ejército. Su
arquitectura es un reflejo de lo que se requería para resolver ese
problema, y ningún otro ordenador la ha imitado. Sólo se construyó uno, y
aunque el final de la guerra hizo que la elaboración de estas tablas no
fuera tan urgente, las necesidades militares fueron siempre
determinantes para la existencia del ENIAC (se desconectó en 1955). En
la década de 1940 la informática estaba avanzando en varios frentes. Los
ejemplos ya mencionados son los más destacados, pero, detrás de ellos
hubo un gran número de proyectos que, aunque de menor envergadura,
fueron también significativos.
La metáfora de progreso lineal (por ejemplo, el uso de términos como
«hito») para relatar la historia de la informática no es adecuada. Los
adelantos que se produjeron en este campo durante la década de 1940 se
parecían más a un ejército avanzando por un terreno accidentado. El
ENIAC, en virtud del aumento drástico de la velocidad con la que
realizaba las operaciones aritméticas, hizo que la función de cálculo de
estas máquinas se colocara muy por delante de otras funciones, como el
almacenamiento de datos o la producción de resultados, con lo que hubo
que darse prisa para situar a éstas al mismo nivel. De todas estas
funciones, el mayor obstáculo lo constituyó la función mediante la que
se daba instrucciones al procesador. John Mauchly señaló: «Sólo se
pueden efectuar cálculos a gran velocidad si se dan instrucciones a gran
velocidad». Por tanto, los diseñadores del ENIAC vieron claramente que
era necesario crear una unidad electrónica de almacenamiento de
instrucciones interna. Todas las máquinas disponen de software: un
conjunto de procedimientos que hacen posible usarlas. Antes de la
electrónica, la velocidad de la maquinaria guardaba relación con la de
los seres humanos. Esta separación aparece por primera vez con los
ordenadores, y en ella reside la verdadera naturaleza revolucionaria de
la era digital. El ENIAC, gracias a la elevada velocidad a la que
efectuaba operaciones aritméticas, colocó la programación en primer
plano (no es una coincidencia que la expresión «programar un ordenador»
fuera acuñada por el equipo que diseño el ENIAC).
El ENIAC, por tanto, ocupa un lugar paradójico, ya que constituye el
eje de esta historia tanto por sus defectos como por sus virtudes. No
estaba programado, sino que se configuraba de manera laboriosa
conectando cables, que, en efecto, había que volver a conectar para cada
nueva operación. Todo ello suponía un problema que se tardaba minutos
en resolver, por lo que configurarlo podía llevar días. En cambio los
parientes electromecánicos del ENIAC, como el Harvard Mark I, podían
programarse en unas cuantas horas pero tardaban días en resolver las
ecuaciones.
Cuando el ENIAC tomaba forma, a principios de la década de 1940, sus
diseñadores estaban ya pensado en cómo sería la máquina que lo
sucedería. En retrospectiva, se trataba de un equipo perfecto para la
labor que tenía que realizar: personas con conocimientos de ingeniería
eléctrica, de matemáticas y de lógica. De sus deliberaciones surgió la
noción de diseñar un ordenador que contara con una unidad de memoria
dedicada, que almacenase datos, pero que no necesariamente realizase
operaciones aritméticas o de otro tipo. Las instrucciones, al igual que
los datos, se almacenarían en este dispositivo, y cada uno de ellos se
podría recuperar o almacenar a gran velocidad. Este requisito surgió de
la necesidad práctica de ganar velocidad, como antes señaló Mauchly, así
como del deseo de la ingeniería de disponer de una unidad de memoria
simple sin la complicación adicional de tener que dividirla y asignar un
espacio diferente para cada tipo de información.
De esta sencilla noción nació en gran medida la capacidad de cálculo
que siguió y que desde entonces se ha asociado a John von Neumann, quien
se unió al equipo del ENIAC y en 1945 escribió un informe sobre su
sucesor, el EDVAC, explicando estos conceptos. Sin embargo, se trató
claramente de un esfuerzo conjunto, que tuvo al ENIAC, entonces en
proceso de montaje, como telón de fondo.
Todas las ventajas de este diseño no servirían de nada si no se
encontraba un dispositivo de memoria con suficiente capacidad para
operar de manera segura, rápida y barata. Eckert estaba a favor del uso
de tubos de mercurio que transportaban impulsos acústicos, pero Newman
prefería utilizar un tubo de vacío especial. Los primeros ordenadores
que dispusieron de verdaderos programas en su memoria para su
funcionamiento utilizaban tubos de mercurio o tubos de rayos catódicos
modificados que almacenaban información a modo de haces de carga
eléctrica (Randell 1975). Estos métodos proporcionaban alta velocidad,
pero tenían una capacidad limitada y eran caros. Muchos otros ingenieros
optaron por un tambor magnético rotativo que, aunque mucho más lento,
era más seguro. El Proyecto Whirlwind, del MIT, superó este obstáculo
cuando, a principios de la década de 1950, su equipo ideó una forma de
almacenar datos en diminutos núcleos magnéticos, unas piezas de material
imantado en forma de rosquilla (Redmond y Smith 1980).
Generaciones: 1950-1970
Eckert y Mauchly no sólo son famosos por sus contribuciones al diseño
de ordenadores. Fueron de los pocos que, por aquella época, buscaron
aplicaciones comerciales para su invento, en lugar de limitarse a usos
científicos, militares o industriales a gran escala. Los británicos
fueron los primeros en crear un ordenador para uso comercial: el LEO,
una versión comercial del EDSAC diseñado para una empresa de catering
llamada J. Lyons & Company Ltd., que estaba en funcionamiento en
1951. Pero al igual que ocurrió con los inventos de Babbage del siglo
anterior, los británicos no fueron capaces de desarrollar esta notable
innovación (Bird 1994). En Estados Unidos, Eckert y Mauchly tuvieron que
hacer frente a un grado de escepticismo parecido cuando plantearon la
fabricación de ordenadores con fines comerciales. Al final lograron su
objetivo, aunque perdieron su independencia por el camino. Se trataba de
un escepticismo justificado, si tenemos en cuenta los problemas de
ingeniería que había para conseguir que el equipo funcionase
debidamente. Sin embargo, hacia mediados de la década de 1950 Eckert y
Mauchly consiguieron presentar un ordenador comercial de gran tamaño
llamado UNIVAC, que tuvo una buena acogida por parte de los veinte
clientes que lo compraron.
Otras empresas, grandes y pequeñas, también entraron en el negocio de
los ordenadores durante esa década, pero a finales de la misma IBM se
había colocado claramente a la cabeza. Ello se debió en gran medida a su
magnífico departamento de ventas, que se aseguraba de que sus clientes
vieran compensada con resultados útiles la gran inversión que habían
hecho en equipo electrónico. IBM ofrecía una línea de ordenadores
electrónicos diferente para sus clientes empresariales y científicos,
así como una línea, que tuvo mucho éxito, de ordenadores pequeños y
económicos, como el 1401. Hacia 1960 el transistor, que se inventó en la
década de 1940, funcionaba lo suficientemente bien como para reemplazar
a los frágiles tubos de vacío de la etapa anterior. La memoria de los
ordenadores ahora consistía en una jerarquía de núcleos magnéticos,
tambores o discos más lentos y, por último, una cinta magnética de gran
capacidad. Para introducir información o programas en estas
macrocomputadoras todavía había que usar tarjetas perforadas, con lo que
se aseguraba la continuidad con el equipo de Hollerith, que era la base
de IBM.
En 1964, IBM unificó sus líneas de productos con su System/360, que
no sólo abarcaba la gama completa de aplicaciones relativas a la ciencia
y los negocios (de ahí su nombre), sino que también se presentó como
una familia de ordenadores cada vez más grandes, cada uno de los cuales
tenía capacidad para ejecutar el software creado para los modelos
inferiores. Esto constituyó un paso decisivo que volvió a transformar el
sector, como lo había hecho UNIVAC diez años antes. Con ello se
reconocía que el software, que empezó como una idea de último momento y
en la periferia del diseño del soporte físico, se estaba convirtiendo
cada vez más en el motor que impulsaba los avances informáticos.
Detrás de IBM en el mercado comercial estaban los siete enanitos:
Burroughs, UNIVAC, National Cash Register, Honeywell, General Electric,
Control Data Corporation y RCA. En Inglaterra, donde en la década de
1940 estuvieron en funcionamiento los primeros ordenadores que
incorporaban programas en su memoria, también se desarrollaron productos
comerciales, al igual que en Francia. Honrad Zuse, cuyo Z3 ya
funcionaba en 1941, también fundó una empresa, quizás la primera del
mundo dedicada por entero a la fabricación y venta de ordenadores. Pero,
salvo mínimas excepciones, las ventas en Europa nunca se acercaron a
las de las empresas estadounidenses. Los soviéticos, aunque competían
con Estados Unidos en la exploración espacial, no pudieron hacer lo
mismo con los ordenadores. Tuvieron que contentarse con copiar la IBM
System/360, con lo que al menos podían aprovechar el software que otros
habían creado. El motivo por el la URSS se quedó a la zaga, dada su
excelencia técnica y sobre todo matemática, es un misterio. Quizás los
encargados de planificación soviéticos vieron en los ordenadores un arma
de doble filo; por un lado facilitarían la planificación estatal, pero
por otro harían posible que se compartiera información de manera
descentralizada. Desde luego, la falta de una economía de mercado
enérgica, que constituyó un impulsó para los adelantos técnicos de
UNIVAC e IBM, fue un factor a tener en cuenta. En cualquier caso, las
fuerzas del mercado de Estados Unidos se vieron impulsadas por las
enormes sumas de dinero aportadas por el Departamento de Defensa, que
subvencionaba la investigación informática para las llamadas operaciones
de control y mando, así como para la logística y los sistemas de
navegación de misiles de a bordo.
El miniordenador y el chip
Si las tecnologías de la información se hubieran quedado en el punto
en el estaban mediada la década de 1960, también ahora estaríamos
hablando de una revolución informática, tal ha sido el impacto que ha
tenido en la sociedad. Pero la tecnología no se quedó quieta; siguió
avanzado a un ritmo cada vez más veloz. Pasaron diez años antes de que
el transistor saliera de los laboratorios y se empezara a usar de manera
comercial y práctica en los ordenadores. Ello tuvo consecuencias para
los sistemas de las enormes macrocomputadoras ya mencionados, pero
repercutió aún más en los sistemas pequeños. Hacía 1965 hicieron su
aparición varios productos nuevos que ofrecían alta velocidad de
procesamiento, solidez, un tamaño pequeño y un precio económico, lo que
abrió mercados completamente nuevos. El PDP-8, que lanzó aquel año una
empresa llamada Digital Equipment Corporation, inauguró esta clase de
miniordenadores. A partir de aquí surgió un núcleo de fabricantes de
miniordenadores en las afueras de Boston. Tanto en lo que se refiere a
las personas como a la tecnología, el sector de los miniordenadores es
descendiente directo del Proyecto Whirlwind del MIT que subvencionó el
Departamento de Defensa (Ceruzzi 1998).
Cuando los diseñadores de ordenadores empezaron a usar los
transistores tuvieron que enfrentarse a un problema técnico que en años
anteriores había quedado disimulado por la fragilidad de los tubos de
vacío. Se trataba de la dificultad que suponía ensamblar, cablear y
probar circuitos con miles de componentes diferenciados: transistores,
resistencias eléctricas y condensadores. Entre las muchas soluciones que
se propusieron a este problema de interconexión estuvieron la de Jack
Kilby, de Texas Instruments, y la de Robert Noyce, de Fairchild
Semiconductor, cada uno de los cuales registró su patente por separado
en 1959. Su invento dio en conocerse con el nombre de circuito
integrado. Al poder seguir el ejemplo de los pasos que se habían dado
con los transistores de silicio, estas empresas lograron comercializar
su invento rápidamente: hacia finales de la década de 1960 el chip de
silicio se había convertido en el principal dispositivo en los
procesadores de los ordenadores y también había empezado a sustituir a
los núcleos de memoria.
Además de inventar con Kilby el circuito integrado, Noyce hizo algo
que determinó el rumbo de la ciencia informática. En 1968 abandonó
Fairchild y fundó una nueva empresa, llamada Intel, dedicada a la
fabricación de chips de memoria como sustitutos de los núcleos
magnéticos. El valle de Santa Clara, en la península situada al sur de
San Francisco, ya era un centro de microelectrónica, pero el que Noyce
fundase allí Intel hizo que su actividad aumentase vertiginosamente. En
1971 un periodista llamó a esta región Silicon Valley: un nombre que
hace referencia no sólo a la ingeniería informática que se desarrolla
allí sino también a la cultura emprendedora y libre que lo impulsa
(Ceruzzi 1998).
Hacia mediados de la década de 1970 la hegemonía de IBM en el mundo
de la informática se vio amenazada desde tres frentes. Desde Silicon
Valley y las afueras de Boston llegaban noticias de la existencia de
sistemas pequeños, pero con una capacidad de procesamiento cada vez
mayor. Del Departamento de Justicia de Estados Unidos llegó una demanda
antimonopolio, presentada en 1969, en la que se acusaba a IBM de control
indebido del sector. Por último, de los ingenieros informáticos que
investigaban sobre software surgió la noción del uso interactivo de los
ordenadores mediante un procedimiento conocido como tiempo compartido,
que daba a varios usuarios simultáneos la impresión de que aquel
ordenador grande y costoso era su máquina de uso personal. El tiempo
compartido proporcionaba otra forma de poner capacidad de procesamiento
en manos de nuevos grupos de usuarios, pero la promesa del ordenador de
uso general económico, similar a la rejilla que suministra electricidad
en nuestros hogares, no llegó a materializarse.
Un factor importante de este cambio hacia la informática interactiva
fue la creación, en 1964, del lenguaje de programación BASIC en el
Dartmouth College del estado de New Hampshire, donde los estudiantes de
humanidades, ciencias o ingenierías técnicas descubrieron que sus
ordenadores eran más accesibles que los de otras facultades, en los que
tenían que presentar sus programas en forma de lote de tarjetas
perforadas, codificadas en lenguajes más complicados y esperar a que les
llegara el turno.
El ordenador personal
Las diversas críticas al método de cálculo de las macrocomputadoras
convergieron en 1975, cuando una empresa poco conocida de Nuevo México
sacó al mercado el Altair, que se anunció como el primer equipo
informático que costaba menos de 400 dólares. Este equipo apenas se
podía llamar ordenador y había que añadirle muchos más componentes para
conseguir un sistema de uso práctico (Kidwell y Ceruzzi 1994). Sin
embargo, el anuncio de Altair desencadenó una explosión de energía
creativa que para 1977 había producido sistemas capaces de ejecutar
tareas útiles y que empleaban chips de silicio avanzados tanto para el
procesador como para la memoria, un disquete (inventado en IBM) para la
memoria de masa, y el lenguaje de programación BASIC para permitir que
los usuarios escribiesen sus propias aplicaciones de software. Esta
versión de BASIC se debe a un pequeño equipo dirigido por Bill Gates,
quien había dejado sus estudios en Harvard y se había trasladado a Nuevo
México para desarrollar software para Altair. Con ello se logró
arrebatar a IBM la hegemonía sobre el sector informático. Sin embargo, a
ninguno de los gigantes que se enfrentaron a IBM les fue
particularmente bien durante la siguiente década. Incluso, a principios
de los noventa, la Digital Equipment Corporation, a quien debemos en
gran medida la existencia del ordenador personal, estuvo a punto de
quebrar.
Los ordenadores personales tenían un precio considerablemente más
económico, si bien máquinas como las Altair no resultaban apropiadas
para nadie que no estuviera muy versado en la electrónica digital y
aritmética binaria. En 1977 aparecieron en el mercado varios productos
de los que se aseguraba que eran tan fáciles de instalar y usar como
cualquier otro electrodoméstico. El más popular fue el Apple II, cuyos
fundadores, Steve Jobs y Steve Wozniak, eran el equivalente de Eckert y
Maunchy en Silicon Valley: uno era un ingeniero de primera, el otro un
visionario que intuyó el potencial de estas máquinas si se hacían
accesibles para el gran mercado (Rose 1989). En 1979 apareció un
programa llamado Visicalc para el Apple II: manejaba filas y columnas de
cifras que los contables conocían como hojas de cálculo, sólo que con
mayor rapidez y facilidad de lo que nadie jamás hubiera imaginado. Una
persona que tuviera el Viscalc y el Apple II podía ahora hacer cosas que
no resultaban fáciles ni para una macrocomputadora. Por fin, tras
décadas de promesas, el software, es decir, los programas que hacen que
los ordenadores hagan lo que uno quiera, pasaron a primer plano, el
lugar que en justicia les correspondía. Una década después serían las
empresas de software, como Microsoft de Bill Gates, las que dominarían
las noticias sobre los adelantos de la informática.
A pesar de su reputación de lenta y burocrática, IBM reaccionó con
rapidez al reto de Apple y sacó al mercado su propio PC en 1981. Este PC
disponía de una arquitectura abierta que hacía posible a otras empresas
suministrar software, equipo periférico y tarjetas de circuitos
conectables, algo que se alejaba por completo de su filosofía
tradicional, aunque muy común en el sector de los miniordenadores y
otros ordenadores personales. Esta máquina tuvo un éxito comercial mayor
del esperado, pues el nombre de IBM daba credibilidad al producto.
Empleaba un procesador avanzado de Intel que le permitía tener acceso a
mucha más memoria que la competencia. El sistema operativo lo suministró
Microsoft y además se puso a la venta un programa de hoja de cálculo,
el Lotus 1-2-3, para este PC y los aparatos compatibles con él.
Apple compitió con IBM en 1984 con su Macintosh, con el que sacó de
los laboratorios el concepto de interfaz del usuario y lo puso al
alcance del público en general. La metáfora de ver archivos en la
pantalla como una serie de ventanas que se superponen, a las que el
usuario accede con un puntero llamado ratón se había aplicado por
primera vez en la década de 1960 en laboratorios subvencionados por el
ejército. A principios de los setenta, un equipo de brillantes
investigadores en un laboratorio de Silicon Valley de la Xerox
Corporation perfeccionó este concepto. Pero fue Apple quien lo convirtió
en un éxito comercial; Microsoft le siguió con su propio sistema
operativo, Windows, que se lanzó casi coincidiendo con el Macintosh,
pero que no se comercializó con éxito hasta 1990. A lo largo de la
siguiente década prosiguió la batalla entre la arquitectura de Apple y
la promovida por IBM, que utilizaba procesadores de Intel y un sistema
de software de Microsoft.
Las primeras conexiones de red
Durante la década de 1980 los ordenadores personales acercaron la
informática a los ciudadanos. Muchos individuos los utilizaban en el
trabajo, y unos cuantos también tenían uno en casa. La tecnología,
aunque todavía algo desconcertante, había dejado de ser un misterio.
Ahora bien, aunque los ordenadores personales dominaban la prensa
diaria, las respetadas macrocomputadoras seguían dominando la industria
por lo que se refería al valor en dólares del equipo y del software que
incorporaban. Aunque no podían competir con las aplicaciones de los
programas para PC tales como las hojas de cálculo y los procesadores de
texto, sí eran necesarias para las operaciones que requerían manejar
grandes cantidades de datos. A principios de la década de 1970 estos
ordenadores empezaron a cambiar las tarjetas perforadas por operaciones
interactivas realizadas con el teclado y otros terminales que tenían el
mismo aspecto físico que el de un ordenador personal. Los grandes
sistemas de bases de datos en línea se convirtieron en algo habitual y
poco a poco empezaron a transformar las actividades comerciales y
gubernamentales de los países industrializados. Entre las aplicaciones
más visibles están los sistemas de reservas aéreas, los de información
al cliente y de facturación para las empresas de servicios públicos y
compañías de seguros, así como los inventarios informatizados para
minoristas. La combinación de sistemas de bases de datos y de
facturación en línea, de números de teléfono gratuitos, de verificación
de tarjetas de crédito y facturación telefónica transformó a la humilde
rama minorista de venta por correo en una de las grandes fuerzas de la
economía estadounidense.
Para todas estas actividades se necesitaban macrocomputadoras grandes
y costosas y que dispusieran de un software diseñado a medida, lo cual
suponía un enorme gasto para el cliente. Existía la tentación de
conectar una serie de ordenadores personales baratos que ejecutasen
paquetes de software económicos y de bajo mantenimiento, pero esto no
era viable. Puede que si se engancha un grupo de caballos a un carro se
ayude a arrastrar más peso, pero no hará que el carro vaya más rápido. Y
hasta esto tiene sus limitaciones, pues al carretero cada vez le
resultará más difícil que todos los caballos tiren en la misma
dirección. El problema con la informática era parecido y quedó expresado
en la ley de Grosch: por el mismo dinero, rinde más el trabajo que
realiza un ordenador grande que dos pequeños (Grosch 1991).
Pero esto iba a cambiar. En el Centro de investigación de Palo Alto
de Xerox en 1973, donde se habían logrado tantos avances relacionados
con la interfaz de usuario, se inventó un método de conexión de redes
que dejó la ley de Grosch
obsoleta. Sus creadores la llamaron Ethernet, en honor al medio
(éter) que, según los físicos del siglo xix, transportaba la luz.
Ethernet hizo posible conectar entre sí los ordenadores pequeños de una
oficina o edificio, y con ello compartir la memoria de masa, las
impresoras láser (otro invento de Xerox) y que los usuarios de los
ordenadores intercambiaran mensajes de correo electrónico. Al tiempo que
Ethernet hacía posible la conexión de redes local, un proyecto
financiado por la Agencia de Proyectos de Investigación Avanzada en
Defensa (ARPA) hacía lo propio para conectar ordenadores geográficamente
dispersos. Tenía como objeto que las comunicaciones militares se
mantuvieran seguras en caso de guerra, cuando los tramos de una red
podían ser destruidos. Las primeras redes militares que provenían del
Proyecto Whirlwind tenían unidades de mando central, y por ello era
posible atacar al centro de control de la red. Estas unidades se
encontraban en edificios sin ventanas, reforzados con estructuras de
hormigón, pero si sufrían daños la red dejaba de funcionar (Abbate
1999).
ARPA financió la labor de un grupo de investigadores que
desarrollaron una alternativa en la que se dividió la información en
paquetes, cada uno los cuales recibía la dirección de un ordenador
receptor y circulaban a través de la red de ordenadores. Si uno o más
ordenadores en la red no funcionaban, el sistema encontraría otra ruta.
El receptor reunía los paquetes y los convertía en una copia fiel del
documento original que había transmitido. Hacia 1971 ARPANET contaba con
quince nodos de conmutación repartidos por todo el país y en los nueve
años siguientes creció con gran rapidez. En un principio tenía como
objeto enviar conjuntos de datos grandes o programas de un nodo a otro,
pero poco después de que la red entrase en funcionamiento la gente
empezó a utilizarla para intercambiar mensajes breves. En un primer
momento se trataba de un proceso laborioso, pero en 1973 Ray Tomlinson,
un ingeniero de la empresa Bolt Beranek and Newman de Cambridge,
Massachussets, hizo que esto cambiase. A Tomlinson se le ocurrió la
sencilla idea de separar el nombre del receptor del mensaje y el de su
ordenador con el símbolo @, uno de los pocos símbolos no alfabéticos de
los que disponía el panel de mandos del teletipo que ARPANET empleaba en
aquella época. Y así es como se concibió el correo electrónico, y con
él, el símbolo de la era de las conexiones de red.
La presión ejercida para que ARPANET se pudiera destinar al envío de
correos electrónicos y a otros usos que no fueran militares fue tan
grande que la red terminó por escindirse. Una parte quedó bajo el
control militar; la otra se cedió a la National Science Foundation
(NSF), un organismo civil financiado por el Estado que subvencionó
proyectos de investigación no sólo para ampliar esta red, sino también
para hacer que se interconectasen los diferentes tipos de redes (por
ejemplo, las que utilizaban radios en lugar de cables). Los
investigadores empezaron a llamar al resultado de todo ello Internet,
para reflejar así su naturaleza heterogénea. En 1983 las redes adoptaron
un conjunto de normas para la transmisión de datos con esta
interconexión llamado Protocolo de Control de Transmisión/Protocolo de
Internet (Transmission Control Protocol/Internet Protocol, TCP/IP).
Estos protocolos se siguen usando en la actualidad y constituyen la base
de la Internet actual (Aspray y Ceruzzi 2008).
Estas redes de conexión local y remota encajaron a la perfección con
otros cambios que se estaban desarrollando en el software y el hardware
de los ordenadores. Salió un nuevo tipo de ordenador denominado estación
de trabajo, que a diferencia de los PC se adecuaba mejor a las
conexiones de redes. Otra diferencia fundamental es que utilizaba un
sistema operativo llamado UNIX, que si bien era de difícil manejo para
el consumidor, se ajustaba muy bien a las conexiones de red y a otros
programas avanzados. UNIX fue creado por los laboratorios Bell, la
sección dedicada a la investigación del monopolio de telefonía AT&T
que regula el gobierno estadounidense. Los grupos de estaciones de
trabajo, conectados entre ellos localmente por Ethernet, y por Internet a
grupos de terminales similares por todo el mundo, por fin suponían una
alternativa real a las grandes instalaciones de macrocomputadoras.
La era de Internet
La National Science Foundation (NSF), una agencia gubernamental
estadounidense, no podía permitir el uso comercial de la parte de
Internet que estaba bajo su control. Sí podía, sin embargo, ceder el uso
de los protocolos de Internet a cualquiera que quisiera utilizarlos por
muy poco dinero o de forma gratuita, a diferencia de lo que ofrecían
empresas de ordenadores como IBM. Con el aumento de usuarios de
Internet, la NSF se vio presionada para ceder su gestión a empresas
comerciales. En 1992 el Congreso de Estados Unidos aprobó una ley con la
que terminó de hecho la prohibición de su uso comercial, por lo que se
puede decir que la aprobación de esta ley marcó el comienzo de la era de
Internet. Ahora bien, esto no es completamente cierto, pues el gobierno
estadounidense retuvo el control sobre el plan de direcciones de
Internet, por ejemplo, los sufijos .com, .edu, etc., que permiten a los
ordenadores saber adónde se envía un mensaje electrónico. A principios
del siglo xxi, una serie de países pidió que dicho control pasara a la
Organización de las Naciones Unidas, pero hasta ahora Estados Unidos se
ha mostrado reacio. Se trata realmente de un recurso que se ofrece a
todos los países del mundo, pero el registro maestro de los nombres de
dominio lo gestiona una empresa privada estadounidense a la que el
Departamento de Comercio concede esta autoridad.
Esta actividad política se vio complementada por adelantos
significativos en la tecnología informática, lo que supuso un nuevo
impulso para la difusión de Internet. Para 1990 las costosas estaciones
de trabajo de UNIX habían cedido el paso a los ordenadores personales
que utilizaban procesadores avanzados, en especial un procesador llamado
Pentium, que suministraba Intel. En lo que respecta al software,
salieron versiones nuevas del sistema operativo Windows de Microsoft en
las que venían instaladas los protocolos de Internet y otros programas
de conexión de redes. Esta combinación proporcionó a los PC una potencia
equivalente a la de las estaciones de trabajo. Es raro encontrar UNIX
en un PC, aunque los servidores de mayor potencia y los denominados
routers que realizan las conmutaciones básicas de Internet lo siguen
usando. Una variante de UNIX llamada Linux, creada en 1991 por Linus
Torvalds en Finlandia, se presentó como una alternativa gratuita o
muy barata al sistema Windows de Microsoft, y tanto éste como el
software relacionado con él lograron hacerse con una cuota de mercado
pequeña, si bien significativa. Estos programas pasaron a conocerse como
software de código abierto, el cual se define como libre, pero no sin
restricciones (Williams 2002).
Mientras esta actividad se desarrollaba en los laboratorios
gubernamentales y universitarios, los usuarios de PC empezaban a
descubrir las ventajas de las conexiones de red. Los primeros
ordenadores personales como el Apple II no tenían una gran capacidad
para conectarse a una red, pero aficionados con mucha imaginación
consiguieron desarrollar formas ingeniosas de comunicarse. Utilizaron un
dispositivo llamado modem (modulador-demodulador) para transmitir datos
informáticos lentamente a través de las líneas telefónicas. En esta
empresa se vieron asistidos por una decisión tomada por el monopolio de
telefonía estadounidense, según la cual los datos que se enviaban por
líneas telefónicas recibirían la misma consideración que las llamadas de
voz. Las llamadas locales eran, de hecho, gratuitas en Estados Unidos,
pero las llamadas a larga distancia resultaban caras. Estos entusiastas
de los ordenadores personales encontraron formas de reunir mensajes
localmente y luego enviarlos de un lado a otro del país por la noche,
cuando las tarifas eran más baratas (esto dió lugar a FidoNet, llamada
así por un perro que iba a buscar información, como los perros cuando
corren a buscar un objeto que se ha lanzado). También surgieron empresas
comerciales para abastecer este mercado; alquilaban números de teléfono
en las áreas metropolitanas y cobraban una tarifa a los usuarios por
conectarse. Uno de los más importantes fue The Source, que se fundó en
1979 y que tras atravesar un periodo de dificultades financieras se
reorganizó y convirtió en la base para America Online, el servicio de
conexiones de red personal más popular desde la década de 1980 hasta
finales de la de 1990.
Estos sistemas comerciales y personales son importantes porque con
ellos las conexiones de redes cobraron una dimensión social. ARPANET era
una red militar, y sus responsables desaprobaban su uso frívolo y
comercial. Pero las redes personales, como los teléfonos de particulares
a través de los que se transmitían estos mensajes, se utilizaron desde
el principio para chats, debates informales, noticias y servicios
comerciales. Una de las redes comerciales, Prodigy, también incluía
gráficos a color, otro de los elementos básicos de la Internet de hoy.
Las historias sobre Internet que hacen subrayan la importancia de
ARPANET están en lo correcto: ARPANET fue su predecesora técnica, y sus
protocolos surgieron de la labor de investigación del ARPA. Sin embargo,
para que una historia de Internet sea completa, también hay que tener
en cuenta su dimensión social y cultural, la cual surgió a partir de
Podigy, AOL, así como de la comunidad de usuarios aficionados.
Hacia finales de la década de 1980 era evidente que las redes de
ordenadores resultaban ventajosas para hogares y oficinas. No obstante,
la red que se estaba creando con el apoyo de la National Science
Foundation, era una de las muchas aspirantes. Los informes comerciales
de aquellos años defendían un tipo de red completamente diferente, me
refiero en concreto a la ampliación de la televisión por cable hasta
alcanzar una multitud de canales nuevos, quinientos, según un pronóstico
generalizado del momento. Esta nueva configuración de la televisión
permitiría cierto grado de interactividad, pero ello no sería posible
con un ordenador personal de uso doméstico. Se trataba de un producto
lógico de los objetivos de marketing de los sectores de televisión y
entretenimiento. Entre la comunidad de científicos y profesionales
informáticos, las conexiones de red vendrían dadas a través de un
conjunto bien estructurado de protocolos llamado interconexión de
sistema abierto (Open Systems Interconection, OSI), que reemplazaría a
Internet, de estructura más abierta. Nada de esto ocurrió, en gran
manera debido a que Internet, a diferencia de los otros proyectos, se
diseñó para permitir el acceso a redes diferentes sin estar vinculada a
un monopolio regulado por el gobierno, grupo empresarial privado o
sector en particular. Hacia mediados de la década de 1990 las redes
privadas como AOL establecieron conexiones con Internet y los protocolos
OSI cayeron en desuso. Paradójicamente, porque Internet era de acceso
gratuito y no había sido concebida para un uso comercial determinado,
pudo convertirse en la base de tanta actividad comercial una vez que
salió del control del gobierno de Estados Unidos, después de 1993
(Aspray y Ceruzzi 2008).
En el verano de 1991 investigadores del Laboratorio Europeo de Física
de Partículas CERN sacaron un programa llamado World Wide Web.
Consistía en un conjunto de protocolos que operaban por encima de los
protocolos de Internet y permitían un acceso muy flexible y generalizado
a la información almacenada en la red en diversos formatos. Al igual
que ocurrió con Internet, esta característica de acceso a todo tipo de
formatos, máquinas, sistemas operativos y normas fue lo que hizo que su
uso se generalizase rápidamente. En la actualidad y para la mayor parte
de los usuarios, World Wide Web e Internet son sinónimos; ahora bien, es
más apropiado decir que esta última constituyó la base de la primera.
El principal creador de la World Wide Web fue Tim Berners-Lee, que en
aquella época trabajaba en el CERN. Según recuerda, lo que le inspiró su
creación fue ver cómo físicos de todo el mundo se reunían para debatir
cuestiones científicas en los edificios del CERN. Además de la World
Wide Web, Berners-Lee también desarrolló otro programa mediante el que
se facilitaba el acceso a ésta desde un ordenador personal. Este
programa, denominado buscador, fue un factor clave adicional en la
popularización del uso de Internet (Berners-Lee 1999). Su buscador tuvo
sólo un uso limitado y fue rápidamente reemplazado por uno más
sofisticado llamado Mosaic, que se creó en 1993 en la Universidad de
Illinois, en Estados Unidos. Al cabo de dos años los principales
creadores de Mosaic abandonaron Illinois y se trasladaron a Silicon
Valley en California, donde fundaron una empresa que se llamó Netscape.
Los usuarios particulares podían descargar su buscador, Navigator, de
manera gratuita, pero los comerciales tenían que pagar. El éxito casi
instantáneo de Netscape supuso el comienzo de la burbuja de Internet, en
virtud de la cual cualquier valor que estuviese remotamente relacionado
con ella cotizaba a unos precios desorbitados. Mosaic desapareció, pero
Microsoft compró sus derechos y lo convirtió en la base de su propio
buscador, Internet Explorer, que en la actualidad es el medio más
utilizado de acceso a la Web y a Internet en general (Clark 1999).
Conclusión
La historia de la informática empezó de manera lenta y metódica, y
luego se disparó con la llegada de las conexiones de red, los buscadores
y, ahora, con los dispositivos portátiles. Todo intento por trazar su
trayectoria reciente está condenado al fracaso. Esta fuerza que la
impulsa viene definida en la Ley de Moore, uno de los fundadores de
Intel, según la cual los chips de silicio duplican su capacidad cada
dieciocho meses (Moore 1965). Esto es lo que lleva ocurriendo desde
1960, y, a pesar de que periódicamente se pronostica que esto terminará
pronto, parece que aún no es el caso. Asimismo, la capacidad de la
memoria de masa, en especial de los discos magnéticos, y de la anchura
de banda de los cables de telecomunicaciones y otros canales ha ido
aumentando a un ritmo exponencial. Todo ello hace que los ingenieros
estén atrapados en una rutina de la que no tienen escapatoria: cuando
les piden que diseñen un producto no lo hacen pensando en la capacidad
de los chips que hay en ese momento, sino en la potencia que calculan
que tendrán cuando el producto salga a la venta, lo cual, a su vez,
obliga a los fabricantes de chips a sacar uno que satisfaga esas
expectativas. En la prensa general y especializada siempre se pueden
encontrar predicciones en las que se indica que esto algún día se
acabará: al menos cuando los límites de la física cuántica hagan
imposible diseñar chips con mayor densidad. Sin embargo, a pesar de
todos estos pronósticos que señalan que la Ley de Moore llegará a su
fin, todavía no ha ocurrido, y mientras siga siendo válida es imposible
predecir qué camino seguirá la informática, incluso, el año que viene.
Pero esto es lo que convierte a esta era en una de las más emocionantes
de la historia, siempre y cuando uno sea capaz de sobrellevar la
velocidad a la que se producen los cambios tecnológicos.
Bibliografía
Abbate, J. Inventing the Internet. Cambridge, Massachusetts: MIT Press, 1999.
Aspray, W., ed. Computing Before Computers. Ames, Iowa: Iowa State University Press, 1990.
—, y P. E. Ceruzzi, eds. The Internet and American Business. Cambridge, Massachusetts, 2008.
Berners-Lee, T. y M. Fischetti. Weaving the Web: The Original Design
and Ultimate Destiny of the World WSide Web by its Inventor. San
Francisco: Harper, 1999.
Bird, P. LEO: The First Business Computer. Berkshire, Reino Unido: Hasler Publishing, 1994.
Burks, A. R. y W. Arthur. The First Electronic Computer: The
Atanasoff Story. Ann Arbor, Michigan: University of Michigan Press,
1988.
Ceruzzi, P. E. Reckoners: the Prehistory of the Digital Computer,
From Relays to the Stored Program Concept, 1935-1945. Westport,
Connecticut: Greenwood Press, 1983.
—, A History of Modern Computing. Cambridge, Massachusetts: MIT Press, 1998.
Clark, J. y O. Edwards. Netscape Time: The Making of the
Billion-Dollar Start-Up that Took on Microsoft. Nueva York: St. Martin’s
Press, 1999.
Eames, Ch. y R. Offices of. A Computer Perspective: Background to the
Computer Age. Cambridge, Massachusetts: Harvard University Press, 1990.
Eckert, W. J. Punched Card Methods in Scientific Calculation. Nueva York: IBM Corporation, 1940.
Grosch, H. R. J. Computer: Bit Slices from a Life. Novato, California: Third Millennium Books, 1991.
Kidwell, P. A., y P. E. Ceruzzi. Landmarks in Digital Computing: A
Smithsonian Pictorial History. Washington, D. C.: Smithsonian
Institution Press, 1994.
Merzbach, U. Georg Scheutz and the First Printing Calculator. Washington, D. C.: Smithsonian Institution Press, 1977.
Moore, G. E. «Cramming More Components onto Integrated Circuits», Electronics, (19 de abril de 1965): 114-117.
Randall, B., ed. The Origins of Digital Computers: Selected Papers. Berlín, Heidelberg y Nueva York: Springer-Verlag, 1975.
Redmond, K. C. y Th. M. Smioth. Project Whirlwind: The History of a
Pioneer Computer. Bedford, Massachusetts: Digital Press, 1980.
Rose, F. West of Eden: The End of Innocence at Apple Computer. Nueva York: Penguin Books, 1989.
Stern, N. From ENIAC to UNIVAC: An Appraisal of the Eckert-Mauchly Computers. Bedford, Massachusetts: Digital Press, 1981.
Williams, S. Free as in Freedom: Richard Stallman’s Crusade for Free Software. Sebastopol, California: O’Reilly, 2002.