Ceros y unos

cerosyunos-drodriguez

El libro que muchos esperábamos ya está en la calle. Se llama “Ceros y unos, la increíble historia de la informática, Internet y los videojuegos”. No es el primer manual de historia de la informática pero sí el más entretenido. A su autor, Daniel Rodríguez Herrera, le ha llevado año y medio escribirlo, casi como una sinfonía.

A estas alturas de la modernidad hacía falta una historia de la informática. Los aficionados, que somos multitud, echábamos de menos que alguien nos contase cómo nacieron los ordenadores y el software que corre en sus entrañas, o si es verdad o una simple leyenda urbana aquella vieja historia de los jóvenes pioneros del garaje. El problema es que los informáticos, gente de ciencias al fin al cabo, acostumbran escribir mal y a explicarse peor.

Este apotegma lo puede experimentar cualquiera que haya tenido problemas técnicos con su ordenador y, forzado por las circunstancias, se haya visto obligado a recurrir al informático de guardia, por lo general el hermano o el amigo. En lo que a mi respecta, simple mortal de letras puras, he tenido de ambos. La parte fraterna cualifica como informático cascarrabias incapaz de transmitir sus arcanos de un modo comprensible. Con el amigo, sin embargo, he tenido más suerte, básicamente porque ese amigo es Daniel Rodríguez Herrera, informático sí, pero también periodista y narrador dotado de unas extraordinarias cualidades para la divulgación.

Por eso, porque escribe de maravilla, ha sido el primer español en publicar una completa historia de la informática para dummies, que es lo mismo que decir para gente de pocos números. El libro se llama “Ceros y unos”, nombre que le viene al pelo porque la informática reducida a su mínima expresión es eso mismo, una sucesión ilusoriamente infinita de ceros y unos.

Lejos de las clásicas metodologías académicas que sacan del libro a los lectores de una patada en la cara, Daniel ha escogido otra mucho más atractiva: la de los pasajes aparentemente inconexos pero que, juntos, forman una unidad. En esto ha tenido mucho que ver el hecho de que este curioso libro de historia se haya ido publicando por entregas, de manera que el autor ha tenido tiempo de sobra para ir componiendo con cuidado y profusa documentación cada uno de los capítulos. Hacer “Ceros y unos” ha llevado más de año y medio de trabajo, y puedo dar fe de ello porque he ido viendo los avances con mis propios ojos.

Al disponer de tanto tiempo el autor ha podido recrearse en lo que realmente importa de cualquier historia que merezca la pena ser contada: las anécdotas y la serendipia, ese fenómeno típicamente humano que consiste en encontrar algo sin haberlo buscado previamente. Así nacieron, por ejemplo, los videojuegos. A ningún informático de los años 50 se le hubiese pasado por la cabeza desperdiciar potencia de cálculo para jugar a los marcianitos, pero sí poner a prueba esa misma potencia con pasatiempos inocentes que se han terminado convirtiendo en una de las mayores industrias del mundo, mayor que la del cine, que ya es decir.
El videojuego ha sido quizá el producto más casual de la historia después del fuego, pero los ordenadores no nacieron para darnos ese gustazo a los jugones. Su misión era mucho más modesta y, por que no decirlo, prosaica y aburrida. Los pioneros de la informática se devanaron los sesos durante décadas para construir una máquina que, mediante los mecanismos de la lógica empujados por una leve corriente eléctrica, ayudase con los cálculos y la organización de bases de datos. Ese era el plan, y con un simple Microsoft Access los primeros informáticos se hubieran conformado. Pero como siempre que alguien se pone a enredar en algo que desconoce, la cosecha de hallazgos fortuitos ha sido –y sigue siendo– continua.

En el arte de procesar información cada logro ha ido abriendo nuevos campos de estudio, algo así como la astronomía pero sin necesidad de telescopio. Ese fue el modo en el que apareció Internet. Cuando los primeros ordenadores eran lo suficientemente solventes para realizar sus cometidos, a alguien se le ocurrió ponerlos en red, es decir, comunicar un ordenador con el otro. Dicho así parece fácil, cosa de un cable y poco más, pero no, para llegar a la red de redes ha sido necesario medio siglo y toneladas de ingenio de gente como Daniel, que, por muchas dificultades que encuentren en el camino, jamás se dan por vencidos.

Para que Internet funcione hace falta que los ordenadores se entiendan entre ellos. Y no lo hacen en nuestra lengua –“¡ojalá” diría un informático– sino en complicados códigos que, a su vez, nosotros tampoco entendemos. Por eso son necesarios los interfaces, una especie de traductores con dos caras: una antipática para el procesador de nuestra amada máquina y otra simpática para nosotros, vulgares mortales que se han de comer los gusanos. Conseguidos los códigos y los interfaces, hubo que estandarizarlos, conseguir que unos ordenadores y otros hablasen entre sí conforme a unos protocolos predefinidos. Un lío infernal del que no nos hemos enterado porque la historia de la informática, a diferencia de la de la política, se ha cocido a puerta cerrada en laboratorios, centros de cálculo, habitaciones a oscuras… y garajes.

Cuando pensamos en un ordenador nos vienen a la cabeza dos nombres: Bill Gates y Steve Jobs. “Ceros y unos” da buena cuenta de ambos. Bill y Steve eran dos chiquillos norteamericanos aficionados a la computación, nada del otro mundo, pero tuvieron la inmensa fortuna de ser las personas adecuadas en el momento adecuado. Ni uno ni el otro inventaron la informática personal, pero fueron ellos los que supieron cómo poner algo tan antiestético como una pantalla, una caja metálica y un teclado en todos los hogares del mundo civilizado. Algo así sólo podía hacerse en la América de los años 70, y allí estaban los dos, al frente de dos microempresas de garaje por las que nadie en su sano juicio hubiese dado un centavo.

Pero que los árboles no nos impidan ver el bosque, Apple y Microsoft no son más que los arcángeles del pobladísimo paraíso de la historia de la informática. Antes de que ellos entrasen en escena –muy tarde, todo sea dicho– ya existían los ordenadores. IBM, sin ir más lejos, llevaba haciéndolos unos cuantos años, muchos más de los que pensamos. El llamado Gigante Azul fue fundado en 1896, antes incluso que la Guerra de Cuba, por un visionario de nombre Hermann Hollerith, que era ingeniero de minas. A finales del siglo XIX patentó una máquina para que la oficina del Censo la utilizase para contar con precisión a todos los norteamericanos, 50 millones por aquel entonces. La primera tarea de aquel proto ordenador fue, sin embargo, mucho más luctuosa. Se utilizó para procesar las estadísticas de mortalidad de la ciudad de Baltimore.

Hollerith y su máquina contadora de cadáveres forman parte de lo que Daniel llama la “prehistoria de la informática”. La historia propiamente dicha empieza mucho más tarde, en los años 40, cuando ve la luz el Eniac, que es algo así como el código de Hammurabi de esta ciencia. Eso, claro, es lo que nos cuentan los yanquis que para algo ganaron la guerra. La realidad es otra. El primer ordenador lo fabricó un alemán, Konrad Zuse, durante el nazismo. Se llamaba Z3 y fue presentado en 1940. Daniel lo cuenta con pelos y señales y, ya puesto, desmonta un mito bastante persistente.

El manantial alemán se secó después de la guerra y fueron los norteamericanos quienes tomaron el relevo en el campo de la computación. A lo largo de las dos siguientes décadas le fueron encontrando utilidades múltiples a las máquinas de contar y ordenar. Servían para todo. Las empresas ganaban eficiencia y el Gobierno podía controlar más y mejor a los ciudadanos, especialmente a los que pagan impuestos.

Así, los informáticos empezaron a especializarse. Mientras unos construían aparatos cada vez más potentes, otros se encargaban de la parte lógica, es decir, de la programación. Fue por aquel entonces cuando un matemático austrohúngaro emigrado a Estados Unidos, John von Neumann, creo la estructura lógica de la computadora moderna. Aunque nos parezca chocante, los ordenadores actuales utilizan la misma arquitectura interna que inventó von Neumann hace más de cincuenta años. Y es que, cuando una cosa está bien pensada, no pasa el tiempo por ella.

Lo bueno de la historia de la informática es que no es como la del arte griego, que empezó y terminó hace mucho tiempo. La estamos viviendo en tiempo real. Los ordenadores siguen avanzando y seguirán haciéndolo durante mucho tiempo. Llevamos apenas un siglo creando máquinas pensantes, ese viejo sueño de la humanidad que nos ha hecho más libres, más rápidos y más productivos. Es bueno echar la vista atrás y saber cómo y por qué hemos llegado hasta aquí.

Be the first to comment

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.