
Así se inició la revolución digital
Termina enero, y como otros años, he dedicado este mes a reflexionar sobre un cierto tema. Cerca de fechas que aparecían en los libros de ciencia ficción de mediados del siglo XX, en 2018 se me ocurrió analizar cómo ha cambiado realmente el mundo. Los autos voladores siguen siendo una fantasía –aunque menos lejana–, pero los robots ya están entre nosotros; cierto, se parecen poco a los de las películas. En todo caso, la revolución vino por otro lado, uno del todo imprevisto, salvo para algunos gigantes como Arthur Clarke y Robert Silverberg.
En esta última entrega, en lugar de analizar el presente y sus futuros posibles, quiero volver a los días en que estos cambios paradigmáticos comenzaron. Hoy damos por sentado casi todo lo que en aquél momento nos volvió locos. La comoditización del cómputo y de las comunicaciones digitales a escala global hacen que hayamos aceptado por completo esta nueva normalidad. Sigue existiendo una brecha conceptual, y en general lo virtual se confunde con lo real, creando un terreno fértil para que el pirata informático tienda sus redes, pero el llevar una supercomputadora en el bolsillo ya no asombra a nadie.
No siempre fue así, sin embargo. Los que presenciamos los albores de la revolución digital seguimos recordando la adrenalina, la pasión, el frenesí que nos embargó cuando pusimos nuestras manos en las primeras y rudimentarias computadoras, cuando escribimos nuestras primeras líneas de código (con lápiz y papel, usualmente), cuando alguien al otro lado del océano nos respondió un mensaje cuyos caracteres fulguraban en una primitiva pantalla de fósforo blanco.
Los primeros signos de que algo raro estaba pasando llegaron al gran público a mediados de la década del 70, con Apple, Altair, Tandy y Commodore, entre otras. Pero las semillas del cambio habían estado sembrándose desde mucho antes. En 1958, Jack Kilby desarrolló la idea del circuito integrado. Es decir, varios transistores en un mismo chip. Hoy parece raro que algo así fuera disruptivo, pero llevó años refinar la idea. E incluso el circuito integrado era hijo de otro salto cuántico, el transistor; el primero basado en silicio apareció en 1954, pero el concepto venía gestándose desde 1947. En diciembre se cumplieron 70 años, y, por supuesto, nadie lo recordó. Ya forma parte del inventario.
Ahora, ¿qué es un transistor? Fue el componente que vino a reemplazar las válvulas de vacío, esas luces anaranjadas que se veían por las rendijas de ventilación en los televisores y las radios de nuestros padres y abuelos. En el taller de mi padre, durante mi infancia, había cajones llenos de esas válvulas. De pronto, a mediados de los ‘60, empezaron a aparecer unos componentes muy diferentes. Ya no eran de vidrio ni estaban sellados al vacío. Por el contrario, eran objetos pequeños y macizos (de allí que a esta tecnología se la llamara “de estado sólido”), primero como una moneda de un peso, sólo que más gruesos, y luego cada vez más pequeños.
Mi padre me explicaba, con comprensible entusiasmo, que un transistor (esa piecita negra no mayor que una arveja) podía hacer lo mismo que una de esas enormes válvulas de vacío. No mucho después, al finalizar la década y durante los primeros años de la siguiente, empezaron a acumularse en el taller unas cosas todavía más raras. Eran bloquecitos rectangulares de color negro y muchas patitas. Solían guardarse dentro de unos contenedores de plástico largos, varios en fila india. Víctima de mi incurable curiosidad, mi padre me explicaba que cada una de esas arañitas negras podía hacer lo que cientos de los pequeños transistores, que súbitamente parecían toscos y antediluvianos.
Estaba asistiendo a los primeros eventos de la mayor explosión de diversidad electrónica de la historia, y también a una gran extinción. Por ejemplo, en esa época empecé a flirtear con la música, gracias a un Wurlitzer 4100. El instrumento pesaba 100 kilos y, naturalmente, poseía docenas de válvulas de vacío y no pocos componentes electromecánicos. Casi medio siglo después, todos los sonidos de ese dinosaurio –que estaba condenado a la extinción, pero que conservo– pueden reproducirse mediante un instrumento virtual, mediante software. Los 100 kilos se convirtieron en cero. Detalle delicioso: puesto que la humedad es enemiga jurada de la electrónica, el Wurlitzer tiene una gran resistencia en su base que mantiene el interior levemente cálido.
Contracción y expansión
Si bien muchos factores contribuyeron a crear las tecnologías que conocemos hoy, la miniaturización fue el eje del torbellino, el ojo del huracán. Por tres motivos.
Primero, las computadoras pronto iban a dejar de ocupar habitaciones enteras. Nadie imaginaba, salvo esos delirantes autores de ciencia ficción, que las llevaríamos un día en el bolsillo. Pero al menos podrían reducirse, digamos, al tamaño de un escritorio. Incluso tal vez menos.
Segundo, el consumo de energía. Los veteranos no me dejarán mentir. Los antiguos televisores y radios valvulares eran verdaderas estufas. Disipaban muchísimo calor, y esto era consecuencia de un consumo eléctrico que hoy sería inviable para nuestras austeras baterías de iones de litio.
Tercero, el costo. La fabricación en serie y a gran escala de circuitos con decenas, cientos, miles, millones y, hoy, miles de millones de transistores haría que el precio del cómputo pasara de más de 150.000 millones de dólares por cada GigaFLOPS (1000 millones de operaciones de coma flotante por segundo) en 1961 a 0,03 dólares por GigaFLOPS en 2017. Dicho en criollo, un muy buen auto costaría una diezmillonésima de peso, si la industria automovilística hubiera sufrido idéntica contracción. Cosa que, queda claro, no podría haber ocurrido porque la industria del silicio y la automovilística no son comparables.
Pero la analogía sirve para poner en perspectiva lo que ocurrió en poco más de medio siglo. Fue un fenómeno sin precedente. Nada ha bajado de precio cinco billones de veces en tan poco tiempo. En rigor, casi nada ha bajado de precio así en la historia de la civilización. Excepción lamentable es la moneda argentina, que adelgazó 13 ceros desde 1881.
La divisoria del código
Esa fue la prehistoria. Algunos tuvimos la suerte de presenciarla. Otros, todavía más afortunados, fueron sus protagonistas. Sin embargo, y excepto por algunos avances populares, como las radios portátiles, la mayor parte del público seguía viviendo en un mundo analógico y mecánico, a siglos del actual.
Ese estado de cosas empezó a cambiar a mediados de la década del ‘70. Para entonces, los componentes se habían reducido lo bastante y habían bajado tanto de costo como para que aparecieran las primeras computadoras para aficionados. Eran toscas y carecían de pantalla, pero a esos primeros colonos no les importaba. La posibilidad de programar una máquina fue el concepto más disruptivo de toda esta historia, mucho más que cualquiera de los que le siguieron.
Sentí esa emoción fulminante cuando descubrí que el nuevo dispositivo que mi padre atesoraba en su taller, una HP-65, podría llegar a usarse para calcular el resultado de las fórmulas de física y matemática que mi memoria no lograba fijar. Empecé a explorar, a escondidas, y tropezando con mi inglés todavía incipiente, el manual de programación de la HP-65; todavía tengo ese librito anillado en cuya tapa se lee una fecha asombrosa: junio de 1974.
Esa preciosa máquina, cuyo destino ignoro, llegó a mis manos al año siguiente. Tenía 14 o 15 años y los detalles, naturalmente, se han ido borrando. Pero la emoción que sentí el día que el display arrojó el primer resultado correcto está grabada de forma indeleble. Incrédulo, probé el programa muchas veces, con diversos valores. ¡Funcionaba! ¡La máquina estaba haciendo algo que mis mayores pretendían que uno hiciera a mano y de memoria! O bien la calculadora era superior al ser humano, o bien era exactamente al revés: tenía en mi manos un poder que mis mayores desconocían. Eso es poder de cómputo. Eso es saber programar.
Resultó que no lo desconocían, pero lo impugnaban. Así, mientras pensaba que estaba aprovechando un artilugio para, digamos, sacar cierta ventaja en los exámenes, en realidad estaba aprendiendo una destreza que en el lejano futuro de la adultez habría de resultarme crucial y que estaría en el nudo gordiano de la revolución digital.
Luego llegó Steve Wozniak. Y Steve Jobs. Como dos caras de la misma hoja de papel, el ingeniero genial y el visionario agudo nos dieron las primeras computadoras con pantalla a costos accesibles. Vino en 1981 la IBM/PC. Llegó la Tandy TRS-80 Modelo 100, de Radio Shack, que probé en algún momento de mis veintes, y era fantástica. Por supuesto, habíamos arrancado con las Commodore y las Sinclair, y sí, no les han mentido, nos íbamos a hacer un café mientras la computadora cargaba lentamente un jueguito desde un casete de audio; el jueguito no era mucho más que tres rayas y un puntito que hacía las veces de una pelotita. Y sin embargo todo eso era como un millón de veces más emocionante que la nueva y previsible versión de los videogames taquilleros con gráficos hiperrealistas de hoy.
No, nada de nostalgia. Es otra cosa. Aquella emoción, hoy ausente, provenía del hecho de que no había versiones previas. Estábamos booteando la revolución digital. Nos adentrábamos en terreno inexplorado. Importaba muy poco lo rudimentario, lo lento, lo básico. Era la primera vez que el televisor hacía lo que nosotros queríamos, no lo que quería el canal de TV. Eso sí que fue mágico.
Para ese grupo ínfimo de pioneros programar era parte de la vida cotidiana. Ni siquiera nos hacíamos planteos al respecto. No era una obligación. Era un privilegio. Sabíamos que era un privilegio. Estábamos empezando a vislumbrar que poder programar era, simplemente, poder.
De rutina
Ahora, por fortuna y por desgracia, todo eso se ha vuelto normal. Por fortuna porque miles de millones de seres humanos tienen ahora acceso a estas tecnologías extraordinarias, sólo que mucho más avanzadas.
Pero, por desgracia, algunas ideas pasaron de moda. Nos hemos ido quedando con el uso del cómputo, y su control está cada vez más fuera de nuestro alcance. Sólo el concepto del software de código fuente abierto mantiene a raya esta tendencia.
Tenemos más libertad de expresión, pero la privacidad se nos está escapando de las manos. Tenemos más transparencia, pero no sabemos qué hacen nuestras máquinas. No llega a ser una distopía, pero está lejos de ser una utopía. Las computadoras han llegado a cumplir un papel demasiado importante en nuestra realidad, tanto como el libro en su momento. La clave para la próxima etapa de esta revolución es regresar a las fuentes. Al código fuente, para ser preciso.