La hermana oculta de la ley de Moore
Jonathan Koomey puede ver debajo de las apariencias. Eso lo convierte en un sujeto interesante, pero, sobre todo, lo pone en una posición ideal para hablar de la más invisible de las materias: el futuro.
Descubrí a este investigador del Centro Steyer-Taylor de Políticas y Finanzas de Energía de la Universidad de Stanford por uno de sus artículos, publicado el mes pasado en el MIT Technology Review. Titulado La tendencia informática que lo cambiará todo , el artículo es fruto de una investigación que hizo junto con Microsoft e Intel, y muestra que desde los inicios de la computación una ley de hierro marca el paso de los avances técnicos. El trabajo apareció originalmente en la edición de julio-septiembre de 2011 de los Anales de la Historia de la Computación del IEEE (Institute of Electrical and Electronics Engineers).
Silenciosa y oculta, la tendencia descubierta por Koomey cobra ahora un protagonismo absoluto. Porque, al revés que la ley de Moore, el principio descubierto por Koomey no tiene que ver con la cantidad de transistores que logramos colocar dentro de cada chip. Tiene que ver con la electricidad que estos chips consumen.
Doble o nada
No es ninguna novedad que las computadoras de hoy son más rápidas que las de hace dos años. Más rápidas y más baratas. Esta tendencia fue descubierta por Gordon Moore, uno de los fundadores de Intel, que la formalizó en un artículo publicado por la revista Electronics en abril de 1965. Denominada desde entonces ley de Moore, la versión breve de esta observación dice que el número de transistores en los chips se duplica cada dos años.
(Para ser exactos, la primera versión de la ley, en 1965, predecía que el número de transistores se duplicaría cada año; luego, en 1975, Moore ajustó este valor a 2 años. Además, popularmente, la ley de Moore suele citarse con un plazo de 18 meses. Esto se debe a que otro ejecutivo de Intel, David House, afirmó, basándose en Moore, que el rendimiento de las computadoras se duplicaría cada año y medio.)
Confusiones, embrollos y enmiendas aparte, durante los últimos 40 años hemos vivido en un mundo regido por la ley de Moore. Cualquier smartphone es la prueba. Cuesta diez veces menos que una computadora de 1983, pero marcha a una velocidad 3000 veces mayor, viene con 2000 veces más memoria y pesa 100 veces menos.
Ponete los iones de litio
Al mismo tiempo, un smartphone contiene la clave de otra tendencia, una que pasó inadvertida hasta que Koomey develó su existencia, revisando 70 años de datos. ¿Cuál es esa tendencia? Que la eficiencia eléctrica de los dispositivos digitales también se ha duplicado cada 18 meses desde que en 1946 Estados Unidos fabricó Eniac, aquel coloso informático de 167 metros cuadrados que consumía 174 KiloWatts y que fue, a los fines prácticos, la primera computadora de propósito general de la historia.
La eficiencia eléctrica es tan fundamental como el poder de cómputo, puesto que la tecnología se ha vuelto móvil, al menos en un vasto número de aplicaciones. Un ejemplo abrumador que Koomey menciona en su artículo: "Una MacBook Air completamente cargada, pero operando con la eficiencia eléctrica de las computadoras de 1991, agotaría sus baterías en 2 segundos y medio". Ouch.
OK, sí, los dispositivos van más rápido y consumen cada vez menos, qué novedad. Pero hay más: la ley de Koomey permite echar luz sobre el porvenir. A uno, que lo seduce imaginar lo que vendrá, los escenarios que pinta una eficiencia eléctrica decenas de miles de veces mayor que la actual (y, según Koomey, hay todavía mucho paño para cortar) son fantásticos.
O sea, el artículo de Koomey me fascinó y en cuanto terminé de leerlo me puse en contacto con él por mail para hacerle algunas preguntas sobre sus hallazgos.
Antes, las presentaciones. Jonathan estudió historia de la ciencia en la Universidad de Harvard y se doctoró en el Grupo de Energía y Recursos de la Universidad de California en Berkeley. "He estado interesado en la electricidad que usan las computadoras durante unos 20 años y empecé a explorar las aplicaciones de estas nuevas tecnologías para revolucionar la manera en que extraemos valor del universo."
Sobre su investigación, Koomey me escribió: "La eficiencia eléctrica de la computación (el número de cálculos que pueden completarse por cada KiloWatt-hora) se ha duplicado cada año y medio desde el nacimiento de la informática a mediados de la década del 40. Esta rápida tasa de crecimiento ha hecho que la computación sea hoy un billón de veces más eficiente que entonces. Hemos logrado esto reduciendo el tamaño de los transistores y colocando más transistores en cada chip. Pero las mejoras en la eficiencia, en rigor, son previas al microprocesador. De hecho, las mejoras en la eficiencia eléctrica durante la era de las válvulas de vacío fueron más rápidas que las que se dieron durante las últimas cuatro décadas".
¿Dijo válvulas?
Aclaración, supongo, indispensable: las válvulas de vacío, algo que pocas personas de menos de 40 años han visto funcionar en sus hogares, son los antepasados de los transistores. Se las llama de vacío porque eran semejantes a lámparas incandescentes, es decir, tubos de vidrio al vacío con componentes que brillaban en su interior. No servían para iluminar, se entiende, sino para una serie de funciones electrónicas que hoy realizan los transistores; por ejemplo, amplificar una señal. O, en computación, operar como interruptores.
Los más veteranos recordarán las válvulas emitiendo una luz anaranjada dentro del televisor o el equipo de música. Eran enormes, en comparación con los microscópicos transistores de un chip moderno, y por supuesto consumían mucha más energía.
Eniac estaba construida con 17.468 válvulas. Un microprocesador de última generación tiene unos 1400 millones de transistores (digamos, un Core i7 Extreme Edition). En otras palabras, si fabricáramos una computadora con la potencia de cómputo actual, pero con la tecnología de 1946, ocuparía la superficie del barrio de Palermo. Un poco menos, seamos justos: 13 kilómetros cuadrados.
Esto no me lo esperaba
El cálculo había surgido al extrapolar el área que ocupaba Eniac, su número de válvulas y el número de transistores de un microprocesador actual. Ahora, si Eniac consumía 174 KiloWatts, entonces (volví a extrapolar) un Core i7 del tamaño del barrio de Palermo usaría algo así como 12.000 millones de Watts. ¡Eso es 4 veces la potencia instalada de Yacyretá!
Me pareció mucho, así que le consulté a Koomey, que derivó el mensaje a varios de sus conocidos; entre otros, Ed Thelen, ingeniero experto en válvulas que trabajó para IBM y General Electric, actualmente retirado y voluntario del Computer History Museum que, entre otras cosas, participa del proyecto de restauración de una IBM 1401.
Ed no sólo respondió enseguida, sino que produjo un extenso análisis sobre las características de las válvulas de vacío usadas por Eniac, una verdadera clase magistral por mail en la que concluyó que cada una de las válvulas de mi hipotética computadora gigante consumiría alrededor de 5,4 Watts.
Jonathan intervino para sugerir que consideráramos también la electrónica de soporte y otros accesorios, lo que resultó en otro extenso y meduloso mail de Thelen. Al parecer, mis 8 Watts por válvula era un número razonable.
Pero no. Ni cerca.
Demasiado grande, demasiado lento
Sin que fuera mi intención, la consulta derivó en un debate sobre las posibilidades reales de construir una computadora valvular de 13 kilómetros cuadrados.
Fue largo, así que resumiré. Ed observó, por ejemplo, los problemas relacionados con la velocidad de ese hipotético cerebro electrónico gigante. "Nuestros pequeños y felices triodos (es decir, las válvulas), con todas sus capacitancias eléctricas internas y externas, están limitados a más o menos 10 MegaHertz", me escribió con su particular y entretenido estilo. El gigante sería, pues, demasiado lento, en comparación con los chips modernos. Thelen añadió que además estaba el problema de lo que tardarían las señales en moverse por dentro de semejante monstruo, cuya diagonal calculó en 5 kilómetros. "Apostaría –me escribió– a que necesitarías un reloj en el orden de los 2 KiloHertz. Eso no es mucho rendimiento."
Intervino entonces Robert Garner, a quien Koomey también había copiado mi consulta. Garner, un veterano ingeniero del Silicon Valley que trabajó en el Xerox PARC, Sun Microsystems e IBM, planteó un asunto revelador en un también extenso y meditado mail.
Resumo: a su juicio, el consumo de mi Core i7 valvular sería mucho menor que el que había calculado inicialmente, por dos motivos.
Primero, "la inmensa mayoría de los transistores de un CPU moderno está en la memoria caché, algo que en los 50 se implementaba por medio de memorias de tambor o de núcleo magnético", me escribió.
Segundo, "la mayoría de los transistores no cambia de estado en cada ciclo en un microprocesador moderno. Es más, si los transistores tuvieran un ciclo de trabajo del 50%, un procesador se derretiría". En su opinión, el cálculo de cuánto consumiría mi monstruo informático debería excluir los transistores del caché y considerar un ciclo de trabajo del 5% (es decir, que estarían consumiendo energía sólo durante un 5% del tiempo).
Por curiosidad, reduje el consumo al 5%, dejando de lado el tema de las memorias caché, lo que resultó en que el hipotético Core i7 valvular usaría 600 millones de Watts. De ser así, y confieso que no estoy del todo seguro de que sea el número correcto, el cerebro electrónico de tu PC usaría casi 5 millones de veces menos electricidad que esa misma computadora construida con tecnología de 1950 (Eniac se apagó para siempre a las 12 menos cuarto de la noche del 2 de octubre de 1955).
La energía está en el aire
El transistor, que nació en 1947, vino a cambiar todo el escenario de la electrónica, reemplazando las válvulas. En 1953 Texas Instruments desarrolló el primer transistor de silicio. En 1958, Jack Kilby, también de Texas Instruments, produjo el siguiente salto cuántico de la industria: el circuito integrado (varios transistores en un solo chip). Medio año después, otro genio del Silicon Valley, Robert Noyce, por entonces en Fairchild, desarrolló el primer circuito integrado de silicio, el material que daría origen, en 1971, al primer microprocesador, el 4004, de Intel.
Según Koomey, la baja en el consumo eléctrico ha acompañado esta evolución. Tanto que, en su artículo, prevé dispositivos tan eficientes que serían capaces de cosechar electricidad de las señales electromagnéticas que hoy pueblan el aire. Le pedí que me explique eso.
"La antena de tu radio toma energía de las transmisiones a partir de las corrientes que se inducen en el metal. Luego, tu radio amplifica esas corrientes para que puedas oír el sonido de la transmisión. Ahora, si tenés una antena lo bastante grande y un dispositivo supereficiente, podrías hacer que ese aparato funcione con las pequeñas cantidades de energía inducidas en la antena. La Universidad de Washington desarrolló prototipos de 30 x 30 centímetros que pueden generar unos 60 micro Watts de promedio en una ciudad con estaciones grandes de TV, y eso es suficiente para que algunos sensores de ultra bajo consumo ya puedan funcionar. Mientras el tamaño del equipo no sea un obstáculo, esta tecnología puede funcionar muy bien".
Dicho de otro modo, serían aparatos eléctricos que no necesitan ni cables ni baterías. Como Jonathan adelanta en el título de su trabajo, la supereficiencia eléctrica lo cambia todo. Es que no sólo hay energía en el aire, pensaba mientras lo leía, sino que también las plantas e incluso nuestros organismos producen electricidad. Llegará el día, me imagino, en que seremos capaces de integrar cómputo en nuestros cuerpos, algo que la ciencia ficción ya ha vaticinado de varias formas. Le hablé de esto a Koomey. Me dijo:
"Google Glass es sólo el más reciente de los esfuerzos para integrar poder de cómputo en nuestras vidas cotidianas, pero veremos cada vez más esta clase de dispositivos en los años que vienen. También vamos a ver pequeños sensores en aplicaciones biomédicas que nos permitirán ejercer una medicina personalizada, ajustados los tratamientos a la situación particular de cada paciente, basándonos en las mediciones en tiempo real de la condición de esa persona."
Con el tiempo, especulo, el poder de cómputo habrá pasado del piso a la habitación, de la habitación al escritorio, del escritorio al bolsillo y del bolsillo a nuestros cerebros, donde no requerirán de fuentes adicionales de energía. En el futuro, quién sabe, no sólo la procesión irá por dentro. El procesamiento informático también.