
Un experimento en cálculo distribuido
La PC ya encara hoy trabajos adecuados para la Grid
1 minuto de lectura'
La nota de tapa de esta edición aborda una de las ideas más avanzadas y provocativas de la informática moderna: vender y distribuir capacidad de cálculo de la misma forma que hoy se lo hace con la energía eléctrica o el gas. Es una propuesta brillante (independientemente de que llegue a hacerse popular alguna vez) y utilizaría la Internet como red de distribución. Ha recibido el nombre de Grid.
Hay una sutil diferencia entre esta idea y lo que se hace más o menos regularmente hoy; esto es, enviar a una supercomputadora los datos por procesar. En la Grid no sabríamos ni nos interesaría saber qué computadoras están procesando nuestros datos, como tampoco nos desvela qué central eléctrica nos está dando corriente esta tarde. De hecho, la potencia de cálculo provendría de un conjunto muy grande de computadoras.
El resto de los detalles están en la nota de las páginas centrales de esta edición.
Nuestra lentitud cotidiana
¿Puede que nos interese alguna vez a nosotros, los usuarios comunes de computadoras, acceder al poder de cientos de supercomputadoras y pagar por ello?
La primera reacción es no, de ninguna manera. Si ya tenemos estos Pentium 4 a más de 2 GHz (miles de millones de ciclos por segundo), ¿para qué querríamos más?
Pero la potencia de cálculo, como la cantidad de memoria, es uno de los conceptos más escurridizos de la alta tecnología. En 1977, el fundador y presidente de Digital Equipment Corporation (DEC), Ken Olson, dijo que no veía ninguna razón por la que la gente quisiera tener una computadora en su casa. No mucho después, hablando sobre la limitación a 640 Kilobytes del sistema operativo desarrollado por su empresa para la PC de IBM, Bill Gates, presidente de Microsoft, dijo que "640 KB deberían ser suficientes para todo el mundo".
Hoy hay unas 800 millones de computadoras personales en el planeta y las más modestas poseen cien veces más memoria que los infaustos 640 KB originales. Un buen equipo tendrá 800 veces esa cantidad. Podría seguir con los ejemplos, pero la tendencia es clara: podemos emplear cuanta potencia de cálculo y memoria se ponga a nuestro alcance.
Los juegos son el primer ejemplo que viene a la mente, claro. En el contexto hogareño, son los principales responsables de que pongamos más cilindrada a nuestros equipos. Pero nuestras computadoras ya son hoy capaces de realizar tareas que podrían consumir cientos de veces la potencia de cálculo realmente instalada en el equipo. Esto es, el microprocesador, el Pentium, PowerPC o el que usted esté utilizando.
En la página siguiente, puede ver una nota que no parece muy emparentada con la de tapa. Sin embargo, es una muestra de lo que la computación distribuida puede hacer. Hablo del informe sobre el Bryce 5 , un programa de diseño 3D creado por la desaparecida Fractal Design y hoy en manos de Corel.
Producir la imagen final de un universo 3D ( rendering , en la jerga) impone a una computadora un trabajo de cálculo inmenso. Al punto que las imágenes que se ven en esa nota demandaron varias horas. En ciertos casos, el producto final puede tardar varios días. Bueno, una de las novedades del Bryce 5 es que puede renderizar el mismo trabajo en varias máquinas a la vez, si están conectadas en una red TCP/IP.
Así, un resultado que se hubiera hecho esperar quince horas (y por lo tanto nunca hubiera estado listo para la mañana siguiente), se reduce a 7,5 horas.
Estoy hablando de 7,5 horas de dos Pentium III trabajando al máximo de sus posibilidades. Bastaría que ampliase la red con un par de Pentium III adicionales y entonces tendría lista la imagen en algo menos de cuatro horas. Así de simple. El Bryce le da a cada PC de la red un fragmento cuadrado de la imagen. Cuando una estación de trabajo termina con su cuadrado, recibe los datos del siguiente en la secuencia. Simple, eficiente y estable. Todos los programas 3D de alta gama poseen esta función; de otro modo serían impracticables.
Pero, ¿qué ocurriría si pudiera disponer de la capacidad no de cuatro PIII, sino de 400.000 y a un costo aceptable? Acertó: sólo tendría que esperar una fracción de segundo para producir la imagen.
Lo cual, naturalmente, me llevaría a aumentar la resolución y a permitirme lujos que hoy, simplemente, debo dejar de lado porque una PC o varias PC tardarían no ya 15 horas, sino varios días en producir una sola imagen. Ni hablemos de una animación en alta resolución de medio minuto a 15 fotogramas por segundo, que podría demandar años de cálculo. Algo absurdo.
Si tuviera suficiente potencia a mi alcance, esa animación quedaría completa en poco más de un minuto; es decir, el tiempo que lleva hoy en una PC de escritorio generar una sola imagen preliminar en una resolución relativamente baja.
Este proceso, el de ir por más cuando tenemos chips más veloces y más memoria, es lo que ha movilizado la informática personal hacia delante desde su nacimiento. No me extrañaría que, si la Grid se convierte en una realidad cotidiana para los científicos, luego se traslade a los usuarios particulares. Ocurre con el hardware normal; el cómputo distribuido no tiene por qué ser diferente.
En otro sentido, los proyectos de Seti@Home ( http://setiathome.ssl.berkeley.edu/ ) y similares también aplican computación distribuida. En este caso, se emplean los ciclos ociosos de las computadoras asociadas al proyecto, en general de usuarios finales, para analizar paquetes de datos provenientes de las radioantenas. Este ejemplo, así como el de la investigación médica sobre el cáncer impulsada por Intel http://www.intel.com/cure ) han tenido un rotundo éxito y muestran que, por mucho que nos sintamos satisfechos con el hardware actual, todavía estamos en los inicios de la computación y podríamos, en un nivel individual y colectivo, hacer uso de millones de veces más potencia de cálculo de la hoy disponible.






