Suscriptor digital

La vida después del silicio

Cuando se alcancen los límites físicos de los actuales circuitos integrados, hacia el 2012, habrá que poner en práctica los nuevos chips basados en bacterias o en las características magnéticas del átomo.
(0)
2 de agosto de 1999  

Fue un encuentro casual entre un físico loco -como él mismo se denomina- y un químico, que puede algún día llevar a la creación de una nueva raza de computadoras basadas en interruptores minúsculos del tamaño de una molécula.

Hace tres años, un físico de la empresa Hewlett-Packard, Philip Kuekes, con tres décadas de experiencia en el diseño de computadoras, reflexionaba sobre las distintas maneras de usar una máquina que él mismo había desarrollado utilizando, en forma masiva, arquitectura paralela, es decir, una tecnología que ataca los problemas que se presentan dividiéndolos en cientos o miles de partes procesadas simultáneamente por un gran número de chips individuales.

Para esa época, Kuekes conoció a James Heath, químico de la Universidad de California (Los Angeles), que experimentaba con estructuras diminutas basadas en las moléculas de una sustancia sintética llamada rotazane. Al parecer, estas estructuras moleculares podrían funcionar como interruptores digitales, las puertas binarias on/off de la informática moderna.

Al poco tiempo, los dos científicos estaban estudiando la posibilidad de unir el diseño de Kuekes con los interruptores diminutos de Heath. En la formación de los interruptores (o transistores) diminutos, a partir de grupos de moléculas de una capa de profundidad, los investigadores vislumbran una nueva era de computadoras que serían cien mil millones de veces más rápidas que las PC más veloces de hoy.

Los detalles del trabajo en conjunto de los equipos de Hewlett-Packard y la UCLA fueron publicados el 16 de julio último en la revista Science, y representa un ejemplo más de toda la tarea de investigación que repentinamente comenzó a efectuarse en los laboratorios de computación en los Estados Unidos; es un florecer de ideas que algunos líderes del campo empiezan a considerar como un renacimiento de la informática.

En los laboratorios corporativos y académicos, los investigadores parecen estar muy próximos a alcanzar los últimos avances que podrían elevar el poder y la ubicuidad de las máquinas que se insinúan en prácticamente todas las facetas de la sociedad moderna. Y como muchos de estos esfuerzos -como el Hewlett-UCLA- se centran en el nivel microscópico, la informática podría convertirse en una parte cada vez más invisible de nuestra vida cotidiana.

"Muchas cosas emocionantes pasan fuera del mercado dominante de las PC -dice Marc Snir, gerente de investigación de IBM-. Estamos entrando en un mundo donde habrá miles de millones de dispositivos pequeños diseminados por todas partes."

Moléculas que piensan

El equipo Hewlett-UCLA es sólo uno de los seis grupos de los Estados Unidos que se encuentran bajo el ambicioso programa del departamento federal de Proyectos de Investigación Avanzada de Defensa que intenta crear un nuevo tipo de electrónica de escala molecular, conocida como moletrónica. Los expertos piensan que algún día superará la potencia y la capacidad de la tecnología basada en el silicio que se utiliza en las computadoras actuales. El año último, un grupo de investigadores de las universidades de Yale y Rice avanzó hacia el mismo objetivo de armar equipos informáticos a partir de componentes moleculares.

Mientras tanto, independientemente del programa militar de investigación, un grupo de científicos en el Laboratorio de Informática del Instituto de Tecnología de Massachusetts intenta fusionar lo digital con lo biológico rebanando la bacteria que causa el cólera, de modo tal que pueda funcionar como un circuito electrónico, aunque con la maravillosa capacidad de reproducirse (proyecto E. Colli).

Puede parecer esotérico. Y aun los expertos más entusiastas admiten que las aplicaciones prácticas de sus métodos y teorías pueden estar a una década o más de distancia. Pero los investigadores intentan renovar el énfasis de la ciencia en la informática, yendo más allá de la ingeniería electrónica y la física para recurrir a disciplinas diversas como la bioquímica en el momento de elaborar sus hipótesis y ponerlas a prueba.

Cultivando circuitos

Por ejemplo, los científicos del MIT están detrás de la idea de construir -o posiblemente cultivar, si los experimentos con la bacteria del cólera dan resultado- una gran cantidad de procesadores casi idénticos que podrían actuar como sensores o aun como dispositivos de realización de tareas llamados actuadores.

Harold Abelson, computador científico del MIT, y sus colegas, que llaman a su proyecto informática amorfa, realizan sus experimentos con la idea de trazar circuitos en material biológico. Esto podría permitir, por ejemplo, que las células vivas funcionen como circuitos digitales lógicos. Estos circuitos son rutas de acceso de información que, según su grado de complejidad, incluyen una multitud de elecciones binarias bastante sencillas: cero o uno, On u Off, éste pero no aquel.

Desde luego, las células biológicas podrían computarse sólo mientras permanezcan vivas. Pero la premisa es la misma que la del trabajo a escala molecular: colocar todos los millones o miles de millones de estos interruptores minúsculos que se pueda en el espacio más pequeño posible.

Los materiales inteligentes resultantes podrían utilizarse para un nuevo tipo de pintura o gel, que se aplicaría, por ejemplo, en una capa de cobertura de una autopista, con sensores similares a una computadora, que emitiría informes sobre el tráfico; o podrían hacer posible que el suelo esté tapizado por actuadores infinitesimales capaces de detectar partículas de tierra o polvo y eliminarlas silenciosamente al instante.

En el caso del proyecto Hewlett-UCLA, los investigadores crearon circuitos digitales lógicos, pero hasta el momento ninguno de los interruptores moleculares puede volverse a su estado original, a la posición de apagado, por ejemplo, después de haberse colocado en On. Y aún resta desarrollar los cables a escala molecular que serían necesarios para interconectar los interruptores.

Lo más importante del artículo de la revista Science es que por primera vez los científicos construyeron componentes de computación a escala molecular sirviéndose de la química en lugar de la consagrada tecnología de la fotolitografía, la luz ultravioleta que marca los circuitos en el silicio, proceso mediante el cual se fabrican los chips actuales. La industria del microprocesador aún no alcanzó los límites teóricos de la fotolitografía, pero puede llegar un día en el que ya no se puedan trazar circuitos más densos. Y ahí entrará a tallar la química molecular.

A mediados de julio, Kuekes comentó que su equipo había estado en contacto con el laboratorio del MIT y que en esos momentos estaban analizando la posibilidad de combinar la tecnología del interruptor molecular de Hewlett-UCLA con el trabajo del procesador biológico del MIT en vistas al futuro del diseño de computadoras.

"Piense en nosotros como los Sherwin-Williams de la era de la información - dijo Kuekes, refiriéndose a la visión de miles de millones de procesadores minúsculos suspendidos en la mezcla de una pintura-. Esta es la materia prima para los materiales superinteligentes."

Los científicos reconocen que sus proyectos son meras conjeturas y que las aplicaciones prácticas podrían concretarse dentro de una década o más. Pero la labor en ambas costas de los Estados Unidos indica la presencia de un aire renacentista en los círculos del diseño informático.

Hasta cierto punto, el trabajo más reciente es una continuación de los esfuerzos que comenzaron alrededor de cinco años y que pronto creció y se convirtió en el campo comercial de los sistemas microelectromecánicos o chips MEMS. Los MEMS son estructuras mecánicas microscópicas grabadas en la superficie de los chips de silicio, que han dado lugar a un negocio multimillonario, en gran medida en torno de los chips en los acelerómetros que son ahora equipos estándar, como los sensores del sistema de la bolsa de aire para los accidentes automovilísticos.

Pero como la investigación del proyecto Hewlett-UCLA y del MIT pone en evidencia, aun los circuitos convencionales de un chip de silicio -o el silicio en sí- se agotarán. Por cierto, los arquitectos de la informática se replantean en este momento el concepto global del microprocesador, el chip maestro que engendró a la PC y que ha sido el pilar de las computadoras modernas durante un cuarto de siglo.

"Es hora de hacer algo distinto. Es hora de mirar las cosas que ignoramos", dijo David Patterson, computador científico de la Universidad de California, en Berkeley.

A comienzos de la década del 80, Patterson colaboró en una de las innovaciones más importantes en diseño informático de esta era, una tecnología conocida por las siglas en inglés RISC (Reduced Instruction Set Computing), cuya traducción sería sistema de computación con conjuntos reducidos de instrucciones.

Partiendo de las ideas de un equipo de investigadores guiados por el computador científico John Cocke en el Laboratorio Thomas J. Watson de IBM en la década del setenta, Patterson y sus alumnos egresados de la Universidad de Berkeley demostraron que la velocidad de los chips del procesador se podía aumentar notablemente simplificando el hardware de la computadora y derivando muchas de las funciones al software.

Durante casi una década después del éxito del proyecto RISC de Berkeley, muchos expertos en la industria de la informática creyeron que este sistema podría reemplazar finalmente al diseño de los chips para las máquinas X86 de Intel, en la cual se basaba la PC estándar.

Con la esperanza de desplazar a Intel, aparecieron decenas de nuevas empresas inspiradas en el sistema RISC desde mediados de la década del ochenta hasta mediados de la del noventa. Pero empezando por su chip 486, introducido en 1989, y siguiendo por su serie Pentium, Intel ya incorporaba las mejores ideas de la tecnología RISC en sus micros, manteniendo el rendimiento de sus productos cercano al potencial de esta tecnología para permitir que la compañía retenga su liderazgo en el mercado.

La combinación del hardware de Intel y el software de Microsoft demostró ser invencible, y, uno por uno, fueron cayendo los rivales RISC. El fin de la era del RISC hace casi una década dejó a los diseñadores de la informática con pocas ideas fundamentalmente nuevas para mejorar el rendimiento de las computadoras.

RAM inteligente

Patterson, el pionero del RISC, ahora está embarcado en un nuevo proyecto de diseño conocido como RAM inteligente, o IRAM, que despertó gran interés entre las compañías electrónicas. Con sus colegas de Berkeley observó que el mayor obstáculo en el rendimiento de los sistemas de hoy está en la lentitud de los chips de memoria. Por eso, los investigadores de Berkeley anuncian que en la próxima década los procesadores y la memoria se fusionarán en un solo chip.

Los chips IRAM se incrustarían en los procesadores formando enormes mares de transistores de memoria. En lugar de hacer hincapié en la velocidad del procesador, estos nuevos chips pondrán énfasis en evitar los cuellos de botella que demoran el tráfico de datos dentro del procesador. Este enfoque sería de especial interés para los fabricantes de chips de memoria, empresas deseosas de encontrar nuevos caminos para distinguirse de lo que es hoy un mercado de productos.

Pero ningún diseño en sí es óptimo para cada tipo de problema. Por tal motivo, muchos investigadores estudian la idea de hacer chips reconfigurables, cuyos circuitos puedan organizarse una y otra vez para cada problema específico. Uno de los esfuerzos más extremos en esta dirección es un proyecto de procesador conocido como RAW (Raw Architecture Workstation) que está encarando un grupo de investigadores en el Laboratorio de Informática del MIT, independientemente del proyecto E. Coli. El proyecto RAW lleva la idea de la tecnología RISC a un nuevo extremo. El procesador no tendría un conjunto de instrucciones en el sentido convencional del término, sino que presentaría el chip completo al programador como una verdadera tabula rasa en la que se podrían programar en forma individual decenas o millones de transistores. "Estamos tratando de determinar si esto es simplemente un desafío para los programadores o una pesadilla", dijo Anant Agarwal, el diseñador de computación a cargo del proyecto RAW.

A medida que todos estos esfuerzos continúan, los computadores científicos luchan contra todos los límites percibidos de las leyes de Moore, un principio guía para el diseño de chips desde que el cofundador de Intel, Gordon Moore, observó en 1964 que el número de transistores que podía entrar en un chip de silicio se duplica aproximadamente cada año y medio.

Pero, finalmente, existen límites físicos en cuanto al espacio que debe haber entre un circuito y otro dentro del chip de silicio para que éstos funcionen, y se estima que esta realidad marcará el fin del paradigma de la ley de Moore en algún momento alrededor del año 2012. De ahí la importancia que adquiere la labor previsora, como la investigación efectuada por el equipo Hewlett-UCLA sobre el circuito a escala molecular.

"Es obvio que esta tecnología radicalmente distinta no derrotará a una industria multimillonaria como la del chip hoy -dice Kuekes-. Pero estamos mirando hacia delante, con bastante antelación, para cuando el silicio se quede sin vapor."

Traducción de Andrea Arko

En la Argentina ya se habla de qubits

Suponga que tiene que decidir, frente al cine, entre dos películas: tira una moneda al aire y la atrapa. Hasta que no la mire, no sabrá si salió cara o ceca. Un detalle que, si trabajara con computadoras cuánticas, no sería menor.

Además de los experimentos que usan células como procesadores, desde hace cinco años se intenta hacer lo mismo con átomos: es el último grito en física cuántica, y se está desarrollando en laboratorios de todo el mundo, incluyendo el que funciona en el Pabellón 1 de la Ciudad Universitaria de la Universidad de Buenos Aires bajo la dirección del titular del Departamento de Física, el doctor Juan Pablo Paz.

La idea fue propuesta por el Premio Nobel de Física Richard Feynman en la década del 80, pero no tuvo aplicación práctica hasta 1994, cuando Peter Shor, de Bell Labs, notó que haciendo uso de ciertas propiedades cuánticas de los átomos se podían encontrar los factores primos de un entero de muchas cifras en menos tiempo que una computadora normal (una operación que se usa, por ejemplo, para descifrar combinaciones de seguridad).

¿Cómo? Vuelva a la moneda del cine. Tiene iguales opciones de estar con una u otra orientación: las dos posibilidades (que serían el 0 y el 1 de un bit) están en superposición de estados, como se le dice en la jerga cuántica. Hasta que no se la observe, no está efectivamente ni en uno ni en otro.

Esta misma cualidad tiene el spin de un átomo (una de sus características magnéticas). El spin, como la moneda, tiene dos posiciones posibles y la particularidad de poder estar en ambas al mismo tiempo. Si usted logra controlarlo, tiene un qubit (que representa dos bits normales) en un solo átomo, contra los cien mil millones de átomos que se usan para codificar cada bit en un disco rígido ordinario.

Lo único que resta (y en donde se centra todo el problema) es situar al átomo en una posición inicial y dejar, como en un programa, que interactúe con los spines de los otros átomos de su computadora cuántica hasta obtener un resultado.

Si se lograra poner en funcionamiento una computadora de apenas 16 átomos, se podrían representar, al mismo tiempo, todos los números entre el 0 y el 65.535. Esa operación se conoce como paralelismo masivo, y es un dato que no pasó inadvertido para los que trabajan con combinaciones y sistemas de encriptación.

Esta nota se encuentra cerrada a comentarios

Usa gratis la aplicación de LA NACION, ¿Querés descargala?