Intel por dentro

El suplemento Informática estuvo en el corazón de la empresa que inventó el chip y que hoy tiene granjas ultrasecretas de servidores para Internet
(0)
27 de marzo de 2000  

Sabe por qué los teléfonos celulares no llevan una etiqueta que diga Intel inside ?", pregunta sonriendo Hans Geyer, vicepresidente de Intel y gerente general de su división Comunicaciones Celulares. "Porque el logo es demasiado grande."

El chiste suena inesperado en boca de un directivo del principal fabricante de procesadores para computadoras del mundo, pero ilustra las intenciones del gigante de los microchips.

Desde que lanzó su campaña Intel inside ( Hay un Intel adentro , en inglés) en 1990, para diferenciarse de sus competidores, el nombre de la empresa quedó indeleblemente ligado al procesador central de las PC en la conciencia de los consumidores (si bien esto ya era así entre la comunidad técnica desde el nacimiento de la PC y del microprocesador mismo).

Pero Intel no se quiere quedar sólo con las PC, y se reorganiza para ocupar su nicho en otros mercados lucrativos. Como dijo Gordon Moore, uno de sus fundadores y actual presidente emérito, "estamos siempre rediseñándonos, reinventándonos."

Intel (por Integrated Electronics ) nació el 18 de julio de 1968 cuando Moore y Robert Noyce (fallecido en 1991) abandonaron Fairchild Semiconductor -que habían fundado 10 años antes-, cansados de lidiar con su estructura burocrática. Unidos con Andy Grove, su idea era producir memorias para computadoras hechas de material semiconductor, abandonando la tecnología popular de la época, la memoria magnética.

Para competir tenían que explotar las ventajas semiconductoras del silicio (es decir, que puede o no conducir electricidad, formando los 0 y 1 de la computación binaria): las memorias de ese material eran más pequeñas y veloces, y consumían menos electricidad que las magnéticas.

La prehistoria de la PC de IBM

En 1970 salió a la venta el 1103, el primer chip DRAM ( Dynamic Random Access Memory ), que tuvo un éxito inmediato. Luego, la empresa japonesa Busicom le pidió a Intel que fabricara 12 chips lógicos (es decir, no de memoria sino de cálculo) para una familia de calculadoras. Pero uno de los ingenieros de Intel, Ted Hoff, rechazó el pedido y construyó un sistema con 4 chips alrededor de un dispositivo lógico que combinaba todas las funciones pedidas por Busicom y podía ser usado en otros artefactos sin ser rediseñado. En 1971 ese chip, el chip 4004, fue puesto a la venta. Costaba 200 dólares, tenía 2300 transistores, y podía ejecutar 60.000 operaciones por segundo. Era el primer microprocesador de Intel y el primero del mundo.

Un año más tarde lo siguió el 8008, que ya podía procesar 8 bits de información al mismo tiempo. Pero la idea de la computadora personal estaba lejos. Según Gordon Moore, a mediados de los años 70 alguien le llevó un diseño para usar el nuevo chip 8080 (de 1974) con un televisor y un teclado. El ejemplo que usaron para convencerlo: un ama de casa que tuviera el aparato podría guardar allí sus recetas de cocina. Moore lo rechazó. La idea finalmente se plasmó en la Altair, una computadora que usaba ese chip, costaba $ 395, y había que armar a mano.

La madre de las computadoras personales que hoy conocemos es la PC que IBM fabricó en 1980 con los procesadores 8086 y 8088 de Intel (usando por primera vez equipos que no había fabricado en sus propios laboratorios). A esa PC XT le siguió la AT, con un chip 286, en 1982, línea cuyo último exponente es el Pentium III (de 1999), con 9,5 millones de transistores y circuitos de 0,25 micrones de ancho (un micrón es la milésima parte de un milímetro). En comparación, los circuitos del 4004 eran de 12 micrones (un pelo humano tiene un grosor de 100 micrones).

Los unos y los otros

En la Intel de hoy coexisten dos grandes grupos de trabajo: los moradores de alfombras ( carpetdwellers , según el neologismo de Intel) y los técnicos. Los primeros diseñan los prototipos de procesadores y artefactos en los cubículos, ayudados por software de diseño industrial. También verifican que un nuevo CPU sea compatible con programas escritos para procesadores más antiguos.

Los técnicos, por su parte, están en los laboratorios buscando mejorar el rendimiento del silicio y otros materiales para hacer procesadores más veloces, y en las fábricas, controlando que las máquinas armen los chips de manera correcta. Allí usan unos trajes casi herméticos (conocidos como bunny suits , trajes de conejo en inglés), para evitar que una pelusa, un pelo, polen o incluso bacterias caigan sobre alguno de los wafers con chips.

Cada wafer es una lámina de silicio de 0,7 mm de grosor y 20,3 cm de diámetro, sobre la que se dibuja con oro el camino que seguirán los electrones para realizar las operaciones básicas de suma y resta (un procesador puede tener 20 láminas; cada wafer puede proveer entre 100 y 600 chips). No todos los wafers se usan: algunos tienen defectos (más de un átomo de impureza por cada diez mil millones de átomos de silicio, más de un micrón de desnivel en su superficie) y son desechados o vueltos a limpiar de impurezas.

No siempre fue así; hace 30 años los operarios llevaban sólo un guardapolvo sobre su ropa. Pero el ambiente estéril ayudó a reducir el porcentaje de procesadores defectuosos al 20% (en los años 80, sólo la mitad de los chips funcionaba). El primer procesador fue diseñado por dos ingenieros en 9 meses. Hoy, centenares de personas se dividen en equipos para desarrollar partes del chip.

No sólo del Pentium vive Intel

Los primeros chips fabricados eran vistos por la empresa como una manera más de vender memoria RAM; nadie creía que fueran a ser una parte integral de la compañía. Pero con el tiempo, Intel diversificó sus intereses. Siguió fabricando memorias hasta 1985, aun cuando ya no constituían un porcentaje significativo en sus ganancias; invirtió en relojería, convencida de que la gente estaría dispuesta a pagar $ 150 por un reloj digital ("el precio era algo así como de un dólar el minuto, por lo que duraban", recordó Gordon Moore en los festejos del 30 aniversario de la compañía). Cuando a fines de los años 70 los fabricantes japoneses comenzaron a vender relojes por una décima parte de ese precio, abandonaron la idea.

Hoy Intel tiene casi 70.000 empleados en 30 países, facturó más de 29.000 millones de dólares en 1999 e invirtió 3000 millones en investigación. Además compró o invirtió en más de 250 compañías por un valor de 1000 millones de dólares (incluyendo a las locales Patagon.com, El Sitio e Impsat).

¿Por qué? Su nutriente básico sigue siendo el Pentium, pero Intel quiere ser el proveedor de la economía en Internet. Y si hay un sector del planeta en el que la Red todavía no explotó, Intel invierte para ponerlo al día y convertirlo en su cliente. "Es como hacer publicidad, pero con la posibilidad de tener una retribución financiera directa", dice Les Vadasz, vicepresidente ejecutivo y presidente de Intel Capital.

Desarrollar Internet implica un asalto a dos puntas: llevar la Red al hogar (el e-Home , con todos los artefactos interconectados, incluyendo los celulares -Intel es uno de los mayores fabricantes de memorias y procesadores para ellos-), y proporcionar hard, soft y soluciones para las empresas que quieran estar en línea. ¿Software? Intel viene desarrollando programas desde hace años; si quiere una muestra sutil, mire el logo en la ventana de inicio del Defrag de Windows.

¿Una empresa de servicios? En los próximos 2 o 3 años Intel invertirá cerca de 1000 millones de dólares en su servicio de comercio electrónico: calcula que en el 2003 estará facturando más de 1500 millones de dólares por su presencia en el ciberespacio. El capital estará destinado más que nada a la construcción de más de 10 data centers (repartidos por todo el mundo, incluyendo uno en América latina), en los que ubicará los servidores de las empresas que hayan contratado sus servicios de hosting de sitios.

Uno de esos centros ya funciona en Santa Clara (California), con capacidad para 10.000 servidores y un sistema de vigilancia digno de una cárcel de máxima seguridad. Lamentablemente, la prensa internacional reunida hace 12 días en sus instalaciones -encuentro en el que estuvo presente La Nación - no pudo ver más allá de su centro de comando, desde donde se monitorea el funcionamiento de los servidores: Intel negó el acceso a la granja de servidores, aduciendo que una descripción del lugar podría servirle a la competencia para deducir qué tan exitosa es la empresa en ese sector, cómo están configurados los servidores y cuál es su cartera de clientes.

La compañía avanza en lo que llama hosting de segunda generación : no sólo da espacio en los servidores, el ancho de banda de entrada a la Red y el lugar físico donde montarlos, explica Mike Aymar, presidente de Intel Online Services; también proporciona el sistema operativo y las aplicaciones sobre las que correrá el sitio. Incluso tiene alianzas con diversas consultoras para cubrir la parte del desarrollo de las soluciones.

Los chips han abandonado la computadora y hoy están en todas partes. Intel, para bien o para mal, no quiere perderse la oportunidad de dejar su marca en ellos.

Desarrollar tecnología y acompañar la evolución del mercado requiere flexibilidad ante los cambios. Como explica Tracy Koon, directora de asuntos corporativos, la cultura interna de Intel hace que los cambios sean de hecho esperados, como una forma de no encajonarse en una sola vía de trabajo.

La estructura productiva busca ser lo más abierta posible: Koon sostiene que todos los empleados de la empresa (desde el Chief Executive Officer Craig Barrett para abajo) tienen los mismos derechos y obligaciones. Todos tienen cubículos de igual tamaño; no hay oficinas cerradas; todos se conocen por el nombre de pila; todos tienen derecho a opinar. "Intel es una comunidad de intereses comunes -afirmó Noyce en 1988-. La gente progresa por sus habilidades, no sus posiciones. Siempre se le puede decir al jefe que está equivocado."

Esta nota se encuentra cerrada a comentarios