La revitalización de todo: la ley del microcosmos

De la Casa Blanca de Ronald Reagan a los centros del socialismo francés, de los discursos de los liberales demócratas a las páginas de la Economista, una suposición sobre la tecnología de EE.UU. ha mantenido firme durante mucho tiempo: un activo estadounidense clave es la cultura de inicio de Silicon Valley y centros similares de emprendimiento. A finales de la década de 1980, sin embargo, los anunciantes del espíritu empresarial como la clave de la competitividad estadounidense se han enfrentado a una grave vergüenza. Una protesta sonó de los líderes de Silicon Valley que lejos de ser un activo, la cultura de startups se había convertido en la debilidad más grave de la industria estadounidense al competir con Japón.

El presidente de Intel, Gordon Moore, denunció a los financieros de capital de riesgo como los «capitalistas buitres» de Sand Hill Road, el paseo marítimo de Palo Alto de fondos de riesgo. El presidente de Intel, Andrew Grove, agregó que su compañía fue amenazada tanto por Wall Street como por Japón. No sólo los buitres y cazadores de cabezas estadounidenses se aprovechan de su mejor gente, dijo, sino que también el mercado de valores evaluó las fabs y fantasías de los desertores de Intel en muchas ocasiones el valor de los chips reales y los logros de Intel mismo.

En un encuentro memorable en una conferencia de Dataquest, Jerry Sanders, presidente de Advanced Micro Devices, se enfrentó a Pierre Lamond, una vez líder en National Semiconductor y ahora un líder capitalista de riesgo. «Llevaste a mis mejores hombres a Cypress», acusó Sanders, «y ganaron 3 millones el año pasado con 14 millones en ventas. RAMs estáticos rápidos. Gran cosa. Los RAM estáticos no son exactamente una innovación importante. [Intel los introdujo en 1972.] Pero hasta ahora, muy bien. El problema es lo que harán a continuación. Tienen éxito al estar enfocados. Pero todas estas pequeñas empresas quieren hacerse grandes, y eso significa desenfocadas. Después de los primeros 50 millones, créeme, se vuelve mucho más difícil. No puedes llenar grandes fabs con productos de nicho. Hasta ahora, estas empresas acaban de estafar a las grandes empresas sin aportar nada significativo».1

Lamond trató de reírse de las quejas de Sanders y otros como simplemente el mafioso de los viejos que quieren que el mundo deje de girar tan pronto como lleguen a la cima. Esa es una respuesta comprensible de los jóvenes empresarios de hoy. Pero en medio de la carnicería de microchips a finales de los 80, con los japoneses avanzando en algunas medidas de cuota de mercado, las respuestas fáciles hacen la pregunta.

Los líderes de las empresas emblemáticas de Silicon Valley traían un mensaje serio: en el futuro, el éxito dependería de la cooperación y el capital barato, la planificación y la inteligencia política, el empleo a lo largo de toda la vida y la investigación gubernamental. Para los empresarios, era como si Julius Erving hubiera accosido a Michael Jordan y le hubiera informado solemnemente que su carrera de baloncesto había terminado a menos que aprendiera a no saltar. Debilitado por el «empresarialismo crónico» (la moneda de Robert Reich de Harvard), la teoría fue, muchas empresas de semiconductores se dirigían a la catástrofe. «Los japoneses están destruyendo sistemáticamente la industria estadounidense, pieza por pieza», afirmó Grove. «Estamos en un derbi de demolición y algunos de nosotros vamos a morir».

Para los patriarcas de Silicon Valley, el remedio fue la intervención del gobierno de Estados Unidos para remodelar y subsidiar la industria. Sus ideas dieron fruto en Sematech, un consorcio de investigación y desarrollo de fabricación de chips que será financiado la mitad por la industria y la mitad por el gobierno. Aunque Sematech podría ayudar a los fabricantes estadounidenses actualmente dañados por las prioridades no comerciales del Pentágono y las demandas de personal, la idea de la política industrial parecía reivindicar a los principales estudiosos de la izquierda. Figuras como Reich, Lester Thurow del MIT y Chalmers Johnson de Berkeley han sostenido durante mucho tiempo que, ya sea movilizándose por la guerra o por la paz, el gobierno casi siempre juega el papel principal en la evocación, el desarrollo y la financiación de nuevas tecnologías. Los empresarios pueden servir mejor como proveedores de nicho o subcontratistas de grandes corporaciones.

Ante el éxito de Silicon Valley, avanzando con una fuerza cada vez mayor a medida que los negocios del gobierno disminuían, sus argumentos parecían poco convincentes. A finales de la década de 1980, sin embargo, un nuevo cuadro de analistas más sofisticados ha surgido para apoyar el argumento, especialmente un joven erudito del MIT llamado Charles Ferguson, quien surgió como una Cassandra vocal de la microelectrónica estadounidense.2

Ferguson, ex consultor de IBM y LSI Logic, muestra un profundo conocimiento del establecimiento informático y de la industria de semiconductores. Su caso contra empresarios estadounidenses suena con convicción y autoridad. Su conclusión es dura. Haciéndose eco de Grove, Sanders y Charles Spork, presidente de National Semiconductor, declara que sin una acción gubernamental urgente y decisiva, los productores estadounidenses de semiconductores no pueden competir en los mercados globales. Las empresas mercantes de semiconductores estadounidenses perecerán, y la producción estadounidense se reducirá a unas pocas plantas especializadas en IBM, AT&T y otras grandes empresas que suministran chips únicamente para su propio uso. Dado que los semiconductores forman el corazón de todas las tecnologías avanzadas de informática, telecomunicaciones y defensa, el fracaso de la microelectrónica estadounidense paralizará la economía estadounidense y amenazará la defensa nacional.

Con un ojo cínico pero astuto, Ferguson describe el ciclo de vida de una startup típica en la industria de la información de Estados Unidos: comienza con una separación de una gran empresa, a menudo un equipo completo (incluyendo ingenieros, ejecutivos y vendedores) atraídos por perspectivas de riqueza mucho más allá de lo que su empleador puede proporcionar. Desde Sand Hill Road ganan una inversión de hasta$ 20 millones. Alquilan equipo, espacio de oficina, y a veces incluso una planta. Contratan ingenieros y trabajadores adicionales de otras empresas.

Con un esfuerzo y compromiso frenéticos, lanzan un nuevo dispositivo: un sistema CAD, una memoria no volátil, un chip específico de la aplicación, una unidad de disco duro, principalmente basado en el trabajo realizado en su antiguo empleador y en la competencia con su línea de productos. Debilitada por su deserción, la gran empresa no puede responder rápidamente. El nuevo dispositivo supera a todos los demás en el mercado y provoca pedidos masivos, que el inicio no puede llenar.

Pero «ayuda» está en camino. Una horda de imitadores, también financiados por capital de riesgo (54 fabricantes de unidades de disco, 47 empresas de arreglos de compuerta, 25 constructores de estaciones de trabajo y 11 fabricantes de memoria no volátil), se apresuran al mercado. La startup en cuestión lucha por diversificar y escapar de la estampida. Los gastos se disparan. Se necesita financiación intermedia con cargo a los fondos de riesgo. Están demasiado comprometidos para negarlo; la startup obtiene varios millones más. El negocio se tambalea pero se aferra a su liderazgo. Por último, si todo va bien, la empresa finalmente inventa un pequeño beneficio trimestral y, con el entusiasmo hambriento de los capitalistas de riesgo, los aseguradores, los abogados, los contadores y los consultores, procede a una oferta pública.

Sin embargo, ya hay deserciones clave. En parte alimentada por ellos, la competencia —ya sean otras startups o grandes jugadores— se ha vuelto más poderosa. La nueva empresa se adelanta sin problemas, ampliando sus capacidades de fabricación y su esfuerzo de marketing. La inversión total se eleva hacia$ 200 millones.

Pero el estado de ánimo ha cambiado decisivamente. El precio de las acciones se está desplomando y el frenesí inicial del trabajo ha marcado. Accionistas descontentos inician una demanda colectiva, alegando que fueron engañados por el prospecto y exigiendo varios millones de daños y perjuicios. (Ellos, o al menos sus abogados, lo conseguirán.) Para añadir una lesión al insulto, Hitachi y Toshiba están amenazando con entrar en el mercado. Los fondos de riesgo han encontrado una nueva moda; Wall Street está aburrida por semiconductores o CAD; los mejores ingenieros están reactivos ya que miran penosamente sus valores de opciones de acciones disminuyen.

Casi de la noche a la mañana, la empresa comienza a envejecer, y los millonarios de papel que la dirigen se encuentran de repente más pobres. Están muy endeudados y el IRS está atacando algunos de sus refugios fiscales, usados años antes. Se están quedando rezagados en sus plazos para la próxima generación de productos, las hipotecas en sus casas de Los Altos, incluso los próximos pagos en sus tarjetas de crédito platino.

Desesperado por más fondos, negados en los Estados Unidos, se convierten en el extranjero. Otra forma de decirlo es decir que deciden vender. Deciden poner en el mercado a su empresa, principalmente las nuevas tecnologías que posee. En los últimos años, muchas startups estadounidenses se han vendido a Asia cuando las cosas se pusieron difíciles.

El sistema americano dice: «¿Y qué.» Pero Ferguson dice que esto es desastroso. Al vender donde están los compradores, Japón o Corea, los empresarios no están vendiendo sólo sus propios activos, sino que están vendiendo los activos públicos de Estados Unidos.

Encarnado en el negocio no sólo están el trabajo y el ingenio de los propietarios, sino también el valor de su experiencia en una gran empresa, el valor de los daños infligidos a ella después de que se separaron, y el valor de la investigación subvencionada llevada a cabo en universidades estadounidenses. Además, existe el valor de las licencias, patentes, estándares y arquitecturas incorporadas en el producto y un punto de vista en el mercado estadounidense. Por último, está el valor de las subvenciones del código fiscal que favorecen a las empresas pequeñas y en crecimiento, que pueden mostrar ganancias de capital en rápido aumento, gastos en I+D, prórrogas de pérdidas fiscales y créditos fiscales a la inversión. Y aunque las grandes corporaciones explotan los beneficios fiscales de manera más masiva e ingeniosa que las pequeñas, la mayoría de las afirmaciones de Ferguson son plausibles, si están exageradas. El «subsidio» de las ganancias de capital, por ejemplo, es ahora una penalización proporcional a la inflación.

En cualquier caso, las ventajas fiscales del capital riesgo inflan un poco los costos de las empresas establecidas de todos los tamaños que tienen que pujar por tierra, mano de obra, equipo y capital contra las startups. Las personas entrenadas se vuelven menos valiosas (si aprenden algo especial pueden irse) y también más caras (pueden amenazar con irse). Mientras que toda la industria debe compartir los costos del sector de las startups, según Ferguson, la economía estadounidense gana pocos beneficios compensadores.

Ferguson no se contenta con criticar a los empresarios estadounidenses; tiene un argumento mucho más amplio que hacer. No es culpa de los empresarios que traigan a su país y a su industria. Es culpa de los límites paralizantes de la economía del laissez-faire. La optimización personal no es óptima para el país y la industria. El interés propio emprendedor conduce, como por una mano invisible, tanto a la riqueza de las personas como a la pobreza de las naciones.

Esto no siempre fue cierto, Ferguson reconoce. Hubo un tiempo en que los jugadores podían saltar y volcar en Wall Street sin dañar a la industria. Sin embargo, independientemente de los éxitos históricos, el empresarialismo estadounidense entra ahora en conflicto con las tendencias más profundas y poderosas de la tecnología de la información. En el pasado, las industrias de semiconductores, computadoras, telecomunicaciones y defensa podían proceder por separado, encabezadas por pequeñas empresas. Pero con el aumento de las densidades de chip a millones de transistores, los circuitos integrados ahora abarcan sistemas enteros. Reuniendo los mundos antes separados de las computadoras, la automatización de fábricas y las telecomunicaciones, estos sistemas requieren recursos técnicos, financieros e incluso políticos que las pequeñas empresas no pueden reunir.

Según Ferguson, estos cambios surgen de una ley básica de la tecnología de la información. En el diseño, el montaje, la capacitación, las pruebas, las redes o el marketing, los costos aumentan con la complejidad y la complejidad aumenta con el número de objetos a administrar. Por ejemplo, el número de conexiones entre nodos de una red aumenta en el cuadrado del número de nodos. Esta regla se aplica sin remordimientos, ya sea a la proliferación de transistores en chips de alta densidad, de componentes en sistemas informáticos complejos, de líneas en código de software, de terminales en una red de procesamiento de datos o de interacción humana en una fábrica. La complejidad aglupa todos los sistemas hechos de grandes cantidades de componentes simples, como la industria estadounidense de semiconductores producida en su apogeo.

Además, como Ferguson podría añadir, la misma ley se aplica a los semiconductores empresas, que a su vez comprenden un sistema industrial de componentes no coordinados y de base estrecha. Este sistema de repente será inundado por una ola tsunami de complejidad.

La única respuesta, sostiene Ferguson, es la jerarquía: reglas competitivas, interfaces modulares y estándares de la industria impuestos desde arriba. Este tema es familiar para los seguidores de los pioneros del diseño Carver Mead y Lynn Conway, así como para los observadores de la industria que también han instado a enfoques de arriba hacia abajo como la respuesta al problema de la complejidad del diseño electrónico. Ferguson, sin embargo, no habla simplemente de diseñar un chip o un ordenador, sino de diseñar una industria o incluso una economía. La modularidad y la jerarquía deben forzarse desde la parte superior. Requieren reglas y estándares que guíen a los productores de futuros módulos y sistemas conectables. Requieren el control de las grandes corporaciones y los gobiernos.

El alto costo de desarrollar normas impone grandes sanciones al líder de la industria. Debe hacer el esfuerzo técnico para determinar las normas y el esfuerzo político para imponerlas. Estos esfuerzos expanden los mercados y bajan los precios para toda la industria. Pero en un mercado fragmentado, los costes no se pueden recuperar. A menos que el gobierno o el poder oligopolio disciplinas la industria, las empresas que pagan por estos estándares y arquitecturas se convierten en patos para rivales que pueden evitar estos costos.

En tecnología de la información, el tío Sam ha sido el pato sentado. Casi todos los estándares y arquitecturas en hardware, software e interfaces de red se han originado en los Estados Unidos, principalmente con IBM y AT&T (o bajo su patrocinio). Estos estándares cuestan colectivamente decenas de miles de millones de dólares para desarrollarse y propagarse. Pero debido a las leyes antimonopolio, la aplicación laxa de los derechos de propiedad intelectual y la prohibición del MITI de subastas de licencias en Japón, esta enorme dotación ha llegado a estar disponible muy por debajo de su costo. Entre 1956 y 1978, cuando surgieron la mayoría de las innovaciones clave, se estima que Japón pagó algunos$ 9 mil millones para tecnologías estadounidenses que requerían, dependiendo de la asignación de costos, entre$ 500 mil millones y$ Un billón para desarrollar.

Sin embargo, el costo real puede haber sido aún mayor, porque al fijar objetivos críticos de diseño, las normas desplazan el foco de la competencia de la invención de los productos a su fabricación a escala mundial. Debido a que la fabricación es en sí misma un sistema complejo, el poder vuelve a fluir hacia arriba. Una planta competitiva a nivel mundial para la producción de productos básicos de alto volumen cuesta algunos$ 250 millones. Requerir la integración de una variedad de tecnologías (controles informáticos sofisticados y sistemas de diseño, equipos magnéticos avanzados y de vacío, ciencia de materiales y fotónica, automatización y robótica), la fabricación impone enormes economías de alcance técnico.

Al mismo tiempo, ya sea en circuitos integrados, CPU integradas, terminales en red, ordenadores conectados a miles de kilómetros de distancia o redes de telecomunicaciones de todo el mundo, las comunicaciones, en lugar de componentes, definen cada vez más los sistemas. Las interconexiones dictan la estructura de la solución. Estas limitaciones forzosamente empujan el poder de las pequeñas empresas a empresas lo suficientemente grandes como para definir todo el sistema.

Como concluye Ferguson, la forma tecnológicamente óptima para la industria de la información global bien podría consistir en IBM, AT&T y algunas empresas en Japón. El oligopolio es óptimo, no sólo para la ventaja competitiva de naciones particulares, sino también para el bienestar del mundo. Sin embargo, Estados Unidos sigue sufriendo un escenario de información extraordinariamente fragmentado: un caos de empresas, arquitecturas, sistemas operativos, protocolos de red, procesos semiconductores, sistemas de diseño y lenguajes de software, todo controlado por empresarios ávidos de riqueza personal o por sofisticados empleados dispuestos a huir al mejor postor, ya sea un capitalista de riesgo o un conglomerado extranjero. Excepto en IBM y posiblemente en AT&T, la electrónica estadounidense no define o defiende intereses mayores.

Y como insisten Ferguson y los patriarcas de Silicon Valley, la ley de la complejidad empuja las decisiones cada vez más arriba en la jerarquía y dicta organizaciones cada vez más grandes. El sistema está enfermo, y el empresarialismo crónico es la enfermedad. El remedio, Ferguson, Reich y otros están de acuerdo, es una embestida de subsidios y orientación gubernamentales que favorecen a las empresas establecidas y contrarrestan el sesgo hacia nuevas empresas.

En esencia, estos eruditos de política industrial quieren que los Estados Unidos copien a Japón tal como se ve popularmente, con una poderosa combinación de MITI e industrias favorecidas. Pero no ven que en cada una de las industrias manufactureras que los japoneses han dominado, han generado muchas más empresas y una rivalidad interna más intensa que Estados Unidos. Los japoneses crearon, por ejemplo, al menos cuatro veces más empresas en acero, automóviles, motocicletas y electrónica de consumo, y seis veces más empresas en robótica que Estados Unidos. Fueron tales oligopolios estadounidenses establecidos como GE y RCA, General Motors y Ford los que sucumbieron a los japoneses más fragmentados y emprendedores.

De hecho, las únicas industrias clave en las que los Estados Unidos lanzaron considerablemente más empresas que el Japón eran las computadoras y los semiconductores. A pesar de la primera ventaja de Japón en radios de transistores y en la producción en masa de chips de consumo, el tío Sam sigue prevaleciendo en hardware y software de computadoras y semiconductores. Lo que hay que explicar no es el éxito de Japón en microelectrónica, sino el éxito de Estados Unidos.

Para los críticos, la respuesta es el Pentágono, el gran cliente inicial para computadoras y circuitos integrados. Pero, de hecho, durante la década posterior a la Segunda Guerra Mundial, cuando la defensa dominó la tecnología y las confiscadoras tasas impositivas estadounidenses ahogaron el espíritu empresarial, los fabricantes estadounidenses perdieron el liderazgo hacia Japón en la producción masiva de transistores y hacia la Unión Soviética en misiles. La industria de semiconductores no irrumpió en su espiral ascendente hasta la década de 1960, cuando se redujeron las tasas impositivas y la participación militar en las ventas de la industria cayó alrededor de 80%.

El secreto del éxito de Estados Unidos fue el propio sistema de riesgo que los críticos condenan. Combatió los altos costos de capital mediante la asignación eficiente de fondos, liberó energías que a menudo estaban estancadas en las grandes empresas, atrajo un flujo crucial de inmigrantes inventivos y fomentó una difusión de tecnología en incendios forestales que compensaba la falta de coordinación nacional. La fuerza estadounidense no deriva de la ley de la complejidad sino de la ley del microcosmos.

Esta ley, descubierta por Carver Mead de Cal Tech en 1968, dice que la complejidad crece exponencialmente sólo más allá del chip. En el microcosmos, en determinadas astillas de silicio, la eficacia crece mucho más rápido que la complejidad. Por lo tanto, el poder debe moverse hacia abajo, no hacia arriba.

En volumen, cualquier cosa en un chip es barato. Pero a medida que sales del microcosmos, los precios aumentan exponencialmente. Una conexión en un chip cuesta unas pocas millonésimas de centavo, mientras que el costo de un plomo de un paquete de plástico es de aproximadamente un centavo, un cable en una placa de circuito impreso es de diez centavos, los enlaces de plano posterior entre placas son del orden de un dólar cada uno, y los enlaces entre computadoras, ya sea en cables de cobre o a través de fibra óptica hilos o fuera de satélites, cuestan entre unos pocos miles y millones de dólares para hacer. Como resultado, los esfuerzos por centralizar el sistema general reducen drásticamente la eficiencia de la informática.

Cuando Ferguson dice que la complejidad aumenta en el cuadrado del número de nodos, en realidad hace argumentos no para la autoridad centralizada, sino para su imposibilidad. Más allá de cierto punto viene la explosión combinatoria: grandes programas de software tienden a descomponerse más rápido de lo que se pueden reparar. Para las comunicaciones, las conexiones pueden multiplicarse. Pero la coordinación y el mando imponen cargas imposibles a los sistemas centralizados.

Estos principios siguen siendo oscuros para muchos observadores porque entran en conflicto con una poderosa tendencia en la economía del almacenamiento y la transferencia de datos. Cuando John von Neumann inventó la arquitectura todavía dominante en los ordenadores hoy en día, la industria operaba en el macrocosmos de la electromecánica. En el macrocosmos, los elementos activos (switches) tendían a ser más caros que los dispositivos de almacenamiento. Los procesadores de datos o elementos de conmutación eran tubos de vacío frágiles, complejos y caros con filamentos de tungsteno. Los dispositivos de almacenamiento eran tarjetas perforadoras de papel desechables o plástico magnetizado. Lo más importante de todo, las interconexiones se hicieron de alambre de cobre prácticamente sin costo.

La arquitectura informática de Von Neumann reflejaba estos costos relativos de papel, plástico, alambre y tubos complejos. Economizó en los interruptores de tubo de vacío para el procesamiento y fue abundante con cables y almacenamiento. Hecho de diferentes materiales, además, estos componentes tenían que mantenerse separados. Aunque la comunicación por cable entre ellos era fácil, las interfaces entre las distintas funciones (convertir datos del procesador a la tarjeta perforadora, cinta o dispositivo magnético, y viceversa) requerían sistemas periféricos, sensores, controladores y convertidores complejos y costosos.

Como costo fijo de una computadora, estos periféricos electromecánicos mejoraron las economías de escala para los procesadores centralizados, con grandes instalaciones de almacenamiento conectadas. Por ejemplo, los controladores de tubo de vacío, los amplificadores de sentido y otros soportes para memorias de núcleo magnético tempranas en IBM pesaban varios miles de libras y eran cientos de veces más pesados que los propios planos del núcleo de memoria. Dado que el costo de los periféricos era bastante independiente del tamaño de la memoria, pequeñas cantidades de almacenamiento cuestan enormemente más por bit que grandes cantidades.

Todas estas condiciones de una industria informática esencialmente electromecánica favorecieron la mística de IBM y sus mainframes von Neumann. Una famosa encuesta de mercado estimó una demanda mundial total de alrededor de 50 computadoras. La máquina se sentó en un pedestal en la sala central de procesamiento, custodiada por un gremio acreditado de gurús de procesamiento de datos.

Estas condiciones llevaron a los expertos a ver la computadora como un instrumento leviatán del Gran Hermano y a profetizar la aparición de grandes organizaciones para administrar sus poderes. Las predicciones de un totalitario 1984 ganaron credibilidad de la imagen de Big Blue en trajes de gris. Gravitando a las manos del Estado, así como a otras grandes burocracias, la computadora le daría al Estado nuevos poderes para manejar la economía y manipular a los individuos. Los estudiantes de finales de la década de 1960 usaban insignias parodiando la advertencia de tarjetas de ponche familiar: «Soy un ser humano. No maneje, doble ni mutile.» En Berkeley y otros campus universitarios, las rebeliones Luddita estallaron contra esta nueva máquina sin alma.

Al sur en Pasadena, sin embargo, la exploración de Carver Mead de la física de la computación en estado sólido lo llevó a conclusiones completamente contrarias. Afirma que no había límites para la miniaturización de los interruptores, excepto el túnel cuántico espontáneo. Las características de un chip podrían reducirse de las dimensiones de 20 micras del día hasta un cuarto de micras. En otras palabras, Mead estaba prediciendo millones de transistores en un chip. Cuando eso sucediera, razonó, los interruptores serían casi gratuitos, simplemente un transistor infinitesimal sobre un sustrato de silicio. La memoria de trabajo podría estar hecha de los mismos interruptores en el mismo material. El alambre se volvería costoso, obstruyendo la superficie del silicio con metales extraños difíciles de colocar y propensos a la electromigración del calor o las altas corrientes. Lleva al mundo exterior desde el chip pequeño sería un problema grave.

Estos desarrollos volcó todas las suposiciones clave del paradigma von Neumann. Era pródigo con alambre y memoria remota, y centró todo el procesamiento en una unidad central extremadamente rápida. Favoreció las computadoras gigantes. En concepto totalmente obsoleto, sobrevive hoy, sólo ligeramente modificado, como la arquitectura informática dominante.

Sin embargo, en el nuevo régimen, los componentes de von Neumann (almacenamiento, interconexión y procesador) están hechos de los mismos materiales por el mismo proceso. Toda la computadora se ha convertido en estado cada vez más sólido. La memoria de trabajo está impresa en silicio. Incluso los controladores a medios de disco de almacenamiento masivo son circuitos integrados de estado sólido y convertidores monolíticos de analógico a digital y de digital a analógico.

A diferencia de los periféricos electromecánicos de los núcleos magnéticos, estos periféricos de silicio cuestan radicalmente menos cuanto mayor sea el volumen de producción. En otras palabras, cuanto más computadoras se construyan y se vendan, más barato es el acceso a la memoria. Los controladores se han hundido en la curva de aprendizaje y ahora cuestan sólo unos pocos dólares, una cantidad adecuada para la informática personal. La prima por la separación de funciones y por la escala de operación y almacenamiento ha dado paso a una prima aún mayor para la integración y miniaturización en un mundo de potencia de procesamiento ampliamente distribuida.

Siempre que la complejidad se centre en chips individuales en lugar de extenderse a través de redes masivas, la eficacia en el microcosmos crece mucho más rápido que la complejidad. La potencia del chip crece mucho más rápido que la potencia de un procesador host que ejecuta un vasto sistema de muchos terminales informáticos. El poder del individuo al mando de una sola estación de trabajo —o pequeña red de terminales especializadas— crece mucho más rápido que el poder de un sistema burocrático general. El poder de los empresarios que utilizan la tecnología de la información distribuida crece mucho más rápido que el poder de las vastas instituciones que intentan poner en marcha la tecnología de la información.

En lugar de empujar las decisiones hacia arriba a través de la jerarquía, la microelectrónica las arrastra sin remordimientos hacia el individuo. Esta es la ley del microcosmos. Este es el secreto del nuevo desafío americano en la economía global. La nueva ley del microcosmos ha surgido, dejando a Orwell, von Neumann e incluso a Charles Ferguson a su paso. Con las tecnologías de microprocesador y chips conexas, la industria de la computación ha reemplazado sus economías de escala anteriores por nuevas economías de microescala.

Sin embargo, las nuevas normas no se entienden bien. En los últimos cinco años, IBM, Digital Equipment, Hewlett-Packard, y la mayoría de los restos de la vez impresionante BUNCH (Burroughs, Univac, NCR, Control Data y Honeywell), así como toda la industria informática japonesa, una y otra vez se han hundido sin saberlo en estos nuevos hechos microelectrónicos de la vida. Mientras que varias industrias de miles de millones de dólares surgieron en estaciones de trabajo en red, dirigidas por Sun y Apollo, y en minisupercomputadoras, lideradas por Convex, Alliant, N-Cube, Multiflow y muchos otros, las compañías líderes todavía mantuvieron el principio von Neumann de que la computación debe ser centralizada y serial en lugar de paralela y distribuido. Incluso DEC permitió un$ 3 mil millones de estaciones de trabajo para entrar en erupción en medio de su mercado en lugar de renunciar a su concepto de red VAX compartida en el tiempo.

Pero la fuerza del cambio ha sido inexorable. En 1987, medidos en millones de instrucciones por segundo por dólar, los nuevos equipos de sobremesa basados en microprocesador Intel 386 eran 90 veces más rentables que los mainframes. Las computadoras centrales seguían siendo valiosas para el acceso rápido y repetido al disco y el procesamiento de transacciones para bancos y compañías aéreas. Pero las computadoras pequeñas estaban irrumpiendo en todas partes. Las redes de pares distribuidas de máquinas y servidores especializados se estaban volviendo cada vez más eficientes que las redes jerárquicas ejecutadas por hosts de mainframe o minicomputadora. En muchas aplicaciones especiales, como gráficos y procesamiento de señales, los microprocesadores integrados superan a los grandes sistemas informáticos. La computadora en un chip cuesta solo unos pocos dólares y sobresale mucho la computadora en un pedestal.

La ley del microcosmos incluso invadió el santuario interior del legado von Neumann: la organización de las computadoras individuales. La necesidad de cambio se manifestó en la famosa supercomputadora Cray, que todavía funcionaba poderosamente en laboratorios de todo el mundo. A juzgar por sus superficies elegantes y sus impresionantes especificaciones gigaflop (miles de millones de operaciones de punto flotante por segundo), el Cray parece ser de alta tecnología. Pero oculta el escándalo de la «estera»: retire el panel posterior y verá la pasta de un loco de cables enredados. La capacidad de estos cables —los electrones pueden viajar sólo nueve pulgadas por nanosegundo— es el límite básico de la tecnología.

El mandato de Mead de economizar en cables mientras proliferaban los conmutadores condujo inexorablemente a arquitecturas paralelas, en las que los trabajos de computación se distribuían entre un número cada vez mayor de procesadores interconectados en chips individuales o placas y estrechamente acoplados a memorias rápidas de estado sólido. Tales máquinas a veces superaron a los superordenadores von Neumann en aplicaciones especializadas. Una victoria simbólica llegó cuando HiTech, una máquina paralela hecha de$ 100.000 chips específicos para aplicaciones, desafiados y generalmente superados a los$ 15 millones de supercomputadora Cray Blitz en el campeonato mundial de ajedrez para computadoras.

A medida que los circuitos se vuelven más densos, los costos disminuyen exponencialmente. La física misma de la computación dicta que la complejidad y las interconexiones, y por lo tanto la potencia computacional, sean empujadas hacia abajo del sistema a chips individuales donde cuestan unos pocos dólares y están disponibles para los empresarios. Esta regla limita el futuro incluso de IBM. Ralph Gomory, científico jefe de IBM, predijo en 1987 que dentro de una década las unidades centrales de procesamiento de supercomputadoras tendrán que concentrarse en un espacio de tres pulgadas cúbicas. El núcleo de supercomputadora de la década de 1990 será adecuado para una computadora portátil.

Siguiendo principios microcósmicos en la búsqueda de este objetivo, IBM se unió en diciembre pasado a los capitalistas de riesgo y patrocinó una nueva compañía fundada por Steve Chen, un diseñador de computadoras que se había separado de Cray. Chen planea usar un paralelismo masivo para lograr un aumento cien veces en el poder de los superordenadores.

Proyectando de manera conservadora a partir de las tendencias actuales, James Meindl, el ex jefe de Stanford Electronics Laboratories, ha predicho que para el año 2000 mil millones de componentes se embalarán en un solo chip. Eso significará una caída en los tamaños de los largometrajes a la cuarta parte de un micrón profetizado por Carver Mead en 1968. Mil millones de transistores ofrecerán la potencia informática de 20 CPUs Cray 2 en un chip, o 20 minicomputadoras VAX junto con toda su memoria.

Este tipo de proyección, sin embargo, supone pocos cambios en la arquitectura de von Neumann. Esa arquitectura será abandonada para muchos propósitos, dando una mejora mucho mayor de la potencia informática de lo que incluso las estimaciones de Meindl sugieren. Pero habrá un límite clave: permanecer en un chip o un pequeño conjunto de chips. Tan pronto como dejas el microcosmos, te topa con problemas graves. La física dicta que cuando los tamaños de entidad caen, los voltajes necesarios disminuyen proporcionalmente, la velocidad aumenta proporcionalmente, el área necesaria para un elemento de cálculo cae geométricamente, y la energía de conmutación y disipación de calor caen exponencialmente. Todo mejora menos los cables. Incluso para conexiones en chip, la resistencia y la capacitancia y el retardo aumentan de acuerdo con el producto resistencia-capacitancia. Para las comunicaciones fuera de chip, el retraso aumenta por una exponencial catastrófica de la reducción del tamaño de la entidad.

La restricción de la potencia informática a uno o a unos pocos chips permitirá cumplir la promesa de la nueva tecnología. Con redes de fibra óptica e incluso con interconexiones superconductoras (demostradas recientemente en IBM y en varios otros laboratorios para superar los hilos de fibra óptica en un factor de 100), podemos esperar con confianza el dominio de desafíos tales como el reconocimiento continuo del habla, gráficos tridimensionales interactivos. complejos sistemas expertos y modelado en tiempo real de muchos procesos naturales.

Lo que no podemos esperar es un comando y control centralizados. Las redes funcionarán principalmente para la comunicación de resultados; sólo a costa de enormes ineficiencias funcionarán para la centralización y coordinación de la potencia informática. Esta restricción probablemente prohíbe un sistema centralizado de defensa estratégica, por ejemplo, pero permite redes locales de interceptores muy baratas y eficaces.

Sobre todo, la ley del microcosmos significa que la computadora seguirá siendo principalmente un aparato personal, no un aparato gubernamental o burocrático. La integración será hacia abajo en el chip, no hacia arriba desde el chip. Las pequeñas empresas, empresarios, inventores y creadores se beneficiarán enormemente. Pero las organizaciones grandes y centralizadas tienden a perder eficiencia y potencia relativas.

Prediciendo una convergencia continua del mundo de la informática con la industria de las telecomunicaciones, Ferguson implica que las tendencias oligopolísticas de las telecomunicaciones prevalecerán en los ordenadores. Pero el flujo de influencia está en la otra dirección: la misma ley del microcosmos que está transformando la industria informática ya está sacudiendo la red telefónica. Aunque aquejado por reguladores obtusos temerosos del monopolio, el establecimiento de telecomunicaciones está en realidad bajo un serio ataque de empresarios microelectrónicos.

Una vez una pirámide controlada desde arriba, donde se concentraba la energía de conmutación, el sistema telefónico se está convirtiendo en lo que Peter Huber del Instituto Manhattan llama una «red geodésica». Bajo la misma presión que Carver Mead describe en la industria de la informática, el mundo de las telecomunicaciones ha emprendido un esfuerzo masivo para utilizar interruptores baratos para economizar en cables. Los sistemas de conmutación de paquetes, los intercambios de sucursales privadas, las redes de área local, los edificios inteligentes y una variedad de nodos de conmutación inteligentes son formas de canalizar el tráfico de comunicaciones en cada vez menos cables.

Como explica Huber, la estructura piramidal del sistema Bell era óptima siempre y cuando los interruptores fueran caros y los cables fueran baratos. Cuando los interruptores se volvieron mucho más baratos que los cables, surgió un anillo horizontal como la red óptima. A finales de 1987, los efectos de esta tendencia eran cada vez más evidentes. La red telefónica pública contaba con unos 115 millones de líneas, mientras que las centrales privadas tenían 30 millones de líneas. Pero el sistema público estaba esencialmente estancado, mientras que los PBX se multiplicaban a un ritmo de casi 20% un año. Además, cada vez más equipados con tarjetas de circuito que ofrecen potencia de módem, fax e incluso PBX, los 33 millones de computadoras personales que se utilizan en los Estados Unidos pueden funcionar potencialmente como interruptores de telecomunicaciones.

Las computadoras personales no son terminales, en el sentido habitual, sino seminales, que brotan una red cada vez mayor de dispositivos microcósmicos. AT&T y las empresas regionales Bell seguirán desempeñando un papel central en las telecomunicaciones (si se liberan de las arcaicas redes de regulación nacionales y estatales). Pero el crecimiento más rápido seguirá produciéndose en las fronteras empresariales al margen de la red. Y invertidos por los poderes del microcosmos, las franjas se volverán cada vez más centrales a medida que pase el tiempo.

Uno de los líderes del asalto a la pirámide Bell es Jerry Sanders de Advanced Micro Devices, quien está enfocando su compañía en proporcionar chips para los mercados de telecomunicaciones. Sanders declaró una vez que los semiconductores serían el «petróleo de los años ochenta». Ferguson, Reich y otros ahora temen o favorecen a las corporaciones gigantes que conspiran para monopolizar la producción de chips como una vez la OPEP cartelizada producción de petróleo. Predicen que al dominar la tecnología de fabricación avanzada y los suministros, unas pocas empresas ganarán las claves de las tecnologías dominantes de la era de la información.

A diferencia del petróleo, sin embargo, que es un material extraído de la arena, los circuitos semiconductores están escritos en la arena y su sustancia son ideas. El chip es un medio para ideas, como un disquete, un CD-ROM (memoria de sólo lectura en disco compacto), una película de 35 milímetros, un fonógrafo o una videocasete. Todos estos dispositivos cuestan unos pocos dólares para ganar en volumen y, en última instancia, se venden por el valor de sus contenidos, las imágenes e ideas que llevan. Un chip de memoria se vende por un par de dólares; un microprocesador que cuesta aproximadamente la misma cantidad de producción puede venderse por tanto como una onza de oro. Un CD-ROM en blanco también cuesta un par de dólares, pero si contiene el sistema operativo para un nuevo mainframe de IBM, Fujitsu puede tener que pagar$ 700 millones por él. En el microcosmos, el mensaje sigue siendo mucho más importante que el medio.

Decir que los grandes conglomerados se apoderarán de la industria mundial de la información porque tienen las fábricas de chips más eficientes o el silicio más puro es como decir que los canadienses dominarán la literatura mundial porque tienen los árboles más altos.

Al evaluar las predicciones de los profetas del oligopolio, tenemos una prueba poderosa. La mayor parte de las predicciones recientes se originaron en 1985. Desde entonces, hemos visto tres años de cambio y agitación en la industria. Entre 1982 y 1987, surgieron 97 empresas de semiconductores sin precedentes. Si los profetas estuvieran en lo cierto, estas compañías estarían en problemas hoy. Pero la gran mayoría ya son rentables, sus ingresos totales ahora se acercan$ 2 mil millones, y su relación de éxito supera con creces el rendimiento de las startups en el supuesto apogeo de la industria entre 1966 y 1976. Según la mayoría de los estándares, la productividad media de los recién llegados es mucho más alta que la producción de las empresas establecidas.

Si los dictadores del juicio final estuvieran en lo cierto, pocas de estas compañías podrían permitirse construir fábricas de semiconductores. Pero en 1986 y 1987, se construyeron unos 200 minifabs para fabricar semiconductores de vanguardia y personalizados. Algunas de estas instalaciones ofrecen los procesos submicrones más eficientes y avanzados de la industria. Contrariamente a las afirmaciones generalizadas de que la industria está aumentando cada vez más el capital, la eficiencia del nuevo equipo de producción supera con creces sus costes incrementales.

La medida adecuada de la producción en tecnologías de la información no es la producción de «chips» o incluso «computadoras». Los chips se duplican en capacidad cada dos o tres años y los ordenadores ganan potencia a un ritmo similar, retrasados sólo ligeramente por el avance más lento del software. Tampoco es la mejor medida la producción total de transistores; aunque este índice es una mejora con respecto a las ventas unitarias de chips, echa de menos los avances en el diseño. El estándar apropiado tampoco es la producción en dólares, ya que el costo por unidad está cayendo en picado mientras que el valor real de la producción se eleva. La medida correcta es la funcionalidad o utilidad para el cliente.

Al ofrecer funciones a bajo costo al cliente, el nuevo equipo de producción de semiconductores avanza cada año de manera decisiva sobre sus predecesores. Por ejemplo, Chips & Technologies, fundada en 1985, es la empresa de más rápido crecimiento en la historia de la industria. Sus ventas por empleado son algunos$ 650.000, o cuatro veces el nivel de las empresas más establecidas. Su producto es una serie de chips para clonar computadoras IBM AT y 386 con una pequeña fracción del número de chips utilizados por IBM. Esta innovación permitió a Tandy, PCs Limited y otras empresas estadounidenses recuperar la cuota de mercado dominante con clones de computadoras estándar de IBM. Junto con otra startup llamada Weitek (que proporciona coprocesadores matemáticos rápidos), Chips & Technologies también ayudó a Compaq a mantener la ventaja contra IBM y los japoneses. Compaq es ahora un$ 1.200 millones de negocios.

Chips & Technologies y Weitek han evitado la fabricación directa de chips, extendiéndoles su producción a empresas japonesas y estadounidenses que tienen un exceso de espacio fabuloso. Pero otras startups, como Cypress, Performance Semiconductor y Integrated Device Technology, han creado algunos de los fabs más avanzados de la industria. El ciprés de Lamond, atacado por Sanders, ha barrido decididamente por el$ 50 millones de barrera. Xicor ha dominado un proceso de producción de memoria no volátil que hasta ahora ha desafiado los mejores esfuerzos de Intel y los japoneses. Y Micron Technology, una startup de la década de 1980 casi destruida en el exceso de DRAM de 1985 y 1986, ha realizado varias innovaciones clave en procesos (reduciendo el tamaño y el número de capas en una DRAM a unas 40% por debajo de la mayoría de sus rivales) y mantiene los costos de producción por debajo de sus competidores japoneses.

El primer chip exitoso de miles de millones de componentes será diseñado, simulado y probado en una supercomputadora de escritorio paralela masivamente que dará funcionalidad mucho más allá de su costo. Esos 20 Cray de potencia informática harán que el chip sea incomparablemente más potente que los microprocesadores actuales que toman decenas de diseñadores para crear y están integrados en un$ 150 millones de fábrica. Se fabricará en un sistema de escritura directa láser o en un paso a paso de rayos X que, dólar por dólar, producirá mucho más que sus predecesores.

Sin duda, todas las revistas de negocios seguirán hablando del increíble gasto en construir y equipar una planta de semiconductores, por ejemplo, el paso a paso de rayos X costará tres o cuatro veces lo que cuesta el paso a paso litográfico de hoy. Sin embargo, en cuanto a la producción funcional por dólar de inversión, la fab del año 2000 será inmensamente más eficiente que la fab Goliat que produce actualmente DRAM. Según la ley del microcosmos, la industria seguirá siendo más productiva en su uso del capital, más intensiva en su dominio de la promesa de la tecnología de la información.

Por último, si los responsables del juicio final estuvieran en lo cierto, los Estados Unidos seguirían perdiendo cuota de mercado mundial en el sector de la electrónica. Pero desde 1985, las empresas estadounidenses han ido ganando cuota de mercado en la mayoría de las partes de la industria informática y más que mantenerse en sus propios semiconductores. A mediados de 1987, el mercado abierto de semiconductores de Estados Unidos (excluyendo IBM y otros productores cautivos que consumen un tercio de la producción estadounidense) volvió a superar el tamaño total del mercado japonés (los japoneses no tienen empresas clasificadas como cautivas). Un año de liderazgo japonés en ese índice había llevado a muchas profecías de perdición para las empresas mercantes estadounidenses.

El impulso para predecir la desaparición del empresarialismo crónico continúa fuerte en los círculos intelectuales. Muchos críticos del capitalismo se resienten en su desafío a los estándares académicos o sociales de meritocracia. William Gates, el fundador de Microsoft, dejó Harvard para siempre durante su segundo año. El sistema a menudo da dominio económico a las personas que llegaron a nuestras costas como inmigrantes con poco conocimiento del inglés, a todos los nerds y tontos despreciados en el baile de graduación o en el cotillón de Ivied. Algunos académicos mantienen una mentalidad todavía atormentada por el fantasma del marxismo. Pero el empresario sigue siendo la fuerza motriz del crecimiento económico en todas las economías vibrantes, incluida la economía estadounidense, la más vibrante de todas.

1 La queja de Sanders se hace eco en el artículo de la HBR de Alex d'Arbeloff y Frederick Van Veen, «Stop Taxing Away Big Companes' Talent», mayo-junio de 1986, pág. 38.

2 Su tesis del MIT, Competencia internacional, comportamiento estratégico y política gubernamental en las industrias de tecnología de la información, abarca sus ideas.

A version of this article appeared in the March 1988 issue of Harvard Business Review. — George Gilder Via HBR.org