PathMBA Vault

Decision making and problem solving

Elogio de la incertidumbre

por Jonathan Zittrain

La explosión de la tecnología de la información la desencadenaron visionarios que prosperan con la incertidumbre. Hoy en día, esa incertidumbre que alimenta la innovación está en peligro, es víctima de su propio éxito y de sus excesos.

Históricamente, los productores de TI han creado plataformas que son inútiles por sí solas, lo que invita a otros a utilizarlas en una variedad de aplicaciones útiles. Los primeros fabricantes de ordenadores enviaron cajas que bien podrían haber sido topes de puertas, hasta que los consumidores y los desarrolladores independientes crearon un software que las convirtió en herramientas omnipresentes. Del mismo modo, los creadores de Internet no tenían expectativas específicas sobre las aplicaciones que la Red apoyaría ni sobre la infraestructura en la que operaría.

Estas plataformas, llamadas «tecnologías generativas» porque solicitan y permiten la innovación por parte de otros, han supuesto una enorme ayuda para los consumidores y los desarrolladores. La difusión generalizada de ordenadores con sistemas operativos multipropósito dio lugar a un ecosistema de diseñadores de software similar al de las Galápagos. Estos diseñadores —con talento, motivación, estructura y modelo de negocio— produjeron software correspondientemente variado. El ecosistema recibió una supercarga evolutiva a finales de la década de 1990, cuando el ordenador generativo se convirtió en una puerta de entrada a la Internet generativa.

Al negarse a limitarse a fines específicos y al dar la bienvenida a las contribuciones de fuentes dispares, el PC derrotó a los procesadores de textos independientes, como la Flexowriter Friden; Internet derrotó a redes propietarias como CompuServe, MCI Mail y Prodigy; y los mercados y lugares de reunión en línea de uso general abrumaron a sus homólogos de nichos específicos. (¿Recuerda cuando Amazon.com solo vendía libros?)

Lamentablemente, la incertidumbre que alimenta esta proliferación de software y servicios se está desvaneciendo rápidamente, lo que hace que la industria de la TI sea menos innovadora y diversa. Hay tres razones.

En primer lugar, muchos jugadores creen ahora que han dominado los usos fundamentales de Internet y la informática personal. Confiados en saber qué ganará y qué no, tratan de convertirse en guardianes de los productos de éxito en lugar de en plataformas para todos los interesados. Producir un sistema operativo básico no es suficiente para Microsoft y Apple; quieren dominar el mercado de aplicaciones como Office e iTunes y superar, subsumir o licenciar los esfuerzos de terceros para obtener software popular. Muchas plataformas emergentes de videojuegos, teléfonos móviles y PDA están cerradas desde el principio; los desarrolladores de terceros no son bienvenidos o están sujetos a estrictos requisitos de licencia.

Del mismo modo, los proveedores de infraestructura de Internet no quieren quedarse en el servicio de Internet. Como dijo el presidente de IDT en enero de 2002: «Claro, quiero ser la mayor empresa de telecomunicaciones del mundo, pero es solo una mercancía. Quiero poder formarme una opinión. Al controlar la tubería, eventualmente podrá hacerse con el control del contenido». Ese control significa elegir qué datos fluirán y cuáles no, lo que a su vez limita la capacidad de un mago de un laboratorio de informática de algún lugar de inventar una aplicación que arrase en el mundo.

En segundo lugar, las amenazas a la seguridad se han vuelto realmente abrumadoras. La apertura que permitió la innovación ha provocado vulnerabilidades inaceptables, ya que los ordenadores de consumo han ganado potencia de procesamiento y conexiones de red de gran ancho de banda siempre activas. Un usuario que haga clic en el .exe incorrecto puede comprometer por completo su ordenador y transformarlo en un zombi en red que arroja spam, virus o ataques de denegación de servicio contra otros objetivos de la red.

Por último, Internet y los ordenadores conectados a él amenazan con destruir creativamente los intereses establecidos. Los propietarios de propiedad intelectual, por ejemplo, no quieren que sus obras sean pirateadas a través de innovaciones como el software peer-to-peer. Y a los editores y legisladores a los que luego recurren para restringir esas tecnologías les importa poco el daño colateral causado a la labor de los periodistas y blogueros ciudadanos, así como otros beneficios que se derivan de la P2P.

Estas fuerzas se benefician de la limitación de la flexibilidad de las plataformas genéricas. Por lo tanto, los titulares de derechos de autor institucionales piden a los proveedores de servicios de Internet que pongan fin al acceso a los usuarios sospechosos de infringir los derechos de autor o que impidan por completo ciertos tipos de tráfico de red. Los fabricantes de sistemas operativos crean plataformas «confiables» que pueden gestionar la propiedad intelectual con un mínimo de fugas. Y a medida que aumentan los problemas de seguridad, las empresas de TI buscan salvar a los usuarios de sí mismos mediante el diseño de obstáculos que no permitan a los ordenadores ejecutar cualquier programa o gestionar cualquier dato.

¿Qué hay que hacer? Los defensores de la apertura deben abordar los problemas de seguridad, en parte mediante una colaboración para definir, identificar y filtrar el malware de las redes y los ordenadores conectados. No es una tarea fácil, pero si las comunidades empresarial y técnica no lo hacen, lo harán una o dos empresas o gobiernos. Los ordenadores de los consumidores tendrán que ser menos flexibles, pero la flexibilidad solo debe sacrificarse cuando ayude a resolver los problemas de seguridad, no cuando su pérdida invite a nuevos monopolios o a una regulación más amplia. Y el principio de principio a fin, que exige a los diseñadores e implementadores de protocolos de Internet que eviten el filtrado de la red (o, de hecho, cualquier tipo de complejidad de red innecesaria), debe sustituirse por un «principio de generatividad» que exija determinadas intervenciones, tal vez a nivel de la red, para garantizar la flexibilidad general del sistema.

Por último, si una red genuinamente abierta no puede conciliarse fácilmente con las nuevas exigencias de estabilidad y previsibilidad, puede que necesitemos una solución de dos Internet. Eso permitiría a los consumidores elegir si sus ordenadores funcionan en un momento dado en una frontera más amplia o entre un conjunto limitado de aplicaciones tipo electrodomésticos. Las aplicaciones experimentales podrían migrar al horario de máxima audiencia a medida que se prueban y perfeccionan.

Debemos suavizar el verdadero dolor que causan los bordes afilados y anárquicos de las plataformas abiertas. Si quienes apuestan por la apertura no abordan sus problemas, Internet y los ordenadores pasarán a ser como las redes de radiodifusión, plataformas antiguas en las que no hay nada nuevo que ver.