PathMBA Vault

Innovación

Salvar Internet

por Jonathan Zittrain

¿Cree que hay que salvar Internet?

Únase al debate aquí.

El famoso antagonista de dibujos animados de Warner Bros., Wile E. Coyote, demuestra un principio fundamental de la física de los dibujos animados. Corre por un acantilado sin darse cuenta de su cornisa y sigue adelante sin caerse. El Coyote desafía la gravedad hasta que mira hacia abajo y ve que no hay nada debajo de él. Su mente gira al contemplar su situación. Entonces: Splat.

Internet y el ordenador siguen una trayectoria similar. Los diseñaron personas que compartían el mismo amor por los retoques de aficionados que el Coyote y que se enfrentaban a los problemas solo cuando surgían, o dejaban que los resolvieran los usuarios individuales. Este «principio de procrastinación», junto con un diseño basado en las contribuciones de cualquiera que quisiera colaborar, han hecho que Internet y el PC emerjan del ámbito de los investigadores y aficionados y se han ganado a las redes y dispositivos de información planificados y financiados con mucho más cuidado.

Los éxitos desbocados de Internet y el ordenador entre el público en general los han colocado en posiciones de estrés y peligro significativos. Si bien la falta de una estructura centralizada en Internet dificulta la evaluación de la solidez de sus bases, hay señales contundentes de que nuestra red y nuestros ordenadores están siendo objeto de abusos que se han hecho más profundos y frecuentes a medida que su popularidad crece.

La principal bendición y perdición de la combinación de Internet y el PC es su generatividad: su accesibilidad para personas de todo el mundo (personas sin credenciales, riqueza o conexiones particulares) que pueden utilizar y compartir el poder de las tecnologías con diversos fines, muchos de los cuales no se previeron o, de haberse previsto, nunca se habría considerado que fueran valiosos.

La apertura que ha catapultado a estos sistemas y sus usos en evolución a la fama también los ha hecho vulnerables. Nos enfrentamos a una crisis de seguridad de los ordenadores y las redes, y no es simplemente de naturaleza técnica. Se basa en algo mucho más fundamental: la doble capacidad de los miembros del público de elegir el código que ejecutan, lo que a su vez determina lo que pueden ver, hacer y contribuir en Internet.

La apertura que ha catapultado al ordenador e Internet a la fama también los ha hecho vulnerables.

Las malas decisiones sobre el código que ejecutar y las consecuencias de ejecutarlo podrían provocar que los usuarios de Internet pidan que los salven de sí mismos. Un modelo para tentarlos se encuentra en los «electrodomésticos conectados» actuales. Estos dispositivos, a diferencia de los ordenadores, no los pueden cambiar fácilmente sus propietarios ni nadie que los propietarios conozcan, pero sus vendedores o proveedores de servicios pueden reprogramarlos en un instante (piense en TiVo, los teléfonos móviles, los iPods y los PDA). Como dijo Steve Jobs al presentar el iPhone de Apple a principios de este año: «Definimos todo lo que hay en el teléfono. No querrá que su teléfono sea como un ordenador. Lo último que quiere es haber cargado tres aplicaciones en su teléfono y, luego, ir a hacer una llamada y ya no funciona. Se parecen más a los iPods que a los ordenadores».

Los propietarios no pueden cambiar fácilmente los aparatos conectados, pero sus fabricantes los pueden reprogramar en un instante.

Si un número suficiente de usuarios de Internet comienzan a preferir los ordenadores y otros dispositivos diseñados siguiendo la línea cerrada de los aparatos conectados, ese cambio inclinará la balanza en un tira y afloja de larga data, de un sistema generativo abierto a cambios drásticos a un sistema más estable y menos interesante que mantiene el status quo. Algunas partes en los debates sobre el control de Internet aceptarán este cambio. Quienes deseen monitorear y bloquear el contenido de la red, a menudo con fines legítimos e incluso nobles, verán nuevas oportunidades de control que hasta ahora se les han escapado.

Para las empresas con modelos de negocio que dependen de atraer a los clientes en línea y comunicarse fácilmente con ellos, el auge de los aparatos conectados es una amenaza. Significa que un nuevo guardián está en condiciones de exigir homenaje antes de que los clientes y los vendedores puedan conectarse, un «2» discriminatorio dentro de «B2C».

Dos triunfos generativos: red y PC

Un poco de historia: El entorno de las principales redes de consumo de principios de la década de 1990 no se parecía en nada a la Internet actual, ni evolucionó hasta convertirse en la Internet que tenemos hoy en día. Ya en 1995, la opinión popular sostenía que la red global que se unía sería una combinación de las ofertas patentadas de la época, servicios como CompuServe, AOL y Prodigy. Sin embargo, esas empresas se extinguieron o se transformaron en negocios completamente diferentes. Los aplastó una red de cables y cordeles creada por investigadores del gobierno y científicos de la computación, una red que no tenía un CEO ni un plan de negocios maestro.

Se puede perdonar a los líderes de las redes propietarias por no anticipar el auge de Internet. No solo no había ningún plan para el suministro de contenido en Internet, sino que había una hostilidad abierta hacia muchas formas del mismo. La columna vertebral de Internet, gestionada por la Fundación Nacional de Ciencias de los Estados Unidos, tenía una política de uso aceptable que prohibía las actividades comerciales. Durante años, Internet siguió siendo un remanso, una serie de conexiones ad hoc entre universidades y laboratorios de investigación cuyo objetivo era experimentar con las redes. Sin embargo, lo que crearon los desarrolladores fue un sistema generativo, abierto a cambios imprevistos por parte de audiencias grandes y variadas. Es esta generatividad la que ha provocado su gran e imprevisto éxito.

Originalmente, las aplicaciones para consumidores no se encontraban en Internet, pero eso cambió en 1991, cuando los mecenas del gobierno de Internet empezaron a permitir las interconexiones personales y comerciales sin pretextos de investigación de redes, y luego dejaron de pretender regular la red. Los desarrolladores de aplicaciones y destinos de Internet ahora tenían acceso a un público amplio e impulsado por la publicidad. Los proveedores de servicios de red propietarios que se consideraban a sí mismos ofreciendo un paquete completo de contenido y acceso se convirtieron en simples rampas de acceso a Internet, desde donde sus usuarios se ramificaron hacia destinos de Internet que prosperaban rápidamente para sus programas y servicios. Por ejemplo, Electronic Mall de CompuServe, un servicio de comercio electrónico que pretendía ser el medio exclusivo por el que vendedores externos pudieran vender productos a los suscriptores de CompuServe, desapareció ante la avalancha de sitios web individuales que vendían directamente a cualquier persona con acceso a Internet.

Los ordenadores también empezaron lentamente en el mundo empresarial (incluso el nombre «ordenador personal» evoca un desajuste). Las empresas se basaron primero en los mainframes programados a medida (el tipo de paquete completo que IBM ofrecía en la década de 1960, para el que el software era una idea tardía) o se basaron en dispositivos de información, como las máquinas de escribir inteligentes. Algunas empresas tenían miniordenadores programados a medida y los empleados accedían a las máquinas compartidas a través de tontas estaciones de trabajo utilizando pequeñas y rudimentarias redes de área local. Los miniordenadores normalmente ejecutaban un puñado de aplicaciones designadas: nóminas, cuentas por cobrar, cuentas por pagar y programas específicos de la empresa, como sistemas de gestión de casos para hospitales o programas de registro de cursos para universidades. Los usuarios expertos no tenían muchas oportunidades de desarrollar y compartir aplicaciones nuevas e innovadoras.

Durante la década de 1980, el PC ganó terreno de manera constante. Su capacidad para admitir una variedad de programas de varios fabricantes hizo que su utilidad pronto superara a la de los aparatos especializados, como los procesadores de textos. Los procesadores de texto dedicados se crearon para funcionar de la misma manera durante toda la vida útil de sus productos, mientras que el software de procesamiento de textos para PC podía actualizarse o sustituirse por una aplicación de la competencia sin tener que reemplazar el propio PC. Este ecosistema de TI, compuesto por hardware fijo y software flexible, pronto demostró su valía.

Los ordenadores tenían algunos inconvenientes para las empresas: los documentos y otra información importante acababan guardados en diferentes ordenadores, y las copias de seguridad en toda la empresa podían ser un auténtico quebradero de cabeza. Pero el precio era justo y se podía contar con que las personas que se incorporaban pronto a la fuerza laboral tenían conocimientos de procesamiento de textos y otras herramientas básicas de ordenador. A medida que surgió una ronda de solicitudes maduras, hubo motivos para que a casi todos los trabajadores de cuello blanco se les asignara un ordenador y para que un grupo cada vez más amplio de personas quisiera uno en casa. Puede que estas máquinas se hayan comprado con un propósito, pero su arquitectura flexible permitía redistribuirlas rápidamente para muchos otros. Una persona que haya comprado un ordenador para procesar textos podría descubrir entonces los placeres del correo electrónico, los juegos o la Web.

Cuatro elementos de la generatividad

Cuatro características principales definen la generatividad: (1) la fuerza con la que un sistema o una tecnología aprovecha un conjunto de posibles tareas; (2) su adaptabilidad a

Bill Gates solía describir la visión de Microsoft como «un ordenador en cada escritorio». Puede que eso reflejara un simple deseo de trasladar unidades (casi todos los ordenadores vendidos significaban más dinero para Microsoft), pero a medida que la visión se hizo realidad en el mundo desarrollado, las implicaciones fueron más allá de la rentabilidad de Microsoft. Ya fuera con Mac o Windows, una base instalada de decenas de millones de ordenadores significaba que había terreno labrado en el que el nuevo software podía echar raíces. Un desarrollador que escriba una aplicación no necesitaría convencer a la gente de que vale la pena comprar hardware nuevo para ejecutarla. Él o ella solo necesitaría persuadirlos de que compren el software en sí. Con la llegada de los ordenadores conectados a Internet, la gente solo tendría que hacer clic en el enlace correcto para instalar un nuevo software. El cumplimiento de la visión de Gates impulsó significativamente el potencial generativo de Internet y el ordenador, lo que abrió las compuertas a la innovación.

Los beneficios de la generatividad: innovación y participación

La generatividad es la capacidad de un sistema de producir cambios imprevistos mediante contribuciones sin filtros de audiencias amplias y variadas. Como tal, la generatividad produce dos beneficios principales: el primero son los resultados innovadores: cosas nuevas que mejoran la vida de las personas. La segunda es la contribución participativa: la oportunidad de conectarse con otras personas, trabajar con ellas y expresar la propia individualidad a través de esfuerzos creativos.

Los sistemas no generativos pueden crecer y evolucionar, pero ese crecimiento se canaliza a través de sus fabricantes: Sunbeam lanza una nueva tostadora en respuesta a la demanda prevista de los clientes, o una antigua red propietaria como CompuServe añade una nueva forma de mensajería instantánea programándola ella misma. Cuando los usuarios pagan por productos o servicios, pueden ejercer presión en el mercado sobre las empresas para que desarrollen las mejoras o cambios deseados. Este es un camino indirecto hacia la innovación, y cada vez hay más literatura sobre su principal limitación: un cuello de botella persistente que impide a las grandes empresas tradicionales desarrollar y cultivar ciertos usos nuevos, a pesar de las ventajas de las que podrían disfrutar con un gran avance.

Por ejemplo, Tim Wu, profesor de la Facultad de Derecho de Columbia, ha demostrado que cuando los operadores de telefonía móvil controlan los tipos de teléfonos móviles que utilizan sus suscriptores, esos teléfonos suelen tener funciones no deseadas y es difícil de mejorar para terceros. Algunos operadores han obligado a los proveedores de telefonía a limitar los navegadores web de los teléfonos móviles a determinados sitios aprobados por los operadores. Han eliminado los temporizadores de llamadas de los teléfonos, aunque serían triviales de implementar y son muy deseados por los usuarios, que desean comprobar si han superado los minutos asignados a su plan mensual. Estas limitaciones persisten a pesar de la competencia entre varias compañías aéreas.

La razón por la que las grandes firmas muestran tal inercia innovadora, según un marco teórico de Clayton Christensen, es doble: las grandes firmas invierten de forma continua en sus mercados actuales y en formas establecidas de hacer negocios, y las innovaciones disruptivas suelen afectar solo a los mercados menores o menos rentables, al principio. Para cuando las grandes firmas reconocen la amenaza, no son capaces de adaptarse. Pierden, pero el público gana.

Para que se produzca una innovación disruptiva, los recién llegados tienen que poder llegar a las personas con sus ofertas. Los sistemas generativos lo hacen posible. De hecho, permiten a los usuarios intentar implementar y distribuir nuevas ideas y tecnologías, lo que llena un vacío crucial que se crea cuando la innovación solo se lleva a cabo en un modelo con fines de lucro, especialmente uno en el que dominan las grandes empresas.

Pensemos en las nuevas formas de interacción comercial y social que han surgido de fuentes inesperadas en los últimos años. Puede que las subastas en línea estuvieran listas para ser elegidas por Christie’s o Sotheby’s, pero la advenediza eBay llegó primero y se quedó. Craigslist, creada como una organización puntual por una sola persona, domina el mercado de la publicidad clasificada en Internet. Ideas como el correo electrónico gratuito basado en la web, los servicios de alojamiento de páginas web personales, el software de mensajería instantánea, las redes sociales y los motores de búsqueda de próxima generación surgieron de personas o grupos pequeños que querían resolver sus propios problemas o probar algo interesante, en lugar de que las empresas se dieran cuenta de que había beneficios que obtener.

Eric von Hippel, director del Grupo de Innovación y Emprendimiento del MIT, ha escrito extensamente sobre las pocas veces que las empresas reciben bien las mejoras en sus productos por parte de personas ajenas, incluidos sus clientes, incluso cuando podrían beneficiarse de ellas (consulte «Los clientes como innovadores: una nueva forma de crear valor», de Stefan Thomke y Eric von Hippel, HBR de abril de 2002). En su obra, von Hippel argumenta a las empresas que, por lo demás, serían racionales, que los usuarios de sus productos pueden actuar y suelen actuar como innovadores disruptivos, mejorando los productos y, a veces, adaptándolos a propósitos completamente nuevos. Se les ocurren ideas antes de que haya una demanda generalizada y las reivindican lo suficiente como para que otros se interesen. Estos usuarios suelen estar encantados de ver sus mejoras compartidas. Cuando el interés aumente lo suficiente, las empresas pueden intervenir y comercializar plenamente la innovación.

Así, nos hemos adaptado a un panorama en el que tanto aficionados como profesionales, las pequeñas y grandes empresas contribuyen a las principales innovaciones. Los consumidores pueden quedar cautivados por un sofisticado videojuego de «disparos en primera persona» diseñado por una gran empresa en un momento y por una sencilla animación en la que aparece un hámster bailando en el siguiente. Por eso, no sorprende que Internet y el PC actuales incluyan una fascinante yuxtaposición de software tremendamente ambicioso diseñado y creado como un portaaviones moderno por un gran contratista, junto con increíbles applets que caben en un solo disquete. OS/2, un sistema operativo creado como una empresa conjunta entre IBM y Microsoft, absorbió más de 2000 millones de dólares en inversiones en investigación y desarrollo antes de que se suspendiera, mientras que Mosaic, el primer navegador web gráfico para PC, lo crearon un par de estudiantes durante unas vacaciones universitarias.

El crecimiento generativo puede combinarse bien con los modelos de mercado tradicionales. Las grandes firmas pueden producir software cuando la estructura del mercado y la demanda lo requieren; las empresas más pequeñas pueden cubrir nichos; y los aficionados, que trabajan solos o en grupo, pueden diseñar tanto applets inspiradores como software que requiera más mano de obra y que aumente el volumen y la diversidad del ecosistema tecnológico. Una vez que un invento excéntrico e improbable de personas ajenas haya ganado terreno, los medios tradicionales de recaudar y gastar capital para mejorar una tecnología pueden apuntalarlo y garantizar su exposición a un público lo más amplio posible. Un ecosistema de tecnología de la información que comprenda únicamente los productos del movimiento del software libre sería mucho menos utilizable por el público en general que uno en el que las grandes firmas ayudaran a resolver las asperezas. GNU/Linux se ha vuelto fácil de usar gracias a las empresas que empaquetan y venden copias, aunque no puedan reclamar la propiedad exclusiva del software en sí. Las tediosas tareas que facilitan el dominio a los no iniciados probablemente sea mejor realizarlas mediante modelos corporativos: crear motores de instalación fluidos, amplias guías de ayuda y otras formas de cogerlas de la mano para ayudar a los usuarios a adoptar lo que de otro modo podría ser un programa de software técnico o un servicio web poco atractivo.

Para la persona, construir algo es una alegría única, incluso si no se es el mejor artesano. (Este es un valor que se aprecia mejor experimentándolo; puede que no sea fácil convencer a quienes exigen pruebas). El placer de ayudar a los demás (responder a una pregunta simplemente porque se hace y se sabe una respuesta útil, formar parte de un equipo que busca una meta que valga la pena) es uno de los mejores aspectos del ser humano. Nuestra arquitectura de tecnología de la información ha llegado a una zona en la que decenas de millones de personas pueden fomentar la ayuda y el trabajo en equipo y afirmarlos. Un novedoso invento de ingenieros en la capa técnica permite a los artistas contribuir en la capa de contenido. La sensación se captura fugazmente cuando desconocidos se unen en situaciones adversas y se unen para superarlas: un ascensor que se avería, una tormenta de nieve o un apagón que paraliza temporalmente las cadencias normales de la vida, pero que lleva al asombro y a la camaradería más que al miedo. El Internet de principios del siglo XXI ha destilado algunos de estos valores y los ha promovido sin el tipo de adversidad o peligro físico que podría hacer que una tormenta de nieve fuera divertida el primer día, pero divisiva e ilegal después de la primera semana sin una ayuda estructurada.

El estancamiento generativo

Las tecnologías generativas no tienen por qué producir progreso, si por progreso se entiende algo como mejorar el bienestar social. Más bien, fomentan el cambio. Los sistemas generativos, por su naturaleza, están inacabados y esperan más detalles tanto por parte de los usuarios como de las empresas. Como tal, pueden verse amenazados tan pronto como su popularidad provoque la aparición de modelos de negocio abusivos. La propia apertura y la adaptabilidad de los usuarios que hacen de Internet una fuente creativa también permiten la propagación de diversos males: virus, spam, pornografía, depredación, fraude, vandalismo, violaciones de la privacidad y posibles ataques ruinosos a los sitios web y a la integridad de la propia Internet. Esto se está convirtiendo en una amenaza existencial para el ecosistema de TI generativo.

La ventaja del ordenador generativo es que un usuario neófito puede reutilizarlo con un clic del ratón. Eso también es un problema enorme, por dos razones principales. En primer lugar, el usuario de PC que hace clic en un código incorrecto cede el control del PC a un desconocido. En segundo lugar, la amenaza que representan los códigos incorrectos aumenta de manera constante. Los virus más conocidos hasta ahora tienen cargas completamente inocuas. El gusano Mydoom de 2004 se extendió como la pólvora y afectó a la conectividad de millones de ordenadores de todo el mundo. Aunque costó miles de millones de dólares en pérdida de productividad, Mydoom no manipuló los datos y estaba programado para dejar de difundirse a una hora determinada. Los virus como Mydoom se parecen más al delito de los grafitis, sin ningún incentivo económico, que a la venta de drogas ilegales, con sus grandes mercados y sus sofisticados sindicatos delictivos.

Ahora existe un modelo de negocio para el código incorrecto, uno que proporciona a muchos virus y gusanos cargas útiles con fines distintos de la simple reproducción. Lo que parecía realmente notable cuando se descubrió por primera vez es algo común: virus que comprometen los ordenadores para crear grandes «botnets» abiertas a instrucciones posteriores. Estas instrucciones incluyen ordenar al PC que se convierta en el propio servidor de correo electrónico de la botnet, enviar millones de spam a direcciones de correo electrónico recopiladas del disco duro de la propia máquina o a través de búsquedas en la web, todo ello en un proceso que normalmente el propietario del PC pasa desapercibido. Una estimación sitúa el número de ordenadores involucrados en este tipo de botnets entre 100 y 150 millones, una cuarta parte de todos los ordenadores de Internet a principios de 2007. Estos ordenadores zombis fueron responsables de más del 80% del spam mundial en junio de 2006 y, a su vez, el spam representó aproximadamente el 80% del correo electrónico total mundial ese mes.

Como el entorno informático y de redes actual es tan extenso y dinámico, y sus componentes básicos cada vez más potentes son propiedad de ciudadanos comunes y corrientes y no de expertos técnicos, su vulnerabilidad ha aumentado sustancialmente. El público no quiere ni puede mantener sus ordenadores al nivel que lo hacen los administradores de redes profesionales, a pesar de que sus máquinas son significativamente más potentes que los miniordenadores de las décadas de 1970 y 1980. Esa vulnerabilidad se ve agravada por la creciente dependencia de las personas de Internet. Los gusanos y virus bien diseñados infectan de forma rutinaria vastas franjas de ordenadores personales conectados a Internet. En 2004, por ejemplo, el gusano Sasser infectó más de medio millón de ordenadores en tres días. El gusano Sapphire/Slammer de enero de 2003 atacó un tipo concreto de servidor de Microsoft e infectó el 90% de ellos (120 000 máquinas) en diez minutos. Estas máquinas secuestradas, juntas, realizaban 55 millones de búsquedas por segundo de nuevos objetivos solo tres minutos después de que el primer ordenador fuera víctima. Si alguno de estos programas de malware tuviera fines realmente «malos» o nefastos (por ejemplo, borrar los discos duros o transponer números de las hojas de cálculo de forma aleatoria), nada se interpondría en su camino.

La tensión fundamental es que el objetivo de un ordenador es que los usuarios puedan reconfigurarlo fácilmente para ejecutar un nuevo software, pero cuando los usuarios toman malas decisiones sobre qué nuevo software ejecutar, los resultados pueden ser devastadores para sus máquinas y, si están conectadas a Internet, para muchas otras. El simple hecho de elegir una plataforma más segura no resuelve el problema. Sin duda, Microsoft Windows ha sido blanco de infecciones de malware durante años, pero esto refleja en parte la cuota de mercado dominante de Microsoft. A medida que más usuarios cambien a otras plataformas, esas plataformas también se convertirán en objetivos atractivos. Y la forma más perdurable de subvertir las medidas de seguridad puede ser por la puerta principal (simplemente pidiendo permiso al usuario para añadir algún tipo de malware disfrazado de nueva funcionalidad) en lugar de intentar entrar por la parte trasera para aprovechar silenciosamente un defecto del sistema operativo.

El objetivo de un PC es que los usuarios puedan reconfigurarlo fácilmente, pero cuando toman malas decisiones, los resultados son devastadores.

Las vulnerabilidades de seguridad de los ordenadores e Internet son una amenaza legítima y la gente tiene razón en preocuparse. Sin embargo, las reacciones más probables si no se previenen serán al menos tan desafortunadas como los propios problemas de seguridad. Los usuarios elegirán ordenadores que funcionen más como electrodomésticos, con lo que perderán la posibilidad de instalar fácilmente códigos nuevos por sí mismos. En cambio, utilizarán sus máquinas como simples terminales tontas enlazadas a sitios web que ofrecen mayor interactividad. Muchos de estos sitios web son en sí mismos susceptibles de tener un comportamiento similar al de un dispositivo. De hecho, lo que algunos han aplaudido como la Web 2.0 —una nueva frontera entre redes punto a punto y producción de contenido colectiva y colaborativa— es una arquitectura que una fuente central puede controlar y mantener estrictamente, que puede optar por funcionar de forma generativa, pero que es capaz de reducir esas capacidades en cualquier momento.

Pensemos en el fantástico servicio de mapas de Google. No solo es muy útil para los usuarios finales, sino que también tiene una interfaz de programación de aplicaciones abierta para sus datos cartográficos. Gracias a la API abierta, un creador de sitios web de terceros puede empezar con una simple lista de direcciones e inmediatamente crear en su sitio un mapa de Google con una chincheta digital en cada dirección. Esto permite crear cualquier número de «mashups», combinando mapas de Google con conjuntos de datos geográficos de terceros. Los desarrolladores web utilizan la API de Google Maps para crear sitios web que encuentren y mapeen el Starbucks más cercano; crear y medir rutas para correr, hacer senderismo o andar en bicicleta; determinar la ubicación de las cámaras de los semáforos; y recopilar posibles socios en los sitios de citas por Internet para producir pantallas instantáneas que muestren dónde se encuentran las mejores parejas.

Al permitir a los programadores acceder a sus datos cartográficos, el servicio de mapas de Google es generativo. Pero su generatividad es contingente: Google asigna una clave a cada desarrollador web y se reserva el derecho de revocarla en cualquier momento y por cualquier motivo, o de dar por terminado todo el servicio. No cabe duda de que es comprensible que Google, al elegir crear un servicio generativo a partir de algo en lo que ha invertido mucho, quiera controlarlo. Pero esto pone bajo el control de Google, y de cualquiera que pueda regular Google, todos los usos posteriores de Google Maps, y de los mapas en general, hasta el punto de que la excelencia de Google Maps significa que otros servicios de mapas fracasarán o nunca se crearán.

¿Qué es generativo y qué no?

Piezas de Lego y una casa de muñecas. Las piezas de Lego son muy adaptables, accesibles y fáciles de dominar. Se pueden construir, deconstruir y reconstruir en la forma que desee

Los modelos de negocio de otros dispositivos y servicios de Internet de la próxima generación no son generativos duraderos ni, en algunos casos, tan inequívocamente generativos como la Internet abierta y el ordenador. Por ejemplo, la Xbox de Microsoft es una consola de videojuegos que tiene tanta potencia de cálculo como un PC y se conecta en red con otros usuarios con Xbox. Microsoft pierde dinero con todas las Xbox que vende, pero lo recupera vendiendo sus propios juegos y otros programas que se ejecutan en ella. Los desarrolladores de terceros pueden crear juegos de Xbox, pero deben obtener una licencia de Microsoft (que incluye dar a Microsoft una parte de las ganancias) antes de poder distribuirlos.

La mayoría de los teléfonos móviles tienen restricciones similares: son inteligentes y muchos pueden acceder a Internet, pero el acceso se canaliza a través de los navegadores proporcionados y controlados por el proveedor del servicio de telefonía. Muchos PDA vienen con el software que se proporciona mediante acuerdos especiales entre los vendedores de dispositivos y software, como lo hace Mylo de Sony cuando ofrece Skype. Sin cerrar primero acuerdos con los fabricantes de dispositivos, los desarrolladores de software no pueden ejecutar su código en los dispositivos aunque los usuarios lo deseen. En 2006, AMD presentó el Internet Box, un dispositivo que se parece a un PC, pero que no puede ejecutar ningún software nuevo sin el permiso de AMD. Además, AMD puede instalar en las máquinas el software que desee, incluso después de haberlas comprado.

La creciente profusión de aparatos conectados requiere muchas innovaciones de Internet y las resume de forma clara y convincente, lo cual es bueno, pero solo si Internet y el PC pueden permanecer lo suficientemente en el centro del ecosistema digital como para producir la siguiente ronda de innovaciones y hacer competencia por los aparatos bloqueados. El equilibrio entre las dos esferas es precario y está cayendo hacia los aparatos. La gente compra estos dispositivos por su comodidad o funcionalidad, y algunos apreciarán el hecho de que limitan el daño que los usuarios pueden causar por ignorancia o descuido. Pero los dispositivos también limitan las aplicaciones beneficiosas que los usuarios pueden crear o recibir de otras personas; aplicaciones que tal vez no se den cuenta de que son importantes para ellos cuando compran el dispositivo. El riesgo, entonces, es que los usuarios pierdan sin darse cuenta los beneficios futuros de la generatividad, una pérdida que puede pasar desapercibida incluso cuando la innovación disminuya.

Elimine el ordenador de muchos estudios y salas de estar y eliminaremos el banco de pruebas y el punto de distribución del nuevo software. También eliminamos la válvula de escape que hace que los dispositivos de información sean honestos: si TiVo fabrica una grabadora de vídeo digital que limite demasiado estrictamente lo que las personas pueden hacer con el vídeo grabado, los clientes recurrirán a programas de DVR como MythTV, que graba y reproduce programas de televisión en los ordenadores; si los teléfonos móviles son demasiado caros, la gente utilizará Skype.

Si las brechas de seguridad de Internet amenazan la capacidad del PC para funcionar de forma fiable, los consumidores no verán el mérito del PC.

Por supuesto, la gente no compra ordenadores como pólizas de seguro contra aparatos que limiten su libertad (a pesar de que cumplen una función vital); los compran para realizar ciertas tareas preconcebidas. Pero si las brechas de seguridad de Internet y otros tipos de anarquía amenazan la capacidad del PC para realizar esas tareas de forma fiable, la mayoría de los consumidores no verán el mérito del PC y se perderá la válvula de escape. Si el ordenador deja de estar en el centro del ecosistema de la tecnología de la información, los aspectos más restrictivos de los dispositivos de información pasarán a ser algo común.

Dispositivos de información y reglamento

Cuando los dispositivos de información permanecen conectados con sus fabricantes, se les puede pedir a esas empresas que implementen cambios en su forma de trabajar mucho después de haberlos comprado para un uso específico. Considere el caso de TiVo contra EchoStar . TiVo presentó la primera grabadora de vídeo digital en 1998, que permitía a los consumidores grabar programas de televisión y cambiar la hora. En 2004, TiVo demandó a la distribuidora de televisión por satélite EchoStar por infringir las patentes de TiVo al incorporar la función de DVR en algunos de los sistemas parabólicos de EchoStar. TiVo ganó y se le concedieron 90 millones de dólares en concepto de daños e intereses, pero eso no fue todo. En agosto de 2006, el tribunal emitió una orden en la que ordenaba a EchoStar que desactivara la función de DVR en la mayoría de las unidades infractoras que estaban en funcionamiento en ese momento.

En otras palabras, el tribunal ordenó a EchoStar matar los DVR en las salas de estar de personas de todo el mundo que los habían comprado y que podrían estar viendo los programas grabados en ellos en ese mismo instante. Imagínese sentarse a ver un programa de televisión o una transmisión deportiva muy esperado y, en cambio, darse cuenta de que todas sus grabaciones han sido grabadas, junto con la propia función del DVR, eliminada por una señal remota rastreable hasta el golpe de una pluma de un juez. La lógica es clara: si un artículo infringe los derechos de propiedad intelectual, en determinadas circunstancias puede ser incautado y destruido. Por lo general, no es práctico ir por ahí incautando todos los artículos que entren en esta categoría (los oficiales de policía no van puerta por puerta en busca de imitaciones de Rolex y Louis Vuitton), por lo que los demandantes y los fiscales tradicionalmente solo persiguen a quienes venden productos de contrabando. Sin embargo, la función de conexión de un DVR significa que EchoStar puede modificar o incluso destruir fácilmente sus unidades a distancia. (El caso se encuentra actualmente en fase de apelación.)

La modificación remota también puede permitir a los fabricantes reutilizar sus aparatos, a veces de formas que no son deseables para sus propietarios. General Motors y BMW ofrecen sistemas integrados, como OnStar, para ofrecer a los propietarios de automóviles una variedad de servicios y funciones útiles, como llamadas con manos libres, indicaciones para llegar paso a paso, control de la presión de los neumáticos y asistencia de emergencia en carretera. Como los sistemas están conectados en red y se pueden actualizar de forma remota, la Oficina Federal de Investigaciones de los Estados Unidos intentó utilizar la tecnología para escuchar a escondidas las conversaciones que se producen en un vehículo reprogramando remotamente el sistema de a bordo para que funcione como un bicho ambulante. La agencia obtuvo órdenes secretas que obligaban a un fabricante de automóviles a realizar esa modificación, y la empresa las cumplió bajo protesta. Un tribunal federal de apelaciones de los Estados Unidos encontró en La empresa contra los Estados Unidos que teóricamente se podría ordenar al fabricante de automóviles anónimo que realizara las modificaciones, pero que la vigilancia del FBI interfirió con el uso normal del sistema informático. Un coche con una línea secreta abierta con el FBI no podía conectarse simultáneamente con el fabricante de automóviles. Si los ocupantes trataran de utilizar el sistema para pedir ayuda de emergencia, no funcionaría. (Presumiblemente, el FBI no acudiría en ayuda del automovilista como promete hacer el fabricante de automóviles). La implicación de la sentencia era que la vigilancia secreta del FBI de este tipo estaría legalmente permitida si se rediseñara el sistema para procesar simultáneamente las solicitudes de emergencia.

El cambio hacia aparatos más inteligentes, unos que sus fabricantes puedan actualizar (y solo ellos), está cambiando radicalmente la forma en que utilizamos nuestras tecnologías. Pasan a ser contingentes: incluso si paga por adelantado, estos aparatos se alquilan en lugar de ser de propiedad, sujetos a revisión por parte del fabricante en cualquier momento.

Es difícil esbozar un panorama de todos los cambios innovadores que no se producirán en un futuro dominado por los electrodomésticos.

¿Qué precio exigirá ese control? Es difícil esbozar un panorama de todos los cambios innovadores que no se producirán en un futuro dominado por los electrodomésticos, pero la historia ofrece una guía. Antes de que el ordenador e Internet generativos se generalizaran alrededor de 1995, el panorama de la TI sufrió comparativamente pocas innovaciones. En los doce años transcurridos desde entonces, Internet y el ordenador se han combinado para inspirar una innovación técnica acelerada fuera del proceso tradicional de I+D empresarial: nuevas formas de valor empresarial impulsadas por la web, nuevas redes sociales y comunidades de interés y experimentos de inteligencia colectiva y colaborativa. Son crisoles de nuevas formas de cultura, acción política y participación, y perderán su poder si Internet y sus puntos finales migran hacia configuraciones más fiables pero menos cambiantes.

Salvar el Internet generativo

Si el status quo de Internet es insostenible y la solución de los aparatos conectados genera demasiadas consecuencias no deseadas, debemos buscar otras soluciones. El principal desafío al que se enfrenta el ecosistema de la tecnología de la información actual es mantener una apertura generativa a los experimentos que pueda adoptar la corriente principal con el menor número de barreras posible, ante los problemas potencialmente abrumadores que surgen precisamente por su gran flexibilidad y potencia. Puede que saquemos directrices generales útiles de algunos de los casos de éxito de modelos generativos que han demostrado su poder de permanencia. He aquí una breve muestra:

Ciberciudadanía.

Una solución al problema generativo es implementar herramientas para que las personas las utilicen, normalmente en grupos pequeños, para evitar lo que consideran abuso. Por ejemplo, Wikipedia ofrece herramientas fáciles de dominar que permiten a los editores que se autoidentifican combatir el vandalismo que se produce al permitir que cualquier persona edite las entradas. Es un sistema a la vez ingenuo y poderoso en comparación con las palancas más tradicionales de regulación y control, diseñado para evitar que los valores atípicos hagan cosas malas. Es lo opuesto al modelo de servicio al cliente, en el que el cliente llama a una línea de ayuda. Más bien, es como un departamento de bomberos voluntarios o una vigilancia vecinal. No todo el mundo podrá apagar incendios o observar el vecindario; sin duda, ¡algunos provocarán los incendios! —pero incluso un subconjunto pequeño puede convertirse en una masa crítica.

La propagación de códigos incorrectos es un problema social y técnico, y las personas pueden entrar en una configuración social para atacarlo. Una aplicación pequeña podría ejecutarse discretamente en los ordenadores de los usuarios participantes e informar a una fuente central, o quizás solo entre sí, información sobre los signos vitales y el código de ejecución de ese PC, lo que ayudaría a otros ordenadores a entender si el código es riesgoso o no. Con esa información, a un PC le vendrían bien las experiencias de otros ordenadores no identificados para capacitar al usuario: en el momento en que el usuario decide si ejecuta un software nuevo, las conexiones de la aplicación a otras máquinas podrían mostrar, por ejemplo, cuántas de las otras máquinas ejecutaban el código, si las máquinas de los autodenominados expertos lo estaban ejecutando, si esos expertos se habían visto obligados a dar fe de ello y cuánto tiempo estuvo disponible el código. También podría indicar la cantidad de tráfico de red no intencionado, anuncios emergentes o bloqueos que parece provocar el código. Este tipo de datos se pueden ver en un sencillo panel de control, lo que permite a los usuarios de ordenadores tomar decisiones rápidas en función de sus propias preferencias de riesgo.

Máquinas virtuales.

Para las personas que simplemente quieren que sus ordenadores funcionen de forma fiable, una solución a medio plazo puede estar en tecnologías que permitan aislar el trabajo de misión crítica de las caprichosas actividades experimentales que podrían resultar peligrosas o que podrían convertirse en el siguiente uso clave de Internet. El científico informático Butler Lampson y otros están desarrollando arquitecturas prometedoras que permiten que un solo PC tenga varias zonas, dos o más máquinas virtuales que funcionen en una sola caja. Una fusión en la zona experimental roja no puede afectar a la zona verde, más segura, y, por lo tanto, el consumidor no tiene que elegir entre una caja generadora y un aparato. Las declaraciones de impuestos y los documentos importantes aparecen en verde; Skype empieza en rojo y, después, se mueve solo cuando parece que está listo para el horario de máxima audiencia.

Más ayuda de los ISP.

Mantener la seguridad de un sistema generativo es, por su naturaleza, un proceso continuo, que requiere el ingenio continuo de quienes quieren que funcione bien y la participación más amplia de otros para contrarrestar las acciones de una minoría decidida a abusar de él. Si la red está completamente abierta, los puntos finales pueden ser atacados. Si los puntos finales permanecen libres a medida que la red se ordena un poco más, actúan como válvulas de seguridad en caso de que el filtrado de la red comience a bloquear algo más que códigos incorrectos. Hoy en día, los ISP hacen la vista gorda ante los ordenadores zombis de sus redes, por lo que no tienen que dedicar tiempo a trabajar con sus suscriptores para arreglarlos. Ya sea mediante las nuevas mejores prácticas del sector o mediante una reorganización de la responsabilidad que obligue a los ISP a tomar medidas en las situaciones de zombis más flagrantes y atroces, podemos ganar otra medida de tiempo en el continuo juego del gato y el ratón de la seguridad.

Neutralidad de la red para mezclas.

Quienes ofrecen contenido y servicios a través de Internet han hecho cola a favor de la «neutralidad de la red», según la cual no se permitiría a los ISP desfavorecer ciertos contenidos legítimos que pasan por sus servidores. Del mismo modo, quienes ofrecen API abiertas en Internet deberían ser neutrales con respecto a las aplicaciones, de modo que todos los que quieran crear sobre sus interfaces puedan confiar en ciertas funciones básicas.

Para que el Internet generativo se salve solo, debe generar sus propias soluciones.

Los sistemas generativos ofrecen beneficios extraordinarios. A medida que se generalizan, las personas que los utilizan pueden compartir cierto sentido del espíritu experimentalista que los impulsa. Las soluciones anteriores se esbozan en los términos más básicos, pero lo que comparten es la idea de que, para que la Internet generativa se salve sola, debe generar sus propias soluciones. Cuanto más podamos mantener Internet como un trabajo en progreso, más avances podremos lograr.

Artículos Relacionados

Investigación: La IA generativa hace que la gente sea más productiva y esté menos motivada

Investigación: La IA generativa hace que la gente sea más productiva y esté menos motivada

Arreglar los chatbots requiere psicología, no tecnología

Arreglar los chatbots requiere psicología, no tecnología

Los chatbots dotados de IA se están convirtiendo en el nuevo estándar para la gestión de consultas, reclamaciones y devoluciones de productos, pero los clientes se alejan de las interacciones con los chatbots sintiéndose decepcionados. La mayoría de las empresas intentan solucionar este problema diseñando mejores modelos de IA en sus chatbots, pensando que si los modelos suenan lo suficientemente humanos, el problema acabará desapareciendo. Pero esta suposición es errónea. Esto se debe a que el problema de fondo no es tecnológico. Es psicológico: Hay que engatusar a la gente para que vea a los chatbots como un medio positivo de interacción. Los autores han analizado recientemente las últimas investigaciones sobre chatbots e interacciones IA-humanos, y en este artículo presentan seis acciones probadas que puede llevar a cabo al desplegar su chatbot de IA para impulsar la satisfacción, la percepción positiva de la marca y las ventas.

Investigación: ¿Está penalizando a sus mejores empleados por desconectar?

Investigación: ¿Está penalizando a sus mejores empleados por desconectar?

Para combatir el creciente desgaste del personal, muchas empresas han defendido programas de bienestar y han fomentado un enfoque renovado en el equilibrio entre la vida laboral y personal. Pero un nuevo estudio descubrió que incluso cuando los líderes reconocían que desvincularse del trabajo aumenta el bienestar de los empleados y mejora su rendimiento laboral, los directivos seguían penalizando a los empleados que adoptaban estos comportamientos cuando optaban a un ascenso o estaban siendo considerados para un nuevo puesto. Basándose en sus conclusiones, los investigadores ofrecen sugerencias para ayudar a las empresas a crear políticas y construir una cultura que proteja los límites de los trabajadores, evite el agotamiento y recompense el trabajo fuerte.