PathMBA Vault

Business and society

¿OpenAI resuelve un problema incorrecto?

por James Allworth

A finales de la semana pasada, Se anunció OpenAI — una empresa de investigación de inteligencia artificial sin fines de lucro, respaldada por un grupo de estrellas de la industria tecnológica como Elon Musk, Reid Hoffman, Jessica Livingston, Sam Altman y Peter Thiel. (Además de algunos fondos de Amazon Web Services.) En conjunto, han comprometido más de mil millones de dólares para la empresa. ¿Por qué su interés? El documento fundacional menciona las enormes ventajas de la IA para la humanidad, pero más aún las desventajas, si se abusa de la IA. Dada esa posible gama de resultados, es fantástico que haya un grupo de personas tan inteligentes (y bien financiadas) que sean tan reflexivas con el tema. Pero hay un tema en la razón de ser de la creación de la empresa que realmente destaca:

«Como nuestra investigación está libre de obligaciones financieras, podemos centrarnos mejor en lograr un impacto humano positivo».

Implícito en esto: puede hacer más bien operando fuera de los límites del capitalismo que dentro de ellos. Viniendo de personas que están en las altas esferas del sistema, es una declaración bastante poderosa.

Por supuesto, el desagrado de Silicon Valley por el capitalismo del siglo XX no es ningún secreto. Muchos de los líderes del mundo de la tecnología —Facebook, Google, LinkedIn— han «hackeado» sus estructuras de capital para permitir que los mercados públicos se sumen a la inversión financiera, sin permitir a los inversores públicos opinar sobre la gestión de las empresas. El control lo mantienen los fundadores.

Pero si bien este hackeo podría haber dejado a los fundadores solos al frente, obviamente no ha llegado tan lejos como para liberar por completo a sus organizaciones de sus obligaciones financieras.

Sin embargo, algo en el trabajo en el que se centra OpenAI ha hecho que los fundadores piensen que, esta vez, hay demasiado en juego como para arriesgarse a esas mismas «obligaciones financieras». Quizás sea la etapa de desarrollo de la IA: es tan incipiente que introducir el afán de lucro en este momento retrasaría su desarrollo. Pero no cabe duda de que se podría argumentar lo mismo sobre las muchas otras empresas en las que participan estas mismas personas.

De hecho, no necesitamos adivinar, porque los fundadores de OpenAI han hablado públicamente al respecto: sí, se trata en parte de atraer a los mejores talentos del campo; pero lo que destacó aún más en el comunicado de prensa de apertura y el entrevista posterior que Musk y Altman hicieron con Steven Levy era la amenaza que la IA, si se utilizara mal, podría representar para la humanidad. Musk tuiteó el año pasado sobre cómo es la IA» potencialmente más peligroso que las armas nucleares»; y en la entrevista con Levy, afirma: «La seguridad de la IA ha estado acechando mi mente desde hace bastante tiempo».

Entonces, la pregunta es: ¿Albergar un instituto de investigación así dentro de una empresa sin fines de lucro realmente hará que estemos más seguros?

No estoy seguro de que lo haga.

Uno de los objetivos de OpenAI es compartir su trabajo con el mundo (por ejemplo, se comprometen a compartir cualquier patente que puedan desarrollar). Un objetivo noble. Pero a partir de ahí, ¿quién cree que va a ser más capaz de explotar lo que se desarrolle? No pretendería ser un experto en el campo de la IA, pero me atrevería a adivinar que va a ser los que tienen más recursos computacionales y, cada vez más, datos patentados dedicarse a ello.

¿Y quién es probable que sea?

Mi apoyo está en las grandes corporaciones con fines de lucro que los fundadores de OpenAI parecen estar más que un poco preocupados.

De los comentarios desde el lanzamiento de OpenAI se desprende claramente que mucha gente aprecia sus motivos para fundar la organización. Yo me consideraría uno de ellos. Pero no puedo evitar sentir, cuando llega al meollo, que lo que preocupa tanto a los fundadores de OpenAI no es tanto la IA, sino el sistema fundamental en el que todos trabajamos; el sistema dentro del que deben operar toda esta investigación y estas empresas emergentes y empresas. Para ser más directos, parece que les preocupa que si quienes trabajan en un proyecto tienen motivos de lucro, el trabajo que se está realizando tiene una capacidad limitada —quizás incluso conflictiva— de beneficiar ampliamente a la humanidad.

Se ha necesitado un problema tan amplio como la Inteligencia Artificial para que realmente lo admitan.

Creo que es fantástico que ahora haya una empresa multimillonaria en la que, dentro de sus cuatro paredes, se levanten las restricciones de las obligaciones financieras. Pero ni siquiera mil millones de dólares le darán a OpenAI la oportunidad de trabajar en el vacío. Sí, la posibilidad de que la IA sea desastrosa para la humanidad es una grave amenaza. Pero, ¿qué podría ser aún más desastroso que eso? ¿Qué tal un sistema de asignación de recursos en el que quienes han llegado a la cima no confíen para resolver los problemas más difíciles y desafiantes de la raza humana? Es difícil no preguntarse si quizás todos esos recursos que ahora se van a dedicar a la IA podrían haber tenido un impacto aún mayor si se hubieran dirigido al problema subyacente que los fundadores de OpenAI han identificado: no aprovechar mejor la inteligencia artificial, sino aprovechar mejor la nuestra.