¿OpenAI resuelve un problema incorrecto?
por James Allworth
A finales de la semana pasada, Se anunció OpenAI — una empresa de investigación de inteligencia artificial sin fines de lucro, respaldada por un grupo de estrellas de la industria tecnológica como Elon Musk, Reid Hoffman, Jessica Livingston, Sam Altman y Peter Thiel. (Además de algunos fondos de Amazon Web Services.) En conjunto, han comprometido más de mil millones de dólares para la empresa. ¿Por qué su interés? El documento fundacional menciona las enormes ventajas de la IA para la humanidad, pero más aún las desventajas, si se abusa de la IA. Dada esa posible gama de resultados, es fantástico que haya un grupo de personas tan inteligentes (y bien financiadas) que sean tan reflexivas con el tema. Pero hay un tema en la razón de ser de la creación de la empresa que realmente destaca:
«Como nuestra investigación está libre de obligaciones financieras, podemos centrarnos mejor en lograr un impacto humano positivo».
Implícito en esto: puede hacer más bien operando fuera de los límites del capitalismo que dentro de ellos. Viniendo de personas que están en las altas esferas del sistema, es una declaración bastante poderosa.
Por supuesto, el desagrado de Silicon Valley por el capitalismo del siglo XX no es ningún secreto. Muchos de los líderes del mundo de la tecnología —Facebook, Google, LinkedIn— han «hackeado» sus estructuras de capital para permitir que los mercados públicos se sumen a la inversión financiera, sin permitir a los inversores públicos opinar sobre la gestión de las empresas. El control lo mantienen los fundadores.
Pero si bien este hackeo podría haber dejado a los fundadores solos al frente, obviamente no ha llegado tan lejos como para liberar por completo a sus organizaciones de sus obligaciones financieras.
Sin embargo, algo en el trabajo en el que se centra OpenAI ha hecho que los fundadores piensen que, esta vez, hay demasiado en juego como para arriesgarse a esas mismas «obligaciones financieras». Quizás sea la etapa de desarrollo de la IA: es tan incipiente que introducir el afán de lucro en este momento retrasaría su desarrollo. Pero no cabe duda de que se podría argumentar lo mismo sobre las muchas otras empresas en las que participan estas mismas personas.
De hecho, no necesitamos adivinar, porque los fundadores de OpenAI han hablado públicamente al respecto: sí, se trata en parte de atraer a los mejores talentos del campo; pero lo que destacó aún más en el comunicado de prensa de apertura y el entrevista posterior que Musk y Altman hicieron con Steven Levy era la amenaza que la IA, si se utilizara mal, podría representar para la humanidad. Musk tuiteó el año pasado sobre cómo es la IA» potencialmente más peligroso que las armas nucleares»; y en la entrevista con Levy, afirma: «La seguridad de la IA ha estado acechando mi mente desde hace bastante tiempo».
Entonces, la pregunta es: ¿Albergar un instituto de investigación así dentro de una empresa sin fines de lucro realmente hará que estemos más seguros?
No estoy seguro de que lo haga.
Uno de los objetivos de OpenAI es compartir su trabajo con el mundo (por ejemplo, se comprometen a compartir cualquier patente que puedan desarrollar). Un objetivo noble. Pero a partir de ahí, ¿quién cree que va a ser más capaz de explotar lo que se desarrolle? No pretendería ser un experto en el campo de la IA, pero me atrevería a adivinar que va a ser los que tienen más recursos computacionales y, cada vez más, datos patentados dedicarse a ello.
¿Y quién es probable que sea?
Mi apoyo está en las grandes corporaciones con fines de lucro que los fundadores de OpenAI parecen estar más que un poco preocupados.
De los comentarios desde el lanzamiento de OpenAI se desprende claramente que mucha gente aprecia sus motivos para fundar la organización. Yo me consideraría uno de ellos. Pero no puedo evitar sentir, cuando llega al meollo, que lo que preocupa tanto a los fundadores de OpenAI no es tanto la IA, sino el sistema fundamental en el que todos trabajamos; el sistema dentro del que deben operar toda esta investigación y estas empresas emergentes y empresas. Para ser más directos, parece que les preocupa que si quienes trabajan en un proyecto tienen motivos de lucro, el trabajo que se está realizando tiene una capacidad limitada —quizás incluso conflictiva— de beneficiar ampliamente a la humanidad.
Se ha necesitado un problema tan amplio como la Inteligencia Artificial para que realmente lo admitan.
Creo que es fantástico que ahora haya una empresa multimillonaria en la que, dentro de sus cuatro paredes, se levanten las restricciones de las obligaciones financieras. Pero ni siquiera mil millones de dólares le darán a OpenAI la oportunidad de trabajar en el vacío. Sí, la posibilidad de que la IA sea desastrosa para la humanidad es una grave amenaza. Pero, ¿qué podría ser aún más desastroso que eso? ¿Qué tal un sistema de asignación de recursos en el que quienes han llegado a la cima no confíen para resolver los problemas más difíciles y desafiantes de la raza humana? Es difícil no preguntarse si quizás todos esos recursos que ahora se van a dedicar a la IA podrían haber tenido un impacto aún mayor si se hubieran dirigido al problema subyacente que los fundadores de OpenAI han identificado: no aprovechar mejor la inteligencia artificial, sino aprovechar mejor la nuestra.
Artículos Relacionados

Investigación: La IA generativa hace que la gente sea más productiva y esté menos motivada

Arreglar los chatbots requiere psicología, no tecnología
Los chatbots dotados de IA se están convirtiendo en el nuevo estándar para la gestión de consultas, reclamaciones y devoluciones de productos, pero los clientes se alejan de las interacciones con los chatbots sintiéndose decepcionados. La mayoría de las empresas intentan solucionar este problema diseñando mejores modelos de IA en sus chatbots, pensando que si los modelos suenan lo suficientemente humanos, el problema acabará desapareciendo. Pero esta suposición es errónea. Esto se debe a que el problema de fondo no es tecnológico. Es psicológico: Hay que engatusar a la gente para que vea a los chatbots como un medio positivo de interacción. Los autores han analizado recientemente las últimas investigaciones sobre chatbots e interacciones IA-humanos, y en este artículo presentan seis acciones probadas que puede llevar a cabo al desplegar su chatbot de IA para impulsar la satisfacción, la percepción positiva de la marca y las ventas.

Investigación: ¿Está penalizando a sus mejores empleados por desconectar?
Para combatir el creciente desgaste del personal, muchas empresas han defendido programas de bienestar y han fomentado un enfoque renovado en el equilibrio entre la vida laboral y personal. Pero un nuevo estudio descubrió que incluso cuando los líderes reconocían que desvincularse del trabajo aumenta el bienestar de los empleados y mejora su rendimiento laboral, los directivos seguían penalizando a los empleados que adoptaban estos comportamientos cuando optaban a un ascenso o estaban siendo considerados para un nuevo puesto. Basándose en sus conclusiones, los investigadores ofrecen sugerencias para ayudar a las empresas a crear políticas y construir una cultura que proteja los límites de los trabajadores, evite el agotamiento y recompense el trabajo fuerte.