¿Quién va a regular la IA?

Mientras las empresas y los gobiernos se apresuran a entender el impacto de los nuevos y potentes sistemas de IA, los gobiernos de todo el mundo se esfuerzan por tomar la iniciativa en materia de regulación. Los líderes empresariales deberían centrarse en quién tiene probabilidades de ganar esta contienda, más que en las cuestiones de cómo o incluso cuándo se regulará la IA. Que el Congreso, la Comisión Europea, China o incluso los estados o tribunales de los EE. UU. tomen la iniciativa determinará tanto la velocidad como la trayectoria de la transformación de la economía mundial por parte de la IA, lo que podría proteger a algunos sectores o limitar la capacidad de todas las empresas de utilizar la tecnología para interactuar directamente con los consumidores.

••• Al testificar ante el Congreso el 16 de mayo, el director ejecutivo de OpenAI, Sam Altman, dijo que era hora de que los reguladores comenzaran a fijar límites a los potentes sistemas de IA. «A medida que la tecnología avanza, entendemos que la gente esté ansiosa por saber cómo podría cambiar nuestra forma de vida. Nosotros también», Altman[se lo dijo a un comité del Senado](https://apnews.com/article/chatgpt-openai-ceo-sam-altman-congress-73ff96c6571f38ad5fd68b3072722790). «Si esta tecnología funciona mal, puede salir muy mal», dijo, y afirmó que podría causar «un daño significativo al mundo». Estuvo de acuerdo con los legisladores en que la supervisión del gobierno será fundamental para mitigar los riesgos. Un tema que apenas estaba en el radar de los legisladores hace un año, los gobiernos de todo el mundo debaten ahora ferozmente las ventajas y las desventajas de regular o incluso prohibir algunos usos de las tecnologías de inteligencia artificial. Sin embargo, la pregunta en la que los líderes empresariales deberían centrarse en este momento no es en cómo ni siquiera cuándo se regulará la IA, sino por quién. Que el Congreso, la Comisión Europea, China o incluso los estados o tribunales de los EE. UU. tomen la iniciativa determinará tanto la velocidad como la trayectoria de la transformación de la economía mundial por parte de la IA, lo que podría proteger a algunos sectores o limitar la capacidad de todas las empresas de utilizar la tecnología para interactuar directamente con los consumidores. Desde la publicación en noviembre de 2022 de ChatGPT de OpenAI, su chatbot de IA generativa basado en una red neuronal (LLM) de gran tamaño que se mejora a sí misma, el uso de la IA generativa se ha disparado. Según[datos recopilados por Statista](https://www.statista.com/chart/29174/time-to-one-million-users/), ChatGPT llegó a un millón de usuarios en cinco días, lo que superó a las vertiginosas presentaciones de productos de Internet que antes eran vertiginosos, como Facebook, Spotify y Netflix. Midjourney y DALL-E, LLM que crean ilustraciones personalizadas en función de las entradas del usuario, también han ganado popularidad, [generar millones de imágenes](https://openai.com/blog/dall-e-now-available-without-waitlist) todos los días. La IA generativa ciertamente cumple con los criterios de qué[uno de nosotros lo codefinió anteriormente](/2013/03/big-bang-disruption) como un «agente disruptivo del Big Bang»: una nueva tecnología que, desde el momento de su lanzamiento, ofrece a los usuarios una experiencia mejor y más barata que aquellas con las que compite. Una aceptación tan notable es, naturalmente, motivo de entusiasmo y, para las empresas tradicionales, de alarma. El potencial de los LLM parece ilimitado, tal vez revolucionando todo, desde[buscar](https://www.semianalysis.com/p/google-we-have-no-moat-and-neither?utm_medium=ios&utm_source=substack) a[generación de contenido](/2023/04/how-generative-ai-could-disrupt-creative-work), [servicio de atención al cliente](/2023/04/create-winning-customer-experiences-with-generative-ai) a[educación](https://www.businessinsider.com/ai-will-give-every-student-personalized-tutor-sal-khan-academy-2023-5), y bueno, [lo que sea](/2022/12/chatgpt-and-how-ai-disrupts-industries). A diferencia de Big Bang Disruptions, más segmentada, ChatGPT y otros LLM son superdisruptores, ya que infringen las normas antiguas no solo en un sector, sino en todos ellos. Al mismo tiempo. Dada la posible magnitud de esta perturbación, así como cuestiones como la privacidad, los prejuicios e incluso la seguridad nacional, es razonable que los legisladores se den cuenta. Piense en el poema de Goethe «El aprendiz de brujo», animado en la clásica película de Disney _Fantasía_, donde el hechicero regresa a su taller y descubre que su aprendiz ha desatado fuerzas que se han ido descontrolando rápidamente y amenazan con destruir todo lo que vea hasta que el mago restablezca el orden. Muchos de los que están preocupados por las posibles consecuencias imprevistas de la IA, incluidos desarrolladores como Altman, esperan que los legisladores desempeñen el papel de hechicero. ## Aquí vienen todos En los Estados Unidos, varios actores se esfuerzan por liderar la regulación de la IA. En primer lugar, está el Congreso, donde el líder de la mayoría en el Senado, Chuck Schumer, pide una legislación preventiva[para establecer «barandas» reglamentarias](https://www.democrats.senate.gov/newsroom/press-releases/schumer-launches-major-effort-to-get-ahead-of-artificial-intelligence) sobre productos y servicios de IA. Las barreras se centran en la transparencia de los usuarios, la información gubernamental y «alinear estos sistemas con los valores estadounidenses y garantizar que los desarrolladores de IA cumplan su promesa de crear un mundo mejor». Sin embargo, la vaguedad de esta propuesta no es prometedora. En segundo lugar, está la Administración Biden, donde hay cierta competencia entre las agencias federales para implementar un plan de la Casa Blanca para[una declaración de derechos de la IA](https://www.whitehouse.gov/ostp/ai-bill-of-rights/), que se presentó en octubre pasado. El plan es igualmente general y pide a los desarrolladores que garanticen sistemas «seguros y eficaces» que no discriminen ni infrinjan las expectativas de privacidad y que expliquen cuándo un usuario interactúa con un sistema automatizado y ofrezcan «alternativas» humanas a los usuarios que las soliciten, sin definir ninguno de estos términos clave. En el Departamento de Comercio, la Administración Nacional de Telecomunicaciones e Información (NTIA)[ha abierto una consulta sobre](https://ntia.gov/press-release/2023/ntia-seeks-public-input-boost-ai-accountability) la utilidad de las auditorías y certificaciones para los sistemas de IA. La agencia ha solicitado comentarios sobre[docenas de preguntas](https://www.regulations.gov/document/NTIA-2023-0005-0001) sobre la responsabilidad de los sistemas de IA, incluyendo si las nuevas solicitudes deben evaluarse, certificarse o auditarse, cuándo, cómo y quién debe evaluarlas, certificarlas o auditarlas, y qué tipo de criterios incluir en estas revisiones. En este sentido, la especificidad de la investigación parece ir en la dirección correcta. La presidenta de la Comisión Federal de Comercio, Lina Kahn, por su parte, está adoptando un enfoque diferente, alegando que su agencia ya tiene jurisdicción sobre las LLM, y[haciendo sonar los sables anticompetitivos y de protección al consumidor de la agencia](https://www.nytimes.com/2023/05/03/opinion/ai-lina-khan-ftc-technology.html) en la dirección de la nueva tecnología. Kahn especula con que la IA podría agravar los problemas actuales en la tecnología, como «la colusión, la monopolización, las fusiones, la discriminación de precios y los métodos de competencia desleales». El presidente de la FTC también cree que la IA generativa «corre el riesgo de impulsar el fraude» con su habilidad de crear contenido falso pero convincente. Y, señala, las LLM podrían infringir, de forma intencionada o no, las leyes de privacidad y antidiscriminación vigentes al elaborar respuestas a las solicitudes de los usuarios basadas en conjuntos de datos sesgados. Luego, hay más esfuerzos provinciales: la legislación relacionada con la IA ya se ha introducido en[al menos 17 estados](https://www.ncsl.org/technology-and-communication/legislation-related-to-artificial-intelligence). Algunas de estas leyes propuestas incentivarían el desarrollo local de productos de IA, mientras que otras limitarían su uso en aplicaciones como la atención médica y la contratación. Muchos estados tienen o están considerando la posibilidad de crear sus propios grupos de trabajo para recomendar legislación futura. Hasta ahora, hay pocos detalles en ninguna de estas propuestas, y los tipos de daños hipotéticos de la IA entran en las categorías existentes, incluida la desinformación y el abuso de derechos de autor y marcas comerciales. En cualquier caso, es probable que los reguladores tengan poco impacto en el desarrollo de la tecnología a corto plazo. Muchos de los reglamentos propuestos requerirían que el Congreso diera autoridad legal adicional a las agencias, lo que parece poco probable en el clima político actual. Aun así, la aplicación de las nuevas normas será asunto de los tribunales, lo que se traduce en años de duro proceso. Y, históricamente, los gobiernos han tenido problemas para atraer el tipo de experiencia técnica necesaria incluso para definir los tipos de nuevos daños que pueden causar las LLM y otras aplicaciones de IA. Entre las propuestas federales, dé crédito al Departamento de Comercio por hacer las preguntas correctas. Pero no está claro si la secretaria Gina Raimondo tiene la autoridad legal para crear un proceso de certificación sostenible o la influencia política para lograr que la industria de la tecnología apoye los esfuerzos de la NTIA. Además,[como reconoce el Departamento](https://www.federalregister.gov/documents/2023/04/13/2023-07776/ai-accountability-policy-request-for-comment), su investigación es solo una parte del esfuerzo más amplio de la Casa Blanca por crear un entorno confiable para los servicios de IA, un objetivo que requeriría niveles de coordinación y cooperación nunca antes vistos en numerosos silos gubernamentales. Estas conversaciones también tienen lugar en un contexto de cambios monumentales en la legislación estadounidense que probablemente determinarán quién ganará en última instancia el puesto de principal regulador de la IA. Las decisiones recientes del Tribunal Supremo han[alteró drásticamente el panorama legal del derecho empresarial](https://sloanreview.mit.edu/article/every-company-needs-a-political-strategy-today/), transfiriendo el poder de los reguladores federales a los tribunales y los estados, lo que añade aún más fragmentación, incertidumbre y retraso a las medidas de ejecución. El Tribunal ha dado luz verde a las empresas que desean impugnar la elaboración de normas de las agencias, por ejemplo, exigiendo instrucciones más específicas al Congreso, subcontratando efectivamente a los jueces federales la decisión final sobre si las normas adoptadas entrarán en vigor alguna vez. Mientras tanto, por supuesto, la tecnología seguirá evolucionando a su propio ritmo acelerado. En conjunto, estas limitaciones sugieren que es más probable que la regulación principal venga primero de fuera de los EE. UU. Para la ley de competencia, y su[aplicación a las empresas de tecnología en particular](/2023/02/microsoft-google-and-a-new-era-of-antitrust), el impulso de las últimas décadas ya se ha trasladado de los EE. UU. a Europa. Mientras la UE siga aprobándose [nueva legislación de Internet sustancial](https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/europe-fit-digital-age/digital-markets-act-ensuring-fair-and-open-digital-markets_en), el Congreso vacila y deja a la FTC y otras agencias federales prácticamente sin las herramientas o los recursos necesarios para competir con sus homólogos europeos. El Parlamento Europeo aprobó recientemente [la Ley de IA](https://eur-lex.europa.eu/legal-content/EN/TXT/HTML/?uri=CELEX:52021PC0206), una ley de 100 páginas que prohibiría preventivamente las solicitudes que se consideraran con niveles de riesgo «inaceptables», exigiría que otras personas obtuvieran una aprobación previa y licencias antes de su uso en la UE e impondría multas sustanciales a los desarrolladores por una serie de infracciones. Reguladores en China[también se mueven rápidamente](https://www.axios.com/2023/05/08/china-ai-regulation-race), tanto para incentivar los productos y servicios de IA locales como para definir cómo pueden y no pueden funcionar. Esto no solo podría limitar la forma en que las empresas no chinas interactúan con más de mil millones de posibles usuarios chinos, sino que, siendo las primeras, podría convertirse en el régimen legal de facto para futuras solicitudes. ## Qué deben hacer las empresas ahora No está nada claro que cualquier combinación de medidas gubernamentales (legislativas, reglamentarias o judiciales) pueda lograr realmente el equilibrio entre maximizar el valor de la IA y minimizar sus posibles daños a la economía o la sociedad en general. Como ocurre con todas las tecnologías revolucionarias, es casi seguro que la capacidad de los gobiernos para regular eficazmente las LLM no será suficiente. No se trata de una crítica a los legisladores y reguladores, sino de un efecto secundario[del hecho básico](https://www.ft.com/content/849d8cc6-ca62-11de-a3a3-00144feabdc0) que la ley avanza de forma gradual mientras que la tecnología evoluciona exponencialmente. Mientras tanto, los líderes empresariales y los académicos deberían seguir el ejemplo de la iniciativa en curso del Departamento de Comercio y empezar a desarrollar reguladores, auditorías y procesos de certificación no gubernamentales que identifiquen y ofrezcan incentivos de mercado para la compra de productos y servicios de IA éticos y confiables, dejando claro qué aplicaciones son y qué no son confiables. Por supuesto, hay una larga historia de organismos autorreguladores exitosos (y fallidos), que se remonta a la Edad Media y a los «tribunales» de comerciantes que hacían cumplir las normas de los mercados medievales. En la actualidad, numerosos grupos, incluida la Organización Internacional de Normalización, desarrollan y certifican el cumplimiento corporativo con una gama notablemente amplia de normas, mejores prácticas y clasificaciones. En la era de la información, esfuerzos similares han abordado todo, desde los estándares corporativos para[hacer frente a los regímenes autoritarios](https://globalnetworkinitiative.org/) al desarrollo del mismo software y protocolos[que componen el propio Internet](https://www.internetsociety.org/about-the-ietf/). Alguna regulación gubernamental es inevitable. Aun así, la forma más prometedora de no provocar al hechicero sería evitar causar un lío demasiado grande en primer lugar.