El ciclo de bombo publicitario de la IA distrae a las empresas

El aprendizaje automático tiene un problema de «IA». Con las nuevas e impresionantes capacidades de la IA generativa que se publican cada varios meses, y la publicidad de la IA se intensifica a un ritmo aún mayor, ya es hora de que diferenciemos la mayoría de los proyectos prácticos de aprendizaje automático actuales de los avances de la investigación. Esto comienza por nombrar correctamente esos proyectos: llámelos «ML», no «IA». Incluir todas las iniciativas de aprendizaje automático bajo el paraguas de la «IA», sobreventas y engaños, lo que contribuye a una alta tasa de fracasos en las implementaciones empresariales de aprendizaje automático. Para la mayoría de los proyectos de aprendizaje automático, el término «IA» va demasiado lejos: alude a las capacidades a nivel humano. De hecho, cuando analiza el significado de «IA», descubre lo exagerada que es una palabra de moda: si no se refiere a la inteligencia artificial general, un objetivo grandioso para la tecnología, entonces no significa nada en absoluto.

••• Se podría pensar que las noticias sobre «los principales avances de la IA» no harían más que ayudar a adoptar el aprendizaje automático (ML). Si tan solo. Incluso antes de las últimas versiones (sobre todo ChatGPT de OpenAI y otras herramientas de IA generativa), la rica narrativa sobre una IA emergente y todopoderosa ya era un problema creciente para el aprendizaje automático aplicado. Esto se debe a que para la mayoría de los proyectos de aprendizaje automático, la palabra de moda «IA» va demasiado lejos. Aumenta demasiado las expectativas y distrae la atención de la forma precisa en que el aprendizaje automático mejorará las operaciones empresariales. Los casos de uso más prácticos del aprendizaje automático, diseñados para mejorar la eficiencia de las operaciones empresariales existentes, innovan de formas bastante sencillas. No deje que el resplandor que emana de esta ostentosa tecnología oculte la sencillez de su función fundamental:[el propósito del aprendizaje automático es emitir predicciones procesables](https://www.predictiveanalyticsworld.com/book/pdf/Predictive_Analytics_by_Eric_Siegel_Excerpts.pdf), por eso a veces también se llama _análisis predictivo_. Esto significa valor real, siempre y cuando evite [falso bombo que](https://blogs.scientificamerican.com/observations/the-medias-coverage-of-ai-is-bogus/)[es](https://blogs.scientificamerican.com/observations/the-medias-coverage-of-ai-is-bogus/)[«muy preciso»,](https://blogs.scientificamerican.com/observations/the-medias-coverage-of-ai-is-bogus/) como una bola de cristal digital. Esta capacidad se traduce en un valor tangible de una manera sencilla. Las predicciones impulsan millones de decisiones operativas. Por ejemplo, al predecir qué clientes tienen más probabilidades de cancelar, una empresa puede ofrecer a esos clientes incentivos para que se queden. Y al predecir qué transacciones con tarjetas de crédito son fraudulentas, un procesador de tarjetas puede rechazarlas. Son casos de uso prácticos de aprendizaje automático, como los que tienen el mayor impacto en las operaciones empresariales existentes, y los métodos avanzados de ciencia de datos que aplican estos proyectos se reducen al aprendizaje automático y solo al aprendizaje automático. Este es el problema: la mayoría de la gente concibe el aprendizaje automático como «IA». Es un malentendido razonable. Pero la «IA» sufre una implacable,[incurable caso de vaguedad](https://www.aimyths.org/the-term-ai-has-a-clear-meaning) — es un término artístico general que no se refiere de forma coherente a ningún método o propuesta de valor en particular. Llamar «IA» a las herramientas de aprendizaje automático sobrevende lo que realmente hacen la mayoría de las implementaciones empresariales de aprendizaje automático. De hecho, no podría prometer más de lo que hace cuando llama a algo «IA». El apodo invoca la noción de inteligencia general artificial (AGI), un software capaz de realizar cualquier tarea intelectual que puedan realizar los humanos. Esto agrava un problema importante con los proyectos de aprendizaje automático: a menudo no se centran mucho en su valor, exactamente en la forma en que el aprendizaje automático hará que los procesos empresariales sean más eficaces. Como resultado,[la mayoría de los proyectos de aprendizaje automático no ofrecen valor](https://www.kdnuggets.com/2022/01/models-rarely-deployed-industrywide-failure-machine-learning-leadership.html). Por el contrario, los proyectos de aprendizaje automático que mantienen su objetivo operativo concreto en primer plano tienen muchas posibilidades de lograr ese objetivo. ## ¿Qué significa realmente la IA? _«'Impulsado por la IA 'es el equivalente sin sentido de la tecnología a 'todo natural'»._ —Devin Coldewey, [_TechCrunch_](https://techcrunch.com/2017/01/10/ai-powered-is-techs-meaningless-equivalent-of-all-natural/) La IA no puede escapar de la AGI por dos razones. En primer lugar, el término «IA» se usa generalmente sin aclarar si estamos hablando de AGI o _IA estrecha_, un término que básicamente significa despliegues de aprendizaje automático prácticos y centrados. A pesar de las enormes diferencias, el límite entre ellas se difumina en la retórica común y en los materiales de venta de software. En segundo lugar, no hay una forma satisfactoria de definir la IA además de la AGI. Definir la «IA» como algo diferente al AGI se ha convertido en una investigación[desafío en sí mismo](https://www.machine-ethics.net/podcast/what-is-ai-2/) , aunque quijotesco. Si no significa AGI, no significa nada; otras definiciones sugeridas no califican como «inteligentes» en el ambicioso espíritu que implica la «IA» o no establecen una meta objetiva. Nos enfrentamos a este acertijo ya sea que tratemos de precisar 1) una definición de «IA», 2) los criterios por los que un ordenador se calificaría de «inteligente» o 3) un punto de referencia de rendimiento que certificaría la verdadera IA. Estos tres son uno y lo mismo. El problema está en la propia palabra «inteligencia». Cuando se usa para describir una máquina, es implacablemente nebulosa. Esas son malas noticias si se supone que la IA es un campo legítimo. La ingeniería no puede perseguir un objetivo impreciso. Si no puede definirlo, no puede construirlo. Para desarrollar un aparato, debe ser capaz de medir qué tan bueno es, qué tan bien funciona y qué tan cerca está de la meta, para que sepa que está progresando y, en última instancia, para saber cuándo ha logrado desarrollarlo. En un vano intento de evitar este dilema, la industria no deja de hacer un baile incómodo de definiciones de IA que yo llamo _la mezcla de la IA_. IA significa ordenadores que hacen algo de manera inteligente (una definición circular). No, es la inteligencia demostrada por las máquinas (aún más circular, si es posible). Más bien, es un sistema que emplea ciertas metodologías avanzadas, como el aprendizaje automático, el procesamiento del lenguaje natural, los sistemas basados en reglas, el reconocimiento de voz, la visión artificial u otras técnicas que funcionan de forma probabilística (está claro que el empleo de uno o más de estos métodos no califica automáticamente un sistema como inteligente). Pero seguro que una máquina calificaría de inteligente si se pareciera lo suficientemente humana, si no pudiera distinguirla de un humano, por ejemplo, interrogándola en una sala de chat, la famosa _Prueba de Turing._ Pero la habilidad de engañar a la gente es un objetivo arbitrario y móvil, ya que los sujetos humanos se dan cuenta del truco con el tiempo. Un sistema dado solo pasará la prueba como máximo una vez. Si nos engaña dos veces, qué vergüenza para la humanidad. Otra razón por la que pasar la prueba de Turing no da en el blanco es porque tiene un valor o una utilidad limitados. Si la IA pudiera existir, sin duda se supone que es útil. ¿Y si definimos la IA por lo que es capaz de hacer? Por ejemplo, si definimos la IA como un software que puede realizar una tarea tan difícil que tradicionalmente requiere un humano, como conducir un coche, dominar el ajedrez o reconocer rostros humanos. Resulta que esta definición tampoco funciona porque, una vez que un ordenador puede hacer algo, tendemos a trivializarlo. Al fin y al cabo, los ordenadores solo pueden gestionar tareas mecánicas que se entiendan y especifiquen bien. Una vez superado, el logro pierde repentinamente su encanto y el ordenador que puede hacerlo no parece «inteligente» al fin y al cabo, al menos no en la medida en que se pretende con el término «IA». Cuando los ordenadores dominaron el ajedrez, había poca sensación de que hubiéramos «resuelto» la IA. Esta paradoja, conocida como _El efecto de la IA_, nos dice que, si es posible, no es inteligente. Con un objetivo cada vez más difícil de alcanzar, la IA equivale sin darse cuenta a «hacer que los ordenadores hagan cosas demasiado difíciles para los ordenadores», una imposibilidad artificial. Ningún destino lo satisfará una vez que llegue; la IA desafía categóricamente la definición. Con la debida ironía, el pionero de la informática Larry Tesler sugirió que también podríamos definir la IA como «cualquier cosa que las máquinas no hayan hecho aún». Irónicamente, fue el éxito mensurable del aprendizaje automático lo que impulsó la IA en primer lugar. Después de todo, mejorar el rendimiento mensurable es _aprendizaje automático supervisado_ en pocas palabras. Los comentarios de la evaluación del sistema en función de un punto de referencia (como una muestra de datos etiquetados) guían su próxima mejora. De este modo, el aprendizaje automático ofrece un valor sin precedentes de innumerables maneras. Se ha ganado el título de «la tecnología de uso general más importante de nuestra era», como[Harvard Business Review](/2017/07/the-business-of-artificial-intelligence) ponlo. Más que cualquier otra cosa, los saltos y límites comprobados del aprendizaje automático han impulsado el bombo de la IA. ## Todo con la inteligencia general artificial _«Predigo que veremos el tercer invierno de la IA en los próximos cinco años... Cuando me gradué con mi doctorado en IA y aprendizaje automático en 1991, IA era literalmente una mala palabra. Ninguna empresa consideraría contratar a alguien que se dedicara a la IA»._ —Usama Fayyad, 23 de junio de 2022, habla en la Semana del Aprendizaje Automático Hay una manera de superar este dilema de la definición: hacer todo lo posible y definir la IA como AGI, un software capaz de realizar cualquier tarea intelectual que puedan realizar los humanos. Si se lograra este objetivo que suena a ciencia ficción, afirmo que habría un argumento sólido que lo calificaría de «inteligente». Y es un objetivo mensurable, al menos en principio, si no en la práctica. Por ejemplo, sus desarrolladores podrían comparar el sistema con un conjunto de 1 000 000 de tareas, incluidas decenas de miles de complicadas solicitudes de correo electrónico que podría enviar a un asistente virtual, varias instrucciones para un empleado del almacén que también le daría a un robot e incluso resúmenes breves de un párrafo sobre cómo la máquina, en su papel de CEO, debería hacer que una empresa de la lista Fortune 500 sea rentable. Puede que AGI se fije un objetivo claro, pero está fuera de este mundo, una ambición lo más difícil de manejar posible. Nadie sabe si se podría lograr y cuándo. Ahí está el problema de los proyectos típicos de aprendizaje automático. Al llamarlos «IA», queremos decir que se encuentran en el mismo espectro que la AGI, que se basan en una tecnología que avanza activamente en esa dirección. La «IA» persigue a ML. Invoca una narrativa grandiosa y aumenta las expectativas, al vender tecnología real en términos poco realistas. Esto confunde a los responsables de la toma de decisiones y pone en callejones sin salida los proyectos a diestra y siniestra. Es comprensible que tantos quieran quedarse con una parte del pastel de la IA si está hecha con los mismos ingredientes que la AGI. El cumplimiento de los deseos que AGI promete —una especie de poder supremo— es tan seductor que es casi irresistible. Pero hay una manera mejor de avanzar, una que sea realista y que yo diría que ya es bastante emocionante: dirigir las principales operaciones (las principales cosas que hacemos como organizaciones) de manera más eficaz. La mayoría de los proyectos comerciales de aprendizaje automático tienen como objetivo precisamente eso. Para que triunfen a un ritmo mayor, tenemos que poner los pies en la tierra. Si su objetivo es ofrecer valor operativo, no compre «IA» ni venda «IA». Diga lo que quiere decir y diga en serio lo que dice. Si una tecnología consiste en el aprendizaje automático, llamémosla así. Los informes sobre la inminente obsolescencia de la mente humana se han exagerado enormemente, lo que significa que se acerca otra era de desilusión de la IA. Y, a la larga, seguiremos viviendo inviernos de IA mientras sigamos aplicando hiperbólicamente el término «IA». Pero si bajamos el tono de la retórica de la «IA» (o diferenciamos el aprendizaje automático de la IA), aislaremos adecuadamente el aprendizaje automático como industria del próximo invierno de la IA. Esto incluye resistirse a la tentación de subirse a las olas del bombo publicitario y abstenerse de afirmar pasivamente a los responsables de la toma de decisiones con ojos estrellados que parecen estar inclinándose ante el altar de una IA con todas las capacidades. De lo contrario, el peligro es claro y está presente: cuando el bombo publicitario se desvanezca, se desacredite la sobreventa y llegue el invierno, gran parte de la verdadera propuesta de valor de ML se eliminará innecesariamente junto con los mitos, como el bebé del agua de la bañera. _Este artículo es un producto del trabajo del autor como profesor de análisis corporal bicentenario en la Escuela de Negocios Darden de la UVA._