PathMBA Vault

Technology and analytics

Pensando en la inteligencia artificial

por Beau Sheil

Según algunos, la inteligencia artificial (IA) está a punto de transformar la forma en que hacemos negocios. Nos dicen que pronto los programas de ordenador «inteligentes» empezarán a sustituir a los médicos y abogados, a los trabajadores y gerentes de las fábricas. Ante semejante hipérbole, es difícil saber si subirse al tren o descartar toda la empresa de las manos.

De hecho, la IA está pasando del laboratorio de investigación a las aplicaciones empresariales, industriales y profesionales. Pero aún queda un largo camino por recorrer para cumplir con las afirmaciones más extravagantes que algunos han hecho al respecto. Y su integración en las operaciones diarias de una gran organización requiere más sutileza de la que sueñan con los abogados robots (o los médicos, los contadores o cualquier otra persona de la que quiera deshacerse en persona).

Sin embargo, aunque es poco probable que se produzcan muchas aplicaciones aparentemente «obvias» de la IA, hay algunas muy eficaces y a corto plazo que son tan sutiles que es probable que se pasen por alto. Conocer una de la otra y reconocer los problemas únicos de implementar la IA en una gran organización son las claves para entender el verdadero potencial de esta nueva tecnología.

Los usos del conocimiento

Gran parte de la confusión sobre el uso de la IA proviene de nuestras propias creencias, en gran medida inconscientes, sobre la «inteligencia». En gran medida, estas creencias reflejan las nociones de intelectual de propósito general potencia, análogo a conceptos como fuerza o velocidad. (Esta es una de las razones por las que los relatos periodísticos sobre la IA suelen cubrir tanto la tecnología de los «superordenadores» como la IA, a pesar de que los dos campos tienen poco en común.)

Sin embargo, la tecnología de IA actual hace mucho más hincapié en lo específico conocimiento una tarea en particular requiere más que con la potencia computacional que exige. Por lo tanto, es más probable que un programa de IA para jugar al ajedrez se base en un conocimiento muy detallado sobre movimientos y situaciones específicos que en un procesador extremadamente rápido con poco más que las reglas del juego.

¿Cómo puede un programador captar y codificar este conocimiento? Para tareas muy sencillas, como jugar al tic-tack-toe, una forma consiste en hacer una lista de todas las situaciones y su mejor jugada correspondiente para que la máquina pueda decidir qué hacer en cada paso con solo buscar el movimiento correspondiente en la lista. Como alternativa, dado que el número de posibilidades es muy reducido, el programa podría generar todas las mudanzas legales posibles en cada paso y seleccionar la mejor (un curso que requiera generar todas las respuestas posibles). Pero para tareas más complejas, como jugar al ajedrez, ninguno de los dos enfoques es factible. En estos casos, un sistema de IA debe representar el conocimiento como un compromiso entre respuestas específicas para cada situación (de las que siempre hay demasiadas) y principios generales, cuya aplicación a cualquier situación en particular puede no estar muy clara. (La barra lateral «Sistemas basados en reglas» explica una forma común en que el conocimiento se representa en muchas aplicaciones de IA).

Sistemas basados en reglas

Con diferencia, el método más común que se utiliza para representar el conocimiento en las aplicaciones de IA contemporáneas es la tecnología de sistemas basada en reglas o

El principal atractivo comercial de estos sistemas basados en el conocimiento es que se pueden utilizar para programar comportamientos que son muy difíciles de anotar como un programa convencional. En particular, la tecnología basada en reglas parece adecuada para describir muchas decisiones de diagnóstico de rutina que toman profesionales, como médicos o ingenieros. Estas decisiones son demasiado complejas para describirlas exhaustivamente mediante tablas o procedimientos de memoria, pero parece que no se toman mediante un análisis de los primeros principios, sino mediante la aplicación de un gran conjunto de reglas generales que están bien descritas por las reglas de situación-acción.

Incluso si no se puede especificar y automatizar alguna tarea por completo mediante técnicas basadas en el conocimiento, a menudo el proceso de desarrollo y cualquier solución parcial tienen un valor sustancial.

La tecnología informática requiere precisión y detalle. Una descripción precisa y detallada de los conocimientos necesarios para llevar a cabo una tarea importante puede ser de gran valor por sí sola. A menudo, solo las personas que realmente realizan una tarea saben exactamente lo que se necesita para llevarla a cabo y rara vez examinan o articulan lo que saben. Como resultado, la descripción sistemática de los conocimientos que requiere la tecnología de la IA a veces revela lagunas e inconsistencias alarmantes. Pero aunque no lo haga, la descripción en sí misma es una valiosa síntesis de la enorme cantidad de experiencia de una organización. No cabe duda de que vale la pena capturar una parte de este activo que, por lo demás, sería intangible para poder preservarlo a pesar de la rotación de personal, compartirlo en toda la organización y ampliarlo sistemáticamente.

El valor queda más claro, por supuesto, si resulta que el conocimiento se captura de una forma que permita aplicarlo mecánicamente, de modo que la tarea se pueda automatizar por completo. Sin embargo, más a menudo no podemos captar todos los conocimientos que utiliza una persona que toma las decisiones. En consecuencia, los sistemas de IA suelen diseñarse para ayudar con un solo componente de una tarea, y el usuario humano tiene que interpretar el resultado y protegerlo de problemas fuera de su alcance.

Este enfoque limitado en las tareas es particularmente importante en los sistemas diseñados para ser utilizados por profesionales. Como la mayoría de los profesionales son caros, agilizar incluso los componentes más pequeños de su trabajo puede ser una buena inversión. Y dado que muchos profesionales toman decisiones con consecuencias financieras o de otro tipo de gran alcance, vale la pena mejorar la calidad de esas decisiones proporcionando análisis o información adicionales o auditándolas según las directrices generales para reducir la posibilidad de que se cometan errores costosos. En ambas dimensiones, la ventaja de una aplicación de IA bien elegida puede ser sustancial. Los pequeños aumentos en la eficacia de un operador de divisas extranjeras, por ejemplo, podrían generar beneficios drásticos.

Los sistemas de análisis geológico basados en la IA de Schlumberger muestran cómo esta tecnología puede aprovechar la capacidad de toma de decisiones de los profesionales de esta manera. A partir de 1980, Schlumberger comenzó a desarrollar sistemas de IA para determinar el valor probable de los pozos petrolíferos, basándose en las mediciones realizadas durante la perforación. Un grupo de élite de geólogos petroleros realiza estos análisis y grandes sumas de dinero dependen de sus decisiones. Rara vez hay suficientes de estas personas, y formar o contratar a más es muy caro. Por todos estos motivos, Schlumberger quería utilizar la IA para automatizar esta tarea.

Hacerlo sigue siendo un objetivo de la investigación de Schlumberger. Sin embargo, a pesar de las importantes inversiones, el desempeño verdaderamente experto ha demostrado ser un objetivo difícil de alcanzar. La empresa ha creado sistemas que tienen la competencia de los geólogos jóvenes, pero hasta ahora no ha creado un sistema en el que pueda confiar para tomar decisiones tan importantes de forma autónoma.

Si se compara con el gol original, este resultado podría considerarse un fracaso. Sin embargo, el trabajo ha creado una variedad de herramientas inteligentes que pueden ayudar tanto a los geólogos expertos como a los aprendices con menos experiencia en algunos aspectos de su trabajo, por ejemplo, la selección de software de análisis numérico para un problema determinado. Estas herramientas de IA están demostrando ser lo suficientemente útiles como para que la empresa haya empezado a utilizarlas en sitios de campo de todo el mundo y espera que estos sistemas se difundan en la organización en los próximos cinco años.

Un poco de conocimiento

El relato de la inteligencia artificial basado en el conocimiento tiene algunas implicaciones aleccionadoras. Por ejemplo, si el rendimiento se determina principalmente por lo que sabe y no por la capacidad intelectual inherente, está claro que un buen rendimiento requerirá una cantidad considerable de conocimientos. A veces, el volumen por sí solo puede resultar intimidante.

Pensemos, por ejemplo, en la diferencia entre las reglas del ajedrez, que solo ocupan unas pocas páginas, y los cientos de libros de análisis y comentarios sobre el juego. Los jugadores de ajedrez expertos están familiarizados con la mayoría de este material. Así que para igualar a un experto en ajedrez humano, un programa de ajedrez basado en el conocimiento también debe «conocer» gran parte de este material.

La implicación es simple: el bulto por sí solo hará que adquirir y codificar los conocimientos necesarios para cubrir el ajedrez (o cualquier otro tema) sea un problema importante. En consecuencia, será más fácil crear sistemas para problemas altamente especializados que para problemas amplios y generales, ya que la cantidad de conocimientos necesarios para un problema limitado suele ser mucho menor.

Esta secuencia invierte la experiencia humana, ya que las personas suelen convertirse en expertas solo después de haber adquirido una competencia amplia y general. Sin embargo, los problemas que implica adquirir y codificar una amplia gama de conocimientos son tales que la mayoría de los sistemas de IA son expertos altamente especializados, pero no tienen capacidades básicas en «sus» campos. Por lo tanto, vemos programas que son expertos en enfermedades infecciosas, pero que no saben nada de medicina general y sistemas que pueden diagnosticar fallas en las centrales atómicas, pero que ignoran la física de los estudiantes de primer año. Los problemas más simples y generales son, de hecho más difícil para resolverlo con las técnicas de IA existentes.

Una de las razones es la inmensa importancia de los conocimientos básicos y el sentido común. Nuestras interacciones normales suponen un gran conocimiento compartido sobre una enorme variedad de temas. Pero cuando juzgamos la dificultad de una tarea, tendemos a olvidar ese hecho y a centrarnos únicamente en la cantidad de información que debe ser añadió a nuestra base de conocimiento común. Por lo tanto, consideramos que contestar el teléfono y recibir mensajes es una tarea sencilla, ya que solo se necesitan unas pocas frases para decirle a otra persona cómo hacerlo. Y consideramos que diagnosticar las enfermedades infecciosas es muy difícil porque se necesita mucho tiempo y esfuerzo para aprender a hacerlo. Sin embargo, desde cualquier otra perspectiva, contestar el teléfono es claramente mucho más complicado, ya que se puede introducir un número casi ilimitado de temas y actividades en el transcurso de una conversación telefónica. Abordarlos todos requiere una enorme amplitud, si no profundidad, de conocimiento. El diagnóstico de la enfermedad, por el contrario, vive en un mundo mucho más limitado de síntomas, causas y tratamientos que se pueden describir de forma más completa con mucha menos información.

Esta necesidad de una amplia gama de conocimientos de sentido común ha llevado a algunos a depositar sus esperanzas en iniciativas similares a las del Proyecto Manhattan para codificar, de una vez por todas, los conocimientos básicos que se encuentran en, por ejemplo, varias enciclopedias. Lamentablemente, esto es difícil exactamente por la razón por la que es deseable. Para empezar, la mayor parte del material de una enciclopedia está diseñado para lectores que ya tienen los conocimientos generales que el proyecto intenta adquirir, del mismo modo que los diccionarios están diseñados para quienes ya hablan los idiomas cuyas palabras describen. Como resultado, gran parte del material no se podría interpretar si se codificara de forma aislada. Sin embargo, determinar una secuencia que presente el material de modo que cada elemento sea comprensible en términos de los anteriores no es solo un problema técnico difícil, sino también una de las preocupaciones perdurables de la filosofía occidental. Esto debería generar una cierta dosis de humilde cautela, como mínimo.

Además, incluso una enciclopedia infantil contiene mucha información que es difícil de captar con las técnicas de IA contemporáneas. Por ejemplo, entender cómo razonamos sobre la causalidad física, sobre los acontecimientos a lo largo del tiempo o con información incompleta o incierta es solo un problema que se resuelve parcialmente, en el mejor de los casos. Los teóricos de la IA aprecian lo difíciles que son estos problemas y en qué se diferencian de la relativamente bien entendida tecnología de situación-acción-regla. Esa es una de las razones por las que los teóricos de la IA generalmente no están contentos con la cobertura ingenuamente optimista que recibe la IA en la prensa empresarial.

Nuestra limitada capacidad para captar el conocimiento en forma utilizable por máquinas limita considerablemente el tipo de aplicaciones de IA que es práctico crear actualmente a las que se centran en dominios de conocimiento bastante limitados. Como resultado, estos sistemas especializados tenderán a encontrar su uso natural como asistentes de especialistas humanos, ya que es poco probable que las tareas que estos sistemas pueden llevar a cabo sean de mucha utilidad para alguien que sabe poco de su campo. Por lo tanto, es probable que los primeros sistemas de IA prácticos se utilicen en aplicaciones que son bastante esotéricas desde la perspectiva humana, más que en aplicaciones comunes. En concreto, en ningún momento veremos secretarias automáticas, robots domésticos de uso general o médicos generales mecánicos en derecho o medicina. Primero debemos centrarnos en tareas más sencillas y especializadas.

Usos inteligentes de máquinas «inteligentes»

Las consecuencias de que una aplicación de IA tenga solo un rango limitado de conocimientos pueden resultar problemáticas de otras maneras. Para los abridores, las expectativas de las personas sobre los sistemas que se les han descrito como «inteligentes» suelen ser muy poco realistas, pero es difícil proporcionarles unas más precisas. Parte del problema es simplemente una falta de lenguaje. Al carecer de una definición precisa de lo que significa ser «inteligente», la mayoría de la gente llegará a la conclusión de que un sistema informático inteligente se comportará como lo haría una persona. Pero esta expectativa suele estar muy fuera de lugar, aunque solo sea por razones pragmáticas, como los límites del conocimiento del sistema.

Este tipo de malentendidos son un problema conocido para quienes diseñan sistemas de lenguaje natural basados en ordenador. Pensemos, por ejemplo, en un sistema para extraer información de una base de datos. Cuando un gerente pregunta: «¿Cuánta actividad de ventas tenemos en Minnesota?» el sistema probablemente pueda responder amablemente con un informe detallado. Pero si un usuario hace una pregunta aparentemente similar: «¿Cuánto confiamos en estas cifras?» es muy probable que el sistema se confunda, aunque cualquier humano que pueda responder a la primera pregunta pueda responder de forma inteligente a la segunda.

Por supuesto, el programador que diseñe un sistema de este tipo puede amortiguar la respuesta de la máquina a las preguntas que están fuera de los límites. Pero la raíz del problema sigue siendo: ¿qué pueden esperar los usuarios de una máquina que se autoproclama inteligente? A falta de una buena respuesta, es casi seguro que los usuarios generalizarán de manera demasiado amplia y se alejarán del ámbito de competencia de la máquina. Si la máquina puede detectarlo y confesar su ignorancia, la única consecuencia es la frustración del usuario ante sus límites aparentemente caprichosos. Pero dado que «saber lo que no sabe» es una de las habilidades mentales más sutiles, es probable que el usuario y la máquina hablen con propósitos opuestos durante algún tiempo hasta que el malentendido quede claro.

Este problema puede tener graves consecuencias cuando la solicitud implica una decisión crítica. La mayoría de los sistemas de diagnóstico médico basados en la IA, por ejemplo, son «inteligentes» en campos de especialización muy limitados, pero ignoran por completo todo lo demás. Por lo tanto, es probable que un sistema experto diseñado para diagnosticar enfermedades cardíacas haga recomendaciones inteligentes, pero completamente equivocadas, para un paciente con una pierna rota. El peligro, por supuesto, es que los usuarios confundan el tono inteligente con una verdadera competencia y sigan los consejos de la máquina.

Muchos de estos problemas con los programas «inteligentes» en realidad reflejan un profundo nivel de confusión en nuestra propia forma de pensar. Marvin Minsky, uno de los pioneros de la inteligencia artificial, comentó una vez que la inteligencia es «un atributo que las personas atribuyen a un comportamiento mental que admiran pero no comprenden». En otras palabras, lo único que obviamente tienen en común las habilidades «inteligentes» es nuestra ignorancia sobre cómo se hacen.

Pensemos, por ejemplo, en el procedimiento de división larga. Los niños pequeños consideran que requiere mucha inteligencia. Los adultos solo lo saben mejor porque conocen el truco. O piense en la increíble gama de habilidades que denominamos «inteligentes». Está claro por qué creemos que el diagnóstico médico requiere inteligencia: las personas deben ir a la escuela de medicina para aprender a hacerlo y solo unas pocas tienen éxito. Pero la comprensión del habla también se clasifica como inteligente para una máquina, aunque las personas aprenden a entender el lenguaje hablado a los dos años, porque no sabemos cómo hacerlo de forma mecánica.

Por el contrario, cuanto más entendemos un problema, más rápido sale del ámbito de la IA: ya no necesitamos postular la inteligencia para explicarlo. El ajedrez, por ejemplo, ya no es un tema de investigación sobre la IA, porque las máquinas ahora pueden derrotar a los humanos más competentes. El ajedrez, por otro lado, todavía se nos escapa: los maestros de ajedrez humanos derrotan a los mejores programas y los teóricos no están del todo seguros de hasta qué punto se pueden mejorar.

El conjunto de preocupaciones que recoge el comentario de Minsky pone de relieve un problema clave para una tecnología aplicada de la IA: describir algo como inteligente significa que no lo entendemos del todo, y cualquier tecnología que intente capturar y automatizar algo que no entendemos del todo es intrínsecamente débil.

Poner la IA a trabajar

Aunque lo que hemos estado discutiendo puede parecer abstracto, filosófico y muy alejado de lo práctico, tiene implicaciones muy reales para el alto directivo que está considerando utilizar la tecnología de la IA. Lo que esa persona quiere saber es si el sistema de IA es fiable. ¿Funcionará según las especificaciones? ¿Sus respuestas serán siempre correctas o, como mínimo, defendibles?

El problema es que es probable que nadie esté en condiciones de responder satisfactoriamente a estas preguntas. (Dejaremos de lado, sin discutirlo, el punto de vista cínico de que esas preguntas nunca reciben una respuesta satisfactoria para ningún software grande, ya que sin duda lo son pensamiento ser, y eso es lo que importa aquí.) Ninguna teoría, ni siquiera en principio, pretende predecir qué gama de problemas se pueden resolver con un conjunto de conocimientos determinado. No hay forma de comprobar que todos los conocimientos son «correctos» ni forma de demostrar que el sistema no tiene brechas significativas en su cobertura.

Además, a medida que el sistema se describe con más detalle, el lenguaje de la IA tiende a sembrar miedo en el corazón del gerente. Los directores de operaciones son responsables de un conjunto determinado de actividades y, por lo general, se gestionan de forma muy estricta en función de una serie de objetivos detallados, sin mencionar la propiedad bruta general. ¿Es probable que un gerente así ponga el futuro de la empresa en manos de un sistema informático inteligente que «hace conjeturas»? ¿Confiará el gerente en un sistema para cuyo comportamiento solo hay garantías endebles redactadas en términos que se traducen, para un oído escéptico, como «escamoso», «poco confiable» e «impredecible»? No. Si es que el sistema está instalado, estará sobre el cadáver del gerente.

Las cuestiones fundamentales del despliegue operativo son la previsibilidad y la responsabilidad. Los sistemas de IA construidos ingenuamente no suelen tener ninguno de los dos. Y aunque la competencia predecible no fuera un problema, ¿algún gerente no dudaría en responsabilizar a los sistemas inteligentes de las principales decisiones empresariales?

Pensemos en el primer paciente que muere como consecuencia de un mal diagnóstico por parte de un médico robótico. ¿Quién será considerado responsable? ¿Y cómo se tomará esa decisión? Tenemos muchas vías para atribuir la responsabilidad legal y ética a las personas. Algunas de ellas se extienden a máquinas bien especificadas y bien entendidas. Pero incluso en este caso hay problemas cuando las decisiones tienen muchas consecuencias. Por ejemplo, es muy posible que nunca veamos compañías aéreas comerciales volar totalmente bajo el control de un ordenador, aunque esa tecnología sea claramente superior —estadísticamente— a la de los pilotos humanos. La razón es que, aunque los pilotos humanos chocan de vez en cuando un avión cuando intentan aterrizar cuando hace mal tiempo, sus fracasos son comprensibles y, por lo tanto, aunque lamentables, se pueden tolerar. Sin embargo, cuando el piloto mecánico falla, aunque lo haga con mucha menos frecuencia, es probable que se trate de volar un avión contra la ladera de una montaña a plena luz del día. Y es poco probable que toleremos este tipo de fracaso inhumano, digan lo que digan las estadísticas a largo plazo.

Soluciones operativas

Si se quiere que las aplicaciones de IA tengan un uso comercial generalizado, hay que abordar estos problemas operativos. Un enfoque consiste simplemente en dar a la IA un perfil bajo, llamar a la tecnología con un nombre diferente que elimine la noción de inteligencia con todos sus problemas implícitos. Al menos una empresa de Silicon Valley, productora de estaciones de trabajo de ingeniería, tiene una política corporativa que prohíbe el uso del término inteligencia artificial al describir sus productos precisamente por este motivo.

Un segundo enfoque consiste en centrarse en las aplicaciones de baja responsabilidad en las que las consecuencias de los errores son nulas. El sistema XCON de Digital Equipment Corporation, por ejemplo, configura los miniordenadores VAX para tramitar los pedidos de venta mediante una base de conocimientos de reglas que indica qué componentes se pueden utilizar juntos. Los errores ocasionales se pueden corregir fácilmente con un envío adicional de piezas. El problema, por supuesto, es que la mayoría de los problemas de decisión rutinarios de este tipo se pueden resolver con una tecnología mucho más simple y menos inteligente. Al fin y al cabo, ayudar con las decisiones más importantes es una de las principales justificaciones económicas para recurrir a la IA en primer lugar.

Un tercer enfoque consiste en incluir la tecnología de IA como asistente y no como la principal persona que toma las decisiones. Este enfoque utiliza la tecnología de la IA para facilitar, apoyar o auditar el proceso de toma de decisiones de una persona. Coloca a la IA en una función de apoyo y subordinación que no solo se adapta bien a las desiguales capacidades de la tecnología, sino que también se adapta bien a la estructura de las organizaciones actuales. Hay una función que desempeñan los asistentes humanos: tienen algunos conocimientos, ayudan, pero se espera que cometan errores ocasionales y ayudan a la persona que asume la responsabilidad de cualquier error. En muchos casos, una máquina puede desempeñar esta función.

Los sistemas de análisis geológico de Schlumberger utilizan la IA precisamente de esta manera. Otro ejemplo excelente es el sistema ONCOCIN, desarrollado por Edward Shortliffe y otros en la Escuela de Medicina de Stanford, que ayuda a los médicos a recetar tratamientos químicos a los pacientes con cáncer. En lugar de asumir el molesto papel de un aspirante a médico mecánico, el sistema ONCOCIN pasa a un segundo plano.

La mayoría de las veces, ONCOCIN no parece más que un sofisticado sistema de formularios electrónicos. El médico utiliza la pantalla para rellenar réplicas exactas de los formularios en papel que se utilizan normalmente para registrar los síntomas y los tratamientos. Pero detrás de la pantalla hay un sistema experto en toda regla para el tratamiento del cáncer. Observa el historial de casos y busca opciones que el médico pueda haber pasado por alto. Durante mucho tiempo, es posible que el médico desconozca esta ayuda de respaldo. Sin embargo, de vez en cuando, el sistema entra con información adicional, por ejemplo, que los pacientes con este perfil deberían recibir medicamentos alternativos o dosis reducidas o quizás cuestionan la razón de un tratamiento inesperado.

La ventaja es que los médicos tienen acceso a conocimientos que de otro modo no tendrían y, por lo tanto, se les pide que piensen en terapias poco convencionales. Los médicos pueden rechazar el consejo de la máquina, solicitar más información al respecto o incluso pedir explicaciones detalladas o citaciones. Pero siempre queda claro quién está al mando.

Aunque escribir un sistema de «asistente» puede parecer más fácil que escribir uno de «experto», ambos requieren la misma tecnología de IA subyacente. Además, dado que deben ser fáciles de usar y requieren un poco de gracia y tacto a la hora de dar consejos, los sistemas asistentes exigen habilidades aún mayores por parte de los diseñadores de sistemas. Nuestra sociedad permite que los verdaderos genios sean absolutamente incorregibles y extiende el privilegio a los sistemas informáticos (como los procesadores de números) que hasta ahora superan a las personas que toleramos sus idiosincrasias. Pero los sistemas de asistencia no tienen ventajas tan decisivas, por lo que deben ser más complacientes. Al fin y al cabo, despiden a asistentes desconsiderados e inútiles.

Tecnología de sistemas de IA

La necesidad de adaptar los sistemas de IA asistente para que se adapten discretamente al entorno de trabajo de un usuario profesional presenta un grave problema, ya que incluso el software convencional tiene dificultades para este nivel de integración. De hecho, este requisito adicional podría parecer que agrava la dificultad de aplicar la IA de lo simplemente difícil a lo absolutamente imposible. Sin embargo, enterrada en la tecnología de la IA hay una fortaleza insospechada que no solo resuelve este problema, sino que también le da la vuelta al argumento.

La mayoría de los sistemas de IA grandes y conocidos utilizan una tecnología de software muy diferente a la empleada en el resto de la informática. La tecnología de software de la IA evolucionó específicamente para facilitar el desarrollo de grandes sistemas de software para problemas muy poco entendidos. El estilo de programación resultante se conoce como programación exploratoria porque el programador explora un problema y desarrolla un diseño para su solución a medida que se desarrolla el programa, en lugar de decidirse primero por un diseño.

Las deficiencias de este estilo son evidentes, si realmente se tiene la opción de pensarlo todo con antelación. Pero así como es un desperdicio descubrir construyendo lo que se puede descubrir pensando, también es un desperdicio tratar de planificar con demasiada antelación ante una gran incertidumbre. En esa situación, el mejor enfoque es crear algunos fragmentos para ver si le proporcionan suficiente información para reducir la incertidumbre y poder crear otros.

La tecnología del desarrollo exploratorio tiene varios componentes: lenguajes de programación que le permiten afinar muchos detalles de diseño siempre que sea posible, entornos de programación que proporcionan asistentes inteligentes para ayudar a gestionar los detalles de la programación y un amplio conjunto de utilidades de apoyo, y técnicas de programación que permiten un fácil crecimiento incremental. En conjunto, permiten a los diseñadores crear sistemas complejos y desarrollarlos rápidamente en respuesta a un conjunto cambiante de demandas.

Por supuesto, debería quedar claro de inmediato por qué la IA es adecuada para la programación exploratoria. Al fin y al cabo, la caracterización de la inteligencia de Minsky sugiere que un programador que puede desarrollar especificaciones precisas por adelantado ni siquiera utiliza la IA. La sorpresa fue el descubrimiento, al principio del desarrollo comercial de la IA, de que la dificultad de obtener especificaciones precisas era casi tan pronunciada en muchas aplicaciones ajenas a la IA como en la propia IA. En concreto, cuando se trataba de crear entornos interactivos altamente personalizados para que los profesionales los utilizaran para gestionar sus necesidades de información, este enfoque experimental demostró ser muy eficaz.

John Seely Brown, del Centro de Investigación de Palo Alto de Xerox, fue el primero en señalar esta función habilitadora de la tecnología de software de IA. Observó que gran parte de la actividad comercial inicial de la IA consistía simplemente en utilizar la tecnología de desarrollo de los sistemas de IA para crear prototipos rápidos de aplicaciones convencionales. Argumentó que la percepción habitual de que la IA estaba plagada de su software idiosincrásico era errónea. De hecho, la capacidad de proporcionar software de aplicaciones integradas y altamente personalizadas se ha convertido en uno de los principales puntos fuertes de la tecnología de IA.

Recientemente, este argumento ha dado un nuevo giro con la incorporación de fragmentos de la tecnología de software de IA, especialmente los intérpretes de reglas, en los sistemas de software convencionales. El valor a corto plazo de esto está claro. La programación basada en reglas es una forma eficaz de llegar a una declaración clara, concisa y fácil de ampliar de la lógica que subyace a muchas tareas de discriminación y clasificación. Muchos profesionales del procesamiento de datos consideran que la programación basada en reglas es una gran mejora con respecto al código, a menudo intrincado, que se utiliza para estas tareas en los programas de procesamiento de datos convencionales. Como resultado, estamos viendo cómo se están añadiendo intérpretes de reglas simples al software de procesamiento de datos existente, y algunos incluso afirman que estos intérpretes de reglas son la «verdadera» tecnología comercial de la inteligencia artificial. Con el tiempo, estos sistemas se utilizarán para tomar decisiones tan prosaicas como qué formularios de venta enviar a un cliente o qué detalles del código tributario representar.

El escéptico podría preguntarse cuánta inteligencia real hay en esas aplicaciones, especialmente teniendo en cuenta lo débiles que son los sistemas de reglas de apoyo en comparación con los sistemas de investigación de la IA que las han inspirado. Pero hay poco que ganar con esa preocupación. El sencillo intérprete basado en reglas es una tecnología eficaz para una amplia clase de problemas simples y prácticos. Los entornos de desarrollo de IA más sofisticados proporcionan mucha más potencia cuando es adecuada al problema. Más allá de ambos se ciernen los principales temas de la filosofía computacional que siguen desafiando a la ciencia de la investigación de la IA. Mientras seamos realistas en la elección de armas y nos abstengamos de proponer una pistola para matar a un dragón, el escéptico no cabe duda de que quedará satisfecho.

Artículos Relacionados

Investigación: La IA generativa hace que la gente sea más productiva y esté menos motivada

Investigación: La IA generativa hace que la gente sea más productiva y esté menos motivada

Arreglar los chatbots requiere psicología, no tecnología

Arreglar los chatbots requiere psicología, no tecnología

Los chatbots dotados de IA se están convirtiendo en el nuevo estándar para la gestión de consultas, reclamaciones y devoluciones de productos, pero los clientes se alejan de las interacciones con los chatbots sintiéndose decepcionados. La mayoría de las empresas intentan solucionar este problema diseñando mejores modelos de IA en sus chatbots, pensando que si los modelos suenan lo suficientemente humanos, el problema acabará desapareciendo. Pero esta suposición es errónea. Esto se debe a que el problema de fondo no es tecnológico. Es psicológico: Hay que engatusar a la gente para que vea a los chatbots como un medio positivo de interacción. Los autores han analizado recientemente las últimas investigaciones sobre chatbots e interacciones IA-humanos, y en este artículo presentan seis acciones probadas que puede llevar a cabo al desplegar su chatbot de IA para impulsar la satisfacción, la percepción positiva de la marca y las ventas.

Investigación: ¿Está penalizando a sus mejores empleados por desconectar?

Investigación: ¿Está penalizando a sus mejores empleados por desconectar?

Para combatir el creciente desgaste del personal, muchas empresas han defendido programas de bienestar y han fomentado un enfoque renovado en el equilibrio entre la vida laboral y personal. Pero un nuevo estudio descubrió que incluso cuando los líderes reconocían que desvincularse del trabajo aumenta el bienestar de los empleados y mejora su rendimiento laboral, los directivos seguían penalizando a los empleados que adoptaban estos comportamientos cuando optaban a un ascenso o estaban siendo considerados para un nuevo puesto. Basándose en sus conclusiones, los investigadores ofrecen sugerencias para ayudar a las empresas a crear políticas y construir una cultura que proteja los límites de los trabajadores, evite el agotamiento y recompense el trabajo fuerte.