PathMBA Vault

Technology and analytics

¿Qué pasará cuando los algoritmos de su empresa salgan mal?

por Roman V. Yampolskiy

¿Qué pasará cuando los algoritmos de su empresa salgan mal?

apr17-10-500879062

Cuando esté preparado para incorporar tecnologías de inteligencia artificial en su empresa, el análisis que debe realizar es el siguiente: ¿Qué puede salir mal? ¿Qué se espera que haga nuestro producto o servicio? ¿Qué pasa si no lo hace? ¿Tenemos un plan de mitigación de daños? Considere el situación embarazosa en el que Microsoft se encontró con su El fiasco de los chatbots de Tay, donde los trolls de Internet explotaron las vulnerabilidades del código del bot y lo publicaron con contenido racista, homófobo y sexista que millones de personas leen en las redes sociales.

Centro Insight

  • La era de la IA

    Patrocinado por Accenture

    Cómo afectará a las empresas, la industria y la sociedad.

Accidentes, incluidos mortales, causadas por el software o los robots industriales se remontan a los primeros días de esta tecnología, pero no necesariamente se deben a los propios sistemas. Los fallos de la IA, por otro lado, están directamente relacionados con los errores producidos por la inteligencia para la que están diseñados dichos sistemas. En términos generales, podemos clasificar esos fracasos en «errores cometidos durante la fase de aprendizaje» y «errores cometidos durante la fase de rendimiento». Un sistema puede no aprender lo que sus diseñadores quieren que aprenda y, en cambio, podría aprender una función diferente, pero correlacionada.

Un citado con frecuencia ejemplo es un sistema de visión artificial que el ejército de los Estados Unidos esperaba utilizar para detectar automáticamente los tanques enemigos camuflados. Se suponía que el sistema clasificaría las imágenes de tanques, pero en vez de eso aprendió a distinguir los fondos de esas imágenes. Otros ejemplos incluyen los problemas causados por funciones mal diseñadas que recompensarían a la IA solo por comportamientos parcialmente deseables, como pausar un partido para evitar perder o tocar repetidamente un balón de fútbol para obtener crédito por la posesión.

Puede ser útil analizar algunos ejemplos recientes de fallos de la IA para entender mejor qué problemas pueden surgir y qué puede hacer para evitarlos, o al menos para solucionarlos rápidamente después de un fallo. Tenga en cuenta estos ejemplos de fracasos de la IA de los últimos años:

  • 2015: Creación de un generador automático de respuestas por correo electrónico inapropiado respuestas, como escribir «Te quiero» a un colega de negocios.
  • 2015: Un robot para agarrar piezas de automóviles agarró y asesinado un hombre.
  • 2015: El software de etiquetado de imágenes clasificó a los negros como gorilas.
  • 2015: La IA médica clasificó a los pacientes con asma como pacientes con un más abajo riesgo de morir de neumonía.
  • 2015: El software de filtrado de contenido para adultos no pudo eliminar inapropiado contenido, exponer a los niños a contenido sexual y violento.
  • 2016: La IA diseñada para predecir la reincidencia actuó racista.
  • 2016: Un agente de IA explotado una señal de recompensa para ganar una partida sin completarla realmente.
  • 2016: PNJ de videojuegos (personajes no jugadores o cualquier personaje que no esté controlado por un jugador humano) diseñados no autorizado superarmas.
  • 2016: La IA juzgó un concurso de belleza y calificó a las concursantes de piel oscura más abajo.
  • 2016: Un robot de seguridad para un centro comercial colisionó con un niño herido.
  • 2016: La IA «AlphaGo» perdido a manos de un humano en un juego de «Go» a nivel de campeonato mundial.
  • 2016: Un coche autónomo tenía un mortal accidente.

Y cada día, los consumidores sufren deficiencias más comunes de la IA: los filtros de spam bloquean los correos electrónicos importantes, el GPS proporciona indicaciones erróneas, las traducciones automáticas corrompen el significado de las frases, la autocorrección reemplaza la palabra deseada por una incorrecta, los sistemas biométricos reconocen mal a las personas, el software de transcripción no captura lo que se dice; en general, es más difícil encontrar ejemplos de IA que no fallar.

Este artículo también aparece en:

Al analizar la lista de fallos de la IA anterior, podemos llegar a una generalización sencilla: una IA diseñada para hacer X acabará por dejar de hacer X. Si bien puede parecer trivial, es una poderosa herramienta de generalización que se puede utilizar para predecir los futuros fallos de la IA. Por ejemplo, si observamos las IA actuales y futuras de vanguardia, podemos predecir que:

  • Los médicos de IA diagnostican mal a algunos pacientes de una manera que un médico de verdad no lo haría.
  • El software de descripción de vídeo malinterpretará las tramas de las películas.
  • El software para generar chistes de vez en cuando no logra hacerlos divertidos.
  • El software de detección de sarcasmos confundirá las declaraciones sarcásticas con las sinceras.
  • El software de selección de empleados estará sesgado sistemáticamente y, por lo tanto, contratará a personas con bajo rendimiento.
  • El robot explorador de Marte juzgará mal su entorno y caerá en un cráter.
  • El software de preparación de impuestos no hará deducciones importantes o las hará inapropiadas.

¿Qué debería aprender de los ejemplos y análisis anteriores? ¡Se producirán fracasos! Es inevitable. Sin embargo, aún podemos establecer las mejores prácticas, como:

  • Controlar las entradas de los usuarios en el sistema y limitar el aprendizaje a las entradas de datos verificadas.
  • Comprobar los sesgos raciales, de género, de edad y otros sesgos comunes en sus algoritmos.
  • Analizar de forma explícita cómo puede fallar el software y, a continuación, proporcionar un mecanismo de seguridad para cada posible fallo.
  • Tener disponible un producto o servicio de respaldo menos «inteligente».
  • Tener un plan de comunicaciones en vigor para dirigirse a los medios de comunicación en caso de un fracaso embarazoso. (Sugerencia: comience con una disculpa.)

Yo predigo que tanto la frecuencia como la gravedad de los fallos de la IA aumentarán de manera constante a medida que la IA se convierta más capaz. Los fracasos de las IA actuales de dominio limitado son solo la punta del iceberg; una vez que desarrollemos una inteligencia artificial general capaz de rendimiento multidominio, la vergüenza será lo que menos nos preocupe.