¿Qué pasará cuando los algoritmos de su empresa salgan mal?
por Roman V. Yampolskiy

Cuando esté preparado para incorporar tecnologías de inteligencia artificial en su empresa, el análisis que debe realizar es el siguiente: ¿Qué puede salir mal? ¿Qué se espera que haga nuestro producto o servicio? ¿Qué pasa si no lo hace? ¿Tenemos un plan de mitigación de daños? Considere el situación embarazosa en el que Microsoft se encontró con su El fiasco de los chatbots de Tay, donde los trolls de Internet explotaron las vulnerabilidades del código del bot y lo publicaron con contenido racista, homófobo y sexista que millones de personas leen en las redes sociales.
Centro Insight
La era de la IA
Patrocinado por Accenture
Cómo afectará a las empresas, la industria y la sociedad.
Accidentes, incluidos mortales, causadas por el software o los robots industriales se remontan a los primeros días de esta tecnología, pero no necesariamente se deben a los propios sistemas. Los fallos de la IA, por otro lado, están directamente relacionados con los errores producidos por la inteligencia para la que están diseñados dichos sistemas. En términos generales, podemos clasificar esos fracasos en «errores cometidos durante la fase de aprendizaje» y «errores cometidos durante la fase de rendimiento». Un sistema puede no aprender lo que sus diseñadores quieren que aprenda y, en cambio, podría aprender una función diferente, pero correlacionada.
Un citado con frecuencia ejemplo es un sistema de visión artificial que el ejército de los Estados Unidos esperaba utilizar para detectar automáticamente los tanques enemigos camuflados. Se suponía que el sistema clasificaría las imágenes de tanques, pero en vez de eso aprendió a distinguir los fondos de esas imágenes. Otros ejemplos incluyen los problemas causados por funciones mal diseñadas que recompensarían a la IA solo por comportamientos parcialmente deseables, como pausar un partido para evitar perder o tocar repetidamente un balón de fútbol para obtener crédito por la posesión.
Puede ser útil analizar algunos ejemplos recientes de fallos de la IA para entender mejor qué problemas pueden surgir y qué puede hacer para evitarlos, o al menos para solucionarlos rápidamente después de un fallo. Tenga en cuenta estos ejemplos de fracasos de la IA de los últimos años:
- 2015: Creación de un generador automático de respuestas por correo electrónico inapropiado respuestas, como escribir «Te quiero» a un colega de negocios.
- 2015: Un robot para agarrar piezas de automóviles agarró y asesinado un hombre.
- 2015: El software de etiquetado de imágenes clasificó a los negros como gorilas.
- 2015: La IA médica clasificó a los pacientes con asma como pacientes con un más abajo riesgo de morir de neumonía.
- 2015: El software de filtrado de contenido para adultos no pudo eliminar inapropiado contenido, exponer a los niños a contenido sexual y violento.
- 2016: La IA diseñada para predecir la reincidencia actuó racista.
- 2016: Un agente de IA explotado una señal de recompensa para ganar una partida sin completarla realmente.
- 2016: PNJ de videojuegos (personajes no jugadores o cualquier personaje que no esté controlado por un jugador humano) diseñados no autorizado superarmas.
- 2016: La IA juzgó un concurso de belleza y calificó a las concursantes de piel oscura más abajo.
- 2016: Un robot de seguridad para un centro comercial colisionó con un niño herido.
- 2016: La IA «AlphaGo» perdido a manos de un humano en un juego de «Go» a nivel de campeonato mundial.
- 2016: Un coche autónomo tenía un mortal accidente.
Y cada día, los consumidores sufren deficiencias más comunes de la IA: los filtros de spam bloquean los correos electrónicos importantes, el GPS proporciona indicaciones erróneas, las traducciones automáticas corrompen el significado de las frases, la autocorrección reemplaza la palabra deseada por una incorrecta, los sistemas biométricos reconocen mal a las personas, el software de transcripción no captura lo que se dice; en general, es más difícil encontrar ejemplos de IA que no fallar.
Este artículo también aparece en:
Inteligencia artificial: la información que necesita de la Harvard Business Review
Tecnología y operaciones Libro
22.95
Al analizar la lista de fallos de la IA anterior, podemos llegar a una generalización sencilla: una IA diseñada para hacer X acabará por dejar de hacer X. Si bien puede parecer trivial, es una poderosa herramienta de generalización que se puede utilizar para predecir los futuros fallos de la IA. Por ejemplo, si observamos las IA actuales y futuras de vanguardia, podemos predecir que:
- Los médicos de IA diagnostican mal a algunos pacientes de una manera que un médico de verdad no lo haría.
- El software de descripción de vídeo malinterpretará las tramas de las películas.
- El software para generar chistes de vez en cuando no logra hacerlos divertidos.
- El software de detección de sarcasmos confundirá las declaraciones sarcásticas con las sinceras.
- El software de selección de empleados estará sesgado sistemáticamente y, por lo tanto, contratará a personas con bajo rendimiento.
- El robot explorador de Marte juzgará mal su entorno y caerá en un cráter.
- El software de preparación de impuestos no hará deducciones importantes o las hará inapropiadas.
¿Qué debería aprender de los ejemplos y análisis anteriores? ¡Se producirán fracasos! Es inevitable. Sin embargo, aún podemos establecer las mejores prácticas, como:
- Controlar las entradas de los usuarios en el sistema y limitar el aprendizaje a las entradas de datos verificadas.
- Comprobar los sesgos raciales, de género, de edad y otros sesgos comunes en sus algoritmos.
- Analizar de forma explícita cómo puede fallar el software y, a continuación, proporcionar un mecanismo de seguridad para cada posible fallo.
- Tener disponible un producto o servicio de respaldo menos «inteligente».
- Tener un plan de comunicaciones en vigor para dirigirse a los medios de comunicación en caso de un fracaso embarazoso. (Sugerencia: comience con una disculpa.)
Yo predigo que tanto la frecuencia como la gravedad de los fallos de la IA aumentarán de manera constante a medida que la IA se convierta más capaz. Los fracasos de las IA actuales de dominio limitado son solo la punta del iceberg; una vez que desarrollemos una inteligencia artificial general capaz de rendimiento multidominio, la vergüenza será lo que menos nos preocupe.
Artículos Relacionados

La IA es genial en las tareas rutinarias. He aquí por qué los consejos de administración deberían resistirse a utilizarla.

Investigación: Cuando el esfuerzo adicional le hace empeorar en su trabajo
A todos nos ha pasado: después de intentar proactivamente agilizar un proceso en el trabajo, se siente mentalmente agotado y menos capaz de realizar bien otras tareas. Pero, ¿tomar la iniciativa para mejorar las tareas de su trabajo le hizo realmente peor en otras actividades al final del día? Un nuevo estudio de trabajadores franceses ha encontrado pruebas contundentes de que cuanto más intentan los trabajadores mejorar las tareas, peor es su rendimiento mental a la hora de cerrar. Esto tiene implicaciones sobre cómo las empresas pueden apoyar mejor a sus equipos para que tengan lo que necesitan para ser proactivos sin fatigarse mentalmente.

En tiempos inciertos, hágase estas preguntas antes de tomar una decisión
En medio de la inestabilidad geopolítica, las conmociones climáticas, la disrupción de la IA, etc., los líderes de hoy en día no navegan por las crisis ocasionales, sino que operan en un estado de perma-crisis.