PathMBA Vault

Analytics and data science

Lo que se necesitará para que confiemos en la IA

por Guru Banavar

Lo que se necesitará para que confiemos en la IA

nov16-29-120577711

Los primeros días de la inteligencia artificial han sido recibidos con algunos retorcimientos de manos muy públicos. Tecnólogos y líderes empresariales respetados han expresado su preocupación por el desarrollo (responsable) de la IA. Y el apetito de Hollywood por las narrativas distópicas de la IA parece no tener fondo.

Esto no es inusual ni descabellado. Los cambios, tecnológicos o de otro tipo, siempre despiertan la imaginación. Y a menudo nos hace sentir un poco incómodos.

Pero en mi opinión, nunca hemos conocido una tecnología con más potencial de beneficiar a la sociedad que la inteligencia artificial. Ahora tenemos sistemas de IA que aprenden de enormes cantidades de información compleja y desestructurada y la convierten en información procesable. No es descabellado esperar que dentro de este creciente conjunto de datos digitales — 2,5 exabytes cada día — radican los secretos para derrotar el cáncer, revertir el cambio climático o gestionar la complejidad de la economía mundial.

También esperamos que los sistemas de IA respalden de manera generalizada las decisiones que tomamos en nuestra vida profesional y personal en tan solo unos años. De hecho, esto ya está ocurriendo en muchos sectores y gobiernos. Sin embargo, si alguna vez queremos aprovechar toda la gama de beneficios sociales e industriales de la inteligencia artificial, primero tendremos que confiar en ella.

La confianza en los sistemas de IA se ganará con el tiempo, igual que en cualquier relación personal. En pocas palabras, confiamos en las cosas que se comportan como esperamos que lo hagan. Pero eso no significa que el tiempo por sí solo vaya a resolver el problema de la confianza en la IA. Los sistemas de IA deben crearse desde el principio para que funcionen en asociaciones basadas en la confianza con las personas.

El trabajo más urgente es reconocer y minimizar los prejuicios. El sesgo podría introducirse en un sistema de IA a través de los datos de entrenamiento o los algoritmos. Los datos seleccionados que se utilizan para entrenar el sistema podrían tener sesgos inherentes, por ejemplo, hacia un grupo demográfico específico, ya sea porque los datos en sí mismos están sesgados o porque los curadores humanos mostraron sesgos en sus elecciones. Los algoritmos que procesan esa información también pueden tener sesgos en el código, introducidos por un desarrollador, intencionalmente o no. La comunidad de desarrolladores acaba de empezar a abordar este tema en serio. Sin embargo, la mayoría de los expertos creen que si probamos exhaustivamente estos sistemas, podemos detectar y mitigar los sesgos antes de que se despliegue el sistema.

La gestión del sesgo es un elemento de la cuestión más amplia de la responsabilidad algorítmica. Es decir, los sistemas de IA deben ser capaces de explicar cómo y por qué llegaron a una conclusión determinada para que un humano pueda evaluar la razón de ser del sistema. Muchas profesiones, como la medicina, las finanzas y el derecho, ya requieren una capacidad de auditoría basada en la evidencia como práctica normal para garantizar la transparencia en la toma de decisiones y la gestión de la responsabilidad. En muchos casos, es posible que los sistemas de IA necesiten explicar los motivos mediante una interacción conversacional (en lugar de un informe), de modo que la persona pueda ahondar en todos los detalles que sea necesario.

Además, los sistemas de IA pueden y deben tener mecanismos para insertar una variedad de valores éticos adecuados al contexto, como la tarea, la persona, la profesión o la cultura. Esto no es tan difícil como parece. Los sistemas éticos se basan en reglas, igual que los algoritmos de los ordenadores. Estas reglas se pueden insertar durante el desarrollo, el despliegue o el uso. Y como se trata de sistemas de aprendizaje, los investigadores creen que los sistemas de IA pueden, con el tiempo, observar el comportamiento humano para cubrir algunos de los vacíos.

Corresponde a los desarrolladores de sistemas de IA responder a estas preguntas de una manera que satisfaga tanto al sector como al público en general. Esto ya lo entiende bien en la industria de la tecnología, razón por la cual IBM trabaja junto con algunos de sus competidores más feroces, como Google, Microsoft, Amazon y Facebook, en «Asociación en materia de IA», una colaboración única y abierta diseñada para guiar el desarrollo ético de la inteligencia artificial.

Los líderes empresariales que estén considerando soluciones de inteligencia artificial deberían incluir la confianza y la responsabilidad como parte de sus criterios de adopción. Deberían tener en cuenta cómo y dónde se introduce esta tecnología en toda la organización. Y deberían trabajar con sus proveedores de tecnología para identificar cualquier comportamiento no deseado y corregirlo si es necesario.

Pero retrasar la implementación de la inteligencia artificial no es una opción. Pagamos un precio significativo todos los días por no saber lo que se puede saber: por no saber qué le pasa a un paciente, por no saber dónde encontrar un recurso natural fundamental o por desconocer los riesgos ocultos de la economía mundial. Creemos que muchas de estas ambigüedades e ineficiencias se pueden eliminar con la inteligencia artificial.

La inteligencia artificial es una tecnología innegablemente poderosa. Y como ocurre con cualquier tecnología potente, hay que tener mucho cuidado en su desarrollo y despliegue. Así como es nuestra obligación aplicar esta tecnología a problemas sociales complejos, es nuestra obligación desarrollarla de una manera que genere confianza y proteja a la humanidad. En otras palabras, generar confianza es esencial para la adopción de la inteligencia artificial. Y creemos que su adopción es esencial para la humanidad.

Artículos Relacionados

Investigación: La IA generativa hace que la gente sea más productiva y esté menos motivada

Investigación: La IA generativa hace que la gente sea más productiva y esté menos motivada

Arreglar los chatbots requiere psicología, no tecnología

Arreglar los chatbots requiere psicología, no tecnología

Los chatbots dotados de IA se están convirtiendo en el nuevo estándar para la gestión de consultas, reclamaciones y devoluciones de productos, pero los clientes se alejan de las interacciones con los chatbots sintiéndose decepcionados. La mayoría de las empresas intentan solucionar este problema diseñando mejores modelos de IA en sus chatbots, pensando que si los modelos suenan lo suficientemente humanos, el problema acabará desapareciendo. Pero esta suposición es errónea. Esto se debe a que el problema de fondo no es tecnológico. Es psicológico: Hay que engatusar a la gente para que vea a los chatbots como un medio positivo de interacción. Los autores han analizado recientemente las últimas investigaciones sobre chatbots e interacciones IA-humanos, y en este artículo presentan seis acciones probadas que puede llevar a cabo al desplegar su chatbot de IA para impulsar la satisfacción, la percepción positiva de la marca y las ventas.

Investigación: ¿Está penalizando a sus mejores empleados por desconectar?

Investigación: ¿Está penalizando a sus mejores empleados por desconectar?

Para combatir el creciente desgaste del personal, muchas empresas han defendido programas de bienestar y han fomentado un enfoque renovado en el equilibrio entre la vida laboral y personal. Pero un nuevo estudio descubrió que incluso cuando los líderes reconocían que desvincularse del trabajo aumenta el bienestar de los empleados y mejora su rendimiento laboral, los directivos seguían penalizando a los empleados que adoptaban estos comportamientos cuando optaban a un ascenso o estaban siendo considerados para un nuevo puesto. Basándose en sus conclusiones, los investigadores ofrecen sugerencias para ayudar a las empresas a crear políticas y construir una cultura que proteja los límites de los trabajadores, evite el agotamiento y recompense el trabajo fuerte.