Usar la cadena de bloques para fomentar la confianza de los clientes en la IA
por Scott Zoldi, Jordan T. Levine

Si las organizaciones quieren obtener beneficios empresariales reales de sus inversiones en IA, los clientes tienen que confiar en ella. La desconfianza social sistémica en la IA solo puede disolverse cuando se pueda responder a las preguntas de los clientes, los reguladores y otras partes pertinentes sobre el funcionamiento de esta tecnología. El uso de la rendición de cuentas basada en la cadena de bloques proporciona una vía operativa y alcanzable hacia la rendición de cuentas y la aplicabilidad. FICO desarrolló una cadena de bloques privada que automatizaba la documentación y los estándares en el desarrollo de modelos. Este enfoque aceleró su lanzamiento al mercado con la innovación analítica y de inteligencia artificial, pero también ayudó a mantener los nuevos modelos en producción; la cadena de bloques ha reducido los problemas de soporte y las retiradas de modelos en más de un 90%. Hacer que este sistema funcionara era menos un desafío tecnológico que un desafío personal. Aprendieron que era importante empezar por los estándares y, luego, desarrollar la tecnología; que hacer que el sistema fuera fácil de usar no era negociable; que era esencial repetir para obtener ganancias rápidas; que tenían que crear repositorios para almacenar grandes activos de IA en un almacenamiento alternativo; y que necesitaban equipos de TI capaces para gestionar las exigencias de mantenimiento de este sistema.
En un período de tiempo notablemente corto, organizaciones de todos los sectores han desplegado la inteligencia artificial (IA) para tomar decisiones que afectan a la vida diaria de las personas. Desde La IA se puede caracterizar como «un espejo que refleja nuestros prejuicios y defectos morales», a veces esta práctica resulta en desafortunado e incluso trágico errores. Y el sesgo es solo una de las muchas razones por las que la IA es considerada una «caja negra» con un problema de confianza. El año pasado, Pew Research descubrió que el 52% de los estadounidenses son más preocupado que entusiasmado sobre la IA en la vida diaria, en comparación con solo el 10% que afirma estar más entusiasmado que preocupado.
Está claro que la IA tiene que demostrar que es una tecnología fiable. Para ello, las empresas que utilizan la IA deben garantizar la interpretabilidad, la auditabilidad y la aplicabilidad de las decisiones que toman estos modelos analíticos. Interpretabilidad permite entender la tecnología. Auditabilidad permite la rendición de cuentas. Por último, aplicabilidad alivia la duda, dejando la confianza a su paso.
Si las organizaciones quieren obtener beneficios empresariales reales de sus inversiones en IA, los clientes tienen que confiar en ella. La desconfianza social sistémica en la IA solo puede disolverse cuando se pueda responder a las preguntas de los clientes, los reguladores y otras partes pertinentes sobre el funcionamiento de esta tecnología. El uso de la rendición de cuentas basada en la cadena de bloques proporciona una vía operativa y alcanzable hacia la rendición de cuentas y la aplicabilidad.
En FICO, utilizamos la tecnología blockchain para fomentar la confianza de los consumidores y del sector financiero en general en la IA. La cadena de bloques crea un registro inmutable de todos los aspectos del desarrollo del modelo de IA y garantiza que cada acción que se emprenda cumpla con los requisitos y estándares corporativos de una IA responsable. En lugar de indicar desconfianza en los científicos de datos, un sistema blockchain para la gestión de modelos de IA ilustra que la confianza no es una cuestión personal, hay una razón por la que las cosas importantes de la vida tienen contratos. La cadena de bloques no sirve para señalar la culpa; está diseñada para que todos sean honestos, eficientes, seguros y dentro de los estándares. Con las estructuras de gobierno y responsabilidad adecuadas, la innovación de la IA tiene un espacio seguro y abierto para prosperar.
Este artículo presenta un estudio de caso sobre cómo FICO adoptó la gestión del desarrollo de modelos de IA basada en la cadena de bloques, cómo beneficia a la empresa y cómo otras organizaciones pueden adoptar y sacar provecho de este enfoque.
Cuando la cadena de bloques se encontró con la IA
En 2021, el equipo de ciencia de datos de FICO responsable de la IA y la innovación analítica comenzó a utilizar la cadena de bloques para la gobernanza del desarrollo de modelos, una medida que desde entonces ha aportado un valor demostrable. Este equipo proporciona la tecnología principal para las plataformas de software de FICO, incluida la detección de fraudes y las soluciones para la gestión de tarjetas de crédito, y es independiente de la organización de análisis que desarrolla los análisis para la calificación FICO. Ha descubierto que este enfoque no solo ha acelerado nuestro tiempo de comercialización con la IA y la innovación analítica, sino que también ha ayudado a mantener los nuevos modelos en producción; la cadena de bloques ha reducido los problemas de soporte y las retiradas de modelos en más de un 90%. Lo ha hecho ayudando a automatizar el proceso de control de los detalles del desarrollo del modelo que se multiplican rápidamente.
Las semillas de este enfoque se desarrollaron a lo largo de más de una década de trabajo, mientras el equipo trabajaba para documentar y gestionar las innumerables decisiones incrementales que intervienen en el complejo proceso de desarrollo de un modelo: las variables del modelo, el diseño del modelo, los algoritmos, los datos de entrenamiento y prueba utilizados, el modelo sin procesar rasgos latentes, pruebas éticas y pruebas de estabilidad. Este proceso también incluye un enorme elemento humano: los científicos que crean diferentes partes de los conjuntos de variables, participan en la creación de modelos y realizan las pruebas de los modelos. Cada pequeño cambio puede afectar al rendimiento del modelo, al uso responsable y a los resultados de las decisiones.
La solución inicial que encontró el equipo de ciencia de datos fue empezar a utilizar un documento de seguimiento analítico (ATD) para guiar su proceso de desarrollo. Este enfoque, que originalmente figuraba en un documento de Word de una página, detallaba todos los aspectos de los requisitos, el desarrollo y las pruebas de un modelo. La ATD informó sobre una serie de requisitos muy específicos relacionados con el estándar de desarrollo de modelos de IA de FICO. Una vez negociados todos los elementos de la construcción, pasó a ser el documento mediante el que el equipo definió todo el proceso de desarrollo del modelo.
El uso de la ATD cambió las reglas del juego, pero gestionar cientos de voluminosos documentos modelo de ATD y celebrar docenas de reuniones para confirmar que cada modelo cumplía con la norma generaron demasiados gastos administrativos. Así que, en 2021, FICO puso todo el proceso de ATD en una cadena de bloques privada, lo que proporcionó una forma mucho más fácil de crear un registro inmutable de toma de decisiones para cada modelo. La cadena de bloques elimina cualquier confusión sobre los requisitos, los algoritmos utilizados y los criterios de éxito que deben cumplirse, ya que todos se comprometen con la cadena antes de que comience el desarrollo. También enlaza permanentemente a los activos que demuestran el cumplimiento de las normas, exponen las características latentes y determinan si introducen sesgos en el modelo, además de identificar quién trabajó en las funciones latentes, qué pruebas se realizaron, el gerente de aprobación y la aprobación de la dirección.
Es importante destacar que la cadena de bloques no solo produce una lista de verificación de los resultados positivos, sino que también incluye los errores, las correcciones y las mejoras realizadas a lo largo del camino.
Por qué funciona la cadena de bloques
La ATD ha recorrido un largo camino desde los extensos documentos de Word. El enfoque basado en la cadena de bloques de FICO resume cada tarea en una interfaz fácil de usar que se integra en el trabajo diario de los científicos de datos. Un científico inconformista que no quiere usar este método, simplemente no puede. Comprometer cada decisión de desarrollo con la cadena de bloques es simplemente la forma en que se hace el trabajo y un requisito para que se publiquen los modelos.
FICO ha descubierto que el valor empresarial del historial inmutable de la cadena de bloques es enorme. Logramos coherencia en una gran organización mundial de ciencia de datos; el desarrollo de modelos en cientos de activos de análisis de producción cada año es uniforme, lo que minimiza la confusión y el despilfarro.
Reducir el despilfarro es importante, dados los altísimos costes de oportunidad de la pérdida de innovación y los costes muy tangibles del talento para el desarrollo de la IA y los recursos informáticos relacionados. Es un secreto a voces en los servicios financieros que solo una fracción de los modelos de IA desarrollados internamente se ponen en producción, porque nadie está muy seguro de lo que contienen ni de cómo van a funcionar. A 2019 Encuesta de McKinsey & Co. del sector de los servicios financieros descubrió que solo entre el 25 y el 36% de los encuestados habían desplegado la IA en varios casos de uso en sus empresas. Como anécdota, hemos visto cómo esas cifras han mejorado, pero en todo el sector, los activos de IA no utilizados se siguen traduciendo en cientos de millones de dólares en esfuerzos desperdiciados.
En última instancia, FICO sabe por qué funciona la cadena de bloques y por qué no lo hace suceder. No se impide la producción de modelos por la incertidumbre sobre su riesgo o por la falta de artefactos que demuestren el cumplimiento de los estándares de IA responsable de la empresa. Los científicos no utilizan sin darse cuenta los modelos de producción para proyectos de investigación o, lo que es peor, publican experimentos de ciencia de datos «en la naturaleza». ¿Y ese inconformista científico de datos? No se pierde tiempo rechazando el trabajo deshonesto, intencionalmente o no; la cadena de bloques mantiene a los equipos cohesionados, dentro de los estándares y cumpliendo con los requisitos, produciendo de manera eficiente modelos que cumplen con los estándares de calidad y seguridad de FICO. Además de que los problemas de soporte de modelos caen a casi cero, logramos el cumplimiento absoluto y la aplicabilidad de los estándares de desarrollo de modelos de IA, incluso a gran velocidad.
Todo esto es la clave operativa para generar confianza en la IA. Ayuda a FICO a producir productos que cumplan al 100% con nuestros estándares, respaldados por activos sólidos como prueba de trabajo. Esto significa que la experiencia de los consumidores con estas herramientas es coherente con nuestros propios estándares de IA responsable.
Cómo FICO hizo que la cadena de bloques funcionara para la IA
Poner en marcha este sistema no era un problema tecnológico, ante todo. Era un problema de organización y personas. Abordar eso fue seguido de obstáculos tecnológicos y de diseño que había que superar, por supuesto, pero la primera parte fue la más difícil.
Esto es lo que hemos aprendido a lo largo de este proceso.
Los estándares primero, la tecnología después
Sin un estándar de desarrollo de modelos de IA que cumplir, utilizar la cadena de bloques para registrar cada detalle del desarrollo del modelo es inútil. Por desgracia, este primer paso puede ser la parte más difícil del viaje: para establecer estándares corporativos en torno a la IA responsable, habrá que tomar decisiones difíciles sobre lo que se hará y lo que no, incluida la aprobación de los algoritmos que se pueden y no se pueden utilizar, la interpretabilidad de los modelos, las metodologías éticas de las pruebas de IA y el cumplimiento de los requisitos reglamentarios. En FICO, esto implicó un poco de evangelización en torno al objetivo de garantizar resultados analíticos coherentes para todos los clientes, independientemente del arte de los científicos de datos individuales, y nombrar un comité que definiera los estándares de desarrollo e informara a todo el equipo sobre los métodos asociados.
La facilidad de uso no es negociable
En FICO, lograr que los científicos de datos se unieran a la idea de usar el sistema no fue tan difícil. La mayoría de ellos apreciaron la estructura que ofrece, la alineación automática de su trabajo con los estándares de desarrollo de modelos de IA y los enfoques formalizados de la IA responsable, todos los cuales los protegen a ellos y a sus productos de trabajo.
Qué era difícil fue desarrollar la interfaz de usuario (UI) entre los científicos de datos y la cadena de bloques. El desarrollo de la interfaz de usuario consistía en algo más que averiguar en qué campos y botones haría clic el usuario y cuándo; tenía que ayudar a los científicos de datos a hacer el cambio mental de centrarse en el individuo y ser lineal desarrollo en cascada a una mentalidad de equipo en la que varios desarrolladores y evaluadores pudieran hacer su trabajo y validar el de los demás de una manera eficiente y automatizada.
En última instancia, invertimos mucho tiempo y recursos para facilitar a los científicos el uso del sistema de una manera que hiciera hincapié en el compromiso intelectual en lugar de en la engorrosa supervisión, integrando una interfaz de usuario ingeniosa en la forma en que se realiza el trabajo.
Para lograr ese estado final, las organizaciones deben prepararse para pasar por un proceso formal con los documentos de requisitos empresariales y de productos (BRD y PRD). Esto permite alinear las ideas y opiniones de los diseñadores de software sobre la forma en que los usuarios interactuarán con el sistema y el funcionamiento del proceso. Era importante asegurarse de que todos se sintieran escuchados y de que el desarrollo no comenzara hasta que las expectativas en cuanto a la forma, la funcionalidad y el funcionamiento estuvieran alineadas.
Lo más importante para la adopción es que la fricción no fue un resultado aceptable, lo que obligó a la creatividad en el desarrollo de software desde el principio. Por ejemplo, tuvimos que equilibrar el hecho de que los científicos de datos no necesitaran o quisieran conocer la tecnología blockchain con el uso obligatorio de la herramienta basada en ella. Del mismo modo, necesitábamos informes instantáneos sobre el estado de todas las tareas de desarrollo y prueba de modelos sin necesidad de que los científicos de datos crearan informes.
Iterar las victorias rápidas
Luego, prepárese para hacer pruebas de concepto de los primeros diseños para que una versión rápida del sistema funcione y comience a explorar los casos de uso, como el establecimiento de requisitos, las actualizaciones del desarrollo, las actualizaciones de las pruebas, las actualizaciones de validación, el rechazo/la aprobación y cómo restablecer el estado de los requisitos cuando se rechaza un modelo. Debería centrarse especialmente en la forma en que se mide la integridad, ya que no se publica ningún modelo hasta que el desarrollador, el comprobador y el validador cumplan todos los requisitos. ¿Cómo se analizará en la cadena de bloques y se presentará a las partes interesadas?
Mantenga todo unido, para siempre
Ninguna aplicación analítica está hecha realmente; está en constante evolución y no se pueden olvidar los procesos (especialmente para las dependencias). Como punto técnico clave, es importante pensar en los repositorios que almacenarán los grandes activos de IA en un almacenamiento alternativo, con hashes, sumas de control y otros mecanismos que confirmarán que el activo al que se hace referencia en la cadena de bloques es adecuado e incorrupto. Cualquier almacenamiento alternativo debe supervisarse activamente y emitirse alertas si hay actualizaciones o migraciones a otros grupos tecnológicos de la organización.
El mantenimiento afecta de manera diferente
Por último, la realidad general de un sistema de gestión del desarrollo de modelos de IA basado en cadenas de bloques es que se trata de software, software con requisitos de gestión, mantenimiento y actualizaciones de la seguridad y las vulnerabilidades. Los equipos de software de TI se ocupan de estos problemas todos los días para las aplicaciones empresariales, pero con las aplicaciones de desarrollo de IA, los desarrolladores de software necesitan adquirir nuevos conocimientos o asociarse con otros recursos para obtenerlos.
• • •
La confianza puede resultar difícil de alcanzar cuando se trabaja con la IA. Es comprensible que estas nuevas y poderosas herramientas tengan que superar un listón muy alto. Pero la desconfianza sistémica en la IA solo puede disiparse cuando los clientes, los reguladores y otras partes pertinentes confían en el funcionamiento de la tecnología y en que pueden confiar en que modelos específicos funcionan como se supone que deben hacerlo. Eso es lo que puede ofrecer este enfoque basado en la cadena de bloques: responsabilidad, transparencia y aplicabilidad. Al mantener la honestidad de todos, los usuarios tienen motivos para confiar en estas nuevas y poderosas herramientas.
Artículos Relacionados

Investigación: La IA generativa hace que la gente sea más productiva y esté menos motivada

Arreglar los chatbots requiere psicología, no tecnología
Los chatbots dotados de IA se están convirtiendo en el nuevo estándar para la gestión de consultas, reclamaciones y devoluciones de productos, pero los clientes se alejan de las interacciones con los chatbots sintiéndose decepcionados. La mayoría de las empresas intentan solucionar este problema diseñando mejores modelos de IA en sus chatbots, pensando que si los modelos suenan lo suficientemente humanos, el problema acabará desapareciendo. Pero esta suposición es errónea. Esto se debe a que el problema de fondo no es tecnológico. Es psicológico: Hay que engatusar a la gente para que vea a los chatbots como un medio positivo de interacción. Los autores han analizado recientemente las últimas investigaciones sobre chatbots e interacciones IA-humanos, y en este artículo presentan seis acciones probadas que puede llevar a cabo al desplegar su chatbot de IA para impulsar la satisfacción, la percepción positiva de la marca y las ventas.

Investigación: ¿Está penalizando a sus mejores empleados por desconectar?
Para combatir el creciente desgaste del personal, muchas empresas han defendido programas de bienestar y han fomentado un enfoque renovado en el equilibrio entre la vida laboral y personal. Pero un nuevo estudio descubrió que incluso cuando los líderes reconocían que desvincularse del trabajo aumenta el bienestar de los empleados y mejora su rendimiento laboral, los directivos seguían penalizando a los empleados que adoptaban estos comportamientos cuando optaban a un ascenso o estaban siendo considerados para un nuevo puesto. Basándose en sus conclusiones, los investigadores ofrecen sugerencias para ayudar a las empresas a crear políticas y construir una cultura que proteja los límites de los trabajadores, evite el agotamiento y recompense el trabajo fuerte.