Cómo ampliar la IA en su organización
La IA se está integrando en los productos y procesos de prácticamente todos los sectores. Sin embargo, implementar la IA a gran escala sigue siendo un tema frustrante y sin resolver para la mayoría de las organizaciones. Las empresas pueden ayudar a garantizar el éxito de sus esfuerzos de IA ampliando los equipos, los procesos y las herramientas de una manera integrada y coherente. Todo esto forma parte de una disciplina emergente llamada MLOps.
••• La IA ya no es exclusiva para empresas nativas digitales como Amazon, Netflix o Uber. Dow Chemical Company utilizó recientemente el aprendizaje automático para[acelerar](https://www.automation.com/en-us/articles/april-2021/dow-futureedge-50-award-predictive-intelligence) su proceso de I+D para las formulaciones de poliuretano 200 000 veces, de 2 a 3 meses a solo 30 segundos. Y Dow no está solo. Un reciente[índice](https://www2.deloitte.com/content/dam/Deloitte/tr/Documents/process-and-operations/TG_Google%20Machine%20Learning%20report_Digital%20Final.pdf#page=32) de Deloitte muestra cómo las empresas de todos los sectores están poniendo en práctica la IA para impulsar el valor empresarial. Como era de esperar, Gartner[predice](https://www.gartner.com/en/newsroom/press-releases/2020-06-22-gartner-identifies-top-10-data-and-analytics-technolo) que más del 75% de las organizaciones pasarán de poner a prueba las tecnologías de IA a ponerlas en funcionamiento antes de finales de 2024, que es donde comienzan los verdaderos desafíos. La IA es más valiosa cuando se pone en funcionamiento a escala. Para los líderes empresariales que desean maximizar el valor empresarial mediante la IA, la escala se refiere a la profundidad y el alcance de la integración de la IA en los principales productos o servicios y procesos empresariales de una organización. Lamentablemente, escalar la IA en este sentido no es fácil. Poner en producción uno o dos modelos de IA es muy diferente a gestionar toda una empresa o un producto con IA. Y a medida que la IA se amplía, los problemas también pueden ampliarse (y suelen hacerlo). Por ejemplo, una empresa financiera perdió 20 000 dólares en 10 minutos porque uno de sus modelos de aprendizaje automático empezó a comportarse mal. Sin visibilidad del problema fundamental y sin forma de identificar cuál de sus modelos funcionaba mal, a la empresa no le quedó más remedio que desconectarlo. Todos los modelos se redujeron a versiones mucho anteriores, lo que degradó gravemente el rendimiento y borró semanas de esfuerzo. Las organizaciones que se toman en serio la IA han empezado a adoptar una nueva disciplina, que se define vagamente como «MLOP» u operaciones de aprendizaje automático. El mLOps busca establecer las mejores prácticas y herramientas para facilitar el desarrollo y la operacionalización de la IA de forma rápida, segura y eficiente. Cuando se implementan correctamente, las MLOP pueden acelerar significativamente la velocidad de comercialización. Implementar las MLOP requiere invertir tiempo y recursos en tres áreas clave: procesos, personas y herramientas. ## Procesos: estandarice la forma en que crea y pone en funcionamiento los modelos. Crear los modelos y algoritmos que impulsan la IA es un proceso creativo que requiere iteraciones y refinamientos constantes. Los científicos de datos preparan los datos, crean características, entrenan el modelo, ajustan sus parámetros y validan que funcione. Cuando el modelo está listo para su despliegue, los ingenieros de software y TI lo ponen en funcionamiento y supervisan la producción y el rendimiento de forma continua para garantizar que el modelo funciona de forma sólida en producción. Por último, un equipo de gobierno debe supervisar todo el proceso para garantizar que el modelo de IA que se está creando sea sólido desde el punto de vista de la ética y el cumplimiento. Dada la complejidad que implica, el primer paso para hacer que la IA escale es la estandarización: una forma de crear modelos de forma repetible y un proceso bien definido para ponerlos en práctica. De esta manera, crear la IA es muy parecido a la fabricación: el primer artilugio que crea una empresa siempre es a medida; escalar la fabricación para producir muchos artilugios y, luego, optimizar su diseño de forma continua es donde un proceso de desarrollo y fabricación repetible se hace esencial. Pero con la IA, muchas empresas tienen problemas con este proceso. Es fácil entender por qué. Los procesos personalizados están (por naturaleza) plagados de ineficiencia. Sin embargo, muchas organizaciones caen en la trampa de reinventar la rueda cada vez que ponen en marcha un modelo. En el caso de la empresa financiera mencionada anteriormente, la falta de una forma repetible de supervisar el rendimiento del modelo provocó fallos costosos y lentos de solucionar. Procesos únicos como estos pueden causar grandes problemas una vez que los modelos de investigación se pongan en producción. La parte de estandarización de procesos de los MLOps ayuda a agilizar el desarrollo, la implementación y el perfeccionamiento de los modelos, lo que permite a los equipos desarrollar las capacidades de IA de una manera rápida pero responsable. Para estandarizar, las organizaciones deberían definir en colaboración un proceso «recomendado» para el desarrollo y la operacionalización de la IA y proporcionar herramientas que apoyen la adopción de ese proceso. Por ejemplo, la organización puede desarrollar un conjunto estándar de bibliotecas para validar los modelos de IA y fomentar así las pruebas y la validación coherentes. La estandarización en los puntos de transferencia del ciclo de vida de la IA (por ejemplo, desde la ciencia de los datos hasta la TI) es particularmente importante, ya que permite a los diferentes equipos trabajar de forma independiente y centrarse en sus competencias principales sin preocuparse por los cambios inesperados y disruptivos. Las herramientas de MLOps, como los catálogos de modelos y las tiendas de funciones, pueden admitir esta estandarización. ## Personas: Deje que los equipos se centren en lo que mejor hacen. El desarrollo de la IA solía ser responsabilidad de un equipo de «ciencia de datos» de IA, pero crear la IA a escala no lo puede producir un solo equipo, sino que se requieren una variedad de habilidades únicas y muy pocas personas las poseen todas. Por ejemplo, un científico de datos crea modelos algorítmicos que pueden predecir el comportamiento de forma precisa y coherente, mientras que un ingeniero de aprendizaje automático optimiza, empaqueta e integra los modelos de investigación en los productos y supervisa su calidad de forma continua. Una persona rara vez desempeña bien ambas funciones. El cumplimiento, la gobernanza y el riesgo requieren un conjunto de habilidades aún más distintas. A medida que la IA se amplía, se necesita cada vez más experiencia. Para ampliar la IA con éxito, los líderes empresariales deberían crear y potenciar equipos especializados y dedicados que puedan centrarse en prioridades estratégicas de gran valor que solo su equipo puede cumplir. Deje que los científicos de datos se dediquen a la ciencia de los datos; deje que los ingenieros se encarguen de la ingeniería; deje que la TI se centre en la infraestructura. Han surgido dos estructuras de equipo a medida que las organizaciones amplían su presencia en IA. En primer lugar, está el «modelo cápsula», en el que el desarrollo de productos de IA lo lleva a cabo un equipo pequeño formado por un científico de datos, un ingeniero de datos y un ingeniero de aprendizaje automático o de software. El segundo, el modelo de «centro de excelencia» o COE, es cuando la organización «agrupa» a todos los expertos en ciencia de datos, que luego son asignados a diferentes equipos de productos en función de las necesidades y la disponibilidad de los recursos. Ambos enfoques se han implementado con éxito y tienen diferentes ventajas y desventajas. El modelo pod es el más adecuado para una ejecución rápida, pero puede generar silos de conocimiento, mientras que el modelo COE tiene la desventaja opuesta. A diferencia de la ciencia de datos y la TI, los equipos de gobierno son más eficaces cuando están fuera de los grupos y los COE. ## Herramientas: elija herramientas que fomenten la creatividad, la velocidad y la seguridad. Por último, llegamos a las herramientas. Dado que intentar estandarizar la producción de IA y ML es un proyecto relativamente nuevo, el ecosistema de herramientas de ciencia de datos y aprendizaje automático está muy fragmentado: para crear un modelo único, un científico de datos trabaja con aproximadamente una docena de herramientas diferentes y altamente especializadas y las une. Por otro lado, la TI o la gobernanza utilizan un conjunto de herramientas completamente diferente y estas distintas cadenas de herramientas no se comunican fácilmente entre sí. Como resultado, es fácil hacer un trabajo único, pero crear un flujo de trabajo sólido y repetible es difícil. En última instancia, esto limita la velocidad a la que la IA puede ampliarse en toda la organización. Un conjunto disperso de herramientas puede llevar a que los productos de IA lleguen al mercado durante mucho tiempo y a que se creen productos de IA sin la supervisión adecuada. Pero a medida que la IA se extiende por toda la organización, la colaboración se hace más fundamental para el éxito. Una iteración más rápida exige la contribución continua de las partes interesadas a lo largo del ciclo de vida del modelo, y encontrar la herramienta o plataforma correcta es un paso esencial. Las herramientas y plataformas que respaldan la IA a gran escala deben fomentar la creatividad, la velocidad y la seguridad. Sin las herramientas adecuadas, una empresa tendrá dificultades para defenderlas todas al mismo tiempo. Al elegir las herramientas de MLOps para su organización, un líder debería tener en cuenta: ### Interoperabilidad. La mayoría de las veces, ya habrá alguna infraestructura de IA existente. Para reducir los problemas a la hora de adoptar una nueva herramienta, elija una que interopere con el ecosistema existente. Por el lado de la producción, los servicios modelo deben funcionar con las herramientas de DevOps ya aprobadas por el departamento de TI (por ejemplo, herramientas de registro, supervisión y gobierno). Asegúrese de que las nuevas herramientas funcionen con el ecosistema de TI existente o que puedan ampliarse fácilmente para ofrecer este soporte. Para las organizaciones que se mudan de la infraestructura local a la nube, busque herramientas que funcionen en un entorno híbrido, ya que la migración a la nube suele llevar varios años. ### Ya sea apto tanto para la ciencia de datos como para la TI. Las herramientas para escalar la IA tienen tres grupos de usuarios principales: los científicos de datos que crean modelos, los equipos de TI que mantienen la infraestructura de IA y ejecutan los modelos de IA en producción, y los equipos de gobierno que supervisan el uso de los modelos en escenarios regulados. De ellas, la ciencia de datos y la TI suelen tener necesidades opuestas. Para que los científicos de datos puedan hacer su mejor trabajo, una plataforma debe dejar de estorbar y ofrecerles la flexibilidad de utilizar las bibliotecas que elijan y trabajar de forma independiente sin necesidad de un soporte constante de TI o ingeniería. Por otro lado, la TI necesita una plataforma que imponga restricciones y garantice que las implementaciones de producción sigan rutas predefinidas y aprobadas por TI. Una plataforma mLOps ideal puede hacer ambas cosas. Con frecuencia, este desafío se resuelve eligiendo una plataforma para la creación de modelos y otra plataforma para ponerlos en práctica. ### Colaboración. Como se ha descrito anteriormente, la IA es una iniciativa de múltiples partes interesadas. Como resultado, una herramienta de MLOps debe facilitar a los científicos de datos trabajar con los ingenieros y viceversa, y que ambas personas trabajen con la gobernanza y el cumplimiento. En el año de la gran renuncia, es crucial compartir conocimientos y garantizar la continuidad empresarial ante la pérdida de empleados. En el desarrollo de productos de IA, si bien la velocidad de la colaboración entre la ciencia de datos y la TI determina la velocidad de comercialización, la colaboración en la gobernanza garantiza que el producto que se está creando sea uno que _debería construirse_. ### Gobernanza. Con la IA y el aprendizaje automático, la gobernanza se vuelve mucho más fundamental que en otras aplicaciones. La gobernanza de la IA no se limita solo a la seguridad o al control de acceso de una aplicación. Es responsable de garantizar que una solicitud esté alineada con el código ético de la organización, que la solicitud no esté sesgada hacia un grupo protegido y que se pueda confiar en las decisiones que toma la aplicación de IA. Como resultado, se hace esencial que cualquier herramienta de MLOps incorpore prácticas para una IA responsable y ética, incluidas capacidades como las listas de verificación «previas al lanzamiento» para el uso responsable de la IA, la documentación de los modelos y los flujos de trabajo de gobierno. . . . En la carrera por ampliar la IA y obtener más valor empresarial a través de la tecnología predictiva, los líderes siempre buscan formas de adelantarse a los demás. Los atajos de IA, como los modelos previamente entrenados y las API con licencia, pueden resultar valiosos por derecho propio, pero ampliar la IA para obtener el máximo ROI exige que las organizaciones se centren en cómo operacionalizan la IA. Las empresas con los mejores modelos o los científicos de datos más inteligentes no son necesariamente las que van a triunfar; el éxito recaerá en las empresas que puedan implementar y escalar de forma inteligente para aprovechar todo el potencial de la IA.