Los riesgos de empoderar a los «científicos de datos ciudadanos»

Las nuevas herramientas permiten a las organizaciones invitar y aprovechar a personas que no son científicos de datos (por ejemplo, expertos en datos de dominio, miembros del equipo muy familiarizados con los procesos empresariales o directores de varias unidades de negocio) para impulsar sus esfuerzos de IA. Empoderar a estos «científicos de datos ciudadanos» internos tiene ventajas, pero también riesgos. Las organizaciones que estén pensando en implementar estas herramientas deberían tomar cinco medidas: 1) ofrecer formación continua, 2) dar visibilidad a casos de uso similares en toda la organización, 3) crear un programa de mentores expertos, 4) hacer que expertos en IA verifiquen todos los proyectos y 5) proporcionar recursos de inspiración ajenos a su organización.

••• Hasta hace poco, la comprensión predominante de la inteligencia artificial (IA) y su subconjunto del aprendizaje automático (ML) era que los científicos de datos e ingenieros de IA expertos eran las únicas personas que podían impulsar la estrategia y la implementación de la IA. Era un punto de vista razonable. Al fin y al cabo, la ciencia de los datos en general, y la IA en particular, es un campo técnico que requiere, entre otras cosas, una experiencia que requiere muchos años de educación y formación para obtenerla. Sin embargo, si avanzamos rápidamente hasta el día de hoy, la opinión popular está cambiando rápidamente. La llegada del «aprendizaje automático», un software que proporciona métodos y procesos para crear códigos de aprendizaje automático, ha llevado a que se pida «democratizar» la ciencia de datos y la IA. La idea es que estas herramientas permitan a las organizaciones invitar y aprovechar las personas que no son científicos de datos (por ejemplo, expertos en datos de dominio, miembros del equipo muy familiarizados con los procesos empresariales o directores de varias unidades de negocio) para impulsar sus esfuerzos de IA. En teoría, hacer que la ciencia de datos y la IA sean más accesibles para las personas que no son científicos de datos (incluidos los tecnólogos que no son científicos de datos) puede tener mucho sentido desde el punto de vista empresarial. Las unidades de ciencia de datos centralizadas y aisladas pueden dejar de apreciar la amplia gama de datos de la organización y los problemas empresariales que puede resolver, especialmente en el caso de las organizaciones multinacionales con cientos o miles de unidades de negocio distribuidas en varios continentes. Además, los que están en la maleza de las unidades de negocio saben los datos que tienen, los problemas que intentan resolver y pueden, con formación, ver cómo se pueden aprovechar esos datos para resolver esos problemas. Las oportunidades son importantes. En resumen, una gran visión empresarial, aumentada con el aprendizaje automático, puede conllevar una gran responsabilidad analítica. Al mismo tiempo, no podemos olvidar que la ciencia de datos y la IA son, de hecho, muy difíciles, y hay un viaje muy largo desde tener datos hasta resolver un problema. En este artículo, expondremos las ventajas y las desventajas de integrar a los científicos de datos ciudadanos en su estrategia de IA y sugeriremos métodos para optimizar el éxito y minimizar los riesgos. ## Los riesgos de democratizar la IA en su organización Poner su estrategia de IA en manos de los novatos conlleva al menos tres riesgos. En primer lugar, el aprendizaje automático no resuelve las lagunas de conocimientos, formación y experiencia, lo que aumenta la probabilidad de fracaso. Cuando las utilizan científicos de datos cualificados, las herramientas de aprendizaje automático pueden ayudar en gran medida a aumentar la eficiencia, por ejemplo, al escribir código rápidamente que un científico de datos pueda validar. Pero hay todo tipo de formas en las que una IA puede ir de lado técnica o funcionalmente, y los que no son científicos de datos con el aprendizaje automático pueden caer directamente en esos escollos. Por ejemplo, una de las cuestiones para garantizar el éxito de un proyecto de IA es la capacidad de gestionar adecuadamente los conjuntos de datos de entrenamiento desequilibrados. Se debe muestrear con mucho cuidado un conjunto de datos de transacciones que contenga pocos casos de transacciones sospechosas (digamos un 1%) para que pueda utilizarse como datos de entrenamiento. Sin embargo, el aprendizaje automático es una herramienta eficiente. No puede decirle cómo resolver ese problema, por ejemplo, submuestreando, sobremuestreando o adaptando el muestreo de datos dado el conocimiento del dominio. Además, esto no es algo que su director de marketing sepa cómo gestionar. En cambio, se basa plenamente en la experiencia de un científico de datos experimentado. Otros riesgos de fracaso en este ámbito también son importantes, especialmente los relacionados con la creación de un modelo que, en última instancia, es inútil. Por ejemplo, el modelo se crea con entradas que no están disponibles en tiempo de ejecución, o el modelo sobreajusta o no ajusta los datos, o el modelo se probó con un punto de referencia incorrecto. Y así sucesivamente. En segundo lugar, la IA corre infame riesgos éticos, reputacionales, reglamentarios y legales con los que los expertos en IA, y mucho menos los novatos en IA, no están familiarizados. Es más, aunque sea consciente de esos riesgos, el novato en la IA no sabrá cómo identificar esos riesgos ni diseñar las estrategias y tácticas adecuadas para mitigarlos. En otras palabras, los científicos de datos ciudadanos aumentarán estos riesgos y las marcas pondrán su reputación en manos de aficionados, lo que podría tener graves implicaciones para los clientes, clientes y socios de la organización. Además, las barandillas que las empresas han construido para mitigar este riesgo se crearon pensando en los científicos de datos tradicionales. Si bien muchas organizaciones están creando estructuras de gobierno, procesos y políticas de riesgo ético o «IA responsable», y otras pronto se unirán a su ejemplo en respuesta a las nuevas regulaciones de la Unión Europea ([La Ley de IA de la UE](https://artificialintelligenceact.eu/)) y Canadá ([Ley de IA y datos](https://www.justice.gc.ca/eng/csj-sjc/pl/charter-charte/c27_1.html#:~:text=The%20Artificial%20Intelligence%20and%20Data%20Act%20aims%20to%20protect%20individuals,with%20adverse%20impacts%20on%20individuals.)) que se implementarán en los próximos años: tendrán que ampliar esa gobernanza para incluir la IA creada por personas que no son científicos de datos. Dado que detectar estos riesgos no solo requiere experiencia técnica, sino también experiencia ética, reputacional y reglamentaria, no es tarea fácil. En tercer lugar, en relación con las dos cosas anteriores, hacer que los novatos en IA dediquen tiempo a desarrollar la IA puede provocar una pérdida de esfuerzos y recursos internos en proyectos que es mejor dejar en la sala de montaje. Y lo que es peor, los modelos defectuosos que se utilizan pueden provocar importantes impactos negativos imprevistos. ## Cómo preparar su organización para la IA democratizada Toda la IA[debería ser investigado](/2020/10/a-practical-guide-to-building-ethical-ai) para los riesgos técnicos, éticos, reputacionales, reglamentarios y legales antes de pasar a la producción, sin excepción. Si bien los modelos creados por científicos de datos ciudadanos conllevan más riesgos, eso no significa que el enfoque de aprendizaje automático no pueda funcionar. Más bien, para las organizaciones que determinen que es una parte eficaz de su estrategia de IA, la clave es crear, mantener y escalar la supervisión y la orientación adecuadas. Estas son cinco cosas que esas organizaciones pueden hacer para aumentar sus probabilidades de éxito. ### Ofrecer educación continua. Las mejores prácticas y directrices publicadas permiten a los científicos de datos ciudadanos encontrar respuestas a sus preguntas y seguir aprendiendo. Por ejemplo, hay prácticas recomendadas relacionadas con los problemas mencionados anteriormente: conjuntos de datos desequilibrados, modelos sobreajustados o insuficientes, etc. Esas mejores prácticas deberían estar disponibles internamente y ser consultables por cualquier persona que cree un modelo. Se puede entregar de varias formas, incluida una wiki interna o una aplicación similar. ### Proporcione visibilidad a casos de uso similares en la organización. Una de las herramientas educativas más poderosas que puede ofrecer a quienes no son científicos de datos son los ejemplos o estudios de casos que pueden utilizar como plantillas para sus propios proyectos. De hecho, esos otros proyectos pueden tener recursos que el equipo pueda utilizar, por ejemplo, modelos de PNL listos para usar, una metodología modelo utilizada para resolver un problema, etc. Esto tiene la ventaja añadida de acelerar la obtención de valor y evitar la duplicación del trabajo y, por lo tanto, el desperdicio de recursos. De hecho, cada vez más empresas invierten en herramientas de inventario para buscar y reutilizar varios activos de IA, incluidos modelos, funciones y métodos novedosos de aprendizaje automático (por ejemplo, un tipo específico de método de agrupamiento en clústeres). ### Cree un programa de mentores expertos para los novatos en IA. Esto debería adaptarse al proyecto de modo que proporcione una orientación específica para cada problema. Esto también incluye la posibilidad de hacer que un experto examine una idea de IA al principio de la fase de descubrimiento del proyecto, a fin de evitar errores comunes o expectativas poco realistas sobre lo que la IA puede ofrecer. Quizás lo más importante aquí sea determinar si los datos de los que dispone la organización o la unidad de negocio son suficientes para formar un modelo eficaz y relevante. De lo contrario, un mentor puede ayudarlo a determinar qué tan difícil sería adquirir los datos necesarios de otra unidad de negocio (que puede almacenar los datos de una manera que dificulta su extracción y uso) o de un tercero. Lo ideal es que los mentores participen durante todo el ciclo de vida de los productos de IA, desde la fase conceptual hasta el mantenimiento del modelo. En las primeras etapas, los mentores pueden ayudar a los equipos a evitar dificultades importantes y a garantizar que se desarrolle una hoja de ruta sólida. En etapas posteriores, pueden desempeñar un papel más táctico, como cuando el equipo necesita orientación con un modelo desplegado que no funciona tan bien como se esperaba. De hecho, esta función también puede resultar muy útil para científicos de datos con experiencia. Tanto los científicos de datos novatos como los expertos pueden beneficiarse de tener una caja de resonancia experta. Es importante hacer hincapié en que, potencialmente, se necesitan dos tipos de mentores: uno para resolver los riesgos técnicos y empresariales y otro para garantizar el cumplimiento de la ética de la IA o un programa de IA responsable. ### Compruebe todos los proyectos realizados por expertos antes de que la IA entre en producción. La tutoría puede desempeñar un papel crucial, pero al final del día, expertos deben evaluar y aprobar todos los modelos y las soluciones en las que están integrados para su despliegue. Lo ideal sería que lo realizaran dos juntas de revisión distintas. Una junta debe estar compuesta por tecnólogos. El[otra placa también debería incluir](/2022/07/why-you-need-an-ai-ethics-committee) tecnólogos, pero deberían estar compuestos principalmente por personas del riesgo, el cumplimiento, la legislación y la ética. ### Proporcione recursos educativos e inspiradores ajenos a su organización. Cualquier grupo de cualquier organización puede sufrir de pensamiento grupal o simplemente de falta de imaginación. Una forma eficaz de salir de eso es fomentar y proporcionar los recursos para que todos los que crean modelos de IA asistan a conferencias y cumbres sobre la IA, en las que se ponga de manifiesto la creatividad que utiliza la IA en todos los sectores y unidades de negocio. Puede que encuentren una solución que quieran conseguir, pero lo que es más importante, pueden ver una solución que los inspire a crear algo similar internamente. ### . . . La IA está en pañales. Las organizaciones tratan continuamente de determinar cómo utilizar la IA y si deben utilizarla, sobre todo en un contexto en el que se duda de su fiabilidad. Tanto si confía su estrategia de IA a los novatos en la IA como si no, seguir estos pasos garantizará un enfoque disciplinado de la IA, maximizará los beneficios que la IA puede aportar y minimizará los posibles riesgos. En pocas palabras, seguir estos cinco pasos debería formar parte de la higiene básica de la IA. Democratizar o no democratizar la IA depende de usted.