Eliminar los sesgos en cada etapa de su proceso de desarrollo de la IA

La mitigación de sesgos es un proceso bastante técnico, en el que se pueden implementar ciertas técnicas según la etapa del proceso de aprendizaje automático: preprocesamiento, procesamiento y posprocesamiento. Cada uno ofrece una oportunidad única de reducir el sesgo subyacente y crear una tecnología que sea honesta y justa para todos. Los líderes deben dar prioridad a analizar más de cerca los modelos y las técnicas para abordar los sesgos en cada una de estas etapas a fin de identificar la mejor manera de implementar los modelos en su tecnología. En última instancia, no hay forma de eliminar por completo el sesgo de la IA, pero es responsabilidad del sector colaborar y ayudar a mitigar su presencia en la tecnología del futuro. Dado que la IA desempeña un papel cada vez más importante en nuestras vidas y con tantas promesas para la innovación futura, es necesario que reconozcamos y abordemos los prejuicios en nuestra tecnología y en nuestra sociedad.

••• La IA lleva mucho tiempo permitiendo la innovación, con impactos grandes y pequeños. De[Música generada por la IA](https://www.theverge.com/2018/8/31/17777008/artificial-intelligence-taryn-southern-amper-music), a[mejorar la experiencia del ventilador remoto](https://www.wsj.com/articles/ai-cloud-aim-to-enhance-the-u-s-open-fan-experience-11598866201) en el Abierto de los Estados Unidos, para[gestión de pacientes con coronavirus](https://www.technologyreview.com/2020/04/23/1000410/ai-triage-covid-19-patients-health-care/) en los hospitales, parece que el futuro no tiene límites. Sin embargo, en los últimos meses, las organizaciones de todos los sectores se han enfrentado a la realidad de la COVID-19 y a la creciente ansiedad por las cuestiones de justicia social, lo que ha llevado a las empresas a tener en cuenta las áreas en las que se necesita más innovación y mejores procesos. En la industria de la IA, específicamente, las organizaciones tienen que asumir su papel de garantizar un mundo más justo y menos sesgado. Ha sido[bien establecido](/insight-center/ai-and-bias) que los modelos de aprendizaje automático y los sistemas de IA pueden tener sesgos intrínsecos, algunos más que otros, un resultado que se atribuye más comúnmente a los datos que se utilizan para entrenarlos y desarrollarlos. De hecho, los investigadores llevan años trabajando en formas de abordar y mitigar los sesgos. Y a medida que la industria mira hacia el futuro, es vital arrojar luz sobre los distintos enfoques y técnicas que ayudarán a crear modelos más justos y precisos. La mitigación de sesgos es un proceso bastante técnico, en el que se pueden implementar ciertas técnicas según la[escenario](https://krvarshney.github.io/pubs/MahoneyVH2020.pdf) en la cartera de aprendizaje automático: preprocesamiento (preparar los datos antes de crear y entrenar modelos), en proceso(modificaciones en los algoritmos durante la fase de entrenamiento), y posprocesamiento(aplicar técnicas después de procesar los datos de entrenamiento). Cada uno ofrece una oportunidad única de reducir el sesgo subyacente y crear una tecnología que sea honesta y justa para todos. Los líderes deben dar prioridad a analizar más de cerca los modelos y las técnicas para abordar los sesgos en cada una de estas etapas a fin de identificar la mejor manera de implementar los modelos en su tecnología. ### **Preprocesamiento** En primer lugar, tenemos que abordar los datos de entrenamiento. Estos datos se utilizan para desarrollar modelos de aprendizaje automático y, a menudo, es donde se filtra el sesgo subyacente. El sesgo se puede introducir mediante la selección o el muestreo de los propios datos de entrenamiento. Esto puede implicar la exclusión involuntaria de ciertos grupos, de modo que cuando el modelo resultante se aplique a estos grupos, la precisión sea inevitablemente inferior a la de los grupos que se incluyeron en los datos de entrenamiento. Además, los datos de entrenamiento suelen requerir que se usen etiquetas para «enseñar» el modelo de aprendizaje automático durante el entrenamiento. Estas etiquetas suelen provenir de humanos, lo que, por supuesto, corre el riesgo de introducir sesgos. En el caso de los datos de las etiquetas en particular, es crucial garantizar que haya una diversidad de datos demográficos en los etiquetadores humanos para garantizar que no se infiltren sesgos inconscientes. [Equidad contrafáctica](https://www.turing.ac.uk/research/research-projects/counterfactual-fairness) es una técnica que utilizan los científicos para garantizar que los resultados sean los mismos tanto en el mundo real como en un «mundo contrafáctico», en el que las personas pertenecen a un grupo demográfico completamente diferente. Un buen ejemplo de lo que esto es valioso son las admisiones a la universidad. Supongamos que William de Los Ángeles, que es blanco, y Barack de Chicago, que es afroamericano, tienen un GPA y puntajes en los exámenes similares. ¿El modelo procesa los datos de la misma manera si se intercambia información demográfica? A la hora de predecir los resultados o tomar decisiones, por ejemplo, quién recibirá la última carta de aceptación universitaria del año, los datos de formación y los modelos resultantes deben examinarse y probarse cuidadosamente antes de implementarlos por completo. Es especialmente importante evaluar la variación en el rendimiento en función de factores sensibles, como la raza y el género. ### **En proceso** Al entrenar un modelo de aprendizaje automático, los modelos de procesamiento ofrecen oportunidades únicas para fomentar la imparcialidad y utilizar la regularización para abordar los sesgos. [Adversarial](https://towardsdatascience.com/reducing-bias-from-models-built-on-the-adult-dataset-using-adversarial-debiasing-330f2ef3a3b4) se pueden aplicar técnicas de entrenamiento para mitigar los sesgos, en las que el modelo de aprendizaje automático se entrena conjuntamente para minimizar simultáneamente los errores en el objetivo principal (por ejemplo, confirmar o rechazar la admisión a la universidad) y, al mismo tiempo, penalizar la capacidad de otra parte del modelo de predecir alguna categoría delicada (por ejemplo, la raza). Mi empresa llevó a cabo recientemente[investigación](https://www.isca-speech.org/archive/Interspeech_2019/pdfs/1708.pdf) sobre los enfoques de eliminación de sesgos para examinar los sesgos de género en el reconocimiento de las emociones del habla. Nuestra investigación descubrió que se puede lograr una precisión de modelo más justa y consistente mediante la aplicación de una técnica sencilla de entrenamiento de eliminación de sesgos. En este caso, comparamos un enfoque vanguardista del entrenamiento de adversarios con un enfoque sin eliminación de sesgos. Sin ningún tipo de reducción de sesgos, descubrimos que la precisión del modelo de activación emocional es cada vez menor en las muestras de audio de las mujeres en comparación con las de los hombres. Sin embargo, mediante la aplicación de una modificación simple a la[término de error](https://www.investopedia.com/terms/e/errorterm.asp#:~:text=An%20error%20term%20is%20a,variables%20and%20the%20dependent%20variables.) durante el entrenamiento del modelo, pudimos mitigar este sesgo de forma eficaz y, al mismo tiempo, mantener una buena precisión general del modelo. ### **Posprocesamiento** El posprocesamiento es una última medida de salvaguardia que se puede utilizar para protegerse contra los prejuicios. Una técnica, en particular, ha ganado popularidad:[Rechazar la clasificación basada en opciones](https://towardsdatascience.com/reducing-ai-bias-with-rejection-option-based-classification-54fefdb53c2e). Este proceso supone que la discriminación se produce cuando los modelos están menos seguros de una predicción. La técnica aprovecha la «región de baja confianza» y rechaza esas predicciones para reducir el sesgo al final del juego. Esto le permite evitar hacer predicciones potencialmente problemáticas. Además, al monitorear el volumen de inferencias rechazadas, se puede alertar a los ingenieros y científicos de los cambios en las características de los datos observados en la producción y de los nuevos riesgos de sesgo. ### **El camino hacia una IA más justa** Es imperativo que la tecnología moderna de aprendizaje automático se desarrolle de manera que mitigue deliberadamente los sesgos. Hacerlo de forma eficaz no ocurrirá de la noche a la mañana, pero crear conciencia sobre la presencia de sesgos, ser honesto en lo que respecta a los temas en cuestión y esforzarse por obtener mejores resultados será fundamental para hacer crecer la tecnología. Como yo[escribió hace un año](/2019/11/4-ways-to-address-gender-bias-in-ai), las causas y las soluciones del sesgo de la IA no son en blanco o negro. [Incluso la «imparcialidad» en sí misma debe cuantificarse](/2019/11/how-machine-learning-pushes-us-to-define-fairness) para ayudar a mitigar los efectos de un sesgo no deseado. A medida que nos enfrentemos a los efectos duraderos de la pandemia y los disturbios sociales, la mitigación del sesgo de la IA seguirá siendo cada vez más importante. Estas son varias formas de hacer que su propia organización se centre en crear una IA más justa: - Asegúrese de que los ejemplos de formación incluyan la diversidad para evitar la discriminación racial, de género, étnica y por edad. - Ya sea que etiquete muestras de audio o datos genéricos, es fundamental garantizar que haya varias y diferentes anotaciones humanas por muestra y que esos anotadores provengan de diversos orígenes. - Mida los niveles de precisión por separado para las diferentes categorías demográficas para comprobar si algún grupo recibe un trato injusto. - Considere recopilar más datos de formación de grupos sensibles que le preocupen puedan correr el riesgo de sufrir sesgos (como diferentes variantes de género, grupos raciales o étnicos, categorías de edad, etc.) y aplique técnicas de eliminación de sesgos para penalizar los errores. - Audite periódicamente (mediante técnicas automáticas y manuales) los modelos de producción para garantizar su precisión y equidad, y vuelva a capacitarlos o actualice esos modelos con regularidad con los datos recién disponibles. En última instancia, no hay forma de eliminar por completo el sesgo de la IA, pero es responsabilidad del sector colaborar y ayudar a mitigar su presencia en la tecnología del futuro. Dado que la IA desempeña un papel cada vez más importante en nuestras vidas y con tantas promesas de innovación en el futuro, es necesario que reconozcamos y abordemos los prejuicios en nuestra tecnología y en nuestra sociedad.