La conversación de ética que no estamos manteniendo sobre los datos
por Kaiser Fung

En la ciencia de datos, ha surgido un patrón de escándalos. Los de Volkswagen juegos de los datos de emisiones es el ejemplo más reciente.
En julio, el CEO de Whole Foods Markets publicó un mea culpa después del supermercado fue encontrado haber manipulado los datos del producto, exagerando el peso de los productos y carnes preenvasados. Durante el verano, la controversia se apoderó de Ashley Madison, la red social para personas casadas que buscaban otras parejas, ya que los hackers lograron extraer una enorme cantidad de datos privados desde los servidores de la empresa. También se reveló que General Motors tenía información oculta sobre un interruptor de encendido defectuoso que se ha relacionado con más de cien muertes.
Si bien los altos directivos asumen la culpa de estos escándalos, ninguna de las actividades dudosas podría haberse llevado a cabo sin la participación activa de los equipos técnicos. Además de ingenieros, desarrolladores de software y directores de productos, la creciente comunidad de científicos de datos también es cómplice del desarrollo de los conceptos, los algoritmos y el software que permiten el engaño.
Esta historia sigue apareciendo, porque la industria la trata como un problema tecnológico que requiere una solución tecnológica. Los directores de empresa no entienden el verdadero problema: las personas que recopilan, almacenan, gestionan y procesan nuestros datos no están sujetas a ninguna norma ética. La emergente disciplina de la ciencia de datos se está expandiendo tan rápido que pocos trabajadores piensan en las implicaciones éticas de sus acciones diarias.
Desde la perspectiva de los datos, las noticias sobre Ashley Madison son el más convincente. Este escándalo puede parecer irrelevante para quienes desdeñan el turbio modelo de negocio del sitio, pero debería prestar atención. Estas son cinco razones:
- Es de suponer que los clientes del sitio web creen que el propietario del sitio tiene un gran deseo de mantener la privacidad de sus datos. El sitio web sigue sin poder defenderse de los piratas informáticos.
- Los usuarios que se hacen pasar por anónimos porque utilizan seudónimos en sus perfiles se enteran de que los analistas de datos han descubierto su identidad con tarjetas de crédito e incluso han almacenado la información en las bases de datos.
- Cuando los clientes solicitan la eliminación de datos, incluso después de que paguen al sitio web para que los elimine, los datos siguen residiendo en los servidores.
- Los tecnólogos descubren lo que los programadores han creado ciertos errores que permiten decodificar más de 10 millones de contraseñas codificadas.
- Cuando los piratas informáticos divulguen al público los datos robados, una horda de investigadores los obtiene inmediatamente con la intención de descubrir datos personales embarazosos. Estos analistas ven que es una oportunidad única de hacerse con un enorme conjunto de datos del mundo real que normalmente las empresas guardan estrechamente.
En estos escándalos, la causa del problema es más humana que técnica. Por ejemplo, los datos de las tarjetas de crédito no aparecen sin ser invitados en el almacén de datos empresarial. Una vez almacenados los datos, se escribe un software para establecer la relación entre el seudónimo del usuario y su nombre y dirección. El personal técnico participa tanto en el diseño de los algoritmos de enlace como en el desarrollo del código para su implementación. Los recursos de desarrollo están asegurados en función de una razón técnica o empresarial.
En varias empresas, he participado en estas conversaciones. Los directores técnicos y empresariales debaten sobre temas como la innovación de productos, la experiencia de usuario, los requisitos de recursos, las estrategias competitivas y el retorno de la inversión. Salvo en casos excepcionales, la ética de estas decisiones nunca se aborda. Esta negligencia se debe normalmente a la falta de atención, conciencia o sensibilidad. A veces, las preocupaciones éticas se descartan de la misma manera que muchas empresas descartan a sus clientes usuarios: si no les gusta lo que hacemos, ¡no tienen que usar nuestro servicio!
Los recientes escándalos deberían suscitar una conversación seria en la comunidad empresarial sobre la ética de los datos. Las personas pueden tener estándares éticos diferentes, pero ignorar el tema por completo ya no es viable.
Entonces, ¿qué se puede hacer? Para empezar, todos los equipos técnicos y de datos deberían tener una formación interna que abarque la ética del uso de los datos. Exponer a los ingenieros y científicos de datos a las obligaciones legales establecidas en varios términos y condiciones es un buen punto de partida, pero las prácticas éticas tienen que ir más allá. Hay que desarrollar una cultura en la que los miembros del equipo se sientan cómodos a la hora de plantear debates sobre la ética.
Cuando revisé los planes de estudio de los programas de licenciatura en ciencia y análisis de datos el año pasado para un curso que estaba desarrollando, descubrí que solo un colegio exige una clase de ética. Eso tiene que cambiar o surgirán más escándalos de datos.
Artículos Relacionados

Investigación: La IA generativa hace que la gente sea más productiva y esté menos motivada

Arreglar los chatbots requiere psicología, no tecnología
Los chatbots dotados de IA se están convirtiendo en el nuevo estándar para la gestión de consultas, reclamaciones y devoluciones de productos, pero los clientes se alejan de las interacciones con los chatbots sintiéndose decepcionados. La mayoría de las empresas intentan solucionar este problema diseñando mejores modelos de IA en sus chatbots, pensando que si los modelos suenan lo suficientemente humanos, el problema acabará desapareciendo. Pero esta suposición es errónea. Esto se debe a que el problema de fondo no es tecnológico. Es psicológico: Hay que engatusar a la gente para que vea a los chatbots como un medio positivo de interacción. Los autores han analizado recientemente las últimas investigaciones sobre chatbots e interacciones IA-humanos, y en este artículo presentan seis acciones probadas que puede llevar a cabo al desplegar su chatbot de IA para impulsar la satisfacción, la percepción positiva de la marca y las ventas.

Investigación: ¿Está penalizando a sus mejores empleados por desconectar?
Para combatir el creciente desgaste del personal, muchas empresas han defendido programas de bienestar y han fomentado un enfoque renovado en el equilibrio entre la vida laboral y personal. Pero un nuevo estudio descubrió que incluso cuando los líderes reconocían que desvincularse del trabajo aumenta el bienestar de los empleados y mejora su rendimiento laboral, los directivos seguían penalizando a los empleados que adoptaban estos comportamientos cuando optaban a un ascenso o estaban siendo considerados para un nuevo puesto. Basándose en sus conclusiones, los investigadores ofrecen sugerencias para ayudar a las empresas a crear políticas y construir una cultura que proteja los límites de los trabajadores, evite el agotamiento y recompense el trabajo fuerte.