Pensando en la ética de la nueva tecnología... antes de que haya un problema
Resumen.
Hay un patrón familiar cuando se introduce una nueva tecnología: crece rápidamente, llega a impregnar nuestras vidas y solo entonces la sociedad comienza a ver y abordar los problemas que crea. Pero, ¿es posible solucionar posibles problemas? Si bien las empresas no pueden predecir el futuro, pueden adoptar un marco sólido que las ayude a prepararse y responder a los impactos inesperados. En primer lugar, al implementar nueva tecnología, es vital hacer una pausa e intercambiar ideas sobre los riesgos potenciales, considerar los resultados negativos e imaginar consecuencias no deseadas. En segundo lugar, también puede ser aclaratorio preguntar, desde el principio, quién sería responsable si una organización tiene que responder por las consecuencias negativas o involuntarias de su nueva tecnología, ya sea testificar ante el Congreso, comparecer ante el tribunal o responder preguntas de los medios de comunicación. En tercer lugar, designe a un director de ética tecnológica.
Todos queremos que la tecnología en nuestras vidas cumpla su promesa: que nos deleite más de lo que nos asusta, que ayude mucho más de lo que perjudica. También sabemos que cada nueva tecnología debe ganarse nuestra confianza. Con demasiada frecuencia, el patrón es así: se introduce una tecnología, crece rápidamente, llega a impregnar nuestras vidas, y solo entonces la sociedad comienza a ver y abordar cualquier problema que pueda crear.
No se trata exclusivamente de un fenómeno moderno. Considere los primeros días del automóvil producido en masa. A medida que los conductores adoptaron un nuevo y emocionante modo de transporte, los accidentes y las muertes se produjeron muchas veces más probable de lo que son hoy. Imagínese si el crecimiento del automóvil hubiera sido diferente, con cinturones de seguridad desarrollados, construidos carreteras más seguras y mejores leyes de tráfico implementadas mucho antes, junto con las innovaciones del motor que nos dieron más potencia y mayor velocidad. Muchos riesgos podrían haberse mitigado y evitado muchas tragedias.
Las empresas deben aprender a ser administradores responsables de la inteligencia artificial (IA) que implementan, las redes 5G que han comenzado a construir y mucho más que se nos acerca, desde la computación cuántica hasta la realidad virtual (VR) y la cadena de bloques. Las tecnologías que impulsan un cambio radical y que son fundamentales para el crecimiento de la economía deben ser confiables. Las empresas que ofrecen avances tecnológicos deben actuar con ética. Hay mucho en juego. Sin embargo, saber lo que hay que hacer no es lo mismo que saber cómo hacerlo.
Las organizaciones deben intentar anticipar y abordar los posibles efectos de las tecnologías que implementan. Si bien no pueden predecir el futuro, pueden adoptar un marco sólido que los ayude a prepararse y responder a los impactos inesperados.
Dicho marco tendría que cambiar fundamentalmente la forma en que desarrollamos e implementamos nuevas tecnologías. Tendría que renovar los procesos existentes. Cualquier marco debe reflejar que se trata de un esfuerzo de equipo, no solo el trabajo de los ingenieros y gerentes: debe abarcar disciplinas transversal. Debería abrir las puertas a nuevas formas de pensar sobre los desafíos. El objetivo aquí es describir un marco que pueda hacer estas cosas.
Involucrar a especialistas
Aquellos que están inmersos en el mundo de la ingeniería de software, y me considero en este grupo, a menudo se inclinan a ver, ante todo, la promesa de una tecnología y la oportunidad de crear valor. A medida que las preguntas sobre los impactos de una tecnología se vuelven más comunes, los ingenieros aún tienen mucho que recorrer para comprender los posibles daños. Los ingenieros y los desarrolladores de software no tienen necesariamente toda la experiencia que necesitan para comprender y abordar los riesgos éticos que su trabajo puede generar.
En otras palabras, podría haber un papel para los especialistas de otras disciplinas aquí. Necesitamos cambiar nuestras prioridades para ayudar a los equipos de desarrollo tecnológico a pensar con más previsión y matices sobre estos temas, guiados por aquellos con los conocimientos más relevantes.
Considere, por ejemplo, el desarrollo de una herramienta de capacitación en realidad virtual que sumerja al usuario en una situación de respuesta de emergencia difícil o dramática. A medida que la tecnología evoluciona, las simulaciones de realidad virtual se están volviendo tan realistas que es posible que deba abordarse la posibilidad de un trauma real de una experiencia virtual. El equipo querría involucrar a un psicólogo, que trabajara codo con codo con los ingenieros de software, para aprovechar el conjunto de conocimientos sobre lo que puede causar un trauma o cómo podría identificarse y abordarse.
Tomemos como ejemplo la fabricación en la nube y la impresión 3D. A medida que las empresas buscan estas tecnologías, que tienen el potencial de cambiar drásticamente el conjunto de habilidades necesarias en la fábrica, pueden hablar con economistas laborales que pueden arrojar luz sobre problemas laborales más grandes. Como la conectividad 5G pone en línea fábricas que se pueden administrar de forma totalmente remota, las empresas pueden querer consultar con especialistas en seguridad de la planta, ciberseguridad y quizás incluso filosofía para comprender los posibles obstáculos creados por las fábricas que no emplean a personas.
Pausa y planificación
Durante la etapa de planificación estratégica, un equipo centrará su atención naturalmente en lo que es posible. Ahí radica la emoción y el entusiasmo. Pero también hay que prestar atención a la comprensión de lo que puede salir mal. Es vital hacer una pausa e intercambiar ideas sobre los riesgos potenciales, considerar los resultados negativos e imaginar consecuencias no deseadas.
Esto podría significar que, a medida que las empresas se apresuran hacia un futuro 5G con un salto gigantesco en la velocidad de los datos y la conectividad ubicua, deberían detenerse a considerar y abordar nuevas preocupaciones de privacidad, quizás mucho más allá de las que ya estamos lidiando. O podrían considerar cómo este salto en la velocidad de los datos puede exacerbar la inequidad en nuestra sociedad y ampliar la brecha digital.
Este paso en el proceso de planificación, en el que los riesgos se generan y analizan, debe documentarse con la misma claridad que la propuesta de valor o el retorno de la inversión esperado. El mandato de documentar este trabajo puede ayudar a garantizar que se convierta en parte del esfuerzo. Deloitte ha desarrollado más de 300 preguntas que exploran las dimensiones éticas y de confianza que pueden informar el proceso de planificación estratégica y sus resultados.
La tendencia es pensar en la ética tecnológica en el contexto de los problemas que ya han surgido, como el sesgo discriminatorio en el marketing en redes sociales o en los sistemas de adquisición de talento. Pero esta es una forma errónea de pensar, porque puede hacer que no veamos otros riesgos éticos, potencialmente mucho mayores, y no considera los matices que afectan a las organizaciones, industrias, clientes y productos.
Después de evaluar los posibles impactos negativos de una nueva tecnología en particular y crear un equipo que tenga experiencia relevante, es importante profundizar más. El equipo tiene que investigar y, a partir de ahí, debería ser posible comenzar a establecer las barandillas que puedan minimizar los riesgos y mitigar el daño potencial. Los líderes deben exigir el desarrollo de estrategias éticas de mitigación de riesgos como parte de la planificación de cualquier nuevo proyecto de tecnología.
Asignar responsabilidad
También puede ser aclaratorio preguntar desde el principio quién sería responsable si una organización tiene que responder por las consecuencias negativas o involuntarias de su nueva tecnología. La rendición de cuentas debe considerarse al documentar el enfoque de los impactos potenciales durante el proceso de planificación estratégica.
Cuando se llama a una empresa para que rinda cuentas por la tecnología que desarrolló o desplegó, alguien podría terminar testificando ante el Congreso, compareciendo ante el tribunal o respondiendo preguntas de los medios de comunicación. ¿Será esa persona el CEO o el CIO, un científico de datos, un fundador u otra persona?
Un debate sobre este tema puede fomentar una reflexión más rigurosa sobre lo que podría salir mal. Por supuesto, una atención más rigurosa a estos resultados negativos es exactamente el punto, y puede mejorar las posibilidades de que nadie tenga que comparecer ante los responsables políticos o un juez para abordar cómo surgió una pieza de tecnología en primer lugar.
Nombrar a un director de ética tecnológica
Los mejores métodos para abordar la ética de las nuevas tecnologías no van a ser de talla única. Es posible que deba examinarse una amplia gama de impactos potenciales y es posible que deba mitigarse una colección variada de riesgos potenciales. Sin embargo, es probable que la mayoría de las organizaciones se beneficien al colocar a una sola persona a cargo de estos procesos. Es por eso que las organizaciones deben considerar a un director de ética, o a un director de ética tecnológica, que tenga la responsabilidad y la autoridad para recabar los recursos necesarios.
Algunas industrias han enfrentado desafíos éticos y de confianza durante décadas. Los hospitales y los centros de investigación han empleado durante mucho tiempo a oficiales de ética para supervisar las preguntas en proyectos de investigación y práctica médica clínica, por ejemplo. La tecnología ciertamente puede generar nuevas preocupaciones, incluso aquí: piense en una facultad de medicina implementando una herramienta de realidad virtual para ayudar a aumentar la competencia de los cirujanos y la importancia de examinar si la herramienta funciona igual de bien en raza o género. Pero el punto más amplio es que los problemas de confianza y ética se pueden gestionar eficazmente, siempre y cuando se asuman los compromisos de liderazgo adecuados.
Con un director de ética tecnológica en su lugar, sigue siendo importante involucrar a especialistas de varias disciplinas diferentes, como se discutió anteriormente. Estas personas pueden provenir de los campos de la antropología, la sociología, la filosofía y otras áreas. Dependiendo de los problemas que presente una tecnología o aplicación específica, puede ser necesario buscar personas que aporten conocimiento de la ley, la política, la regulación, la educación o los medios de comunicación.
Desafíos y oportunidades
Se espera que nuestra capacidad para administrar éticamente y aumentar la confianza en nuestras herramientas tecnológicas solo gane importancia en los próximos años a medida que la tecnología evolucione, se acelere y se adentre más profundamente en nuestras vidas. Es probable que esto desafíe a todas las empresas y empresas, y puede tener lecciones dolorosas para las organizaciones que no logran mantener el ritmo.
Pero las oportunidades también se pueden ver en todas partes. Si puede imaginar un mundo en el que la seguridad de los vehículos y el tráfico progresara tan rápido o más rápido que el desarrollo del automóvil, entonces probablemente pueda imaginar los beneficios que podrían acumularse para aquellos que enfrentan estos desafíos correctamente.
— Escrito por Beena Ammanath