¿Su IA tiene en cuenta los intereses de los usuarios?

Ahora vivimos en un mundo basado en el aprendizaje automático y la IA, que se basa en los datos como combustible y que en el futuro apoyará todo, desde la agricultura de precisión hasta la atención médica personalizada. La próxima generación de plataformas incluso reconocerá nuestras emociones y leerá nuestras ideas. Para los líderes de la era algorítmica, el simple hecho de seguir las reglas nunca ha parecido más peligroso ni más insuficiente desde el punto de vista moral. A medida que creemos sistemas que sean más capaces de entender y dirigir los servicios a los usuarios individuales, nuestra capacidad de hacer el mal mediante la automatización de los sesgos y el uso de algoritmos como armas crecerá exponencialmente. Sin embargo, esto también plantea la cuestión de qué es exactamente es ¿malvado? ¿Está infringiendo la ley, infringiendo el código de conducta de su industria o infringiendo la confianza de los usuarios? En lugar de confiar en la regulación, los líderes deben caminar por la cuerda floja ética. Sus clientes esperarán que utilice sus datos para crear servicios personalizados y anticipados para ellos, al tiempo que le exigirán que impida el uso y la manipulación inadecuados de su información. Al buscar su propia brújula moral, hay un principio evidente: no puede servir a dos amos. Al final, o crea una cultura basada en el cumplimiento de la ley o se centra en empoderar a los usuarios. La elección puede parecer fácil, pero en la práctica es más compleja.

••• Las decisiones éticas rara vez son fáciles. Ahora, aún menos. Las máquinas inteligentes, la computación barata y las enormes cantidades de datos de los consumidores no solo ofrecen increíbles oportunidades para las organizaciones modernas, sino que también representan un dilema moral para los líderes del siglo XXI: _¿Está bien, siempre y cuando sea legal?_ No cabe duda de que no faltarán regulaciones en los próximos años. Para los políticos y reguladores ambiciosos, las grandes tecnologías están empezando a parecerse a las grandes tabacaleras con la perspectiva de que acapare los titulares de[multas récord](https://www.bloomberg.com/news/articles/2019-09-09/facebook-users-gain-leverage-in-cambridge-analytica-privacy-suit), [rupturas forzadas](https://www.vox.com/recode/2019/5/3/18520703/big-tech-break-up-explained), [redadas al amanecer](https://techcrunch.com/2018/01/11/more-details-emerge-of-ubers-tactics-for-thwarting-police-raids/), y [indignación pública populista](https://www.theguardian.com/commentisfree/2019/jan/22/why-us-rightwing-populists-and-their-global-allies-disagree-over-big-tech). Sin embargo, para los líderes que buscan orientación en la era algorítmica, el simple hecho de seguir las reglas nunca ha parecido más peligroso ni más insuficiente desde el punto de vista moral. No me malinterprete. Un mundo turbulento de productos impulsados por la IA y los datos requiere normas sólidas. Dada la oleada de filtraciones y abusos de datos de los últimos años, el antiguo lema extraoficial de Google, «No sea malvado», ahora parece a la vez profético e ingenuo. A medida que creemos sistemas que sean más capaces de entender y dirigir los servicios a los usuarios individuales, nuestra capacidad de hacer el mal mediante la automatización de los sesgos y el uso de algoritmos como armas crecerá exponencialmente. Sin embargo, esto también plantea la cuestión de qué es exactamente _es_ ¿malvado? ¿Está infringiendo la ley, infringiendo el código de conducta de su industria o infringiendo la confianza de los usuarios? El sesgo algorítmico puede adoptar muchas formas; no siempre es tan claro como[racismo en las sentencias penales](http://thelocalne.ws/2017/12/30/hamilton-man-indicted-for-allegedly-tampering-with-will-of-late-son-to-swindle-family-members-out-of-property/) o[discriminación de género en la contratación](https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G). A veces, demasiada verdad es igual de peligrosa. En 2013, los investigadores Michal Kosinski, David Stillwell y Thore Graepel publicaron un [artículo académico](https://www.pnas.org/content/110/15/5802) eso demostró que los «me gusta» de Facebook (que estaban abiertos al público por defecto en esa época) podían utilizarse para predecir una serie de atributos personales muy sensibles, como la orientación sexual y el género, la etnia, las opiniones religiosas y políticas, los rasgos de personalidad, el consumo de sustancias adictivas, el estado de separación de los padres y la edad. Es inquietante que, aunque no revelara su orientación sexual o preferencias políticas, esta información podría predecirse estadísticamente con lo que sí reveló. Así que, aunque menos del 5% de los usuarios identificados como gays estaban relacionados con grupos explícitamente homosexuales, se podía deducir su preferencia. Cuando publicaron su estudio, los investigadores reconocieron que sus hallazgos corrían el riesgo de ser utilizados indebidamente por terceros para incitar a la discriminación, por ejemplo. Sin embargo, cuando otros vieron peligro y riesgo, Aleksandr Kogan, uno de los colegas de Kosinski en la Universidad de Cambridge, vio oportunidades. A principios de 2014, Cambridge Analytica, una consultora política británica, firmó un acuerdo con Kogan para crear una empresa privada que capitalizaría el trabajo de Kosinski y su equipo. Kogan pudo crear un cuestionario gracias a una iniciativa de Facebook que permitía a terceros acceder a los datos de los usuarios.[Se estima que casi 300 000 usuarios hicieron ese cuestionario](https://www.adweek.com/digital/a-researchers-quiz-app-deceptively-harvested-data-for-political-research-facebook-alleges/). Más tarde se supo que [Luego, Cambridge Analytica utilizó los datos que había recopilado mediante el cuestionario para acceder a 87 millones de usuarios de Facebook y crear perfiles de ellos](https://www.nytimes.com/2018/04/10/technology/facebook-cambridge-analytica-private-messages.html). Podría decirse que ni las decisiones de Facebook ni de Cambridge Analytica fueron estrictamente ilegales, pero en retrospectiva —y en el contexto del escándalo que pronto desató el programa— no podrían calificarse de buenas decisiones. [Según Julian Wheatland](https://edition.cnn.com/2019/08/19/perspectives/cambridge-analytica-lessons-julian-wheatland/index.html), COO de Cambridge Analytica en ese momento, el mayor error de la empresa fue creer que bastaba con cumplir con las normas gubernamentales y, por lo tanto, ignorar cuestiones más amplias como la ética de los datos, los sesgos y la percepción pública. ¿Cómo habría manejado una situación similar? ¿El error de Facebook fue doble: no establecer las políticas correctas para el tratamiento de los datos de sus usuarios por adelantado y compartir esa información de manera demasiado abierta con sus socios? ¿Deberían haber anticipado la reacción de los senadores estadounidenses que, finalmente, convocaron una audiencia en el Congreso y gastaron más recursos en grupos de presión? ¿Un acuerdo de usuario más exhaustivo habría protegido a Facebook de la responsabilidad? ¿O fue simplemente un caso de mala suerte? ¿Era razonable tomar medidas para proporcionar datos de investigación a Kogan en ese momento? Por el contrario, pensemos en Apple. Cuándo[Tim Cook subió al escenario para anunciar](https://www.youtube.com/watch?v=6JRcYwjGUnE) Los últimos y mejores productos de Apple para 2019, estaba claro que la privacidad y la seguridad, más que el diseño y la velocidad, eran ahora lo que realmente se centraba. Desde eliminar la calificación humana de las solicitudes de Siri hasta las advertencias sobre las aplicaciones que rastrean su ubicación, Apple estaba intentando sacar la ética digital del dominio legal y llevarla al mundo de la ventaja competitiva. Durante la última década, Apple ha sido criticada por adoptar una postura opuesta en muchos temas en relación con sus pares, como Facebook y Google. A diferencia de ellos, Apple dirige un ecosistema cerrado con controles estrictos: no se puede cargar software en un iPhone a menos que Apple lo autorice. La empresa también era[uno de los primeros en cifrar completamente sus dispositivos](https://www.amazon.com/Algorithmic-Leader-Smart-Machines-Smarter/dp/1989025331/), incluida la implementación del cifrado de extremo a extremo en iMessage y FaceTime para la comunicación entre los usuarios. Cuando el FBI exigió una contraseña para desbloquear un teléfono, [Apple se negó](https://www.amazon.com/Algorithmic-Leader-Smart-Machines-Smarter/dp/1989025331/) y acudió a los tribunales para defender su derecho a hacerlo. Cuando la empresa[lanzó Apple Pay y, más recientemente, su nueva tarjeta de crédito](https://qz.com/1580194/the-apple-credit-cards-most-original-feature-is-privacy/), mantuvo la privacidad de las transacciones de los clientes en lugar de registrar todos los datos para sus propios análisis. Si bien las acciones de Facebook pueden haber estado dentro de la letra de la ley y dentro de los límites de la práctica del sector, en ese momento no tenían en cuenta los intereses de los usuarios. Puede que haya una razón sencilla para ello. Apple vende productos a los consumidores. En Facebook, el producto _es_ el consumidor. Facebook vende a los consumidores a los anunciantes. Prohibir toda recopilación de datos es inútil. No hay vuelta atrás. Ya vivimos en un mundo basado en el aprendizaje automático y la IA, que se basa en los datos como combustible y que en el futuro apoyará todo, desde la agricultura de precisión hasta la atención médica personalizada. La próxima generación de plataformas igualará[reconocer nuestras emociones](https://www.theguardian.com/technology/2019/aug/17/emotion-ai-artificial-intelligence-mood-realeyes-amazon-facebook-emotient) y[lea nuestra opinión](https://www.vox.com/future-perfect/2019/8/5/20750259/facebook-ai-mind-reading-brain-computer-interface). En lugar de confiar en la regulación, los líderes deben caminar por la cuerda floja ética. Sus clientes esperarán que utilice sus datos para crear servicios personalizados y anticipados para ellos, al tiempo que le exigirán que impida el uso y la manipulación inadecuados de su información. Al buscar su propia brújula moral, hay un principio evidente: no puede servir a dos amos. Al final, o crea una cultura basada en el cumplimiento de la ley o se centra en empoderar a los usuarios. La elección puede parecer fácil, pero en la práctica es más compleja. Que te vean hacer el bien no es lo mismo que en realidad[estar bien](https://venturebeat.com/2019/07/17/how-ai-companies-can-avoid-ethics-washing/). Ese es al menos un resquicio de esperanza en lo que respecta a la amenaza de que los robots se queden con nuestros trabajos. ¿Quién mejor para sortear juicios éticos complejos, matizados y difíciles que los propios humanos? Cualquier máquina puede identificar la acción correcta a partir de un conjunto de reglas, pero realmente saber y entender lo que es _bueno_ — eso es algo intrínsecamente humano.