Cómo hacer que las redes sociales rindan cuentas por socavar la democracia
El problema con las redes sociales no es solo lo que publican los usuarios, sino lo que las plataformas deciden hacer con ese contenido. Lejos de ser neutrales, las empresas de redes sociales toman constantemente decisiones sobre qué contenido amplificar, promocionar y sugerir a otros usuarios. Dado su modelo de negocio, que promueve la escala por encima de todo, a menudo han amplificado activamente contenido extremo y divisivo, que incluye peligrosas teorías conspirativas y desinformación. Es hora de que los reguladores intervengan. Un buen punto de partida sería aclarar quién debería beneficiarse del artículo 230 de la Ley de Decencia en las Comunicaciones, que se ha sobreinterpretado enormemente para conceder inmunidad general a todas las empresas de Internet (o «intermediarios de Internet») con respecto a cualquier contenido de terceros que alojen. En concreto, es hora de redefinir lo que significa «intermediario de Internet» y crear una categoría más precisa que refleje lo que realmente son estas empresas, como los «curadores digitales», cuyos algoritmos deciden qué contenido impulsar, qué amplificar y cómo seleccionar nuestro contenido.
••• El asalto al edificio del Capitolio de los Estados Unidos el miércoles por parte de una turba de insurrectos partidarios de Trump fue impactante, pero no sorprendió a nadie que haya seguido la creciente prominencia de los teóricos de la conspiración, los grupos de odio y los proveedores de desinformación en Internet. Si bien la culpa de la incitación del presidente Trump a la insurrección recae directamente en él, las mayores empresas de redes sociales —sobre todo mi antiguo empleador, Facebook— son absolutamente cómplices. No solo han permitido que Trump mienta y siembre divisiones durante años, sino que sus modelos de negocio han explotado nuestros sesgos y debilidades y han sido cómplices del crecimiento de grupos de odio y máquinas de ultraje que promocionan conspiraciones. Lo han hecho sin asumir ninguna responsabilidad por la forma en que sus productos y decisiones empresariales afectan a nuestra democracia; en este caso, incluso permiten planificar y promover una insurrección en sus plataformas. No se trata de información nueva. Yo, por mi parte, he escrito y hablado sobre cómo Facebook se beneficia de[amplificar las mentiras](https://www.washingtonpost.com/outlook/2019/11/04/i-worked-political-ads-facebook-they-profit-by-manipulating-us/), proporcionando [peligrosas herramientas de segmentación para agentes políticos](https://www.brookings.edu/techstream/how-to-combat-online-voter-suppression/) buscando sembrar la división y la desconfianza, y[polarizar e incluso radicalizar](https://www.ted.com/talks/yael_eisenstat_dear_facebook_this_is_how_you_re_breaking_democracy?language=en) usuarios. A medida que nos acercábamos a las elecciones de 2020, un coro de líderes de derechos civiles, activistas, periodistas y académicos escribió[recomendaciones](https://citap.unc.edu/files/2020/08/CITAP-Election-Misinfo-Workshop-position-paper.pdf), públicamente [condenado](https://www.nbcnews.com/tech/tech-news/facebook-real-oversight-board-n1240958) Facebook y las propuestas de políticas de contenido canalizado respaldan en privado; empleados[dimitió](https://www.forbes.com/sites/alisondurkee/2020/09/08/facebook-engineer-resigns-company-on-wrong-side-of-history-internal-employee-dissent-grows/?sh=240e79b53794) en protesta; anunciantes[boicoteado](https://www.stophateforprofit.org/); los legisladores retuvieron [audiencias](https://www.commerce.senate.gov/2020/10/committee-to-hold-hearing-with-big-tech-ceos-on-section-230). Sin embargo, los acontecimientos de la semana pasada arrojan una nueva luz sobre estos hechos y exigen una respuesta inmediata. A falta de leyes estadounidenses que aborden la responsabilidad de las redes sociales de proteger nuestra democracia, hemos cedido la toma de decisiones sobre qué normas redactar, qué hacer cumplir y cómo dirigir nuestra plaza pública a los directores ejecutivos de empresas de Internet con fines de lucro. Facebook se expandió intencional e implacablemente para dominar la plaza pública mundial, pero no asume ninguna de las responsabilidades de los administradores tradicionales de los bienes públicos, incluidos los medios de comunicación tradicionales. Es hora de definir la responsabilidad y hacer que estas empresas rindan cuentas por la forma en que ayudan e incitan a la actividad delictiva. Y es hora de escuchar a quienes llevan años gritando desde los tejados sobre estos temas, en lugar de permitir que los líderes de Silicon Valley dicten las condiciones. Tenemos que cambiar nuestro enfoque no solo por el papel que estas plataformas han desempeñado en crisis como la de la semana pasada, sino también por la forma en que los directores ejecutivos han respondido (o no han respondido). Las decisiones reaccionarias sobre qué contenido eliminar, qué voces rebajar la calificación y qué anuncios políticos permitir han supuesto retocar los márgenes de un tema más importante: un modelo de negocio que recompensa a las voces más ruidosas y extremas. Sin embargo, no parece haber la voluntad de tener en cuenta ese problema. Mark Zuckerberg no eligió[bloquear la cuenta de Trump](https://about.fb.com/news/2021/01/responding-to-the-violence-in-washington-dc/) hasta que el Congreso de los Estados Unidos certificara a Joe Biden como próximo presidente de los Estados Unidos. Dado ese momento, esta decisión parece más un intento de acercarse al poder que un giro hacia una administración más responsable de nuestra democracia. Y si bien la decisión de muchas plataformas de silenciar a Trump es una respuesta obvia a este momento, no aborda cómo millones de estadounidenses se han visto arrastrados a teorías conspirativas en Internet y se les ha hecho creer que estas elecciones fueron robadas, un tema que los líderes de las redes sociales nunca han abordado realmente. Echar un vistazo a la cuenta de Twitter de Ashli Babbit, la mujer que murió al irrumpir en el Capitolio, es revelador. Veterana de 14 años en la Fuerza Aérea, pasó los últimos meses de su vida[retuitear a teóricos de la conspiración como Lin Wood](https://twitter.com/jason_kint/status/1347025271321489411?s=20) — a quien finalmente suspendieron de Twitter al día siguiente del ataque (y, por lo tanto, ha desaparecido de su cuenta), seguidores de QAnon y otras personas que pedían el derrocamiento del gobierno. UN [_New York Times_ perfil](https://www.nytimes.com/2021/01/07/us/who-was-ashli-babbitt.html) la describe como una veterinaria que se esforzaba por mantener su negocio a flote y que estaba cada vez más desilusionada con el sistema político. La probabilidad de que las redes sociales hayan desempeñado un papel importante a la hora de llevarla a la madriguera de las teorías de la conspiración es alta, pero nunca sabremos realmente cómo se seleccionó su contenido, qué grupos le recomendaron y a quién la dirigieron los algoritmos. Si el público, o incluso un organismo de control restringido, tuviera acceso a los datos de Twitter y Facebook para responder a esas preguntas, sería más difícil para las empresas afirmar que son plataformas neutrales que se limitan a mostrar a la gente lo que quiere ver. Periodista de The Guardian[Julia Carrie Wong](https://twitter.com/juliacarriew/status/1346977218711310337?s=20) escribió en junio de este año sobre[cómo los algoritmos de Facebook le recomendaban grupos de QAnon](https://www.theguardian.com/technology/2020/jun/25/qanon-facebook-conspiracy-theories-algorithm). Wong formó parte del coro de periodistas, académicos y activistas que advirtieron sin descanso a Facebook sobre cómo estos teóricos de la conspiración y grupos de odio no solo estaban prosperando en las plataformas, sino que sus propios algoritmos amplificaban su contenido y recomendaban sus grupos a sus usuarios. El punto clave es el siguiente: no se trata de la libertad de expresión ni de lo que las personas publican en estas plataformas. Se trata de lo que las plataformas elijan hacer con ese contenido, qué voces deciden amplificar, qué grupos pueden prosperar e incluso crecer gracias a la ayuda algorítmica de las propias plataformas. Entonces, ¿a dónde vamos desde aquí? Tengo[defendido durante mucho tiempo](https://www.ted.com/talks/yael_eisenstat_dear_facebook_this_is_how_you_re_breaking_democracy) que los gobiernos deben definir la responsabilidad por los daños que estos modelos de negocio causan en el mundo real e imponer costes reales por los efectos dañinos que están teniendo en nuestra salud pública, nuestra plaza pública y nuestra democracia. Tal como están las cosas, no hay leyes que regulen la forma en que las empresas de redes sociales tratan los anuncios políticos, la incitación al odio, las teorías de la conspiración o la incitación a la violencia. Esta cuestión se complica indebidamente con el artículo 230 de la Ley de Decencia en las Comunicaciones, que se ha sobreinterpretado enormemente para conceder inmunidad general a todas las empresas de Internet (o «intermediarios de Internet») con respecto a cualquier contenido de terceros que alojen. Muchos sostienen que para resolver algunos de estos problemas, la Sección 230, que data de 1996, debe actualizarse como mínimo. Pero se debate acaloradamente cómo y si por sí solo resolverá los innumerables problemas a los que nos enfrentamos ahora con las redes sociales. Una solución que sigo buscando es aclarar quién debería beneficiarse de la Sección 230 para empezar, que a menudo se divide en el debate entre el editor y la plataforma. Seguir clasificando a las empresas de redes sociales —que seleccionan el contenido, cuyos algoritmos deciden qué discurso amplificar, que empujan a los usuarios hacia el contenido que los mantiene interesados, que conectan a los usuarios con grupos de odio, que recomiendan a los teóricos de la conspiración— como «intermediarios de Internet» que deberían disfrutar de inmunidad ante las consecuencias de todo esto es más que absurdo. La idea de que las pocas empresas de tecnología que controlan la forma en que más de 2 000 millones de personas se comunican, encuentran información y consumen medios disfrutan de la misma inmunidad general que una empresa de Internet verdaderamente neutral deja claro que es hora de actualizar las normas. No son solo un intermediario neutral. Sin embargo, eso no significa que tengamos que reescribir o acabar por completo la Sección 230. En cambio, ¿por qué no empezar con un paso más limitado redefiniendo lo que significa «intermediario de Internet»? Entonces podríamos crear una categoría más precisa para reflejar lo que realmente son estas empresas, como «curadores digitales» cuyos algoritmos deciden qué contenido impulsar, qué amplificar y cómo seleccionar nuestro contenido. Y podemos analizar cómo regular de manera adecuada, centrándonos en exigir la transparencia y la supervisión reglamentaria de las herramientas, como los motores de recomendaciones, las herramientas de segmentación y la amplificación algorítmica, en lugar de no empezar a regular la expresión real. Si insistimos en una transparencia real en torno a lo que hacen estos motores de recomendaciones y cómo se llevan a cabo la selección, la amplificación y la segmentación, podríamos separar la idea de que Facebook no debería ser responsable de lo que publica un usuario de su responsabilidad por la forma en que sus propias herramientas tratan ese contenido. Quiero que hagamos responsables a las empresas no por el hecho de que alguien publique información errónea o una retórica extrema, sino por la forma en que sus motores de recomendación la difunden, la forma en que sus algoritmos guían a la gente hacia ella y la forma en que se utilizan sus herramientas para dirigirse a las personas con ella. Que quede claro: crear las reglas sobre cómo gobernar la expresión en línea y definir la responsabilidad de las plataformas no es una varita mágica para corregir los innumerables daños que se derivan de Internet. Esta es una pieza de un rompecabezas mayor de cosas que tendrán que cambiar si queremos fomentar un ecosistema de información más saludable. Pero si Facebook tuviera la obligación de ser más transparente en cuanto a la forma en que amplifica el contenido, el funcionamiento de sus herramientas de segmentación y la forma en que utiliza los datos que recopila sobre nosotros, creo que eso cambiaría las reglas del juego para mejor. Mientras sigamos dejando que las plataformas se autorregulen, seguirán haciendo pequeños ajustes en los márgenes de las políticas de contenido y la moderación. Hemos visto que ese momento ya pasó. Lo que necesitamos ahora es reconsiderar la forma en que se diseña y se monetiza toda la máquina. Hasta que eso suceda, nunca abordaremos realmente la forma en que las plataformas ayudan e incitan a quienes tienen la intención de dañar nuestra democracia.