La junta de supervisión de Facebook no es suficiente

Facebook ejerce una enorme influencia en la creación y la difusión del contenido multimedia en los Estados Unidos y otros lugares del mundo. La reciente creación por parte de la empresa de un consejo de supervisión para dirimir de forma independiente las disputas de contenido es un intento de resolver problemas reales: la difusión de información errónea, la supresión de votantes, etc. Sin embargo, el autor sostiene que el consejo de administración por sí solo no es suficiente, porque el modelo de negocio de la empresa se basa en las mismas técnicas (segmentación de la audiencia, segmentación, optimización algorítmica de los feeds para obtener más visitas) que crean los problemas desde el principio.

••• Tras la declaración de Mark Zuckerberg[compromiso](https://www.facebook.com/notes/mark-zuckerberg/a-blueprint-for-content-governance-and-enforcement/10156443129621634/?hc_location=ufi) a mejorar las medidas de responsabilidad pública de su empresa hace casi un año, Facebook[anunció](https://newsroom.fb.com/news/2019/09/oversight-board-structure/) planes detallados el mes pasado para su nueva Junta de Supervisión. Muchos han descrito al organismo, que según la empresa estará compuesto por 40 expertos independientes que desempeñarán sus funciones en períodos de tres años, como el propio Tribunal Supremo de Facebook, ya que resolverá las cuestiones de política de contenido en las plataformas de la empresa a medida que surjan. La junta está diseñada para tener una independencia notable; en estas sentencias puede anular al propio Zuckerberg. A primera vista, la Junta de Supervisión es una respuesta extraordinaria a un problema nuevo. La empresa, que cuenta con más de dos mil millones de usuarios en todo el mundo, se ha enfrentado a una amplia gama de problemas graves relacionados con la difusión escalonada y sin problemas del contenido, que es su principal servicio de consumo. En Instagram, WhatsApp y la principal plataforma de Facebook, ese contenido ha llegado, inevitablemente, a incluir no solo vídeos de gatos y fotos de bebés, sino también conductas de odio, la incitación a terroristas en lugares políticamente inestables, la difusión de desinformación y el afianzamiento sistémico del sesgo algorítmico. La profunda preocupación pública relacionada con estos temas está justificada y, en consecuencia, las funciones de la Junta incluyen escuchar a los usuarios con quejas relacionadas con ellos y decidir cuándo atacar a los usuarios o publicaciones infractores. Pero debemos preguntarnos: ¿la junta está realmente preparada para triunfar? Yo diría que no. No es la mala ejecución la responsable de los problemas generales de la empresa en cuanto a la moderación del contenido, sino el modelo de negocio detrás de las propias plataformas de la empresa. Este mismo modelo se encuentra en el centro de la Internet de consumo en su conjunto y se basa en maximizar la participación de los consumidores e inyectar anuncios en toda nuestra experiencia digital. Se basa en la recopilación de datos personales y en algoritmos sofisticados que seleccionan las redes sociales y segmentan esos anuncios. Como no se tiene en cuenta seriamente lo que los consumidores desean o deben ver en esta ecuación, están sujetos a cualquier contenido que la plataforma considere que maximizará los beneficios. Estas prácticas, a su vez, generan externalidades negativas, de las que la desinformación es solo una. Tomemos este ejemplo: cuando los agentes políticos rusos trataron de subvertir nuestras elecciones, recurrieron a las plataformas de Internet. Fuimos testigos de ello en las elecciones de 2016 de muchas formas, entre ellas[publicaciones en Twitter y Facebook](https://www.washingtonpost.com/technology/2019/08/28/maryland-was-never-play-russians-targeted-it-anyway/) eso exacerbó las tensiones raciales y para suprimir la votación en ciertas comunidades de los Estados Unidos. Estos esfuerzos se basaron en las mismas técnicas de segmentación y segmentación del público que permiten a la plataforma aumentar el tráfico (y los ingresos por publicidad). El FBI y el Departamento de Seguridad Nacional ya[están informando a los funcionarios electorales](https://www.cnn.com/2019/10/03/politics/russia-voter-suppression-warning/index.html) que los agentes del gobierno ruso «podrían tratar de desalentar o suprimir encubiertamente la participación de los votantes estadounidenses en las elecciones del año que viene». Con las mismas herramientas que estas plataformas han perfeccionado, en otras palabras, actores nefastos identifican las pequeñas grietas de la sociedad estadounidense y las colman de mentiras hasta que nuestro tejido político empieza a desmoronarse. Para que una junta de supervisión aborde estas cuestiones, necesitaría jurisdicción no solo sobre los puestos personales sino también[anuncios políticos](https://www.nytimes.com/2019/10/08/technology/facebook-trump-biden-ad.html) . Más allá de eso, tendría que ser capaz no solo de eliminar contenidos específicos, sino también de detener el flujo de datos de los consumidores estadounidenses a los agentes rusos y cambiar la forma en que los algoritmos privilegian el contenido polémico. Estas medidas representan un desafío mucho mayor para una empresa que se basa en estos mecanismos para su pan de cada día. No importa dónde establezcamos los límites, Facebook siempre querrá superarlos. No conoce otra forma de mantener sus márgenes de beneficio. Entonces, en realidad, la Junta de Supervisión, en su forma actual, no puede abordar los daños que se cometen y perpetúan en Facebook. Además, puede que la junta esté haciendo más daño que bien. Otras empresas de Internet también están haciendo todo lo posible para mitigar estos problemas, aunque estos esfuerzos son tempranos y aún no han demostrado su eficacia. Lo reciente de YouTube[eliminaciones de discursos de odio](https://www.cnn.com/2019/09/03/tech/youtube-hate-speech/index.html) y de Twitter[actualización de sus normas de funcionamiento](https://techcrunch.com/2019/07/09/twitter-updates-hate-speech-rules-to-include-dehumanizing-speech-around-religion/) para contrarrestar el contenido deshumanizante dirigido a grupos religiosos son solo algunos ejemplos. Visto desde este punto de vista, creo que el consejo de administración de Facebook se convierte en una cuestión comercial de conveniencia para la empresa, tanto en su nombre como en su función; da la impresión de que el consejo de administración proporcionará una verdadera supervisión al transferir la responsabilidad de determinar qué debe constituir un discurso de odio a una parte externa con credibilidad pública, lo que permitirá a la empresa eludir la amenaza de una política reguladora más rigurosa que podría surgir de legislaturas relativamente agresivas que podrían querer centrarse en el propio modelo de negocio de la empresa. Para abordar estas cuestiones, quizás la autoridad del Consejo de Supervisión debería ampliarse, pasando de la eliminación de contenido a las preocupaciones más importantes que afectan a la propia empresa. Necesitamos supervisar las prácticas de datos de la empresa para promover la privacidad de los consumidores y los ciudadanos; supervisar las adquisiciones estratégicas y la gobernanza de los datos de la empresa para protegerla contra las prácticas anticompetitivas; y supervisar la toma de decisiones algorítmica de la empresa para protegernos de los prejuicios. Hay muchas maneras de poner en práctica esa supervisión: mediante el poder de los accionistas, la supervisión gubernamental, la auditoría de terceros, la regulación industrial o, de hecho, la extensión de la autoridad del consejo de administración. Facebook ejerce una enorme influencia en la creación y la difusión del contenido multimedia en los Estados Unidos y otros lugares del mundo, hasta el punto de que la mayoría de los usuarios de ciertos países[creer](https://qz.com/333313/milliions-of-facebook-users-have-no-idea-theyre-using-the-internet/) Facebook es el propio Internet. Y cuando superponemos al mundo político el amplio control de la empresa sobre el panorama de los medios y la comunicación, y observamos que los rusos y otros actores nefastos —tanto nacionales como extranjeros— pueden tener en la mira las elecciones estadounidenses y otros países democráticos, queda clara la necesidad de proporcionar algún tipo de supervisión pública a las prácticas empresariales que causan estos problemas.