Es hora de actualizar la sección 230
Hace un cuarto de siglo, en la sección 230 de la Ley de Decencia en las Comunicaciones de 1996, el Congreso implementó protecciones de «puerto seguro» contra la responsabilidad legal de cualquier contenido que los usuarios publicaran en las plataformas de redes sociales. Estas plataformas ofrecen muchas ventajas, por supuesto, pero desde 1996 hemos aprendido la devastación social que también pueden provocar. Lo que hemos aprendido, escriben los autores, deja en claro que la Sección 230 está muy desactualizada y necesita actualizarse, para hacer que las plataformas de redes sociales rindan cuentas por la forma en que se diseñan e implementan sus sitios.
••• Las plataformas de redes sociales de Internet cuentan con amplias protecciones de «puerto seguro» contra la responsabilidad legal por cualquier contenido que los usuarios publiquen en sus plataformas. Esas protecciones, que se detallan en la sección 230 de la Ley de Decencia en las Comunicaciones (CDA) de 1996, se redactaron hace un cuarto de siglo, durante una era de ingenuidad que pasó hace mucho tiempo[optimismo tecnológico](https://www.eff.org/cyberspace-independence) y capacidades tecnológicas primitivas. Tanto ha cambiado desde el cambio de siglo que esas protecciones ahora están muy anticuadas. Es hora de replantearse y revisar esas protecciones, y de que todos los líderes cuyas empresas dependen de las plataformas de Internet entiendan cómo podrían verse afectados sus negocios. Las plataformas de redes sociales ofrecen beneficios sociales innegables. Dieron una voz democrática a los oprimidos durante la Primavera Árabe y una plataforma para los movimientos #MeToo y #BlackLivesMatter. Ayudaron a recaudar 115 millones de dólares para la ELA con el Ice Bucket Challenge y ayudaron a identificar y coordinar el rescate de las víctimas del huracán Harvey. Pero también hemos aprendido la devastación social que pueden causar estas plataformas y eso nos ha obligado a enfrentarnos a cuestiones antes inimaginables sobre la responsabilidad. ¿Hasta qué punto se debe hacer responsable a Facebook por los disturbios en el Capitolio, cuya planificación tuvo lugar gran parte de la planificación en su plataforma? ¿Hasta qué punto debe rendir cuentas Twitter por permitir el reclutamiento de terroristas? Cuánta responsabilidad debería[Página trasera](https://www.courthousenews.com/wp-content/uploads/2017/02/Backpage-Report.pdf) y[Pornhub](https://www.nytimes.com/2020/12/04/opinion/sunday/pornhub-rape-trafficking.html) ¿oso por facilitar la explotación sexual de niños? ¿Qué hay de otras plataformas de redes sociales que se han beneficiado de la venta ilícita de productos farmacéuticos, armas de asalto y vida silvestre en peligro de extinción? La sección 230 simplemente no anticipaba esas preguntas. La sección 230 tiene dos subsecciones clave que rigen las publicaciones generadas por los usuarios. La primera, la sección 230 (c) (1), protege a las plataformas de la responsabilidad legal relacionada con el contenido perjudicial publicado en sus sitios por terceros. La segunda, la Sección 230 (c) (2), permite a las plataformas vigilar sus sitios en busca de contenido dañino, pero no exige que eliminen nada y las protege de la responsabilidad si deciden no hacerlo. Estas disposiciones son válidas, excepto las piezas que están en mal estado. Lo bueno es bastante obvio. Como las plataformas de redes sociales generan beneficios sociales, queremos que sigan funcionando, pero es difícil imaginarlo si son responsables de forma instantánea e irreversible de todo lo que publiquen terceros en sus sitios. La sección 230 (c) (1) se creó para abordar este problema. La sección 230 (c) (2), por su parte, se creó en respuesta a una[sentencia judicial de 1995](https://h2o.law.harvard.edu/cases/4540) declarando que las plataformas que vigilaban _cualquier_ el contenido generado por los usuarios en sus sitios debe considerarse editor y, por lo tanto, legalmente responsable de _todos_ del contenido generado por los usuarios publicado en su sitio. El Congreso creyó, con razón, que una sentencia haría que las plataformas no estuvieran dispuestas a vigilar sus sitios en busca de contenido socialmente dañino, por lo que aprobó la 230 (c) (2) para alentarlas a hacerlo. En ese momento, parecía un enfoque razonable. Pero el problema es que estas dos subsecciones están realmente en conflicto. Cuando se concede a las plataformas total inmunidad legal sobre el contenido que publican sus usuarios, también se reducen sus incentivos para eliminar de forma proactiva el contenido que cause daños sociales. En 1996, eso no parecía importar mucho: incluso si las plataformas de redes sociales tuvieran incentivos legales mínimos para proteger sus plataformas de contenido dañino, parecía lógico que lo hicieran por interés económico propio, para proteger sus valiosas marcas. Digamos que hemos aprendido mucho desde 1996. Una cosa que hemos aprendido es que hemos subestimado significativamente el coste y el alcance del daño que pueden causar las publicaciones en las redes sociales. También hemos aprendido que las plataformas no tienen incentivos lo suficientemente fuertes como para proteger sus marcas vigilando sus plataformas. De hecho, hemos descubierto que ofrecer contenido socialmente perjudicial puede resultar rentable desde el punto de vista económico para los propietarios de las plataformas y, al mismo tiempo, suponer un daño económico relativamente pequeño a su imagen pública o su marca. Hoy en día hay un consenso cada vez mayor en cuanto a que necesitamos actualizar la Sección 230. Mark Zuckerberg de Facebook incluso[se lo dijo al Congreso](https://www.usatoday.com/story/tech/2021/01/04/trump-biden-pelosi-section-230-repeal-facebook-twitter-google/4132529001/) que «puede tener sentido que haya responsabilidad por parte del contenido» y que Facebook «se beneficiaría de una orientación más clara de los funcionarios electos». Los funcionarios electos, de ambos lados del pasillo, parecen estar de acuerdo: como candidato, Joe Biden[dijo al _New York Times_](https://www.nytimes.com/interactive/2020/01/17/opinion/joe-biden-nytimes-interview.html) que la Sección 230 debería «revocarse inmediatamente», y el senador Lindsey Graham (R-SC) ha dicho: «La Sección 230, tal como existe hoy en día, tiene que ceder».[En una entrevista con NPR](https://www.npr.org/sections/alltechconsidered/2018/03/21/591622450/section-230-a-key-legal-shield-for-facebook-google-is-about-to-change), el excongresista Christopher Cox (R-CA), coautor de la Sección 230, ha pedido que se reescriba la Sección 230, porque «el propósito original de esta ley era ayudar a limpiar Internet, no facilitar que la gente hiciera cosas malas». ¿Cómo se podría reescribir la Sección 230? Los expertos en derecho han presentado una variedad de propuestas, casi todas las cuales adoptan un enfoque de zanahoria y palo, al vincular las protecciones de puerto seguro de una plataforma al uso de políticas razonables de moderación de contenido. Un ejemplo representativo apareció en 2017, en [_Reseña legal de Fordham_](https://ir.lawnet.fordham.edu/cgi/viewcontent.cgi?article=5435&context=flr) artículo de Danielle Citron y Benjamin Wittes, quienes argumentaban que la Sección 230 debería revisarse con los siguientes cambios (resaltados): «Ningún proveedor o usuario de un servicio informático interactivo _que tome medidas razonables para abordar los usos ilegales conocidos de sus servicios que causan graves daños a terceros_ será tratado como el editor o el orador de cualquier información proporcionada por otro proveedor de contenido informativo _en cualquier acción que surja de la publicación del contenido proporcionado por ese proveedor de contenido informativo_.” Este argumento, del que el propio Mark Zuckerberg se hizo eco en[testimonio](https://docs.house.gov/meetings/IF/IF16/20210325/111407/HHRG-117-IF16-Wstate-ZuckerbergM-20210325-U1.pdf) que dio al Congreso en 2021, está sujeto al estándar de derecho consuetudinario del «deber de cuidado», que el _Revista de asuntos americanos_ tiene[descrito](https://americanaffairsjournal.org/2021/05/the-myth-of-internet-exceptionalism-bringing-section-230-into-the-real-world/) de la siguiente manera: > Por lo general, las empresas tienen la obligación legal consuetudinaria de tomar medidas razonables para no causar daño a sus clientes, así como de tomar medidas razonables para evitar dañar a sus clientes. Esa obligación también crea una obligación afirmativa en determinadas circunstancias para que una empresa impida que una parte utilice los servicios de la empresa perjudique a otra parte. Por lo tanto, las plataformas podrían ser declaradas culpables en virtud del derecho consuetudinario si crean un entorno inseguro de manera irrazonable y si no impiden razonablemente que un usuario perjudique a otro usuario o al público. Los tribunales han empezado a adoptar esta línea de pensamiento recientemente. En una decisión del 25 de junio de 2021, por ejemplo,[el Tribunal Supremo de Texas dictaminó](https://www.txcourts.gov/media/1452449/200434.pdf) que Facebook no está protegido por la Sección 230 para el reclutamiento de personas con fines de trata sexual que se produce en su plataforma. «No entendemos que la Sección 230 diga 'crear una tierra de nadie ilegal en Internet'», escribió el tribunal. «Hacer que las plataformas de Internet rindan cuentas por las palabras o acciones de sus usuarios es una cosa, y el precedente federal dicta de manera uniforme que la Sección 230 no lo permite. Hacer que las plataformas de Internet rindan cuentas por sus propias fechorías es otra cosa muy distinta. Este es particularmente el caso de la trata de personas». El estándar del deber de diligencia es bueno y los tribunales están avanzando hacia él al hacer que las plataformas de redes sociales rindan cuentas por la forma en que se diseñan e implementan sus sitios. Siguiendo cualquier norma razonable de deber de diligencia, Facebook debería haber sabido que tenía que tomar medidas más enérgicas contra el contenido generado por los usuarios que abogaba por el derrocamiento violento del gobierno. Del mismo modo, Pornhub debería haberlo sabido[vídeos sexualmente explícitos etiquetados como «14 años»](https://www.nytimes.com/2020/12/04/opinion/sunday/pornhub-rape-trafficking.html) no tenía cabida en su sitio. No todo el mundo cree en la necesidad de una reforma. Algunos defensores de la Sección 230 sostienen que, tal como está redactada actualmente, permite la innovación, ya que las empresas emergentes y otras pequeñas empresas pueden no tener los recursos suficientes para proteger sus sitios con el mismo cuidado que, por ejemplo, Google. Pero la norma del deber de diligencia abordaría este problema, ya que lo que se considera una protección «razonable» para una empresa multimillonaria naturalmente será muy diferente de lo que se considera razonable para una pequeña empresa emergente. Otra crítica a la reforma de la Sección 230 es que sofocará la libertad de expresión. Pero eso simplemente no es cierto: todas las propuestas sobre el deber de diligencia que están sobre la mesa hoy en día abordan el contenido que _no_ protegido por la Primera Enmienda. La Primera Enmienda no protege la expresión que induzca daño (gritar falsamente «fuego» en un teatro abarrotado), fomente la actividad ilegal (aboga por el derrocamiento violento del gobierno) o que propague ciertos tipos de obscenidad (material sobre abuso sexual infantil) . * Las empresas de tecnología deberían aceptar este cambio. A medida que la interacción social y comercial se mueve cada vez más a Internet, los bajos incentivos de las plataformas de redes sociales para frenar los daños están reduciendo la confianza pública, lo que dificulta que la sociedad se beneficie de estos servicios y que las empresas en línea legítimas se beneficien de su prestación. La mayoría de las plataformas legítimas tienen poco que temer de la restauración del deber de cuidado. Gran parte del riesgo proviene del contenido generado por los usuarios, y muchas empresas en línea alojan poco o ningún contenido de este tipo. La mayoría de las empresas en línea también actúan de manera responsable y, mientras ejerzan un deber de diligencia razonable, es poco probable que se enfrenten a un litigio. Y, como se ha indicado anteriormente, las medidas razonables que se espera que tomen sean proporcionales a los riesgos y recursos conocidos de su servicio. Lo que los buenos actores tienen que conseguir es una delimitación más clara entre sus servicios y los de los malos actores. Una norma de deber de cuidado solo hará que rindan cuentas quienes no cumplan con ese deber. Por el contrario, una intervención reguladora más amplia podría limitar la discreción de todas las empresas e imponer costes a ellas, actúen de manera responsable o no. Las probabilidades de imponer una regulación tan amplia aumentan cuanto más tiempo persistan los daños de los malos actores. La sección 230 debe cambiar. _*Nota del editor (15 de agosto de 2021): Esta frase se ha actualizado para añadir la palabra «falsamente»._