John F. Nevares Acevedo*

Introducción

Las plataformas digitales se consideran espacios de libre expresión. Sin embargo, se han convertido en canales para el acoso en línea. Este fenómeno plantea la necesidad de encontrar un equilibrio entre proteger la libertad de expresión y garantizar la seguridad de los usuarios. Aproximadamente cuatro de cada diez estadounidenses han sido víctimas de esta problemática, la cual se ve facilitada por el anonimato y el vasto alcance del Internet, afectando la salud mental y el bienestar de las personas a nivel global.[1] A pesar de las medidas implementadas por empresas como Facebook y X (anteriormente, Twitter), el acoso persiste, por lo que resulta necesario cuestionar la efectividad de estas políticas y la responsabilidad de dichas plataformas.

La Sección 230 de la Ley de Decencia en las Comunicaciones de 1996[2] (en adelante, “Sección 230”) surge como un punto central en el debate sobre la responsabilidad de las plataformas en línea. En esencia, la Sección 230 protege a las plataformas en línea de responsabilidad por el contenido generado por sus usuarios. Esta ley, diseñada para promover el crecimiento del Internet, ha sido criticada por permitir que las plataformas evadan responsabilidad ante contenidos dañinos.[3] Sin embargo, también ha sido defendida por preservar la libertad de expresión en el espacio digital.[4] La evolución del Internet, desde la implementación de la Sección 230, requiere una revisión crítica de su aplicabilidad en el contexto actual.

Este artículo aboga por una reconfiguración de la Sección 230 y propone una inmunidad condicionada basada en el cumplimiento de directrices específicas por parte de las plataformas digitales. Esta propuesta busca un equilibrio entre la protección de la libertad de expresión y la responsabilidad de las plataformas por la publicación de contenido perjudicial, como el discurso de odio y el ciberacoso. El enfoque sugerido pretende alinear las prácticas de moderación de contenido con valores democráticos y principios de la Primera Enmienda, en buscas de promover un ambiente digital seguro y constructivo.

El objetivo de reformar la Sección 230 es influir en la gestión del discurso público en plataformas digitales, creando espacios más seguros y fomentando conversaciones saludables. Al establecer directrices claras para las prácticas de moderación, se busca preservar el espíritu innovador de Internet, mientras se responsabiliza a las plataformas por su papel en la propagación de contenido perjudicial.

I. Fundamentos legales y políticos de la Sección 230

La Sección 230, una parte crucial de la Ley de Decencia en las Comunicaciones de 1996, fue concebida con el doble propósito de fomentar la libertad de expresión en el Internet y permitir que los proveedores de servicios de Internet y plataformas digitales autorregulen el contenido que sus usuarios compartan.[5] Esta medida se tomó para crear un “refugio seguro” legal para las plataformas digitales, protegiéndolas de ser responsabilizadas por el contenido generado por los usuarios.[6] Esta ley fue una respuesta a la emergente era del Internet que reconoció la necesidad de proteger a las plataformas que proveían espacios para los discursos de sus usuarios.[7] Fue un esfuerzo bipartidista que reflejó un consenso de que la promoción del discurso de los usuarios en línea era primordial, incluso ante posibles daños.[8] La esencia de la ley se captura en la siguiente disposición: “[n]ingún proveedor o usuario de un servicio de computadora interactivo será tratado como el editor o el orador de cualquier información proporcionada por otro proveedor de contenido de información”.[9]Esto significa que las plataformas digitales gozan de inmunidad de los daños causados por el contenido que sus usuarios publican.

A lo largo de los años, la Sección 230 ha experimentado una evolución significativa, adaptándose al cambiante panorama del Internet y enfrentando varios desafíos legales y diversas interpretaciones.[10] Recientemente, ha sido el centro de un intenso debate. Los defensores argumentan su papel crítico en mantener la libertad de expresión en el Internet,[11] mientras que los críticos la ven como un escudo que permite a las plataformas evadir la responsabilidad por el contenido dañino que se publique en ellas.[12] La flexibilidad de la ley ha sido probada en varios contextos legales, pero su principio central permanece intacto: promover el discurso de los usuarios a la misma vez que se proporciona la protección legal a los intermediarios en línea. Esta evolución refleja la naturaleza dinámica de la ley y la política de Internet, donde los marcos legales deben adaptarse a los avances tecnológicos y cambios sociales.

Como se discutirá a fondo en la Sección 3, las interpretaciones judiciales de la Sección 230 han respaldado consistentemente sus disposiciones de inmunidad, formando un pilar de la ley del Internet en los Estados Unidos.[13] Los tribunales han dictaminado que las plataformas en línea no son editoras del contenido generado por los usuarios, por lo tanto, no son responsables de su legalidad o moralidad. Esta postura legal ha sido fundamental en la configuración del paisaje de la comunicación en línea, permitiendo que una amplia gama de voces y opiniones florezcan en  el Internet. La ley ha sido instrumental en proteger a las plataformas digitales de una avalancha de demandas basadas en el contenido de los usuarios de ellas, permitiéndoles centrarse en la innovación y el crecimiento, sin el temor de desafíos legales constantes.

El desafío continuo con la Sección 230 radica en lograr un equilibrio entre la inmunidad que proporciona y la necesidad de responsabilidad, especialmente en casos de acoso en línea y discurso de odio.[14] El debate en torno a esta sección refleja preocupaciones más amplias de la sociedad sobre el rol de la tecnología en el discurso público y las responsabilidades de quienes alojan y moderan contenido en línea. Los críticos argumentan que el marco actual permite a las plataformas descuidar su responsabilidad en la moderación de contenido dañino.[15] No obstante, es importante notar que las protecciones de la Sección 230 no son absolutas. Estas no incluyen la protección de las empresas que violan la ley federal criminal ni de aquellas que crean contenido ilegal o dañino. Además, no eximen a las empresas de reclamaciones de propiedad intelectual.[16]

La Sección 230 ha impactado significativamente cómo las plataformas en línea gestionan el contenido. Ha provocado que estas plataformas desarrollen diversas estrategias de moderación de contenido, desde filtros automatizados hasta moderación impulsada por la comunidad, navegando la delgada línea entre la censura y la responsabilidad. Dicha ley ha sido una piedra angular en la configuración del Internet tal como lo conocemos, permitiendo a las plataformas alojar contenido generado por los usuarios sin asumir las responsabilidades legales típicas asociadas con los editores tradicionales. Este escudo legal ha permitido a las plataformas experimentar con diferentes técnicas de moderación, equilibrando la necesidad de controlar contenido dañino mientras fomentan la libre expresión. Adicionalmente, dicha ley ha permitido que las plataformas digitales crezcan y adquieran tantos usuarios como lo han hecho. Sin embargo, esta libertad también ha llevado a críticas, particularmente en cuanto a la aplicación inconsistente de políticas de moderación y los desafíos para abordar de manera efectiva el contenido dañino o engañoso.

Las críticas actuales a la Sección 230 se centran en su aparente incapacidad para abordar la propagación de la desinformación, el discurso de odio y el acoso en línea.[17] Existe un creciente llamado a reformar la ley para hacer que las plataformas sean más responsables del contenido que alojan. El debate es polarizado: mientras que algunos abogan por enmiendas significativas o incluso por la derogación de la Sección 230, otros advierten sobre las consecuencias no deseadas sobre la represión de la libertad de expresión y la innovación.[18] El desafío radica en encontrar un equilibrio que aborde estas preocupaciones sin socavar los principios fundamentales que han permitido el crecimiento de Internet y el florecimiento de las plataformas digitales.

II. La Libertad de expresión y sus límites bajo la Ley Federal

La Primera Enmienda a la Constitución de los Estados Unidos es un pilar de la democracia estadounidense, declarando inequívocamente: “El Congreso no hará ninguna ley respecto a la creación de una religión, o prohibiendo el libre ejercicio de la misma; o reduciendo la libertad de expresión, o de prensa; o el derecho de la gente a reunirse pacíficamente, y a solicitar al Gobierno la reparación de agravios”.[19] Esta disposición asegura el principio fundamental de la libertad de expresión, enfatizando su rol indispensable en fomentar la gobernanza democrática a través de la facilitación del debate abierto y el intercambio de ideas sin obstáculos.[20]

A pesar de las extensas protecciones conferidas por la Primera Enmienda, la Corte Suprema ha establecido ciertas categorías de expresión que están exentas de protección constitucional. Algunas de estas categorías son las siguientes:

  1. Obscenidad: En Miller v. California, el Tribunal Supremo de Estados Unidos explicó que, para determinar si un material es obsceno, un tribunal deberá evaluar (a) si la persona promedio, aplicando los estándares comunitarios contemporáneos, encontraría que la obra, tomada en su conjunto, apela al interés lascivo; (b) si la obra representa o describe, de una manera evidentemente ofensiva, una conducta sexual específicamente definida por la ley estatal aplicable, y (c) si la obra, en su conjunto, carece de seriedad literaria, artística, política o valor científico.[21]
  2. Difamación: En New York Times v. Sullivan, el Tribunal Supremo de Estados Unidos estableció que, para que un funcionario público pueda prevalecer en un reclamo de difamación, este debe probar que el demandado hizo declaraciones falsas con “malicia real”, es decir, “con claro desprecio de si eran falsas o no”.[22]
  3. Incitación a actos ilegales: En Brandenburg v. Ohio, el Tribunal Supremo de Estados Unidos expresó que “[l]as garantías constitucionales de libertad de expresión y de prensa no permiten que un Estado prohíba o proscriba la defensa del uso de la fuerza o de la violación de la ley, excepto cuando dicha defensa esté dirigida a incitar o producir actos ilegales inminentes y sea probable que incite o produzca dichos actos”.[23]
  4. Palabras de lucha: En Chaplinsky v. New Hampshire, el Tribunal Supremo de los Estados Unidos definió las “palabras de lucha” como “aquellas que por su mera expresión causan daño o tienden a incitar a una alteración inmediata de la paz”.[24]

Actualmente, se contempla una enmienda a la Sección 230 de la Ley de Decencia en las Comunicaciones que busca equilibrar la preservación de la libertad de expresión con la mitigación de la proliferación de contenido dañino en línea. Tal enmienda obligaría a las plataformas a implementar términos y condiciones y políticas de moderación dirigidas a limitar las formas de expresión no protegidas por la Primera Enmienda. Esto posicionará a las plataformas digitales tanto como foros dinámicos para la libre expresión, como foros protegidos de actividades ilegales.

III.           La Sección 230 en acción: Estudio de casos relevantes

En Zeran v. America Online, Inc., el Tribunal de Apelaciones de Estados Unidos para el Cuarto Circuito emitió una determinación significativa para la interpretación de la Sección 230.[25] El caso surgió cuando Kenneth Zeran demandó a America Online, Inc. (en adelante, “AOL”) por difamación.[26] Este alegó que se propagaron anuncios falsos en AOL que lo vinculaban con un ataque en un edificio federal de Oklahoma City que causó la muerte de 168 personas.[27] A pesar de las repetidas solicitudes de Zeran hacia AOL para que retirara el contenido ofensivo, la situación escaló cuando un locutor de radio difundió la falsa información, llevando a un aluvión de acoso contra Zeran.[28] Tras un análisis de la Sección 230, el Tribunal de Circuito falló a favor de AOL, declarando que bajo dicha Sección los proveedores de servicios de Internet no son responsables por el contenido publicado por sus usuarios.[29] Esta decisión subrayó la importancia de la Sección 230 para proteger a las plataformas en línea de la responsabilidad por el contenido generado por sus usuarios, resaltando al mismo tiempo los desafíos que plantea en casos de difamación y acoso.

En Fair Housing Council, et al v. Roommates.com, LLC, el Tribunal de Apelaciones de Estados Unidos para el Noveno Circuito tomó una decisión significativa que moldeó la interpretación de la Sección 230.[30] El caso giró en torno a Roommates.com, una página web que emparejaba a personas que alquilaban habitaciones con aquellas que las buscaban. El tribunal encontró que la práctica de la página web que requería que los usuarios respondieran preguntas sobre género, orientación sexual y estado familiar, para luego usar las respuestas para emparejar a los compañeros de cuarto, sobrepasaba los límites de la inmunidad de la Sección 230.[31] Esto se debió a que las acciones de la página web iban más allá de la mera facilitación de contenido; contribuía activamente a la creación o desarrollo de contenido discriminatorio.[32] La decisión del tribunal fue una desviación notable de la amplia inmunidad típicamente otorgada bajo la Sección 230, destacando que las páginas web podrían perder esta protección si se encontraba que eran creadores o desarrolladores de contenido ilegal.[33] Este caso estableció que, aunque la Sección 230 ofrece protecciones significativas, no brinda inmunidad absoluta en situaciones donde una plataforma contribuye a la ilegalidad del contenido.[34]

En Barnes v. Yahoo! el Tribunal de Apelaciones del Noveno Circuito abordó la cuestión de si Yahoo!, Inc. (en adelante, “Yahoo”), como proveedor de servicios de Internet, podía ser responsabilizado por no eliminar contenido ofensivo publicado por un tercero.[35] La demandante, Cecilia Barnes, había sido victimizada por un exnovio que creó perfiles no autorizados en Yahoo con sus fotos desnudas e información de contacto, lo que condujo a acoso de parte de otros usuarios.[36] A pesar de las promesas de Yahoo de eliminar el contenido, los perfiles permanecieron activos.[37] Barnes demandó a Yahoo, pero el tribunal sostuvo que, bajo la Sección 230 de la Ley de Decencia en las Comunicaciones, Yahoo era inmune de responsabilidad por  el contenido de terceros.[38] El caso resaltó las complejidades en torno a la aplicación de promesas hechas por proveedores de servicios y los límites de la inmunidad de la Sección 230. Esta decisión subrayó los desafíos legales en equilibrar la protección de individuos contra la amplia inmunidad otorgada a los proveedores de servicios de internet bajo la legislación actual.

En Backpage.com, LLC v. Hoffman, el Tribunal de Distrito de Estados Unidos para el Distrito de Nueva Jersey abordó el conflicto entre las leyes estatales y la inmunidad federal bajo la Sección 230.[39] El caso se centró en la Ley de Prevención, Protección y Tratamiento de la Trata de Personas de Nueva Jersey, que criminalizaba la publicación de anuncios en línea que ofrecían o implicaban actos sexuales comerciales con menores, independientemente de si el publicador conocía la edad de la persona en el anuncio o no.[40] Backpage.com, un servicio de publicidad clasificada en línea, impugnó la ley y argumentó que esta iba en contra de la Sección 230, que establece que los proveedores de servicios de Internet no pueden ser responsabilizados por el contenido publicado por terceros.[41] El tribunal concedió una medida cautelar preliminar contra la aplicación de la ley de Nueva Jersey, reconociendo que la Sección 230 va antes que cualquier ley estatal contradictoria.[42] Este caso destacó las complejidades de equilibrar los esfuerzos estatales para combatir la trata de personas y la explotación infantil frente al objetivo de la ley federal de proteger a los proveedores de servicios en línea de ser responsabilizados por el contenido creado por terceros.

La evolución de la jurisprudencia en torno a la Sección 230 refleja una lucha judicial por equilibrar su intención original —fomentar la libertad de expresión y la innovación en el Internet— con las crecientes preocupaciones sociales sobre el contenido en línea dañino. Los tribunales han sido cautelosos en su enfoque, esforzándose por preservar la robusta inmunidad que proporciona la Sección 230, pero cada vez más conscientes de que la inmunidad absoluta puede llevar a resultados injustos.

IV.            Análisis comparativo de los términos y condiciones de las plataformas principales

Facebook, a través de sus Estándares Comunitarios, ha implementado una nueva política específicamente diseñada para combatir el acoso y la intimidación masiva.[43] Estos estándares son notables porque van más allá de los requerimientos de la Sección 230, demostrando un compromiso con la autorregulación y el reconocimiento de la necesidad en abordar las complejidades del acoso en línea.  Este movimiento es significativo ya que establece un estándar más alto para la protección del usuario y refleja un entendimiento de la naturaleza evolutiva de las interacciones en línea.

Instagram ha introducido nuevas formas de proteger a su comunidad del abuso, incluyendo advertencias en los comentarios y filtros de contenido; demostrando su dedicación a la seguridad del usuario y medidas proactivas contra el abuso en línea.[44] Estas medidas están diseñadas para proteger a los usuarios de contenido abusivo como el racismo y el sexismo. El compromiso de Instagram de actualizar sus sistemas para una eliminación más rápida de contenido abusivo es un testimonio de su dedicación a la seguridad del usuario. Operando bajo la amplia inmunidad proporcionada por la Sección 230, Instagram trabaja activamente para crear un entorno en línea más seguro.

Las reglas y políticas de X (anteriormente, Twitter) sobre comportamiento abusivo incluyen, por ejemplo, permitir a los usuarios limitar quién puede responder a sus tweets e implementar advertencias para lenguaje potencialmente dañino. Estas reglas se alinean con su estrategia para detectar y eliminar contenido abusivo usando la tecnología.[45] Siendo un aspecto clave de su estrategia, este enfoque se alinea tanto con la esencia de la Sección 230 como con una gobernanza responsable de la plataforma. Las políticas de X, detalladas en su página de Abuso y Hostigamiento, son parte de los esfuerzos para asegurar que los usuarios se sientan seguros al expresar sus puntos de vista, así fomentando un ambiente de diálogo abierto y opiniones diversas.[46]

El compromiso de TikTok con una comunidad en línea segura es evidente en sus acciones contra el acoso y el hostigamiento, como se detalla en su serie de Bienestar Comunitario.[47] Sus directrices incluyen la eliminación de contenido que viola las directrices y la suspensión o prohibición de usuarios que participan en acoso.[48] Esto lo hace a través de usuarios que reportan el contenido inapropiado en su página.[49] A pesar de que tienen la inmunidad brindada por la Sección 230, TikTok activamente aplica estas políticas. Según su Informe de Ejecución de las Normas Comunitarias, de abril a junio de 2021, TikTok eliminó más de 81 millones de videos a nivel global por violar sus directrices.[50] De estos 81 millones de videos eliminados, un porcentaje sustancial fue identificado y eliminado dentro de las 24 horas de su publicación.[51]

Un análisis comparativo de las políticas de redes sociales revela enfoques variados para manejar el acoso. Mientras que las directrices de plataformas como Facebook, por ejemplo, son extensas y específicas, las de otras redes sociales pueden ser menos detalladas. Además, no todas las plataformas aplican sus políticas de maneras consistentes. Por ejemplo, Instagram describe lo que es el acoso como el “contacto no deseado repetido” y Twitter especifica que considera acoso como “comportamientos denunciados que son unilaterales o incluyen amenazas”.[52] La efectividad de estos marcos legales depende no solo de las políticas en sí, sino también del compromiso de las plataformas para aplicarlas activa y consistentemente. El informe reciente de TikTok indica una alta tasa de eliminación proactiva de contenido violatorio, mostrando sus esfuerzos de aplicación.[53] Sin embargo, este nivel de aplicación no es uniforme en todas las plataformas, lo que lleva a experiencias variadas de los usuarios con respecto a la seguridad en línea y el acoso.

Por otro lado, existen brechas significativas en los términos y condiciones de las plataformas de redes sociales, especialmente en términos de comprensión por parte de los usuarios y la protección de grupos vulnerables. El lenguaje legal complejo puede conducir a una falta de consentimiento informado entre los usuarios. Además, los procesos de verificación de edad frecuentemente son inadecuados, permitiendo que los usuarios menores de edad accedan a estas plataformas sin la supervisión adecuada.[54] Esta situación exige una estandarización de los procesos de registro y una mejora en la claridad para proteger mejor a los usuarios y adherirse a estándares éticos.

V. Propuestas de reforma y enmiendas a la Sección 230

Los recientes esfuerzos legislativos para reformar la Sección 230 reflejan una creciente preocupación sobre el papel de las plataformas digitales en la moderación de contenido. Varias propuestas de ley sugieren enmiendas que van desde limitar la inmunidad proporcionada a las plataformas hasta imponerle mayor responsabilidad del contenido que alojan. Estas iniciativas buscan abordar temas como la desinformación, el discurso de odio y la difusión de contenido dañino, considerando también las implicaciones para la libertad de expresión y la innovación.[55] El debate sobre la reforma de la Sección 230 ha sido complejo y multifacético, sin un consenso sobre reformas específicas o teóricas. Las propuestas a menudo se centran en ampliar las exenciones para la inmunidad, clarificar partes del proceso de gobernanza del contenido o enfocarse en contenido ilegal.[56] Algunas propuestas separan las protecciones de responsabilidad para el discurso orgánico y patrocinado, con reglas más estrictas para el discurso pagado, reduciendo la posible fricción con la Primera Enmienda. Por ejemplo, el SAFE TECH Act altera claramente el alcance de la Sección 230 al eliminar las protecciones de responsabilidad para las plataformas en situaciones donde reciben pagos para mostrar contenido o han creado o patrocinado directamente el contenido en cuestión.[57]

Ciertos expertos en derecho, tecnología y política han sugerido varias enmiendas a la Sección 230. Estas incluyen clarificar el alcance de la inmunidad, introducir mecanismos para el recurso de los usuarios y promover la transparencia en las prácticas de moderación de contenido.[58] El potencial impacto de estas enmiendas podría ser favorable para nuestra sociedad, pues fomentarían un comportamiento más responsable de las plataformas. Esto mejoraría la confianza de los usuarios en las plataformas y fomentaría un ambiente más saludable en línea. Las propuestas orientadas a proteger a los consumidores, por ejemplo, exigen que las plataformas publiquen una política de uso aceptable con reglas de contenido específicamente definidas junto con un informe de transparencia bianual.[59] Este enfoque busca codificar la expectativa de que las plataformas tengan reglas claras aplicadas de manera transparente y mecanismos para resolver disputas. Sin embargo, estas propuestas deben navegar cuidadosamente las complejidades de las resoluciones de disputas y deben tener la flexibilidad necesaria para que los proveedores de servicios se adapten a las circunstancias cambiantes.

Uno de los desafíos críticos en la reforma de la Sección 230 es mantener el equilibrio delicado entre prevenir el ciberacoso y proteger la libertad de expresión. Este equilibrio es crucial para asegurar que el Internet siga atrayendo puntos de vista abiertos y diversos sin convertirse en un refugio para contenido dañino o ilegal. Algunas propuestas de reforma intentan establecer estándares de comportamiento, articulando un estándar de comportamiento suficientemente responsable y estableciendo mecanismos de aplicación. Sin embargo, definir y evaluar tal estándar plantea riesgos de prohibir comportamientos deseables y de permitir comportamientos irresponsables.

La aplicación y ejecución de cualquier reforma a la Sección 230 requerirá una consideración cuidadosa. Esto implica determinar los umbrales de responsabilidad, los mecanismos para la resolución de disputas y los roles de varios actores, incluyendo las plataformas, los usuarios y los organismos reguladores. La ejecución efectiva también dependerá de la claridad del marco legal y la capacidad de las plataformas para cumplir con nuevas regulaciones. Otro aspecto de los esfuerzos de reforma implica la supervisión de la Inteligencia Artificial (IA) y la automatización, ya que estas tecnologías juegan un papel significativo en la moderación y curación de contenido.[60]

Los cambios en la ley federal podrían influir en las prácticas de moderación de contenido en todo el mundo. Esto plantea preguntas sobre la jurisdicción, la aplicabilidad de los estándares estadounidenses a nivel global y el potencial de conflictos con marcos legales de otros países. Los actores internacionales observan de cerca los desarrollos en Estados Unidos, ya que podrían establecer precedentes que afecten la gobernanza global del Internet. El reto es asegurar que las reformas estadounidenses se alineen con las normas internacionales y no creen un paisaje de Internet fragmentado. Además, existe el riesgo de que unas regulaciones estrictas federales puedan ser utilizadas por otras naciones para justificar controles de Internet más restrictivos, impactando potencialmente la libertad de expresión global y el flujo de información.[61]

El futuro de la interacción en línea en la era posterior a la enmienda de la Sección 230 probablemente será moldeado por cómo las reformas equilibren los intereses contrapuestos. Si tienen éxito, las reformas podrían conducir a un entorno en línea más responsable y confiable. Sin embargo, también existe el riesgo de que unas reformas mal diseñadas conduzcan a una mayor censura, reducción de la innovación y una comunidad en línea menos vibrante. Las enmiendas podrían redefinir la naturaleza de las plataformas en línea, pasando de foros abiertos a entidades con mayor control editorial. Este cambio podría alterar la forma en que los usuarios interactúan, comparten información y se expresan en línea. El desafío para los legisladores es diseñar enmiendas que protejan a los usuarios y a la sociedad de contenido dañino, preservando al mismo tiempo el papel del Internet como una plataforma global para la libre expresión y la innovación. El resultado de estas reformas influirá significativamente en la evolución de la comunicación y la formación de comunidades digitales en la era digital.

Conclusión

La inmunidad otorgada por la Sección 230 de la Ley de Decencia en las Comunicaciones, originalmente destinada a proteger la libertad de expresión y fomentar la innovación, ha sido objeto de escrutinio. Es evidente que, aunque este escudo legal ha sido fundamental en la era digital, también ha permitido inadvertidamente la proliferación de contenido dañino. Por lo tanto, la necesidad de una reforma es clara. Resulta necesario enmendar la Sección 230 para incluir pautas específicas para los términos y condiciones y las prácticas de moderación de contenido de las plataformas en línea, enfocándose en prevenir el discurso de odio, el ciberacoso, la desinformación y otros contenidos perjudiciales. Dichas pautas deberán ser, por un lado, suficientemente estrictas para prevenir el contenido dañino y, por otro lado, suficientes laxas para que el mercado de ideas de la Primera Enmienda no se vea afectado. Si ocurre un evento de ciberacoso, desinformación, etc., y resulta que la plataforma en línea siguió las medidas propuestas por la enmienda a la Sección 230, dicha plataforma gozaría aun de la inmunidad. Sin embargo, si resulta que una plataforma en línea no siguió las medidas de la enmienda a la Sección 230, dicha plataforma se expone a multas y/o litigios. Esta enmienda aseguraría un enfoque estandarizado en todas las plataformas, protegería la libertad de expresión y salvaguardaría a los usuarios contra abusos.

La Primera Enmienda enfatiza que el Congreso no hará ninguna ley que restrinja la libertad de expresión o de prensa.[62] En este contexto, nuestra recomendación busca alinear las plataformas digitales con estos derechos fundamentales, asegurando que las prácticas de moderación de contenido no infrinjan la libertad de expresión al mismo tiempo que abordan los problemas generalizados de acoso en línea y desinformación. Dicha enmienda a la Sección 230 usará como guía las decisiones de la Corte Suprema de los Estados Unidos respecto a las expresiones que no pertenecen al mercado de ideas.

Reformar la Sección 230 tendrá un impacto significativo en cómo se lleva a cabo el discurso público en las plataformas digitales. Al establecer pautas claras para la moderación de contenido, las plataformas pueden crear espacios más seguros para los usuarios, reduciendo la prevalencia de contenido perjudicial. Este cambio no se trata solo de cumplimiento legal, sino que también se trata de fomentar un entorno digital donde puedan prosperar conversaciones saludables y constructivas. Tal ambiente fomentaría puntos de vista diversos, adhiriéndose al espíritu de la Primera Enmienda, que valora un intercambio robusto de ideas, así evitando que se proliferen las expresiones que no pertenecen en dicho mercado.

Nuestra enmienda propuesta a la Sección 230, con su enfoque en pautas estandarizadas de moderación de contenido y términos y condiciones, representa un paso hacia un futuro digital más democrático. Reconoce el papel crítico de las plataformas digitales en la configuración del discurso público y asegura que estas plataformas sean responsables del contenido que alojan. Este enfoque, informado por investigaciones y discursos públicos continuos, busca preservar el espíritu innovador de internet alineando las prácticas de las plataformas digitales con los valores fundamentales de la democracia y los principios consagrados en la Primera Enmienda.

* Estudiante de tercer año en la Facultad de Derecho de la Universidad Interamericana de Puerto Rico.

[1] Emily A. Vogels, The State of Online Harassment, PEW RESEARCH CENTER (13 de enero de 2021), https://www.pewresearch.org/internet/2021/01/13/the-state-of-online-harassment/.

[2] 47 U.S.C.A. § 230 (Westlaw through Pub. L. No. 118.39);

[3] Warner, Hirono, Klobuchar Announce the Safe Tech Act to Reform Section 230, (5 de febrero de 2021), https://www.warner.senate.gov/public/index.cfm/2021/2/warner-hirono-klobuchar-announce-the-safe-tech-act-to-reform-section-230.

[4] John Samples, Why the Government Should Not Regulate Content Moderation of Social Media, CATO INSTITUTE POLICY ANALYSIS, no. 865, (9 de abril de 2019), https://ssrn.com/abstract=3502843.

[5] 47 U.S.C.A. § 230 (Westlaw through Pub. L. No. 118.39); Section 230 (47 U.S.C. § 230), ELECTRONIC FRONTIER FOUNDATION, https://www.eff.org/issues/cda230 (última visita 13 de marzo de 2024).

[6] Id.

[7] Id.

[8] Id.

[9] 47 U.S.C.A. § 230 (Westlaw through Pub. L. No. 118.39) (traducción suplida).

[10] Section 230 (47 U.S.C. § 230), ELECTRONIC FRONTIER FOUNDATION, https://www.eff.org/issues/cda230 (última visita 13 de marzo de 2024).

[11] Véase, e.g., Samples, supra nota 3.

[12] Rozenshtein, Alan Z, Interpreting the Ambiguities of Section 230, BROOKINGS INSTITUTION, (26 de octubre de 2023), https://www.brookings.edu/articles/interpreting-the-ambiguities-of-section-230/.

[13] Véase Malwarebytes, Inc. v. Enigma Software Grp. USA, LLC, 141 S. Ct. 13 (2020) (Thomas, J., concurriendo con la denegación de certiorari) (el juez discute la tendencia de las cortes inferiores a favor de conferir inmunidad a la luz de la Sección 230).

[14] Mark R. Warner, The Safe Tech Act (Safeguarding Against Fraud, Exploitation, Threats, Extremism and Consumer Harms Act), SENATE.GOV, https://www.warner.senate.gov/public/_cache/files/9/4/946ef55b-5d08-4f72-9ca0-f4394303d5f2/CA92EA4F424BCFD48E816A4153A89380.the-safe-tech-three-pager.pdf. (última visita 13 de marzo de 2024).

[15] Véase, e.g., Warner, Hirono, Klobuchar Announce the Safe Tech Act to Reform Section 230, supra nota 2.

[16] Supra nota 5.

[17] Warner, Hirono, Klobuchar Announce the Safe Tech Act to Reform Section 230, (5 de febrero de 2021), https://www.warner.senate.gov/public/index.cfm/2021/2/warner-hirono-klobuchar-announce-the-safe-tech-act-to-reform-section-230.

[18] Id.

[19] CONST. EE. UU. enm. 1. (traducción suplida).

[20] First Amendment, CORNELL LAW SCHOOL LEGAL INFORMATION INSTITUTE, https://www.law.cornell.edu/wex/first_amendment (última visita 8 de mayo de 2024).

[21] Miller v. California, 413 U.S. 15, 24 (1973).

[22] New York Times v. Sullivan, 376 U.S. 254, 279-80 (1964) (traducción suplida).

[23] Brandenburg v. Ohio, 395 U.S. 444, 447 (1969).

[24] Chaplinsky v. New Hampshire, 315 U.S. 568, 572 (1942).

[25] Zeran v. America Online, Inc., 129 F. Supp. 327 (2nd Cir. 1997).

[26] Id.

[27] Id. en la pág. 328.

[28] Id.

[29] Id.

[30] Fair Housing Council, et al v. Roommates.com, LLC, 521 F.3d 1157 (9th Cir. 2008).

[31] Id. en la pág. 1175.

[32] Id. en la pág. 1166.

[33] Id. en las págs. 1162-1163.

[34] Id. en la pág. 1168.

[35] Barnes v. Yahoo!, Inc., 570 F.3d 1096 (9th Cir. 2009).

[36] Id. en la pág. 1098.

[37] Id.

[38] Id.

[39] Backpage.com, LLC v. Hoffman, No. 13-cv-03952, 2013 WL 4502097 (N.D.J., Aug. 20, 2013).

[40] Id.en las págs. *7-10; N.J. STAT. ANN. § 2C:13-10 (West 2013).

[41] Backpage.com, LLC v. Hoffman, No. 13-cv-03952, 2013 WL 4502097 (N.D.J., Aug. 20, 2013).

[42] Id. en la pág. *20.

[43] Bullying and Harassment, FACEBOOK TRANSPARENCY CENTER, https://transparency.fb.com/policies/community-standards/bullying-harassment (última visita 13 de marzo de 2024).

[44] Véase Adam Mosseri, Introducing New Ways to Protect Our Community from Abuse, INSTAGRAM (10 de agosto de 2021), https://about.instagram.com/blog/announcements/introducing-new-ways-to-protect-our-community-from-abuse.

[45] Abuse and harassment, X HELP CENTER (marzo 2024), https://help.twitter.com/en/rules-and-policies/abusive-behavior (última visita 13 de marzo de 2024).

[46] Id.

[47] Taking action against bullying and harassment, TIKTOK NEWSROOM (21 de agosto de 2019), https://newsroom.tiktok.com/en-us/taking-action-against-bullying-and-harassment.

[48] Id.

[49] Id.

[50] Communitiy Guidelines Enforcement Report, TIKTOK (13 de octubre de 2021), https://www.tiktok.com/transparency/en/community-guidelines-enforcement-2021-2/

[51] Id. (estableciendo que entre el 80% y 94.5% del contenido reportado fue removido en las primeras 24 horas de publicación.).

[52] Pater, John A., Moon Kim, Elizabeth D. Mynatt, y Casey Fiesler, Characterizations of Online Harassment: Comparing Policies Across Social Media Platforms, ASSOCIATION FOR COMPUTING MACHINERY (ACM) DIGITAL LIBRARY, (13 de noviembre de 2016), https://dl.acm.org/doi/10.1145/2957276.2957297.

[53] Id.

[54] Gold, Ashley, Push for Age Checks Presents Online Platforms with a Thorny Challenge, AXIOS (6 de marzo de 2023), https://www.axios.com/2023/03/06/age-checks-online-children-social-media-privacy.

[55] Section 230: An Overview, CONGRESSIONAL REVIEW SERVICE (4 de enero de 2024), https://crsreports.congress.gov/product/pdf/R/R46751.

[56] The Justice Department Unveils Proposed Section 230 Legislation, U.S. DEPARTMENT OF JUSTICE (23 de septiembre de 2020), https://www.justice.gov/opa/pr/justice-department-unveils-proposed-section-230-legislation.

[57] Chris Riley & David Morar, Legislative efforts and policy frameworks within the Section 230 debate, BROOKINGS (21 de septiembre de. 2021), https://www.brookings.edu/articles/legislative-efforts-and-policy-frameworks-within-the-section-230-debate/.

[58] Véase Daniella Draper, Summarizing the Section 230 Debate: Pro-Content Moderation vs Anti-Censorship, BIPARTISAN POLICY CENTER (5 de julio de 2022), https://bipartisanpolicy.org/blog/summarizing-the-section-230-debate-pro-content-moderation-vs-anti-censorship.

[59] Riley & Morar, supra nota 52.

[60] Social Media: Misinformation and Content Moderation Issues for Congress, CONGRESSIONAL RESEARCH SERVICE (27 de enero de 2021), https://crsreports.congress.gov/product/pdf/R/R46662.

[61] Riley & Morar, supra nota 22.

[62] CONST. EE. UU. enm. I.

Share.

Leave A Reply

Skip to content