25/5/2023

¿De qué nos protegen las normas de las plataformas?

En los últimos años, los proyectos de regulación de plataformas han obligado a las compañías a luchar activamente contra lo que llaman “contenido dañino”. Es el caso de la Ley de Servicios Digitales, un ambicioso proyecto que se ha venido implementando en la Unión Europea y que ha servido de inspiración para proyectos similares, como la Online Safety Bill del Reino Unido o el llamado “proyecto de las fake news” en Brasil. 

Sin embargo, la categoría de contenido dañino tiene grandes vacíos debido a la falta de acuerdos sobre su definición, pues no se trata exclusivamente del contenido ilegal –como podría pensarse–. Aunque este concepto puede abarcar conductas prohibidas por las leyes de distintos países –acoso, discriminación o amenazas–, incluye también otro tipo de comportamientos que en la esfera digital pueden resultar problemáticos, como ocurriría con la promoción de trastornos alimenticios o de actividades peligrosas. 

Ante la falta de una definición legal establecida y transversal para un asunto que no distingue geografías, las normas comunitarias de las plataformas –aquellas políticas que establecen qué puede o no decirse en una red social– se presentan como una guía para entender qué clase de comportamientos son indeseados y cuáles pueden causar daño en la vida offline. Estas reglas, aunque impuestas unilateralmente por las compañías de redes sociales, suelen involucrar a expertos en seguridad y políticas públicas y a miembros de la sociedad civil y de la academia. Su actualización también está sujeta a las presiones de la prensa y de la opinión pública durante situaciones de emergencia o escándalos políticos, como lo fue en la pandemia y en las últimas elecciones presidenciales en Estados Unidos. 

Aunque las plataformas han desarrollado sus políticas para cubrir grandes áreas del comportamiento indeseado en línea, estos esfuerzos han dejado por fuera otro tipos de contenidos que podrían afectar a los usuarios. En esta entrada, le damos una mirada a tres políticas dirigidas a sancionar contenidos que podrían causar daño en la vida offline, y revisamos algunas de sus limitaciones y zonas grises:

Incitación al odio

Las plataformas diseñan sus políticas de odio para prohibir el contenido ofensivo basado en las características inherentes de una persona. Si bien cada compañía crea sus normas de acuerdo con sus propias concepciones, todas tienen como características protegidas la nacionalidad, la religión, la pertenencia étnica, la orientación sexual, el género o las discapacidades o enfermedades graves que pueda tener una persona.

Estas políticas no sólo sancionan los comentarios de discriminación explícita, sino la reproducción de estereotipos estigmatizantes, epítetos, tropos, expresiones para degradar a una persona, así como las publicaciones que injustificadamente vinculan a una población con actividades delictivas, grupos criminales o terroristas.

Como las normas comunitarias tienen un alcance global, en ocasiones su diseño pierde de vista el matiz del contexto local, que por razones sociales o políticas pueden tener grupos vulnerables específicos. Es el caso, por ejemplo, de ciertas profesiones que están excepcionalmente expuestas a riesgos y amenazas, como ocurre con periodistas o defensores de derechos humanos en algunos países de América Latina.

Lo mismo ocurre con otro tipo de discriminación: el que se basa en la clase social de una persona. Salvo Meta, ninguna de las principales plataformas de redes sociales incluye la clase como una característica protegida, a pesar del efecto de exclusión que puede provocar dentro de una sociedad y de la estudiada relación que existe entre el clasismo y otras formas de discriminación, como la racial. 

Acoso

Se trata probablemente del tipo de conducta dañina más prevalente y conocida por el usuario común, pues abarca desde burlas o negaciones frente a una tragedia, hasta insultos y lenguaje obsceno en general. 

No siempre es fácil comprobar hasta qué punto un comentario agresivo en redes sociales puede representar un daño para el usuario al que está dirigido, si se trata de una broma, de un intercambio consensuado o de respuestas airadas pero inofensivas entre quienes participan en una conversación digital. Por esto, es indispensable atender al contexto en el que se publican esta clase de publicaciones, como prevén algunas de las normas comunitarias.

En ocasiones, las plataformas incluyen en este tipo de políticas la protección a las víctimas de violencia sexual, doméstica o de eventos violentos como tiroteos o masacres, quienes –como ha ocurrido con algunas teorías de conspiración en Estados Unidos– están expuestas a que sus testimonios sean objeto de ataques, burlas o negaciones.

Sin embargo, las reglas de las plataformas dejan un área gris frente a otra clase de contenidos problemáticos, como aquellos en los que se adjudica la culpa de lo sucedido a las propias víctimas. Este puede ser el caso de eventos de violencias basadas en género en los que algunos comentarios en línea llegan a sugerir o afirmar que una persona es culpable de su propia agresión sexual o incluso de su feminicidio.

Así ocurrió, por ejemplo, con Valentina Trespalacios, una DJ que apareció muerta y con signos de tortura en enero de este año en Bogotá. Su caso, que tiene como principal sospechoso a su pareja, ha sido ampliamente comentado en redes sociales, donde algunos usuarios han incurrido en esta clase de revictimización, para la cual las plataformas no tienen normas claras.

Incitación a la violencia

Las redes sociales prohíben a su vez la incitación a la violencia, es decir, el contenido que glorifique eventos violentos, haga declaraciones a su favor, desee el daño de otros o incurra en amenazas directas. 

Estas normas, no obstante, tienen algunas excepciones. En contextos sociales y políticos álgidos, ciertas muestras de ira o indignación contra determinadas personas o situaciones, pueden estar amparadas por la libertad de expresión. El año pasado, por ejemplo, cuando inició la guerra en Ucrania, Meta permitió que los usuarios de sus plataformas en ese país pudieran desear la muerte de Vladimir Putin. Lo mismo ocurrió en enero de este año, cuando la misma compañía, por recomendación de su Consejo asesor de contenidos, permitió desear la muerte del ayatola Jamenei en Irán, teniendo en cuenta las jornadas de protestas que durante meses han tenido lugar en ese país.

A pesar de que las normas comunitarias tienden a sancionar un amplio espectro de contenidos y conductas problemáticas en la esfera digital, algunos de sus vacíos pueden dejar en circulación ciertos contenidos discriminatorios o revictimizantes. Además, la complejidad de algunas conversaciones, así como los aspectos políticos, sociales y culturales de cada país destacan la importancia de tener en cuenta el contexto para aplicar cualquier medida de moderación de contenidos que busque mantener el balance entre la seguridad y la libertad de expresión de los usuarios.