20/6/2023

Tres perspectivas sobre derechos digitales: lecciones desde el epicentro de la investigación y el activismo

A comienzos de junio se celebró en Costa Rica una nueva edición de RightsCon. El evento, organizado por Access Now, se ha convertido en los últimos años en el más importante del mundo en materia de derechos digitales. Con la participación de expertos, funcionarios públicos, académicos, miembros de la sociedad civil y algunas compañías de tecnología, RightsCon fue el escenario de cerca de 600 eventos presenciales, virtuales e híbridos.

Un evento de estas dimensiones es, naturalmente, una explosión de ideas, testimonios, proyectos, –y algo de clickbait–. En todo caso, en medio de la sobreexposición es posible descubrir nuevas tendencias y discusiones alrededor de la investigación digital, el activismo en línea y el ejercicio de los derechos humanos en Internet. En esta entrada, abordamos tres puntos claves que nos dejó la última edición de RightsCon.

El lugar de las organizaciones de base en la gobernanza de Internet

Tradicionalmente, las organizaciones de derechos digitales han defendido la libertad de expresión, la igualdad, y la privacidad en los espacios digitales. Frente a debates e investigaciones que en ocasiones resultan técnicos o autocentrados, las organizaciones que no se especializan en tecnologías de la información y que desarrollan su agenda en el mundo offline, quedan relegadas de una conversación que también las afecta, pues con frecuencia están expuestas a ataques en línea o son objeto de otros comportamientos dañinos en Internet.

De esto dieron cuenta Juan Francisco Sandoval, ex jefe de la Fiscalía Especial contra la Corrupción en Guatemala, y Ulises Sánchez Morales, miembro de la organización mexicana Unasse, quienes en un evento organizado por Cejil y Artículo 19 México y Centroamérica describieron cómo habían sido objeto de campañas de desinformación y amenazas en línea.

La conversación no solo expuso la forma en la que los defensores de derechos humanos son atacados en redes sociales, en ocasiones con mensajes que incluyen elementos de discurso de odio, sino también cómo algunas decisiones de producto han afectado el alcance de estas agresiones. De acuerdo con Sandoval, desde que Twitter cambió su sistema de verificación, muchas de las cuentas de las que provienen los ataques cuentan con la placa azul que antes se reservaba a altos perfiles en la plataforma y que ahora está disponible para quien pague una suscripción. “Con las nuevas reglas de Twitter ya están certificados los ataques”, declaró en el evento.

Así, la búsqueda de un diálogo intersectorial al momento de discutir el rol de las plataformas y exigir mejoras en sus mecanismos de gobernanza, pasa también por la inclusión de organizaciones de base dedicadas a la defensa de los derechos humanos. El llamado a una pluralidad auténtica implica dar una tribuna a estos agentes para que participen de una conversación amplia alrededor de las preocupaciones y necesidades de las comunidades, como señaló en ese espacio Lesly Guerrero, miembro de la Cejil.

Moderación de contenidos: un problema más allá de la tecnología

Mientras que en un panel de RightsCon un grupo de expertos del Oversight Board –un órgano independiente de Meta que actúa como una Corte Suprema en temas de moderación– explicaba los criterios para seleccionar casos, evaluarlos a la luz de los tratados internacionales de derechos humanos y deliberar durante meses para finalmente tomar una decisión; en otro, Daniel Montaung, un antiguo moderador de Facebook en Kenia, relataba cómo durante su trabajo tenía apenas 25 segundos para decidir si una publicación debía ser eliminada o no de la plataforma.

El contraste de los dos eventos expone la enorme brecha que existe entre el la labor diaria de los moderadores, quienes trabajan de manera tercerizada en call-centers en países en vías de desarrollo, y la actividad del Oversight Board, un organismo que en dos años de actividad ha resuelto sólo 36 casos. 

Los efectos nocivos que sufren los moderadores por su labor han sido ampliamente documentados y Montaung mismo los certificó en el evento. Las horas de exposición al contenido más dañino de internet –imágenes violentas explítictas, abuso sexual infantil y discursos de odio– han dejado a muchos con síndrome de estrés postraumático y trastornos de sueño. A pesar de la inversión en sistemas automatizados y en experimentos garantistas como el del Oversight Board, los moderadores de contenido son el último eslabón en la cadena.

Además de los problemas ya conocidos de los sistemas de moderación, como los errores en la detección de publicaciones peligrosas o en la aplicación de sanciones, hay uno adicional que no depende de la tecnología: las condiciones de trabajo de los moderadores de contenido alrededor del mundo, la primera línea de defensa para la protección de los usuarios en redes sociales. 

Aunque se trata de un asunto de leyes laborales, los proyectos de regulación de plataformas, que empiezan a aplicarse o a discutirse alrededor del mundo, han dejado de lado este asunto, una de las piedras angulares en la lucha contra el contenido dañino en línea y la protección de los derechos humanos de quienes trabajan para las compañías de Internet. 

La inteligencia artificial no es el fin de la humanidad

Como era previsible, el auge de las herramientas de inteligencia artificial y las discusiones para regularlas pusieron este punto en el centro de la agenda de RightsCon. A diferencia del discurso alarmista que permea las conversaciones sobre IA, en el que se anticipa el dominio de las máquinas sobre la humanidad y la pérdida de millones de empleos, varios de los eventos fueron un llamado a la calma.

Para algunos, resulta sospechoso que buena parte de las alarmas sobre los riesgos de la IA provengan justamente de quienes entran a participar en ese mercado, como ciertos firmantes de una carta divulgada a comienzos de marzo que pedía detener los avances en los modelos. De acuerdo con Frederike Kaltheuner, de Human Rights Watch, en lugar de imaginar escenarios catastróficos, la discusión debería concentrarse en los riesgos que ya existen y que vician la IA, como la desinformación, los sesgos de los datos y la afectación de los derechos de los usuarios.

Como lo resalta Tate Ryan-Mosley, de MIT Technology Review, no se trata de desvirtuar los riesgos, sino de concentrarse en los más relevantes, aquellos que están lejos de llevar a la humanidad a su extinción u obsolescencia, pero cerca de aumentar las brechas existentes para comunidades que han sido históricamente marginadas y que ya empiezan a sufrir los daños de estas tecnologías, como ocurre, por ejemplo, con la población migrante o con hablantes de lenguas irreconocibles para los modelos de inteligencia artificial.