Carlos Guadián

Comunicación Digital

Formación

Data Analysis

Análisis de Redes Sociales (ARS)

Creación de contenidos

Desarrollo Web (Wordpress)

Transformación Digital

Carlos Guadián

Comunicación Digital

Formación

Data Analysis

Análisis de Redes Sociales (ARS)

Creación de contenidos

Desarrollo Web (Wordpress)

Transformación Digital

CluPad

🤐 El Peligro De La Censura Del Activismo Por Los Algoritmos Y La Moderación

🤐 El Peligro De La Censura Del Activismo Por Los Algoritmos Y La Moderación

La censura del activismo en plataformas digitales es algo que se produce de manera habitual. En ocasiones es el resultado de un error, de un falso positivo, de un algoritmo con un determinado sesgo, pero también puede ser el resultado de una moderación sobrepasada en falta de recursos y que lo ha dejado todo en la automatización.

Suscríbete a CluPad

El activismo y la censura oficial

El activismo ya está habituado a ser objetivo de censura en determinados países, ante determinados estamentos y por parte de determinadas organizaciones. Las formas de censura del activismo pueden ir desde la cultura de la cancelación a la despublicación de contenidos, pasando por el ostracismo digital.

Para sortear estos tipos de censura el activismo recurre a nuevos métodos, nuevos canales para poder difundir su mensaje y generar el cambio deseado. Por ejemplo, en China con la llegada de ClubHouse se vio un incremento de activismo en dicha aplicación de voz, ya que era muy complicado poder ejercer una censura previa a unos contenidos que se estaban emitiendo en directo. No tardó en llegar la prohibición de dicha aplicación, pero al menos lo intentaron.

Según el Internet Health Report 2020, las respuestas a la pandemia incluyen más vigilancia y censura. Las aplicaciones de «cumplimiento de la cuarentena» en numerosos países se prestan al abuso. La pandemia ha provocado nuevas restricciones a la libertad de expresión online en al menos 20 países.

Algunos gobiernos aprovechando la situación han obligado a algunas redes sociales a censurar determinados perfiles relacionados con el activismo. Recientemente Twitter bloqueó cuentas relevantes en India por una petición del gobierno que alegaba que inducían a la violencia. Parece que lo que tienen en común estos perfiles es haber publicado sobre el trato dado a las protestas de los granjeros por parte del gobierno (nada bueno por lo que parece). El bloqueo solo afecta a India. En esta situación la compañía se excusa en la legislación del país para alegar que es una “censura impuesta”.

Internet como tal sigue aportando mucho a la sociedad. Canales de comunicación y de expresión. Espacios para el activismo y la crítica y es precisamente este el motivo por el cual es cada vez más habitual encontrarnos con cierres de aplicaciones, plataformas o incluso de conexión de todo un país para evitar que se utilice para coordinar acciones y distribuir información contraría a un determinado régimen. Ejemplos recientes los tenemos en Rusia o Myanmar. Para muchos países ya es algo habitual. El primer recurso para controlar una situación socialmente crítica es apagar internet. Esta situación me hace pensar en como el activismo hace una comunicación líquida y en como cambian a canales no digitalizados.

Lo cierto es que el activismo de la sociedad civil puede modificar las cosas. En su lucha de David contra Goliat de vez en cuando consiguen darle la vuelta a la tortilla. Incluso con el surgimiento de nuevas modalidades de activismo como el que se apoya en blockchain y las criptomonedas para el llamado criptoactivismo.

Te puede interesar  📣 🤖 ¿Cómo cambiará la comunicación política con la llegada de la IA?

La censura de los algoritmos de moderación

Puede que una de las barreras más importantes con las que se está encontrando el activismo son los algoritmos de moderación. Algoritmos de moderación que provocan las quejas de algunos gobiernos.

La India amenaza con la cárcel a los empleados de Facebook, WhatsApp y Twitter. India prepara penas de cárcel para empleados de plataformas digitales que no acepten las condiciones de los reguladores en materia de moderación de contenidos. Otros países también están haciendo movimientos en esta línea. En Polonia, los legisladores elaboraron propuestas para impedir que Facebook y otros eliminen publicaciones potencialmente dañinas o prohíban el acceso a personas que incumplan sus normas comunitarias. En Brasil, Jair Bolsonaro, el presidente populista del país, amenazó con hacer lo mismo después de que el tribunal supremo local ordenara a Facebook prohibir a varios de sus principales aliados

Y por supuesto la queja de muchos activistas.

Tras el Red Dress Day del 5 de mayo, un día destinado a concienciar sobre las Mujeres y Niñas Indígenas Desaparecidas y Asesinadas (MMIWG), los activistas indígenas y los partidarios de la campaña descubrieron que las publicaciones sobre MMIWG habían desaparecido de sus cuentas de Instagram.

No es la primera vez que ocurre algo así, ya sucedió con BLM (Black Lives Matter) y la excusa de las plataformas es algo recurrente. Un fallo técnico que no explica el porqué ha sucedido ni lo que hay detrás de esos algoritmos de moderación que deciden si un contenido está permitido o no.

Los casos de MMIWG y BLM ejemplifican la dinámica de los «algoritmos de opresión» – 📖 no dejéis de darle un vistazo al libro, merece la pena -, en la que los algoritmos refuerzan antiguas relaciones sociales opresivas y reinstalan nuevos modos de racismo y discriminación.

Los sesgos de los algoritmos, de la Inteligencia Artificial que intenta suplir el trabajo humano en las plataformas puede perpetuar situaciones y provocar situaciones de equívoco difíciles de solventar. Pueden estar generando nuevas brechas sociales y evitando que aquellos que luchan para subsanarlas tengan éxito.

Taggs: