Carlos Guadián

Comunicación Digital

Formación

Data Analysis

Análisis de Redes Sociales (ARS)

Creación de contenidos

Desarrollo Web (Wordpress)

Transformación Digital

Carlos Guadián

Comunicación Digital

Formación

Data Analysis

Análisis de Redes Sociales (ARS)

Creación de contenidos

Desarrollo Web (Wordpress)

Transformación Digital

CluPad

¿Las Redes Sociales amplifican las publicaciones más emotivas, incendiarias o falsas?

septiembre 6, 2022 CluPad
¿Las Redes Sociales amplifican las publicaciones más emotivas, incendiarias o falsas?

Tener la clave, la receta con la que las Redes Sociales amplifican las publicaciones para generar el máximo de reacciones es lo que buscan medios, influencers y seguramente la mayoría de usuarios. Obtener me gustas, republicaciones y comentarios proporcionan un buen chute de endorfinas. Una situación que acaba enganchando y de la que supuestamente es responsable el algoritmo de selección de contenidos de las Redes Sociales.

Suscríbete a CluPad

¿Cuál es la clave? Todos nos hemos dado cuenta de que determinado tipo de contenidos reciben más atención por parte de los usuarios. O al menos es la percepción que tenemos. O no es cierto que una de las acusaciones más recurrentes a las Redes Sociales es que sus algoritmos promocionan el contenido más emocional, el que provoca más ira, odio o sencillamente informaciones falsas. A todos nos suena el término Fake News, ¿no?

También es cierto que desde las elecciones en las que Donald Trump ganó la desinformación, las fake news y la lucha contra el odio en redes ha sido caballo de batalla para las Redes Sociales. Combatirlo y dejar fuera de toda duda que no son responsables ha introducido cambios en la manera que se comparten los contenidos. Se advierte que se ha compartido muchas veces como en WhatsApp o te recomienda que leas un enlace antes de republicarlo como en Twitter. Pero aún todo y con eso es innegable que los usuarios somos como somos y que nos gusta el morbo, la bronca, lo increíble. Vamos a ver algunos estudios que indican que sí, que las Redes Sociales promocionan especialmente este tipo de contenidos, y otros que sus resultados dicen que no.

Estudios que indican que SÍ que se amplifican las publicaciones

  1. Brady, Wills, Jost, Tucker, & Van Bavel (2017). Emotion shapes the diffusion of moralized content in social networks. Proceedings of the National Academy of Sciences. “El contagio moral estaba limitado por la pertenencia a un grupo; el lenguaje moral-emocional aumentaba la difusión con más fuerza dentro de las redes liberales y conservadoras, y menos entre ellas. Nuestros resultados ponen de manifiesto la importancia de la emoción en la transmisión social de las ideas morales y también demuestran la utilidad de los métodos de redes sociales para estudiar la moralidad.”
  2. Rathje, Van Bavel, & van der Linden (2021). Out-group animosity drives engagement on social media. PNAS. “El lenguaje de los grupos externos es el predictor más fuerte de la participación en las redes sociales entre todos los predictores relevantes medidos, lo que sugiere que las redes sociales pueden estar creando incentivos perversos para el contenido que expresa la animosidad de los grupos externos.”
  3. Alfano, Fard, Carter, Clutton, & Klein (2020). Technologically scaffolded atypical cognition: The case of YouTube’s recommender system. Synthese. “YouTube optimiza el visionado por razones económicas: las personas que ven un vídeo hasta el final es probable que vean también el siguiente vídeo recomendado, lo que significa que se les puede servir más publicidad. Se trata de una opción de diseño aparentemente inocua, pero tiene un efecto secundario preocupante. Los críticos de YouTube han alegado que el sistema de recomendación tiende a recomendar contenidos extremistas y teorías conspirativas, ya que estos vídeos son especialmente propensos a captar y mantener la atención de los usuarios.”
  4. Ribeiro, Ottoni, West, Almeida, & Meira, (2020). Auditing radicalization pathways on YouTube. Proceedings of the 2020 Conference on Fairness, Accountability, and Transparency. “Al procesar más de 72 millones de comentarios, demostramos que los tres tipos de canales comparten cada vez más la misma base de usuarios; que los usuarios migran sistemáticamente de los contenidos más suaves a los más extremos; y que un gran porcentaje de los usuarios que consumen contenidos de la Alt-right consumían ahora contenidos de la Alt-lite y la I.D.W. en el pasado.”
  5. Vosoughi, Roy, & Aral (2018). The spread of true and false news online. Science. “La falsedad se difundió significativamente más lejos, más rápido, más profundamente y más ampliamente que la verdad en todas las categorías de información, y los efectos fueron más pronunciados para las noticias políticas falsas que para las noticias falsas sobre terrorismo, desastres naturales, ciencia, leyendas urbanas o información financiera. Comprobamos que las noticias falsas eran más novedosas que las verdaderas, lo que sugiere que la gente era más propensa a compartir información novedosa. Mientras que las noticias falsas inspiraban miedo, asco y sorpresa en las respuestas, las verdaderas inspiraban expectación, tristeza, alegría y confianza. En contra de lo que se cree, los robots aceleraron la difusión de las noticias verdaderas y falsas al mismo ritmo, lo que implica que las noticias falsas se difunden más que las verdaderas porque son los humanos, y no los robots, los más propensos a difundirlas.”
  6. Kim, Guess, Nyhan & Reifler (2021). The distorting prism of social media: How self-selection and exposure to incivility fuel online comment toxicity. Journal of Communication. “En primer lugar, mostramos que los comentaristas frecuentes en Facebook tienen más probabilidades de estar interesados en la política, de tener opiniones más polarizadas y de utilizar un lenguaje tóxico en los comentarios en una tarea de elicitación. En segundo lugar, descubrimos que las personas que comentan artículos en el mundo real utilizan un lenguaje más tóxico en promedio que el público en general; los niveles de toxicidad en los comentarios extraídos de las páginas de Facebook de los medios de comunicación superan en gran medida lo observado en los comentarios que obtenemos en los mismos artículos de una muestra representativa a nivel nacional. Por último, demostramos experimentalmente que la exposición al lenguaje tóxico en los comentarios aumenta la toxicidad de los comentarios posteriores.”
  7. Stella, Ferrara, & Domenico (2018). Bots increase exposure to negative and inflammatory content in online social systems. Proceedings of the National Academy of Sciences. “Los bots sociales se dirigen principalmente a influenciadores humanos, pero generan contenido semántico en función de la postura polarizada de sus objetivos.”
  8.  Enders, Uscinski, Seelig, Klofstad, Wuchty, Funchion, Murthi, Premaratne, & Stoler (2021). The relationship between social media use and beliefs in conspiracy theories and misinformation. Political Behavior. “Los individuos que obtienen sus noticias de los medios sociales y usan los medios sociales expresan con frecuencia más creencias en algunos tipos de teorías conspirativas y desinformación.”
  9. Pröllochs, Bär, & Feuerriegel (2021). Emotions explain differences in the diffusion of true vs. False social media rumors. Scientific Reports. “El sentimiento y las emociones básicas explican las diferencias en las propiedades estructurales de las cascadas de rumores verdaderos frente a los falsos. Los rumores falsos (en comparación con los verdaderos) tienen más probabilidades de convertirse en virales si transmiten una mayor proporción de términos asociados a un sentimiento positivo. Además, los rumores falsos son virales cuando incorporan palabras emocionales clasificadas como confianza, anticipación o ira.”
  10. Pew Research Center (2017). Critical posts get more likes, comments, and shares than other posts. “Las publicaciones críticas en Facebook obtienen más “me gusta”, “comentarios” y “compartidos”. Las publicaciones que contenían un “desacuerdo indignado” -definido aquí como una declaración de oposición que transmite molestia, resentimiento o enfado- obtuvieron una media de 206 “me gusta” más, 66 “compartidos” y 54 “comentarios” más que las que no contenían ningún desacuerdo. Otras investigaciones sugieren que, ante una retórica política divisiva, el público tiende a adoptar las posturas de los líderes de sus partidos.”
  11. de León & Trilling (2021). A sadness bias in political news sharing? The role of discrete emotions in the engagement and dissemination of political news on Facebook. Social Media + Society. “Nuestros hallazgos demuestran un sesgo de negatividad en el intercambio de noticias y la participación, mostrando una prevalencia exagerada de la ira en respuesta a las noticias políticas. Además, aportamos pruebas de un novedoso sesgo de tristeza en el intercambio de cobertura política, lo que sugiere que las emociones consideradas como desactivadoras deberían reevaluarse en el contexto de los medios sociales.”
  12. Papakyriakopoulos, & Goodman (2022). The impact of Twitter labels on misinformation spread and user engagement: Lessons from Trump’s election tweets. Forthcoming in ACM WWW ’22. “La colocación de la etiqueta no cambió la propensión de los usuarios a compartir y participar en el contenido etiquetado, pero la falsedad del contenido sí lo hizo.”
  13. Corbu, Bârgăoanu, Buturoiu, & Ștefăniță (2020). Does fake news lead to more engaging effects on social media? Evidence from Romania. Communications. “Las noticias ideológicas con valencia negativa (más que las noticias inventadas u otros géneros, como la sátira y la parodia) tienen un mayor potencial de viralidad. Además, tanto las noticias de contenido ideológico positivo como las negativas aumentan la probabilidad de que la gente firme un documento de apoyo al gobierno. Estos últimos efectos están moderados por la aprobación del gobierno: Los niveles más bajos de aprobación del gobierno conducen a un menor apoyo al gobierno en las redes sociales, como consecuencia de la exposición a las noticias falsas.”
  14. Frimer, Aujla, Feinberg, Skitka, Aquino, Eichstaedt, & Willer (2022). Incivility is rising among American politicians on Twitter. Social Psychological and Personality Science. “Los tuits incívicos tendieron a recibir más aprobación y atención, indexados públicamente por grandes cantidades de “me gusta” y “retuits” en la plataforma. Los análisis mediacionales y longitudinales muestran que cuanto mayor era esta retroalimentación para los tuits incívicos, más incívicos eran los tuits posteriores. Concluimos discutiendo cómo la estructura de las plataformas de medios sociales puede facilitar esta dinámica de refuerzo de la incivilidad entre los políticos y sus seguidores.”
  15. Wang, & Inbar (2022). Re-examining the spread of moralized rhetoric from political elites: Effects of valence and ideology. Journal of Experimental Psychology. “Encontramos una mayor difusión de los tuits que contienen retórica moral, pero esto se ve matizado por la valencia del lenguaje moral y la ideología de la élite. Tanto para los candidatos presidenciales como para los congresistas, el lenguaje moral negativo se asocia a una mayor difusión del mensaje. El lenguaje moral positivo no se asocia con la difusión en el caso de los candidatos presidenciales y se asocia negativamente con la difusión en el caso de los miembros del Congreso. En ambos conjuntos de datos, la relación entre el lenguaje moral negativo y la difusión del mensaje es más fuerte para los liberales que para los conservadores.
TE PUEDE INTERESAR:  ¿Permiten las Redes Sociales la injerencia de gobiernos extranjeros?

Estudios que indican que NO que se amplifican las publicaciones

  1. Grinberg, Joseph, Friedland, Swire-Thompson, & Lazer (2019). Fake news on Twitter during the 2016 U.S. presidential election. Science. “La difusión de noticias falsas en las redes sociales se convirtió en una preocupación pública en Estados Unidos tras las elecciones presidenciales de 2016. Examinamos la exposición y el uso compartido de noticias falsas por parte de los votantes registrados en Twitter y descubrimos que el compromiso con las fuentes de noticias falsas estaba extremadamente concentrado.”
  2.  Guess, Nagler, & Tucker (2019). Less than you think: Prevalence and predictors of fake news dissemination on Facebook. Science Advances. “Descubrimos que compartir este contenido era una actividad relativamente rara. Los conservadores eran más propensos a compartir artículos de dominios de noticias falsas, que en 2016 tenían una orientación mayoritariamente pro-Trump, que los liberales o moderados. También encontramos un fuerte efecto de la edad, que persiste después de controlar el partidismo y la ideología: En promedio, los usuarios mayores de 65 años compartieron casi siete veces más artículos de dominios de noticias falsas que el grupo de edad más joven.”
  3. Guess, Aslett, Tucker, Bonneau, & Nagler (2021). Cracking open the news feed: Exploring what U.S. Facebook users see and share with large-scale platform data. Journal of Quantitative Description: Digital Media. “Nuestros resultados corroboran los hallazgos recientes de que los usuarios de más edad y los conservadores comparten más noticias falsas, y que tanto los patrones de visualización como de compartición sugieren una preferencia por la desinformación ideológicamente afín. También descubrimos que los artículos de noticias falsas relacionados con la política son más populares entre los estadounidenses de más edad que otros tipos, mientras que los usuarios más jóvenes comparten relativamente más artículos con titulares clickbait. Sin embargo, en toda la plataforma, los artículos de fuentes de noticias creíbles se comparten más de 5 veces y se ven más de 7 veces que los artículos de fuentes de baja credibilidad.”
  4. Hosseinmardi, Ghasemian, Clauset, Mobius, Rothschild, & Watts (2021). Examining the consumption of radical content on YouTube. PNAS. “El consumo de noticias en YouTube está dominado por fuentes convencionales y en gran medida centristas. Los consumidores de contenidos de extrema derecha, aunque más comprometidos que la media, representan un porcentaje pequeño y estable de los consumidores de noticias.”
  5. Burton, Cruz, & Hahn (2021). Reconsidering evidence of moral contagion in online social networks. Nature Human Behaviour“Exploramos este punto sondeando el fenómeno del contagio moral, según el cual el uso de un lenguaje moral-emocional aumenta la probabilidad de difusión del mensaje. Mediante predicciones fuera de muestra, comparaciones de modelos y análisis de curvas de especificación, descubrimos que el modelo de contagio moral no rinde más que un modelo de contagio XYZ inverosímil.”
  6. Valenzuela, Muñiz, & Santos (2022). Social media and belief in misinformation in Mexico: A case of maximal panic, minimal effects? The International Journal of Press/Politics. “Concluimos que el estudio es coherente con el paradigma de los “efectos mínimos de los medios de comunicación”, que sugiere que los esfuerzos para abordar la desinformación deben ir más allá de las plataformas sociales.”
  7. Uscinski… & Murthi (2022). Have beliefs in conspiracy theories increased over time? PLOS ONE. “En ningún caso observamos pruebas sistemáticas de un aumento del conspiracionismo, con independencia de la forma en que se haya operado.”

¿Realmente amplifican las publicaciones más emocionales las Redes Sociales?

A las Redes Sociales se les acusa de muchas cosas, entre ellas de distorsionar la realidad. Para ello los algoritmos son los últimos responsables de que los contenidos con carga más emocional sean los que se viralicen más. Es una cuestión económica. Cuantas más reacciones genere un contenido, más posibilidades de mostrar publicidad, ergo, más ingresos. Pero los algoritmos no son los únicos responsables, el factor humano es clave en todo esto. Los algoritmos explotan esa debilidad que tenemos por los contenidos de carga emocional, sobre todo si con capaces de despertar en nosotros sorpresa, indignación, miedo, alegría… Y conociendo estos puntos débiles, no hay que olvidar otros actores externos como son los perfiles automatizados, los bots.

Y es precisamente la carga emocional el talón de Aquiles que aprovechan para distribuir Fake News. En su estrategia, las emociones, junto con explicaciones razonables, fuentes (aunque sean dudosas) para dar credibilidad, encontrar al “tonto útil” que hará de altavoz, generar una teoría de la conspiración y en definitiva generar una burbuja que pueda llegar a distribuir las noticias falsas fuera del grupo inicial de influencia.

Según los estudios listados hay otro componente que hay que tener en cuenta como es la edad. Los usuarios de mayor edad son los más propensos a compartir contenidos falsos o con carga emocional. Por lo tanto, volvemos otra vez a los propios usuarios, más concretamente a un tipo de usuarios, ya que no solo son los de más edad en general, sino aquellos que tienen una ideología más conservadora.

A pesar de que sí que haya usuarios que se dejan atrapar por contenidos con carga emocional, lo cierto es que según algunos estudios son un porcentaje pequeño para que sea tenido en cuenta o se pueda extrapolar a todo tipo de usuarios.

Por lo tanto, aunque haya viralización de determinados contenidos en el ámbito político, la desinformación afecta a pequeños grupos de usuarios en las plataformas analizadas. Quizá sea más preocupante la desinformación que se produce más allá de estas plataformas. Un libro que expone bien el problema es “network propaganda” en el que los autores argumentan que patrones institucionales, políticos y culturales de larga data en la política estadounidense interactuaron con el cambio tecnológico desde la década de 1970 para crear un bucle de retroalimentación de propaganda en los medios conservadores estadounidenses.

Sobre esta entrada

Esta entrada pertenece a la serie “¿Hasta qué punto son perjudiciales las Redes Sociales?” que recoge parte del documento “Social Media and Political Dysfunction: A Collaborative Review” para acompañar mis propias reflexiones fruto de una experiencia de años analizando comunidades online.

Social Media and Political Dysfunction: A Collaborative Review” es un documento de trabajo abierto que contiene las citas y los resúmenes de artículos publicados que arrojan luz sobre una cuestión que se debate actualmente en muchos países: ¿Son las redes sociales un factor importante en el aumento de la disfunción política que se observa en EE.UU. y en algunas otras democracias desde principios de la década de 2010?

Este documento ha sido elaborado por Jonathan Haidt (NYU-Stern) y Chris Bail (Duke), con la ayuda de Zach Rausch.

En las entradas que componen la serie se recogen los estudios a favor y en contra de cada punto analizado, pero no aquellos que quedan en tierra de nadie. Mi recomendación es que si quieres profundizar en el tema acudas al documento.

📢 El origen

La pista para llegar al documento “Social Media and Political Dysfunction: A Collaborative Review” ha sido el artículo de The New Yorker “How harmful is Social Media?

Entradas que componen la serie

  1. ¿Las Redes Sociales polarizan el corazón de los usuarios?
  2. ¿Crean las Redes Sociales cámaras eco y burbujas de información?
  3. ¿Las Redes Sociales amplifican las publicaciones más emotivas, incendiarias o falsas?
  4. ¿Las redes sociales generan violencia en el plano analógico?
  5. ¿Permiten las Redes Sociales la injerencia de gobiernos extranjeros?
  6. ¿Las Redes Sociales disminuyen la confianza en las instituciones, la política y los medios?
  7. ¿Las Redes Sociales refuerzan más el populismo?
  8. Algunos libros de académicos sobre estos temas
Taggs: