Estudio revela que reducir contenido político agresivo en X disminuye la ira y aumenta la tolerancia entre usuarios

Estudio revela que reducir contenido político agresivo en X disminuye la ira y aumenta la tolerancia entre usuarios

Un experimento académico realizado en Estados Unidos demostró que limitar la exposición a mensajes políticos violentos o extremistas en la red social X puede disminuir significativamente la ira, el rechazo y la polarización entre los usuarios. La investigación, publicada en la revista Science, fue desarrollada por especialistas de las universidades de Stanford, Johns Hopkins, Washington y Nueva York, y contó con la participación de 1.256 personas.

Cómo funciona el experimento

El estudio nació a partir de una inquietud simple: ¿qué pasaría si, por algunos días, los usuarios dejaran de ver los mensajes políticos más toxicos que circulan en plataformas sociales?

Para responder esa pregunta, los investigadores diseñaron una herramienta que detecta de manera automática lenguaje violento, ataques partidistas e incluso publicaciones que incitan al rechazo de instituciones democráticas. Cuando el sistema identificaba ese tipo de contenido, lo ocultaba antes de que apareciera en el inicio del usuario, sin que este modificara su comportamiento habitual en la red.

Los participantes siguieron usando X normalmente durante 10 días, en medio de un escenario especialmente tenso: la campaña presidencial estadounidense de 2024.

Un ambiente menos hostil, incluso en plena campaña

Los resultados fueron claros. Al reducir la presencia de mensajes políticos extremistas:

  • Los niveles de enojo y tensión disminuyeron.

  • La percepción negativa hacia quienes piensan distinto también bajó.

  • Tanto usuarios identificados con la izquierda como con la derecha mostraron mayor tolerancia hacia el otro sector.

  • Se redujo la sensación de que el clima político estaba completamente roto.

En otras palabras, limitar el contenido que exacerba la confrontación generó un entorno más respirable en solo una semana y media.

¿Es posible un debate sin odio?

Para los autores, el estudio abre una discusión relevante: no se trata de censurar ideas, sino de evitar que la agresión y la deshumanización ocupen el espacio central en las plataformas que definen buena parte del debate público.

La investigación también sugiere que un uso más responsable de los algoritmos podría disminuir el agotamiento emocional y la tristeza asociada a la polarización digital.

Y deja una pregunta inquietante:
Si apenas 10 días fueron suficientes para cambiar la forma en que mil personas se relacionaron con la política en redes sociales, ¿qué podría lograrse si las plataformas apostaran por promover un ambiente menos tóxico de manera permanente?

Tal vez, dicen los investigadores, la rabia no sea un reflejo fiel de la sociedad, sino el resultado de lo que los algoritmos deciden mostrarnos cada vez que desbloqueamos el teléfono.

Sitios de interés

Noticias más leidas

FNXmérides

Uso de Cookies

Este sitio utiliza cookies propias y de terceros para mejorar tu experiencia, analizar el tráfico y mostrar publicidad personalizada. Puedes revisar más detalles en nuestra Política de Cookies.