Nos Disparan desde el Campanario... Las redes sociales y la polarización partidista... por Tiziano Piccardi


Fuente: Bloghemia

Link de Origen: 

https://bloghemia.com/2025/12/algoritmos-redes-sociales-reducen-polarizacion.html





Los ajustes en los algoritmos de redes sociales pueden reducir la polarización partidista


Las noticias de las redes sociales están diseñadas para captar nuestra atención. Pero simples ajustes en los algoritmos subyacentes pueden calmar el debate público.

Reducir la visibilidad del contenido polarizador en las noticias de las redes sociales puede disminuir tangiblemente la hostilidad partidista. Para llegar a esta conclusión, mis colegas y yo desarrollamos un método para modificar la clasificación de las publicaciones en las noticias, una operación que hasta ahora estaba reservada únicamente a las propias plataformas sociales.

Reajustar las noticias para limitar la exposición a publicaciones que expresan actitudes antidemocráticas u hostilidad partidista influyó tanto en las emociones de los usuarios como en su percepción de las personas con opiniones políticas opuestas.

Soy investigador en informática especializado en computación social, inteligencia artificial y web. Dado que solo las plataformas de redes sociales pueden modificar sus algoritmos, desarrollamos y pusimos a disposición una herramienta web de código abierto que permite reorganizar en tiempo real las noticias de participantes que dan su consentimiento en X, antes conocido como Twitter.

Basándonos en teorías de las ciencias sociales, utilizamos un modelo de lenguaje para identificar publicaciones que probablemente polarizarían a los usuarios, como aquellas que promueven la violencia política o el encarcelamiento de miembros del partido contrario. Estas publicaciones no fueron eliminadas; simplemente se clasificaron más abajo en las noticias, obligando a los usuarios a desplazarse más para verlas, lo que redujo su exposición.

Llevamos a cabo este experimento durante diez días, en las semanas previas a las elecciones presidenciales de EE. UU. de 2024. Descubrimos que limitar la exposición al contenido polarizador mejoró de forma medible lo que los participantes pensaban sobre los miembros del partido contrario y redujo sus emociones negativas al desplazarse por sus noticias. Es de destacar que estos efectos fueron similares independientemente del partido político, lo que sugiere que la intervención beneficia a todos los usuarios, sin importar su afiliación.

Por qué es importante

Existe la idea errónea de que debemos elegir entre dos extremos: algoritmos basados en el engagement (la interacción) o noticias puramente cronológicas. En realidad, existe un amplio espectro de enfoques intermedios, dependiendo de los objetivos para los que estén optimizados.

Los algoritmos de noticias generalmente están diseñados para captar tu atención y, por lo tanto, tienen un impacto significativo en tus actitudes, tu estado de ánimo y tu percepción de los demás. Por lo tanto, es urgente contar con marcos que permitan a investigadores independientes probar nuevos enfoques en condiciones realistas.

Nuestro trabajo abre este camino: muestra cómo estudiar y crear prototipos de algoritmos alternativos a gran escala, y demuestra que, con los grandes modelos de lenguaje (LLM), las plataformas finalmente tienen los medios técnicos para detectar contenido polarizador que puede influir en las actitudes democráticas de sus usuarios.

Qué otras investigaciones se están realizando en este campo

Probar el impacto de algoritmos alternativos en plataformas activas es complejo, y el número de estos estudios solo ha aumentado recientemente.

Por ejemplo, una colaboración reciente entre académicos y Meta demostró que cambiar a una fuente cronológica no era suficiente para reducir la polarización. Un esfuerzo relacionado, el Prosocial Ranking Challenge dirigido por investigadores de la Universidad de California en Berkeley, explora alternativas de clasificación en varias plataformas para fomentar resultados sociales positivos.

Al mismo tiempo, los avances en el desarrollo de LLM permiten modelar mejor cómo piensan, sienten e interactúan las personas. Está creciendo el interés en dar más control a los usuarios, permitiéndoles elegir los principios que guían lo que ven en sus noticias, por ejemplo, con Alexandria, una biblioteca de valores pluralistas, o el sistema de reorganización de noticias Bonsai. Las plataformas sociales, como Bluesky y X, también se están moviendo en esta dirección.


Y después

Este estudio es solo un primer paso hacia el diseño de algoritmos conscientes de su potencial impacto social. Quedan muchas preguntas abiertas. Planeamos estudiar los efectos a largo plazo de estas intervenciones y probar nuevos objetivos de clasificación para abordar otros riesgos relacionados con el bienestar en línea, como la salud mental y el sentimiento de satisfacción. Trabajos futuros explorarán cómo equilibrar múltiples objetivos (contexto cultural, valores personales y control del usuario) para crear espacios en línea que fomenten interacciones sociales y cívicas más saludables.




Tiziano Piccardi

Tiziano Piccardi es profesor adjunto de informática y miembro del Instituto de Ciencia de Datos e IA de Johns Hopkins. Su investigación se centra en la computación social, la inteligencia artificial y la investigación web

Comentarios