¿Los algoritmos en las redes sociales nos vuelven más polarizados en la política? 

Varios estudios han analizado la preocupante situación sobre cómo afectan las redes sociales, específicamente, en procesos de elecciones. En particular, la preocupación estaba tan extendida que en el año 2020, Meta entregó grandes datos internos para que los académicos pudieran estudiar, jugando con los algoritmos, cómo Facebook e Instagram afectarían en las próximas elecciones presidenciales estadounidenses.

Varios estudios han analizado la preocupante situación sobre cómo afectan las redes sociales, específicamente, en procesos de elecciones. En particular, la preocupación estaba tan extendida que en el año 2020, Meta entregó grandes datos internos para que los académicos pudieran estudiar, jugando con los algoritmos, cómo Facebook e Instagram afectarían en las próximas elecciones presidenciales estadounidenses. 


Por Fast Check CL

Te has preguntado si ¿las redes sociales nos vuelven más polarizados en la política o simplemente reflejan divisiones que ya existen? o si es que ¿ayudan a las personas a estar mejor informadas sobre política? o sobre ¿cómo afecta las actitudes de las personas hacia el gobierno y la democracia?

En un artículo de Investigación de Edición Especial de Science, titulado “Asymmetric ideological segregation in exposure to political news on Facebook” o en español “Segregación ideológica asimétrica en la exposición a noticias políticas en Facebook”, se analizó, en específico, si Facebook permite la segregación ideológica en el consumo de noticias políticas. Para ello se estudió la exposición a las noticias durante las elecciones de EE.UU. de 2020 utilizando datos agregados de 208 millones de usuarios de Facebook en EE.UU.

¿Qué es un algoritmo?

Seguramente has escuchado hablar de la palabra “algoritmo”. En un principio se trata de un conjunto ordenado de operaciones sistemáticas que permite hacer un cálculo y hallar la solución de un tipo de problemas, pero ¿cómo se relaciona con las redes sociales? Según la Universidad de Chile

“En un algoritmo si haces A, el resultado es B, pero si haces C, será D. En el caso de las redes sociales, y de análisis de grandes cantidades de datos, el algoritmo va “tomando decisiones” de acuerdo al comportamiento de los y las usuarias de las RRSS.

En el caso específico de Facebook, también se usan los datos de los amigos, el contenido con el que más se interactúa y el tiempo que se pasa dentro de la plataforma. Considerando esa información, el algoritmo puede procesar los intereses de cada usuario y entregar publicidad o propaganda en forma personalizada.

El estudio  

 Los primeros resultados de esta investigación demostraron que, efectivamente, Meta (Facebook e Instagram) desempeña un papel fundamental en el usuario para dirigir la información partidista con la que probablemente estén de acuerdo. Pero si la plataforma desincentivara la viralidad y el compromiso en las redes sociales de los usuarios ¿afectaría significativamente las creencias políticas de las personas? Eso es lo que posteriormente se hizo.

En una entrevista en The Washington Post, Joshua Tucker, codirector del Centro de Medios Sociales y Política de la Universidad de Nueva York, y uno de los líderes de este proyecto de investigación, sostuvo que:

“Los algoritmos son extremadamente influyentes en términos de lo que las personas ven en la plataforma y en términos de dar forma a su experiencia en la plataforma”. 

Además, agregó que:

“A pesar de que nos encontramos con este gran impacto en la experiencia de las personas en la plataforma, encontramos muy poco impacto en los cambios en las actitudes de las personas sobre política e incluso en la participación autoinformada de las personas en torno a la política”.

Como fue mencionado anteriormente, parte del proyecto fue el hecho de que los investigadores alteraron los feed de miles de personas que usaban Facebook e Instagram en otoño de 2020 para comprobar si eso podía cambiar las creencias políticas, el conocimiento o la polarización al exponerlos a información distinta a la que comúnmente percibían.  En general, los investigadores concluyeron que todos los cambios descritos anteriormente tuvieron poco impacto.

Experimento 1: Cambio de feed

En uno de los experimentos, los investigadores analizaron el impacto de cambiar el feed de los usuarios en Facebook e Instagram para mostrar el contenido cronológicamente, en lugar de presentar el contenido con el algoritmo de Meta.

De hecho, algunos críticos, sostienen que el algoritmo de Meta amplifica y recompensa las publicaciones falsas al ponerlas en la parte superior de los feed de los usuarios y que cambiar a un feed cronológico haría que el contenido fuera menos divisivo.

Los investigadores descubrieron que la línea de tiempo cronológica era claramente menos atractiva: los usuarios cuyas líneas de tiempo se cambiaron pasaron mucho menos tiempo en la plataforma. Esos usuarios también vieron más historias políticas y contenido marcado como no confiable.

Sin embargo, las encuestas realizadas a los usuarios para medir sus creencias políticas encontraron que la alimentación cronológica tuvo poco efecto en los niveles de polarización, conocimiento político o comportamiento político fuera de línea. The Washington Post, reveló que algunas de las investigaciones internas de Meta, suscitan que los usuarios pueden ver contenido de mayor calidad en los feed dictados por el algoritmo de la compañía que en los feeds regidos.

Experimento 2: Limitación de contenido viral

En otro experimento, los investigadores probaron el efecto de limitar la visibilidad del contenido viral en los feeds de los usuarios. Los académicos descubrieron que cuando eliminaban la capacidad de las personas para ver las publicaciones que sus amigos volvían a publicar en Facebook, esos usuarios estaban expuestos a muchas menos noticias políticas. Esos usuarios tampoco reaccionaron tanto al contenido, pero sus niveles de polarización política permanecieron sin cambios. 

Alterar el algoritmo de Facebook no solucionará la polarización

Los estudios también mostraron que, si bien los usuarios compartían sitios web liberales y conservadores, muchos más dominios y URL favorecidos por los conservadores circulaban en Facebook. La investigación también mostró que la mayor parte del contenido calificado como falso por verificadores, era de tendencia derechista.

“La mayoría de las fuentes de desinformación son favorecidas por audiencias conservadoras. La distribución de los puntajes de favorabilidad no cambia sustancialmente a medida que avanzamos en el embudo de participación, lo que sugiere que la amplificación algorítmica y social no exacerba la segregación de audiencia ya existente por contenido de desinformación. Sin embargo, la desinformación compartida por páginas y grupos tiene audiencias más homogéneas y completamente concentradas en la derecha”,

Publicación de Science.

En otro experimento, los investigadores redujeron la exposición de las personas a contenido con el que probablemente estarían de acuerdo y aumentaron su exposición a información de puntos de vista ideológicamente opuestos. Es el tipo de cambio que mucha gente podría suponer que ampliará los puntos de vista de la gente. Pero esa intervención no afectó de manera significativa las actitudes políticas o creencias de las personas en afirmaciones falsas, descubrió la investigación. 

Conclusiones

Probablemente, los resultados de este estudio, refuercen los argumentos de larga data de las empresas de redes sociales, y es que los algoritmos no son la causa de la polarización y agitación política. De hecho, Meta sostiene que la polarización política y el apoyo a las instituciones cívicas comenzaron a disminuir mucho antes del surgimiento de las redes sociales. 

El presidente de Asuntos Globales de Meta, Nick Clegg declaró en The Washington Post que:

“Los hallazgos experimentales se suman a un creciente cuerpo de investigación que muestra que hay poca evidencia de que las características clave de las plataformas de Meta por sí solas causen una polarización “afectiva” dañina o tenga efectos significativos en estos resultados”. 

“Es un poco exagerado decir que esto demuestra que Facebook no es un gran problema o que las plataformas de redes sociales no son un problema”, dijo en The Washington Post, Michael W. Wagner, profesor de la Escuela de Periodismo y Comunicación Masiva de la Universidad de Wisconsin en Madison. Se desempeñó como observador independiente de la colaboración, pasó cientos de horas asistiendo a reuniones y entrevistando a científicos. “Esta es una buena evidencia científica de que no hay un solo problema que sea fácil de resolver”, finalizó.

Fast Check CL es un medio de comunicación, que depende de sus suscriptores para financiar el equipo de trabajo que hizo este artículo. Sin ti este proyecto finalizará en 2025. Puedes ser suscriptor/a y ayudarnos a combatir la desinformación en Chile por solo 1.500 al mes. 

Te puede interesar:

Corte Suprema acoge querella de capítulos en contra de Ángela Vivanco

La Segunda Sala de la Corte Suprema confirmó este viernes 23 de enero la admisibilidad de la querella de capítulos contra la exministra Ángela Vivanco Martínez, decisión que habilita al Ministerio Público para avanzar en su formalización penal y solicitar medidas cautelares. El fallo ratifica lo resuelto por la Corte de Apelaciones de Santiago y no se pronuncia sobre hechos ni responsabilidades, las que deberán ser determinadas en la etapa procesal correspondiente.

(Video) Tras encontrar extranjeros de “nacionalidad desconocida” prendiendo fuego: “Finalmente apareció incendiada la Patagonia Chilena”: #Falso

Se viralizó un video que mostraría un incendio forestal en la Patagonia chilena. Esto luego de que se detectaran «turistas extranjeros de nacionalidad desconocida prendiendo fuego durante la semana». Fast Check califica este contenido como #Falso, pues el siniestro no ocurrió en la zona y la nacionalidad de los extranjeros fue reportada por los medios de prensa.

“EE.UU. confirmó que la ayuda a damnificados se entregará directamente, sin pasar por La Moneda”: #Falso

Una publicación viral asegura que la ayuda de Estados Unidos para los damnificados por los incendios en el sur de Chile se entregaría directamente a las víctimas debido a una supuesta desconfianza en el gobierno del presidente Boric. Fast Check calificó esto como #Falso, ya que parte de la ayuda fue canalizada a través de la Conaf —organismo dependiente del Ministerio de Agricultura— y, además, desde la propia embajada de Estados Unidos aclararon que el apoyo consistió en equipamiento para el combate de incendios, y no en donaciones directas a las víctimas.

Fuerzas Armadas de Irán llaman pedófilo a Donald Trump: #Falso

Se viralizó en la red social X un post bajo el nombre de las Fuerzas Armadas de Irán llamando pedófilo al presidente de Estados Unidos Donald Trump. Fast Check califica este contenido como #Falso, la cuenta responsable del mensaje, es en realidad una cuenta fan del cuerpo armado iraní. Junto a esto, no existen reportes oficiales de tal afirmación.

(Video) “Ahora Donald Trump e ICE deteniendo a niños inocentes”: #Engañoso

Se difunde en la red social X un video donde un supuesto agente de la ICE detiene a un niño. El post atribuye el procedimiento policial a las órdenes del presidente estadounidense Donald Trump. Fast Check califica este contenido como #Engañoso. El video es de abril de 2025 y la detención fue realizada por el equipo policial Sheriff de Broward en California.

Últimos chequeos:

Se cumple el “centenario” del reconocimiento de independencia a República Dominicana y Chile fue el primer país en hacerlo: #Chequeado

El presidente electo, José Antonio Kast, afirmó que se cumple un centenario desde que se reconoció la independencia de República Dominicana y que el primer país en hacerlo fue Chile. Fast Check califica este discurso como #Chequeado. En realidad se cumplieron casi 159 años de dicho evento y Chile fue el primer país en reconocer su soberanía, pero a nivel latinoamericano. Autoridades locales corrigieron inmediatamente a Kast tras sus declaraciones.

(Video) Policía le quita la máscara y golpea a agente del ICE en Nueva York: #Falso

Tras el asesinato de un ciudadano estadounidense a manos de agentes de control migratorio, se viralizó un video que supuestamente muestra a un policía de Nueva York enfrentándose y golpeando a un funcionario del ICE. Fast Check calificó este contenido como #Falso, ya que no existen reportes de enfrentamientos entre uniformados y el registro fue generado con inteligencia artificial.

(Video) Policía le quita la máscara y golpea a agente del ICE en Nueva York: #Falso

Tras el asesinato de un ciudadano estadounidense a manos de agentes de control migratorio, se viralizó un video que supuestamente muestra a un policía de Nueva York enfrentándose y golpeando a un funcionario del ICE. Fast Check calificó este contenido como #Falso, ya que no existen reportes de enfrentamientos entre uniformados y el registro fue generado con inteligencia artificial.

“Pago lo que sea”: chats revelan que diputado Calisto ordenó crear cuentas falsas en Facebook para neutralizar detractores

Mensajes intercambiados en un grupo de WhatsApp —a los que Fast Check tuvo acceso— revelan que el diputado Miguel Ángel Calisto, hoy senador electo por la región de Aysén, solicitó a su equipo apoyo coordinado en redes sociales para responder críticas en publicaciones de Facebook. Entre las prácticas descritas figura el uso de cuentas falsas, articuladas a través de una red de perfiles destinada a contrarrestar opiniones de sus detractores y a generar interacciones de manera artificial en torno a la figura del parlamentario. Los chats, fechados entre 2021 y 2023, incluyen la participación de Nicolás Gutiérrez Monroe, periodista y asesor comunicacional, integrante del equipo de apoyo de Calisto en la Cámara de Diputados. En uno de los diálogos, el legislador desliza la idea de pagar dinero para controlar las redes sociales con, aparentemente, perfiles falsos.

Así operan los perfiles falsos dedicados a defender al diputado Calisto en Facebook

Fast Check analizó la actividad de un conjunto de cuentas de Facebook que intervinieron de forma reiterada en publicaciones vinculadas al entonces diputado Miguel Ángel Calisto, en contextos donde previamente se registraron instrucciones para su defensa en redes sociales a través de chats de WhatsApp con uno de sus asesores, previamente revelado por este medio. El análisis identificó patrones comunes en los tiempos de publicación de comentarios, en las redes de páginas seguidas, en la coincidencia de fechas de creación de los perfiles y en su activación tras el envío de enlaces a notas críticas, incluyendo intervenciones realizadas durante horarios hábiles de parte del equipo del parlamentario.