La investigadora catalana estudia la circulación de las noticias falsas y los discursos de odio. Por qué las personas conservadoras cosumen y difunden más fake news.
¿Qué rol juegan las redes sociales en la polarización política? ¿Por qué las personas conservadoras consumen y difunden más noticias falsas? ¿Cómo podemos defendernos de la desinformación y de los discursos de odio en las redes sociales? Estas son algunas de las preguntas que busca responder con sus investigaciones la académica catalana, radicada en Estados Unidos, Sandra González-Bailón, directora del Centro de Redes de Información y Democracia de la Annenberg School for Communication de la Universidad de Pennsylvania. González-Bailón estuvo en Buenos Aires para participar como conferencista de las Jornadas Internacionales “Medios, redes y polarización”, organizadas por la Escuela de Política y Gobierno de la UNSAM, que se desarrollaron entre miércoles y jueves de la última semana.
Nació en Vilanova y la Geltrú, una localidad costera a 45 kilómetros de Barcelona pero desde 2013 vive en Filadelfia. Es autora del libro Decoding the Social World: Data Science and the Unintended Consequences of Communication (Information Policy, 2017), donde analiza cómo la imprevisibilidad de la vida social se relaciona con las redes de comunicación, la influencia social y los efectos no deseados que se derivan de las decisiones individuales.
Antes de unirse a la Universidad de Pennsylvania, fue investigadora en el Oxford Internet Institute (2008-2013). Hizo su doctorado en el Nuffield College (Universidad de Oxford) y sus estudios de grado en la Universidad de Barcelona. De 2020 a 2022 formó parte de la Junta de Editores Revisores de la prestigiosa revista Science. También es miembro del Comité Permanente de las Academias Nacionales para el Avance de la Comunicación Científica.
En 2023 publicó en Science junto a otros investigadores el artículo “Segregación ideológica asimétrica en la exposición a noticias políticas en Facebook”, donde reflejan un amplio estudio sobre el tema. Sobre los resultados de esta y otras tres investigaciones –la última se publica esta semana– conversó en esta entrevista con Página 12.
–¿Las redes sociales son la causa o la consecuencia de la polarización?
–La polarización no ha sido causada por las redes sociales, pero las redes han creado un escenario en el que esta polarización se ha hecho más patente, más tangible e incluso se ha acentuado por la manera en la que canalizan el discurso o incentivan determinados tipos de comportamientos. Es una simplificación muy grande y poco fundada en los hechos afirmar que causan la polarización, porque es un fenómeno social que lleva sucediendo desde hace décadas diría. Quiero aclarar que todo lo que voy a decir está fundamentado básicamente en las investigaciones que yo conozco que se han hecho en Estados Unidos. Tenemos unas lagunas tremendas en torno a cómo todo esto se manifiesta en otros contextos políticos, incluido el argentino. Y es una pregunta abierta si se puede generalizar lo que hemos aprendido en el contexto estadounidense con lo que está sucediendo en otros espacios como España, Argentina, Chile, Colombia.
–No se puede saber si es causa o consecuencia, pero ¿qué rol han jugado las redes sociales en la polarización?
–Cuando acabé mi tesis doctoral empezaban a irrumpir Twitter y Facebook, que eran al principio redes que estaban construyéndose encima de otras preexistentes, interpersonales, y se convirtieron en un espacio de liberación, en el sentido de que permitían que surgieran noticias, contenidos que no circulaban de otra manera, por procesos de gatekeeping. Los medios tradicionales han jugado, sobre todo en lo que se refiere a la movilización política, un papel de control de qué es noticia y qué no. En ese momento las redes en realidad abrieron un espacio para la creación de un foro público y de coordinación de movimientos y de acciones, que se hizo superpatente con la “primavera árabe”, luego con los Indignados en España, con el Movimiento Occupy. En esa época no hablábamos de polarización, sino del papel disruptor que jugaban estas redes en términos de lo que se consideraba newsworthy o noticia. Es cuando empezamos a hablar de los ciudadanos-periodistas. Pero hemos pasado de ese extremo a la situación actual en la que los conflictos están todos mediatizados y exacerbados por estas redes, y es cuando hemos empezado a investigar el papel que juega su diseño y también los sistemas algorítmicos, y cómo incentivan un tipo de contenido que es más visceral, que apela a nuestro sistema 1 cognitivamente hablando.
–¿A qué se refiere?
–Hay ciertas teorías cognitivas que hablan de dos sistemas, 1 y 2. El sistema 1 es el más primitivo, el que te hace reaccionar a algo que consideras peligroso; el sistema 2 es el más racional, el más pausado, el más deliberativo, y las redes están diseñadas para activarnos los botones que nos hacen reaccionar de esta forma más primitiva y visceral. El escándalo, estas emociones, estas pasiones, generan más tracción en las redes por la manera en la que están diseñadas, empezando por el botón de compartir. No hay que olvidarse de que es es un elemento que hoy damos por sentado, pero que se introdujo en el 2010 precisamente para incluir en el diseño de las plataformas este concepto de viralidad, que es lo que aumentaría el tráfico y eso se puede monetizar. De un tiempo a esta parte las redes han ido evolucionando desde el punto de vista del diseño tecnológico, de la función de los algoritmos y también de cómo las usamos nosotros.
–-Los influencers surgieron en un momento dado, no estuvieron ahí siempre…
–Claro… surgieron también como forma de ganarse la vida y todo esto ha convergido en esta situación actual en la que las dinámicas de conflicto que siempre han existido se han acentuado y se están poniendo de manifiesto de tal forma que (parece) como que se agranda el problema y se acrecienta, incluso se exagera más. Entonces la percepción que tenemos cuando estamos en las redes es que hay más conflicto y más desacuerdos que seguramente realmente hay. Pero en las redes predominan las voces más altas, los que gritan más y si esa realidad es ficticia en el sentido de que no representa la evolución en general, es real en sus consecuencias, cuando todos hablamos de esos conflictos, de esa animadversión y se acaba generalizando.
—En una de las investigaciones en las que participó encontraron que las personas de perfil conservador consumen y comparten más noticias falsas… ¿Podría dar más detalles de esos hallazgos?
–Todas las noticias que circulan en Facebook son introducidas por alguien, ya sea usuarios que ponen el link a esa noticia, o páginas o grupos. Entonces, desde un punto de vista del volumen de contenidos que circulaban en esa red social en el contexto de las elecciones en Estados Unidos en 2020, predominaban las noticias favorecidas por audiencias conservadoras y de estas, las clasificadas como falsas por las organizaciones verificadoras, en el 97% de los casos tenían audiencias predominantemente conservadoras también en el orden del 97%. ¿Qué significa esto? ¿Significa que los usuarios liberales o de izquierdas no consumen noticias falsas? No, pero en Facebook en ese momento histórico concreto casi el total de las noticias que fueron identificadas como falsas –que es una estimación seguramente conservadora de todo el contenido problemático–, fue consumida y apretó los botones como decíamos antes, activó fundamentalmente a audiencias conservadoras. ¿Qué influencia tienen estos consumos de noticias falsas en el comportamiento? Eso no lo podemos responder con los datos del estudio y tampoco sabemos si en otras plataformas, en YouTube, en Reddit, en Twitter, encontraríamos el mismo patrón. Pero sí que pone de manifiesto que hay una maquinaria de generación de noticias que apela fundamentalmente a estas audiencias más conservadoras y que el contenido que tiene falsedades también tiene más atracción por parte de audiencias conservadoras.
–¿Pudieron analizar a qué estaba vinculado ese contenido falso?
–Trabajamos en dos estudios distintos. En el primero, que ya salió publicado el año pasado, nos centramos únicamente en noticias. Y esto significa que analizamos todas las publicaciones, todos los posts que tenían un vínculo, un URL, a una página web mantenida por una organización mediática, que podía ser desde CNN hasta The New York Times o Breitbart. Entonces, el requisito era que tuviéramos un vínculo que apuntaba a una noticia de carácter político. Y es en base a esos datos que encontramos estas tendencias. En otro artículo que se publicará esta semana nos centramos en la difusión de información. No tanto en quién consume noticias, sino en cómo se difunde la información, sean noticias, memes, videos… Aquí tenemos una red mucho más amplia de análisis de contenidos y nos centramos en cómo se propagó ese contenido. Encontramos algo muy parecido. Hablamos de noticias, pero también de vídeos. Por ejemplo, el de alguien que grabó con su móvil en un centro electoral el día de la votación acusando de manipulación a los que trabajaban allí. El hombre decía que lo estaban obligando a utilizar un (marcador) Sharpie para votar, y en consecuencia le descalificarían el voto; decía que lo estaban haciendo a propósito para manipular los resultados de las elecciones… Esto se etiquetó como falso, porque no era cierto. Otro ejemplo era un video publicado por (el comentarista conservador Tucker) Carlson, que en esa época tenía un show en Fox News. Es un video en el que se queja de que Meta está censurando su cobertura de la pandemia, recordemos que estábamos en el 2020. De nuevo, este video se etiquetó como falso porque contenía falsedades.
–¿Y qué encontraron?
–En ese estudio, que es mucho más comprensivo en términos de qué contenido analizamos, encontramos que la mayoría de los procesos de propagación de noticias falsas involucran predominantemente a usuarios conservadores. Y la otra cosa que discutimos en este artículo es que la información falsa se difundió de forma más viral, en lugar de en forma masiva, como cuando una celebridad publica algo y entonces todo el mundo lo publica: viajó por la red siguiendo caminos más estrechos, más profundos. Y lo que contamos en el paper es que esto seguramente sucedió porque había un gap en las medidas de moderación de contenidos, que estaban diseñadas de tal modo que atacaban fundamentalmente a páginas y a grupos, pero no a usuarios, por cuestiones de libertad de expresión. Y eso permitió que la desinformación pudiera seguir viajando a través de persona en persona, a través de usuarios. Las páginas y los grupos fueron mucho más reguladas con penalizaciones, si publicaban noticias falsas, por ejemplo, se bloqueaba su contenido, o era más difícil de encontrar en el feed, o etiquetarlo. Esas medidas no se aplicaron a los usuarios. Y esto tiene que ver con cómo se regula el speech. En el primer artículo todas son noticias de carácter político. En el segundo caso, tenemos todo tipo de contenido. Es decir, alguno como el video que comentaba vinculado a las elecciones pero también a la pandemia. Un subconjunto es el contenido político, y otro la desinformación. Cada uno son como muñecas rusas. Y por eso notamos que cuando se trata de la desinformación las dinámicas son diferentes. Cuando es contenido político en general, que no ha sido etiquetado como desinformación, páginas y grupos tienen mayor poder de difusión, porque tienen unas audiencias mayores. No hay un límite en el número de seguidores, que es otra decisión de diseño de la plataforma, cuando esa cuenta es una página o un grupo. En el caso de la desinformación, encontramos que las dinámicas se revierten por las políticas de moderación, que no atacaron a personas individuales. Y este 1% de personas que se dedicó a difundir desinformación lo hizo de forma multimodal.
—Y este análisis corresponde a las elecciones de 2020, cuando Biden, el candidato demócrata, ganó las elecciones. ¿Hicieron alguna evaluación del impacto de la difusión de noticias falsas?
–Publicamos al mismo tiempo cuatro estudios, uno de ellos es el que estaba comentando que es puramente observacional y nos limitamos a ver lo que sucedió en la plataforma, que es donde vemos esta asimetría conservador-liberal. O sea, vemos que los conservadores son los que más noticias falsas consumen y difunden. En ese artículo no hay mucha conclusión en torno a los efectos, pero los otros tres, y en concreto dos, son experimentos diseñados específicamente para identificar ese efecto causal: ¿Cómo cambia lo que tú ves en la plataforma tus creencias y tus comportamientos? Y para realizar estos experimentos tuvimos que reclutar a usuarios que aceptaron participar, son muestreos más pequeños, aun así enormes para lo que son los estándares en las ciencias sociales: es un subconjunto de todos los usuarios que decidieron participar en este estudio. Entonces vemos lo que vieron en la plataforma y cómo eso impactó su intención de voto, sus creencias y sus valores. En uno de los experimentos modificamos básicamente el algoritmo que determina lo que ves en la plataforma. En una condición el algoritmo está ordenado cronológicamente, que no es lo que hace Facebook. Lo que hace es utilizar un algoritmo de recomendación para priorizar lo que te muestra en el feed. Lo que hicimos en este experimento fue desactivar este algoritmo y comparar: si la historia causal es Facebook te radicaliza o Facebook te hace cambiar tu intención de voto. Aislamos el algoritmo que determina lo que ves en Facebook, en uno de los experimentos y básicamente los resultados son nulos: no cambia nada, o mejor dicho cambian algunas cosas. La gente que accedió a la condición en la que se veía el feed de forma cronológica pasaba menos tiempo en la plataforma y eso ya lo sabemos: un feed cronológico es lo peor que hay, la realidad es esta, porque hay mucho contenido que no es de interés de nadie. Afectó a ciertas cosas, pero no a la intención de voto.
–¿Les sorprendió?
–Por un lado no es sorpresivo. Pero son tres meses de estudio, que es mucho más de lo que ninguna otra investigación había hecho antes, sin embargo si realmente esta plataforma ha tenido un efecto se ha acumulado durante todos estos años de uso, y eso primero es muy difícil de medir, porque no tenemos ya datos de lo que pasó hace diez años. Pero además está interactuando con tantas otras cosas que desde un punto de vista de la historia causal es muy difícil identificar. ¿Sabes qué es lo que más importa? Porque además cuando hablamos de las plataformas hablamos de muchas cosas, en este estudio nos centramos en el algoritmo que determina lo que ves en el feed, pero hay tantas otras cosas que se pueden manipular. En otro experimento lo que hicimos fue borrar del feed de los usuarios los free shares, o sea, todo lo que se comparte. Entonces, yo no me extrañé de que no encontrábamos efectos, pero eso no significa que no hayan tenido un efecto, es que a corto plazo no suceden estos cambios.
–¿Y por qué cree que las personas conservadoras son más susceptibles a compartir fake news?
–Tenemos que hacer más investigación para desentrañar qué está sucediendo exactamente, porque la respuesta a esta pregunta tiene dos componentes. Uno es la oferta: si hay más contenido que circula por las redes que apela a las creencias de los conservadores que contienen desinformación, entonces simplemente hay más donde escoger, y es más probable que haya contenido falso en esa oferta. Hay teorías psicológicas que no las he formulado yo, pero la literatura sugiere que cognitivamente hay una cierta predisposición. Es una autoselección. Uno se hace conservador porque tiene cierta propensidad a procesar información de determinada manera. Hay escalas de personalidad, que desarrollan los psicólogos, que dicen que la gente que es muy religiosa, o que es muy conservadora, tiene más fe, cuestiona menos las cosas… Yo no creo que haya una única teoría que explique este perfil psicológico. No hay nada que sea tan determinista, pero hay factores psicológicos de ese calibre, y luego también sociológicos, o además cuestiones de alfabetización, de clases sociales. Gente con un menor nivel de educación quizá tenga menos herramientas para contrastar… Se confluye todo, pero para mí lo que realmente ha cambiado la tecnología es la cuestión de la oferta, y de cómo circulan esas noticias, y el hecho de que personas que antes no hubieran consumido información, encuentran las noticias ahora en estas redes, y no tienen mecanismos de resistencia porque no están consumiendo información en ningún otro sitio. Cuando mis abuelos iban al cine, antes de ver la peli, veían el newsreel o noticiero, que era una máquina de propaganda también, en la España franquista era todo sobre el régimen, pero forzaba a que todo el mundo viera el mismo telediario, digamos. Era el terreno común, pero era todo mentira: era un mecanismo de propaganda también. Bueno, surgió la tele, luego cable TV, y se empezó a fragmentar todo, y las redes lo han fragmentado todavía más. No solamente en términos de qué ve cada persona, también en términos de qué se produce, y el targeting, cómo se intenta diseñar un mensaje pensando en una audiencia muy concreta, para intentar seguramente persuadirles o manipularles. Todo esto está pasando, pero no lo acabamos de entender bien, hay muchísimas preguntas que siguen abiertas, porque es un campo de investigación en ebullición, y en el que además tenemos muy poco acceso a datos.
–¿Qué se podría hacer para evitar esta polarización?
–Es la gran pregunta, ¿se pueden diseñar algoritmos que construyan puentes en lugar de algoritmos que separen cada vez más? Y eso es una pregunta muy tecnológica, ¿no? ¿Cómo diseñamos ese algoritmo? Porque al final estamos hablando de algo muy técnico, pero una pregunta también más normativa y filosófica que es: ¿cuáles son los valores que queremos promocionar en una democracia? Las empresas, las plataformas lo que quieren es maximizar el tiempo que pasas en ellas porque es así como te venden anuncios. Y esa es una pregunta normativa, de cómo queremos construir nuestras democracias. ¿Cómo construimos espacios deliberativos? Y luego está la cuestión de los que queramos usar la gente, porque tú puedes construir una ágora pública y luego nadie va. Podemos pensar en optimizar cosas que no sea solamente lo que se puede monetizar. Podemos crear estructuras de incentivos que no hagan que la gente acabe cayendo en mensajes tóxicos simplemente porque despiertan más emociones, más pasiones y generan más tráfico. Pero es una mirada paternalista tal vez. Mira lo que está pasando con las elecciones, Kamala Harris hablaba de defender los principios de la democracia y al final ha ganado un candidato que tenía un mensaje mucho menos noble.
–¿Y cómo podemos defendernos de la desinformación y de los discursos de odio en las redes sociales?
–Creo que hay dos vías de ataque: una es pensar muy bien en cómo implementamos esta moderación de contenidos para desincentivar el contenido tóxico. Esto puede ir desde que te etiqueten los mensajes hasta que te bloqueen y te echen de una plataforma. Y luego la parte más bottom-up que yo creo que también es el modelo Reddit y es de autogestión: decidir monitorizar e instalar unas normas. Es como cuando hablamos de cómo construimos barrios que prosperen donde no haya crimen. Es una cuestión de diseño pero también de comunidad, de reforzar ciertas normas. Es una respuesta menos tecnológica, más sociológica.
–El dueño de una de las plataformas donde más discursos de odio transitan es el empresario conservador Elon Musk, aliado a Donald Trump. ¿Qué piensa al respecto?
–A mí me resulta muy preocupante no solamente porque es el propietario de X sino porque también es el propietario de los satélites de los que depende la comunicación en Ucrania. Esto es un tema mucho más grande. Me preocupa que alguien que tiene intereses de negocios claros y ahora anda de la mano del gobierno que entra, controle esta plataforma de comunicación que llega a millones en todo el mundo. Pero tenemos una opción y es dejar de usar esa plataforma. En Europa una asociación de periodistas ha anunciado que van a dejar de utilizar X. Los académicos estamos todos saliéndonos de X. Entonces no tiene todo el poder. Es muy preocupante, pero una herramienta de comunicación si no tiene audiencias no sirve para nada. Ese es el poder que tenemos los usuarios. Y me refiero a usuarios de a pie, pero también a profesionales de la comunicación, gobiernos, élites políticas. Tenemos el poder de decidir si compramos un producto u otro, si usamos una plataforma u otra. Y en este sistema capitalista en el que vivimos es un poder que no se puede subestimar, que hay que ejercerlo.
CREDITO: PAGINA 12