2 abril, 2019 - No Comments!

Para una ciencia de las Fake News.

Ciencia de datos contra la desinformación.

por Emanuele Cozzo y Luce Prignano.
Editora: Marta Cambronero.

Operaciones de información y Datapolitik.

Para empezar, una aclaración. Al margen del título un poco clickbait, el fenómeno de la desinformación online es más amplio y más complejo que las fake news.
En 2017, en un informe público del equipo de seguridad de Facebook se empleó el término ‘operaciones de información’ para indicar acciones emprendidas por actores organizados (gubernamentales o no gubernamentales) con el fin de distorsionar el sentimiento político interior o exterior”. El equipo de la popular plataforma añadía queestas operaciones pueden usar una combinación de métodos, como noticias falsas, desinformación o redes de falsos amplificadores destinados a manipular la opinión pública. Falsos amplificadores’ es la definición que el equipo de Facebook acuñó para referirse al conjunto de identidades no reales que practican la desinformación en las redes sociales, ya sean gestionadas por humanos (cuentas falsas), completamente automatizadas (bots) o algo intermedio (cyborgs).

Aunque hasta ahora las operaciones de información en contexto internacional −los famosos bots rusos− se han llevado gran parte de la atención, es cada vez más evidente para la opinión pública que el empleo de estas tácticas en España es muy frecuente y extendido. Un ejemplo reciente es el debate que se ha generado en las últimas semanas acerca de las cuentas falsas de Twitter que amplifican el mensaje de algunos partidos políticos. Por otra parte, es importante recordar que no estamos delante de un fenómeno completamente nuevo. Varias estrategias para distorsionar la opinión pública han sido empleadas, tanto hacia la propia población como hacia otros estados, por todo tipo de gobiernos a lo largo de la historia. De hecho, el término ‘operaciones de información’ forma parte del vocabulario militar desde hace varias décadas. Sin embargo, la difusión de plataformas sociales online como Facebook y Twitter ha abierto la puerta a un nuevo y más amplio abanico de posibilidades para el despliegue de estas tácticas a la vez que las ha puesto al alcance de un número potencialmente ilimitado de actores.

Finalmente, otro elemento de novedad proporcionado por el ecosistema digital es la inmensa cantidad y diversidad de datos de los que disponen quienes quieren diseñar campañas de desinformación. Esta enorme disponibilidad de información permite también medir los efectos de una campaña en tiempo real, posibilitando el ajuste continuo del discurso según el nivel de difusión y penetración alcanzado. Para referirnos a esta forma de realpolitik basada en datos hablamos de datapolitik. Con este términos nos referimos a un sistema o un discurso político basado en consideraciones utilitaristas guiadas por el análisis de datos masivos (1).

Detección e intervención

Aunque se pueda debatir ampliamente sobre hasta qué punto el uso de datos ha sido determinante en el referéndum del Brexit, la llegada de Trump a la Presidencia de Estados Unidos y el ascenso global de las derechas, lo cierto es que todos estos hechos guardan relación con el despliegue de tácticas novedosas de desinformación y manipulación. Además, en muchos casos se ha demostrado la implicación directa o indirecta de actores muy poderosos como Steve Bannon y The Movement, su “motor evangelizador”, como él mismo lo define. La sucesión de noticias de las últimas semanas sobre las redes de falsos amplificadores afines al PP o a Vox −fenómeno que, estamos seguros, no se limita a estos partidos− viene a decirnos que es un problema generalizado y que nos concierne muy de cerca.

Frente a este desafío, las llamadas sociedades de la información se encuentran sorprendentemente indefensas. Como afirmaban David Lazer y otros científicos en un reciente artículo “The science of fake news“ (PDF) publicado en la revista Science, “queda mucho por conocer acerca de las vulnerabilidades de los individuos, las instituciones y la sociedad ante las manipulaciones de los actores maliciosos”. Gracias al interés (y a los intereses) del mundo del marketing y de la política institucional, la investigación para el desarrollo de campañas de difusión basadas en datos y en el targeting sociodemográfico y sociopsicológico ha avanzado considerablemente en los últimos años. En cambio, poco se ha avanzado en la investigación para el desarrollo de estrategias de detección de operaciones de información e intervención con el fin de desarticularlas.

En el contexto de la batalla contra la desinformación se ha puesto mucho énfasis en el fact checking. Aunque esta labor de comprobación es necesaria, varias investigaciones (mencionadas por Lazer en su artículo) han apuntado al hecho de que puede que tenga una eficacia muy limitada y que, en algunos casos, puede llegar a ser contraproducente. Las personas tendemos a recordar la información y nuestros sentimientos hacia ella, pero no el contexto, al mismo tiempo que tendemos a aceptar información con la que estamos familiarizados como verdadera. Por esto, en algunos casos, la repetición de una información falsa o engañosa, aunque sea con el propósito de contrastarla, puede aumentar la probabilidad de que las personas la acepten como verdadera, contribuyendo así a su difusión. Esto es un riesgo sobre todo porque la labor de comprobación siempre llega después, cuando la pieza de desinformación o de manipulación ya ha empezado a difundirse y a tener impacto. Se trata de un problema del que tienen conciencia quienes trabajan en el fact checking. Por ejemplo, la agencia de verificación Maldita.es, para limitar estos posibles efectos secundarios, adopta la política de publicar desmentidos exclusivamente de noticias que ya son virales. No obstante, estas precauciones no son suficientes. Necesitamos métodos de detección temprana y de intervención eficaz. Para ello, como ya señalaban Lazer y coautores en el artículo citado, es necesario entender los mecanismos propios de la difusión en red de informaciones falsas y manipuladoras, así como su impacto en las personas en comparación con los mecanismos que impulsan la difusión de otro tipo de información no engañosa. Al mismo tiempo, es necesario desarrollar la capacidad de detectar la acción de falsos amplificadores, sean automatizados (bots) o no (cuentas falsas).

En EE.UU., la investigación científica empieza a mover pasos en esta dirección, sobre todo a raíz del debate suscitado por la elección de Trump como Presidente en 2016, mientras que en Europa estos estudios son casi inexistentes (2). Por ejemplo, Grinberg y sus colaboradores mostraron cómo en la campaña electoral del 2016 el 5% de la exposición a contenido político en el Twitter estadounidense venía de fuentes de noticias falsas y lo mismo ocurría con el 6% del contenido político compartido. Sin embargo, el contenido proveniente de fuentes de fake news era muy concentrado: las siete fuentes más populares eran responsables del 50% de los contenidos. De la misma manera, la fracción de población que compartía contenidos de fuentes de noticias falsas resultaba ser muy reducida. El estudio también revelaba que distintos segmentos de la población tienen tendencia diferente a ser expuestos a noticias falsas y compartirlas, siendo la franja de mayor edad la que está más en riesgo.

Por otra parte, también se evidencian diferencias entre la acción de bots y falsos amplificadores que tienen un cierto grado de automatización pero son gestionados por personas (cyborgs). A diferencia de los primeros, que tienen que ganarse la atención de los humanos, los segundos están completamente embebidos en las redes de interacción entre humanos, y esto aumenta su eficacia. La proliferación de herramientas para la automatización de la producción de contenidos pone esta capacidad al alcance de cualquier persona usuaria incrementando así la incidencia de cuentas cyborgs. Mientras que mucha atención ha sido dirigida a los bots, necesitamos estudiar los cyborgs (o humanos aumentados) como objeto separado para aprender sus mecanismos de acción e identificarlos.   

Todos los estudios sobre el fenómeno reconocen el factor psicosocial como un factor fundamental para determinar la difusión y el impacto de la desinformación. También sabemos que el contexto cultural tiene un papel fundamental. Por lo tanto, la extrapolación de las conclusiones de investigaciones desarrolladas en EE.UU. a otros contextos −en nuestro caso, el europeo− es muy poco fiable. La ciencia de las fake news es por definición una ciencia situada y necesita de estudios enfocados a cada contexto social y cultural.

Una ciencia compleja, abierta y ciudadana.

La ciencia de las fake news, es decir, el estudio sistemático de los mecanismos de difusión e amplificación de la desinformación con fines manipulativos, necesariamente deberá hibridar metodologías y lenguajes de distintas disciplinas académicas. La psicología social, la modelización matemática, la ciencia de las redes complejas, los media studies, la ciencia de la computación, entre otras, aportan herramientas y puntos de vista que tienen que ser integrados para abarcar el fenómeno complejo de las operaciones de información. Pero, más allá de la inevitable transdisciplinariedad, para poder desarrollar métodos de intervención eficaces que sean democráticos y que estén al paso con el desarrollos de técnicas cada vez más sofisticadas, esta nueva ciencia tendrá que ser abierta y ciudadana. En tanto que dependiente de la disponibilidad de datos acerca del comportamiento de las personas en la plataformas sociales online, la ciencia de las fake news no puede prescindir del acceso a estos. La mayoría de estas plataformas fundamentan su modelo de negocio justamente sobre la explotación a fines comerciales de los datos producidos por las personas usuarias, alimentando no en pocos casos la misma industria de la desinformación. Por el contrario, para poder estudiar las fake news se necesita la condivisión abierta y ética de datos de comportamientos sociales online.

Por otra parte, las plataformas sociales online, ya laboratorio de prueba para el desarrollo de ‘operaciones de información’, también son el laboratorio de experimentación para la ciencia de las fake news. Esto implica necesariamente la participación directa de las personas usuarias, que de otra forma serían relegadas al estado de conejillos de indias. Al margen de esta consideración ética, la participación directa de las personas usuarias también es necesaria para un desarrollo eficaz de la disciplina y sus metodologías en tanto que actores directamente implicados y por lo tanto portadores de información valiosa y conocimientos prácticos. Finalmente, la participación directa, como herramienta de empoderamiento difuso, también es una manera inmediata de intervenir en el problema.

Las plataformas sociales online han generado un ecosistema complejo que amplía y modifica tanto el ecosistema informacional clásico (televisiones, diarios, radio) como el ecosistema material (charlas vis-à-vis, llamadas telefónicas) donde nuestras vidas discurrían antes de la llegada de la web social. Necesitamos entender los mecanismos propios del funcionamiento de este ecosistema, para cuidarlo y cuidarnos, algo imprescindible si consideramos su creciente centralidad en nuestras vidas individuales y colectivas. Desarrollar una ciencia de las fake news representaría un avance vital hacia lo que podemos llamar una nueva ecología de la información, es decir, el marco conceptual que deberá informar el debate público en torno a cómo organizar las estructuras que permiten la producción y el intercambio de información esenciales en la vida en común del siglo XXI.


Notas

‘La Bestia’, el sistema que controla las redes sociales del Ministro de Interior italiano Matteo Salvini, es el mejor ejemplo de estas prácticas.

2 Entre las pocas excepciones se encuentra este trabajo de Stella, Ferrara y De Domenico analizando datos de Twitter durante el referendum catalan.  

Published by: heuristica in blog, DataPolitik
Etiquetas:

Leave a Reply