Un plan para documentar y desacreditar campañas de desinformación

Un plan para documentar y desacreditar campañas de desinformación
América del Norte
Estados UnidosEstados Unidos
Informe

El libro de casos de manipulación de medios

Nieman Reports Articulo escrito por:

BRIAN FRIEDBERG -EMILY DREYFUSS-GABRIELLE LIM-JOAN DONOVAN

Una herramienta para ayudar a los periodistas, investigadores y legisladores a saber cómo y cuándo responder a la información errónea en todas sus formas.

En 2020, en medio de una pandemia, protestas y elecciones presidenciales, la desinformación acecha en todas partes. Está en nuestras redes sociales, sale de la boca de nuestros políticos y se imprime en folletos enviados por correo a nuestras puertas, entremezclados de manera indistinguible con los hechos. La Organización Mundial de la Salud lo ha calificado de infodemia. Parte de esto es el resultado de campañas de manipulación intencional de los medios, estafas, engaños y trucos elaborados por personas con una agenda. Esta desinformación, como un virus, es contagiosa y potencialmente mortal, para los individuos y la democracia misma.

No empezó de esta manera. El advenimiento de la comunicación en línea, y la gran posibilidad de conexión que vino con ella, permitió que las personas se encontraran basadas en el interés y la afinidad como nunca antes, y en nuevas herramientas para quienes se dedican a la producción cultural. Los innovadores científicos, los grupos de defensa y los medios independientes prosperaron con los nuevos avances en la comunicación en red y la tecnología de banda ancha, estableciendo sus comunidades en la web abierta y las redes sociales.

Pero a medida que la ingenuidad de la era tecno-utópica se desvanece en los horrores de la infodemia, ahora vemos plataformas que ejecutan la defensa después de permitir a sabiendas que florezca la radicalización. El daño directo causado por los ataques de ransomware a nuestras instituciones vitales, los ciber-soldados de los regímenes opresivos, los equipos de desinformación con fines de lucro, las teorías de conspiración dañinas basadas en el antisemitismo y la desinformación médica, y la celebración de la violencia extremista están rompiendo nuestras instituciones, lo que tienen poca o ninguna capacidad para identificar el origen de estos ataques.

Nosotros, en el equipo de Tecnología y Cambio Social del Centro Shorenstein de Medios, Política y Políticas de Harvard, estamos publicando el Libro de casos de manipulación de medios para ayudar a eliminar este ruido. El libro de casos es una base de datos de estudios de casos de campañas de manipulación de medios, algunos antiguos, otros en curso, que esperamos proporcionen un marco para analizar este fenómeno. Pretendemos que esta plataforma de investigación sea tanto un recurso para los académicos como una herramienta para ayudar a los investigadores, tecnólogos, políticos, organizaciones de la sociedad civil y periodistas a saber cómo y cuándo responder a la amenaza real de la manipulación de los medios.

.El corazón del Casebook es el ciclo de vida de la manipulación de los medios, que presenta una metodología sobre cómo comprender los orígenes y los impactos de las campañas de manipulación de los medios, tanto nacionales como internacionales, y su relación con el ecosistema de información más amplio. Situada en el campo emergente de los estudios críticos de Internet, es el producto de tres años de investigación sobre cómo los periodistas, los grupos de la sociedad civil y los tecnólogos se enfrentan a las campañas de manipulación y desinformación de los medios. Nos tomamos en serio la necesidad de un conjunto de definiciones intersectoriales que nos ayuden a dar sentido a las tácticas de los manipuladores y las estrategias de comunicación que emplean para engañar al público

Las diferentes etapas del ciclo de vida de la manipulación de los medios Proyecto de cambio social y tecnológico en el Centro Shorenstein de Medios, Política y Políticas Públicas

Aquí, desglosamos cómo funciona cada etapa del ciclo de vida y las formas en que los diferentes grupos de personas que intentan contraatacar pueden ser más útiles. La manipulación de los medios no solo afecta a los periodistas y las empresas de redes sociales, sino que presenta un desafío colectivo para todos los que creemos que el conocimiento es poder. Como un martillo en un mundo lleno de clavos, el Casebook ofrece una forma de analizar las interacciones en nuestro ecosistema de medios que es consistente con las prácticas periodísticas y de investigación actuales, que buscan acercarnos a la verdad.

Etapa 1: planificación de la campaña


Las campañas de manipulación de los medios son producto de nuestra cultura y de Silicon Valley. A medida que los productos de la industria de la tecnología se difundieron mundialmente, impulsados ​​por una máquina tecnocrática y con fines de lucro, también se reprodujeron y amplificaron los problemas sociales preexistentes. En muchas de las campañas de manipulación de medios que catalogamos en el Casebook, se ven pequeños grupos de actores motivados, a menudo impulsados ​​por estas fuerzas sociales tóxicas, que utilizan la tecnología de manera oportunista para escalar y amplificar su impacto.

Establecer quiénes son estas personas y por qué actúan es extremadamente difícil. Las plataformas de redes sociales, los principales objetivos de los extremistas y manipuladores de los medios, son cada vez más opacas y difíciles de estudiar críticamente. Esto hace que establecer la intención y la atribución de los artefactos de desinformación y la propaganda dañina sea un proceso que requiere mucho tiempo y es emocionalmente agotador para los periodistas e investigadores. Detrás de cada plan de campaña visible hay otra capa de comunicación invisible con los forasteros, otra nueva plataforma para evadir la regulación y la supervisión.

Pero la opacidad de la moderación del contenido con respecto a estos materiales hace que la investigación crítica externa y el periodismo sean una parte tan necesaria para presionar por el cambio.

Descubrir pruebas de la planificación y coordinación de campañas requiere experiencia en el dominio, lo que lleva tiempo. Esta información puede ser recopilada en tiempo real por un observador dedicado a la tarea de comprender la dinámica de los espacios subculturales en línea, pero a menudo solo está disponible de manera forense. Sabemos hasta qué punto la extrema derecha se organizó para Unite the Right debido a las filtraciones de chat publicadas por Unicorn Riots, por ejemplo. En nuestros estudios de caso, cuando es posible, ilustramos cómo se ve el comienzo de una campaña y explicamos cómo otros investigadores y periodistas pueden cultivar esa experiencia en el dominio ellos mismos. Nuestros estudios de caso sobre el fenómeno de las cuentas falsas de Antifa en las redes sociales y la "Operación Blaxit" de la cara negra digital muestran cómo la planificación y la coordinación pueden ser detectables para aquellos que saben dónde buscar.

Descubrir la planificación de la campaña y establecer la intención es imposible sin una investigación cualitativa que contextualice cómo y por qué se creó. En lugar de depender de grandes conjuntos de datos anonimizados entregados por estas plataformas o del acceso a la información cada vez más restrictivo, nuestros métodos de investigación incorporan conocimientos etnográficos, sociológicos y antropológicos de la comunicación humana para dar sentido al lío. Incluido como parte de nuestro paquete metodológico está la “Etnografía digital investigativa”, una guía para académicos y periodistas que buscan diseñar investigaciones de redes sociales que conduzcan a una visión profunda de las comunidades objetivo de la desinformación y aquellas que la producen de manera confiable. Si bien también habrá otra capa en una campaña de desinformación que no podemos ver, nosotros, como periodistas e investigadores, debemos realizar una investigación clara y reproducible para abordar colectivamente los muchos daños en línea que enfrentamos hoy.

 

Etapa 2: Sembrar la campaña en las plataformas sociales y la Web


La etapa 2 es cuando una campaña pasa de la planificación a la ejecución, cuando los memes, hashtags, falsificaciones e información falsa o engañosa se siembran en las redes sociales, sitios de noticias marginales, blogs y foros. A menudo con la ayuda de participantes dispuestos, personas influyentes en línea y facciones en red, esta etapa documenta el punto más temprano en el que una campaña va más allá de sus creadores originales. Si los mensajes y las llamadas a la acción son lo suficientemente atractivos, la campaña crece y llega a nuevas audiencias que a menudo no tienen idea de los orígenes o las motivaciones detrás de lo que están viendo ahora.

La intervención en esta etapa no está clara. ¿En qué momento se interviene? ¿Qué tan atroz es el contenido? ¿Cuál es el resultado probable? ¿Será contraproducente la intervención? Aquí es donde las organizaciones de la sociedad civil (OSC) juegan un papel importante. Debido a su experiencia en el dominio y sus conexiones con individuos y grupos que pueden verse más afectados por una operación de influencia mal motivada, las OSC no solo sabrán dónde buscar, sino que comprenderán mejor los vectores de ataque, los problemas de cuña que se enfrentarán. explotado, y el contexto y los matices para discernir qué acción (si corresponde) debe tomarse. Por lo tanto, las OSC con la capacidad de monitorear tales actividades se convierten en un actor invaluable para prevenir que una operación de influencia potencialmente peligrosa pase a la siguiente etapa.

A menudo, con más conocimientos técnicos y una acción más rápida, las OSC pueden contrarrestar los mensajes antes de que lleguen a las audiencias principales, descartar posibles conceptos erróneos sobre un problema y agitar la respuesta de la plataforma. Aquí, el humor y la creatividad son activos que los activistas pueden aprovechar para contrarrestar el error y la desinformación. A menudo, las OSC son las primeras en darse cuenta cuando algo parece dudoso y pueden ser un recurso confiable. Las empresas de tecnología y los investigadores también deben tomar nota, ya que las intervenciones más efectivas probablemente involucrarán a todas las partes

Etapa 3: Respuestas de la industria, activistas, políticos y periodistas

La etapa 3 del modelo de ciclo de vida documenta cómo reaccionan y responden las personas y organizaciones altamente visibles fuera de una campaña de manipulación. Estos individuos o instituciones pueden ser políticos, agencias gubernamentales, celebridades, personas influyentes, organizaciones de la sociedad civil o periodistas. Casi siempre es después de las reacciones de estas personas con poder cultural que una campaña de manipulación se vuelve más visible y peligrosa. La etapa 3 es un punto de inflexión. Lo que sucede durante este período crítico determina si la campaña recibe una amplificación y atención indebidas o si fracasa.

Es en esta etapa cuando el juicio periodístico es más importante. Los manipuladores de los medios anhelan atención. Si el objetivo de la Etapa 2 es tender una trampa en Internet para llamar la atención, la Etapa 3 es donde la campaña la atrapa.

Los periodistas suelen ser los que encuentran esas trampas, ya que su trabajo es buscar información importante que el público necesita conocer. Los periodistas están a la caza. Y por eso tienen que pensar en las campañas de manipulación de los medios de comunicación como caídas, distribuidas en Internet para que se pongan al día. Al encontrar pruebas de una campaña que todavía se encuentra en las etapas 1 o 2, los periodistas deben equilibrar cuidadosamente la necesidad de informar sobre hechos reales con la necesidad de no ser víctimas de una campaña de manipulación. A veces no es de interés público informar sobre campañas incipientes.

Para determinar si informar en la Etapa 3 hará más bien que daño, los periodistas deben preguntarse: ¿Tiene esta pequeña manipulación de los medios el potencial de causar un daño real? ¿Están respondiendo y difundiendo personas influyentes? ¿Parece que muchas personas se están enamorando y adoptan sus mensajes dañinos? Si la respuesta a estas preguntas es sí, entonces se justifica informar. Si las respuestas son menos claras, deben emitir el mejor juicio posible.

Como muestran algunos de nuestros estudios de caso, lo peor que pueden hacer los periodistas en la Etapa 3 es informar sobre una campaña de manipulación de medios al pie de la letra, repitiendo la desinformación y el encuadre de la campaña. En este caso, los periodistas han sido engañados. Esa es una victoria obvia para los manipuladores.

Pero los periodistas aún pueden amplificar la campaña de manipulación incluso si obtienen los informes correctamente, lo que hace que la Etapa 3 sea extremadamente complicada. Si la campaña de desinformación avanza cojeando en las redes sociales, un artículo en la prensa convencional, incluso uno que señale con precisión cuán falsa o incorrecta es la campaña, podría ser la combinación que encienda el fuego de la operación.

En esa situación, el movimiento correcto puede ser no escribir una historia, desplegar un silencio estratégico.

Pero si es demasiado tarde para el silencio estratégico, por ejemplo, porque otras organizaciones de noticias ya lo están amplificando, o las plataformas de redes sociales lo están sirviendo a grandes audiencias que ya están actuando en consecuencia, o porque las personas de alto perfil ya están respondiendo a él. entonces ya está en la Etapa 3 y es apropiado e incluso necesario informar sobre ello.

Una forma de pensar en esto es: como periodistas, rara vez querrá iniciar la Etapa 3. Solo desea iniciar la Etapa 3 con sus informes si una campaña ya ha ganado una popularidad viral tan oculta, fuera de la visión general, que causando daño o será inminente.

En este caso, lo más importante es informar de forma crítica. Esto significa implementar una "amplificación estratégica". Significa seguir la rúbrica del sándwich de la verdad: comenzar con lo que es verdad, desacreditar rápidamente lo que es falso y luego volver a lo que se conoce. Lo que se sabe puede ser cosas como quién está detrás de la campaña, dónde se planeó, a quién le duele y cómo encaja en el ciclo de noticias actual y en el ciclo de vida de la manipulación de los medios. No se vincule directamente con los identificadores y sitios web de los operadores de campañas si puede evitarlo. No facilite a los lectores el uso de sus informes como una forma de encontrar, difundir y unirse a la campaña.

Los periodistas también tienen un papel crucial que desempeñar en la Etapa 4: Mitigación. Para la Etapa 4, una campaña ha alcanzado un punto de inflexión viral tal que es claramente necesario un correctivo en los medios. Si ese correctivo es efectivo depende de la situación, pero tal información siempre está justificada porque la campaña ha alcanzado un cierto nivel de conciencia pública.

Etapa 4: Mitigación


Una vez que una campaña se amplifica en la conciencia pública, una serie de partes interesadas deben actuar para mitigar sus daños. El periodismo también juega un papel crucial aquí, verificando activamente los hechos y desacreditando las campañas de desinformación individuales, para llevar las acciones y los impactos de los actores maliciosos en las plataformas de redes sociales a la atención de la sociedad civil, los tecnólogos y los legisladores.

A medida que las salas de redacción se adaptaron durante los últimos cuatro años a la normalización de la desinformación en las redes sociales, comenzaron a verificar regularmente los hechos y a desacreditar los ritmos. Los verificadores de hechos han escrito miles de artículos que desacreditan la desinformación y las conspiraciones porque ven cómo las audiencias son atacadas repetidamente por contenido sensacional y escandaloso en línea. Es una pérdida de recursos, que podría gastarse mucho mejor en mantener el periodismo en lugar de moderar el contenido en las plataformas. Las verificaciones de datos dedicadas son una forma de mitigación, que dominan los resultados de SEO para las campañas de manipulación confirmadas.

Los esfuerzos de mitigación a menudo recaen sobre la sociedad civil, que sufre la larga cola de la manipulación durante años a medida que se dispersa la desinformación. Los periodistas, los profesionales médicos y de salud pública, los líderes de la sociedad civil y el personal encargado de hacer cumplir la ley están asumiendo el verdadero costo de responder a la desinformación constante.

La evidencia que recopilan se suma y puede ayudar a presionar a las plataformas para que cambien sus sistemas o Términos de servicio. Las coaliciones de la sociedad civil, como Change the Terms, han presionado durante años para obligar a las empresas de plataformas a asumir la responsabilidad de los daños que proliferan en sus sitios. La moderación del contenido no debería ser tarea de la sociedad civil ni de las comunidades que se ven perjudicadas.

Las empresas de plataformas son las que ejercen el poder de la moderación de contenido en la Etapa 4. Pueden desmontar, eliminar contenido, prohibir términos; en resumen, pueden desconectar las campañas de manipulación de medios si toman las acciones adecuadas en el momento adecuado. Desplantar a los manipuladores y los traficantes del odio funciona. Pero estos esfuerzos de mitigación a menudo llegan demasiado tarde, como la demolición de los supremacistas blancos que planearon el evento asesino de Unite the Right o el largo y lento crecimiento del movimiento QAnon. Un ejemplo de esto en nuestro libro de casos es el caso del acoso selectivo de un presunto denunciante, cuando algunas empresas de redes sociales siguieron el ejemplo del periodismo convencional y bloquearon el uso de un nombre específico en sus plataformas para proteger a una persona de cualquier daño.

Pero las empresas de plataformas a menudo responden demasiado tarde o no responden en absoluto. Sabemos que plataformas como Facebook han permitido a sabiendas que la radicalización se contagiara con resultados mortales. Aunque tienen departamentos de políticas centrados en minimizar el daño y se han comprometido una y otra vez a hacer de sus plataformas un entorno seguro y equitativo, a menudo no toman medidas hasta que la sociedad civil y los periodistas los han obligado a hacerlo. Sus dispares esfuerzos de mitigación no están coordinados ni estandarizados, lo que permite a los manipuladores aprovechar un entorno de medios asimétrico para ejecutar ataques.

En el vacío de la regulación, vemos repetidamente cómo las plataformas fallan en la búsqueda de la protección de la marca, actuando solo cuando una campaña ha terminado o se ha adaptado. En enero de 2020, Facebook publicó una declaración: “En ausencia de una regulación, Facebook y otras empresas deben diseñar sus propias políticas. Hemos basado el nuestro en el principio de que las personas deben poder escuchar a quienes desean liderarlos, con verrugas y todo ".

Esto revela que en la Etapa 4, el intermediario de poder que falta son los reguladores, quienes podrían crear reglas estandarizadas para las plataformas, pero hasta ahora han abdicado en gran medida ese deber o lo han encontrado demasiado difícil.

Etapa 5: Adaptación de la campaña


Como revelan muchos de los casos en el Libro de casos, a pesar de cierta mitigación, las campañas de manipulación de los medios a menudo encuentran formas de continuar. En la Etapa 5, las campañas se adaptan cuando es posible, a veces de la noche a la mañana o en el transcurso de varios años, como el caso de estudio sobre la campaña digital de la Operación Blaxit, o la perdurable teoría de la conspiración Pizzagate. Los operadores a menudo conocen las mejores formas de explotar los sistemas sociotécnicos y, a menudo, utilizan el anonimato para evitar la atribución y utilizan materiales editados y lenguaje codificado para evitar la marcación automática de contenido. Si bien estas personas o grupos pueden estar fuera de la responsabilidad, las principales plataformas de redes sociales siguen siendo el principal vector de ataque para tales campañas y tienen la responsabilidad de frenar el impacto de este comportamiento.

La mitigación exitosa de la plataforma es la única forma de frenar el impacto de la adaptación por parte de los manipuladores. La película "Plandemic", que afirmaba que el virus Covid-19 fue desplegado por poderosas élites para crear un nuevo orden mundial, se volvió súper viral en la primavera de 2020. Se retiró después de recibir casi dos millones de visitas. Todavía circulaba en plataformas de video más pequeñas. Antes de la mitigación, esta campaña de desinformación operaba públicamente, incluso anunciando previamente una película de seguimiento, "Adoctrinamiento". Cuando se lanzó esa película, las plataformas estaban listas. Al tomar medidas proactivas, las principales plataformas hicieron mucho para detener la transmisión del documental y pudieron evitar que se repitiera la viralidad de "Plandemic". Como resultado de la coordinación intersectorial, el "adoctrinamiento" recibió mucha menos atención. Los manipuladores motivados continuarán adaptándose, pero sin las capacidades de amplificación de las redes sociales a su disposición, sus audiencias disminuirán enormemente.

Hacer un seguimiento de este ecosistema es difícil. Las campañas son difíciles de encontrar, difíciles de identificar mientras se están sembrando, un desafío para los periodistas, nuestras instituciones y la sociedad civil. Las prácticas de mitigación desiguales y desmotivadas de las plataformas permiten la adaptación del manipulador. Pero en el proyecto Tecnología y Cambio Social presentamos este modelo, abierto a muchas disciplinas y prácticas de investigación, como un medio para detectar, documentar y desacreditar la desinformación en todas sus formas. Es un marco para los legisladores que buscan comprender el impacto que tiene la manipulación de los medios fuera de las plataformas, y cómo esas plataformas están diseñadas para una explotación continua. Y esperamos que sea un plan para periodistas e investigadores que buscan estándares sobre cómo abordar la actual crisis de la información.