La manera en que las manipulaciones de la información circulan en línea tiene características tan específicas como sus impactos potenciales, según se vio en las elecciones presidenciales estadounidenses de 2016. “Los investigadores que estudian la desinformación predicen que será cada vez peor a medida que se acerque la votación presidencial de este año”, advirtió una guía de la agencia AP sobre los distintos elementos que constituyen este fenómeno: deepfakes, trolls, bots, noticias falsas y demás herramientas de engaño público.
Información falsa vs. desinformación
Las operaciones políticas para la manipulación del público existen desde mucho antes que la prensa impresa, pero internet ha traído un cambio cualitativo: las falsedades, las teorías conspirativas y las exageraciones se difunden a más velocidad que nunca antes.
La información falsa es cualquiera que, más allá de su intención, incluye errores o equívocos en lo que respecta a los hechos. La desinformación, por otra parte, típicamente se refiere a información falsa creada y difundida de manera intencional a los fines de confundir o engañar. Ambas categorías abundan en las publicaciones y los avisos políticos en las redes sociales. Pueden ser noticias falsas o videos retocados, como el que se vio el año pasado sobre la presidenta de la Cámara de Representantes, Nancy Pelosi: fue ralentizado para que sonara como si ella arrastrase las palabras.
Por extraño que suene, las falsedades se difunden más rápida y fácilmente que las noticias verdaderas. Según los investigadores, esto podría deberse a que han sido construidas para llamar la atención. Un estudio del Instituto de Tecnología de Massachusetts (MIT) analizó más de 126.000 noticias, verdaderas y falsas que se tuitearon millones de veces desde 2006 hasta 2016. Descubrió que las noticias engañosas o incorrectas se movieron a una velocidad seis veces mayor que las verdaderas, y alcanzaron un público más amplio.
Bots y cuentas híbridas
La infantería de la guerra digital está hecha de bots: programas autónomos que pueden administrar cuentas para difundir contenidos sin participación humana. Muchos son inofensivos y a ellos se deben las fotos de mascotas que tanto gustan a casi todo el mundo. Pero otros, diseñados además para que parezcan usuarios reales, son muy distintos.
“Un estudio de investigadores de la Universidad del Sur de California (USC) analizó tuits vinculados a las elecciones publicados en septiembre y octubre de 2016, y halló que uno de cada cinco había sido enviado por un bot”, citó AP. En otro trabajo sobre el tema, el Pew Research Center concluyó en 2018 que las cuentas de bots fueron responsables casi dos tercios de los tuits que derivaron al público hacia sitios populares.
Mientras que un usuario humano de Twitter suele publicar algunas veces al día y sobre una variedad de asuntos, los bots más evidentes tuitean cientos de veces, día y noche, y en general sobre un tema específico. Suelen, además, retuitear contenido en mayor proporción que generar mensajes originales.
El informe de AP identificó también una cuenta híbrida, “que combina la capacidad de trabajo infatigable de un bot con la sutileza humana»: las cuentas cyborg, en las cuales cada tanto una persona real se asoma para responder a otros usuarios y subir contenido original, pero que por lo demás pasan la mayor parte del tiempo en manos de un bot.
Son, desde luego, más caras y requieren mayor dedicación, pero también resultan más eficaces. “Se puede obtener mucho de un bot, pero acaso no cosas de la mejor calidad”, dijo a la agencia Emilio Ferrara, investigador de informática de USC, coautor del estudio sobre bots de Twitter. “El problema con los cyborgs es que son mucho más difíciles de detectar».
¿Cómo se descubre un bot?
Pero tampoco un bot es sencillo de detectar, incluso para los mejores investigadores. “Tenemos 12 factores para identificar un bot, y si se dan siete u ocho podemos tener bastante confianza en la detección”, dijo Graham Brookie, director del Laboratorio de Investigaciones Digitales Forenses de Atlantic Council, una organización de Washington DC que estudia las conexiones entre redes sociales, ciberseguridad y gobierno.
Pero aun esos métodos pueden fallar: Brookie recordó el caso de una cuenta de Twitter de Brasil, que publicaba sin descanso, en una ocasión a razón de un tuit por minuto, y mostraba otras características. “Y sin embargo resultó ser una abuelita”, dijo.
El predominio de los bots en el océano de las redes combinado con la dificultad de detectarlos los ha convertido en una especie de villano digital, al punto que el término se emplea como un insulto, muchas veces contra personas. “Michael Watsey, un hombre de Nueva Jersey de 43 años que suele tuitear su apoyo al presidente Donald Trump, contó que muchas veces la gente con la que discute en línea termina por llamarlo ‘bot ruso’”, ilustró AP. “Las acusaciones hicieron que más de una vez Twitter suspendiera su cuenta temporalmente, y él debió verificar que es un ser humano para recuperarla”.
Trolls y sock puppets
La palabra troll, que originalmente aludía a los seres de la mitología escandinava, se usa para llamar a la gente que publica comentarios en línea para provocar a otros, a veces por su propio gusto pero en la mayor parte de las ocasiones como parte de una campaña coordinada.
Sock puppets, que en la dimensión física describía a los títeres de trapo, en internet es la denominación de una falsa identidad que se utiliza con fines de engaño, una cuenta impostora. Si bien muchas personas utilizan cuentas anónimas para evitar identificarse, las cuentas de sock puppet se usan casi exclusivamente para atacar a los críticos o montar campañas de auto promoción.
Videos falsos: deepfake vs. cheapfake
Con las capacidad de adulterar digitalmente los videos comenzaron a proliferar distintas formas de clips falsos. Los deepfakes se crean mediante inteligencia artificial o aprendizaje de máquinas para que parezca que sucedió algo que en realidad nunca pasó. Se consideran una amenaza emergente, ya que las constantes mejoras del software de edición hace posible que se pueda producir videos cada vez más realistas, como uno del ex presidente Barack Obama que lo mostró dando un discurso que nunca pronunció en un lugar en el que jamás estuvo.
“Son costosos y difíciles de producir, en especial para que resulten convincentes”, observó AP; además, las plataformas comenzaron a dificultar su circulación. Facebook anunció que prohibiría los deep fakes con excepción de las sátiras. Y desde marzo Twitter prohibirá los archivos multimedia que hayan sido manipulados —videos, fotos y audio—, en especial cuando puedan amenazar la seguridad física de alguien o puedan provocar daños en el mundo real. Según explicó la red, “la actualización de las reglas acompaña los cambios de los comportamientos en línea”. Incluso el material que no sea potencialmente dañino pero haya sido manipulado podría llevar una etiqueta de advertencia. Y YouTube prohíbe “los usos engañosos de archivos multimedia manipulados» que podrían presentar peligros.
En cambio, los cheap fakes (también conocidos como shallow fakes y dumb fakes) son videos adulterados con técnicas más básicas, como ralentizarlos o acelerarlos, o cortarlos y editarlos en otro orden. Como ejemplo, el informe ofreció el video que publicó el Partido Conservador de Gran Bretaña antes de las elecciones de diciembre, en el que se veía a un rival del Partido Laborista vacilando al responder una pregunta sobre el Brexit.
Como son fáciles y baratos de hacer, los cheap fakes pueden resultar igual de peligrosos que su pariente más sofisticado. “Los deep fakes se vuelven más realistas y más fáciles de hacer”, reconoció John Pavlik, profesor de periodismo en la Universidad de Rutgers que investiga el modo en que las tecnologías cambian los hábitos de comunicación. “Pero no es necesario tener un software especial para hacer estos que son más simples”.