Este 2019 es un año intenso a nivel electoral en América Latina. Durante el primer semestre, hubo elecciones presidenciales en El Salvador, Panamá y Guatemala. En esta segunda mitad del año llegará el turno de Argentina (estamos a escasos días de las PASO, instancia previa a los comicios de octubre), Uruguay y Bolivia de elegir primer mandatario. También habrá elecciones regionales en Colombia.
Son momentos en que se espera una mayor circulación de información con contenido político en redes sociales. De ahí que sea necesario, más que nunca, estar alerta ante las posibles fake news que podrían viralizarse. Este fenómeno no responde a una plataforma en particular: están presente en WhatsApp, Facebook, Instagram, Snapchat o Twitter, solo por nombrar algunas. En este caso nos vamos a centrar en analizar la red social del pajarito, un ámbito donde, muchas veces, se congregan trolls y bots para manipular la información.
Antecedentes
Uno de los temas que marcó la última campaña presidencial en Estados Unidos fue el uso de las redes sociales para manipular las opiniones de los votantes, con el fin de interferir en las elecciones. El escándalo de Cambridge Analytica en Facebook es uno de los ejemplos. El otro fue la distribución de información falsa a través de Twitter, propiciada, principalmente, por una entidad rusa.
La red social llevó adelante una exhaustiva investigación a raíz de esto y en octubre de 2018 presentó un informe donde dieron cuenta de todas las cuentas que se utilizaron y cómo actuaron en la campaña presidencial dirigida a votantes estadounidenses.
En la investigación revelaron que se utilizaron 3.841 cuentas afiliadas a IRA, una agencia rusa responsable de haber orquestado la campaña de desinformación; también identificaron unas 770 cuentas «potencialmente originarias de Irán», como parte de este entramado.
La campaña dirigió propaganda tanto a liberales y conservadores, dentro del espectro político y se abocó en diseminar información en particular sobre temas que despertaban mayor descontento en ambos lados de la grieta.
Más de 10 millones de tuits, 2 millones de imágenes, GIF, videos y transmisiones de Periscope estuvieron vinculadas a esta campaña. Había 123 cuentas principales, que se hacían pasar por medios de noticias o partidos políticos, que tenían al menos 10 mil seguidores.
Esos perfiles se dedicaban principalmente a publicar tuits nuevos y las otras 3.713 cuentas auxiliares se dedicaban a retuitear mensajes de esas cuentas principales. De ese modo amplificaban el alcance y viralizan contenido falso, según se explica en un análisis del Symantec.
Por su parte, desde Knight Foundation hicieron también una investigación donde notaron un incremento de actividad de noticias falsas y desinformación durante la campaña presidencial. Identificaron más de 6,6 millones de tuits vinculados a sitios con noticias falsas y conspirativas en el mes anterior a las elecciones de 2016; y unos 4 millones de tuis de este estilo desde mediados de marzo y hasta mediados de abril de 2017. O sea que la desinformación continuó siendo un problema post elecciones.
El 33% de las 100 cuentas más populares en el mapa postelectoral eran bots, es decir cuentas automatizadas. Cabe hacer la diferencia con los trolls, tal como se denominan a las cuentas, manejadas por humanos, cuyo registro violento busca bloquear los debates o desviar la conversación
Una investigación de Amnistía Internacional publicada en 2018 analizó los ataques sistemáticos y coordinados que se hacen, muchas veces a través de bots y ejércitos de trolls con el objetivo de silenciar debates. En el informe se habló de los ataques a periodistas y referentes de derechos humanos.
El asesor de comunicación política, Antoni Gutiérrez-Rubí, analiza en un artículo llamado Bots para la comunicación política la enorme cantidad de bots que existen y se ven, en diferentes plataformas y los usos que se le dan en el marco de la tecnopolítica.
Cómo combatir a los bots y los trolls
Existen algunas herramientas, desarrolladas por instituciones o desarrolladores independientes, que utilizan las API de Twitter y dicen que pueden ayudar a identificar bots.
También se dice que hay ciertos indicios que permiten al usuario sospechar si un perfil es automatizado. Entre estas señales se menciona el hecho de que no haya foto de perfil, que haya sido creado recientemente, que tenga una actividad demasiado alta o que se haya creado recientemente. Sin embargo, todas estas señales no son concluyentes y podrían fallar.
Hugo Rodríguez Nicolat, director de Políticas Públicas de Twitter, explicó cómo debe hacer un usuario para saber si un usuario es un bot o no, el directivo dijo que lo siguiente: «lo que el usuario puede hacer en Twitter es ayudarnos con el cumplimiento de las reglas, entonces si sospecha que una cuenta está automatizada o incumple nuestras reglas de autenticidad, en la propia plataforma puede reportarlo, puede iniciar el proceso de decir: ‘creo que esta cuenta es falsa’ y al hacer eso ya entra en un proceso de revisión que la plataforma hace para determinar si hay incumplimiento de las reglas o no».
En el caso de que se quieran denunciar un tuit, hay que ir a la publicación en cuestión, hacer clic en el ícono de la flecha, seleccionar la opción «Denunciar». Allí se desplegará un menú de 3 opciones para elegir, entre las que figuran «es sospechoso o spam», «comete abusos o es perjudicial». Cabe destacar que esto último sirve para denunciar agresiones recurrentes como las cometidas por los trolls, por ejemplo.