Des chercheurs découvrent que le "fishwrap" a un impact sur les campagnes de recyclage de vieilles informations terroristes

Anciennes nouvelles, nouveau poisson.
agrandir / Anciennes nouvelles, nouveau poisson.

Rick Barrentine / Getty Images

Les chercheurs de Recorded Future ont découvert qu'il semble s'agir d'une nouvelle influence basée sur les médias sociaux et impliquant plus de 215 comptes de médias sociaux. Bien que la campagne soit relativement modeste comparée aux influences et aux opérations de désinformation menées par l'Agence de recherche Internet (IRA), affiliée à la Russie, son approche systématique consiste à recycler les images et les comptes rendus d'attaques terroristes et d'autres événements passés, et comme actualité Une approche qui a conduit les chercheurs à nommer la campagne "Fishwrap".

Des chercheurs ont identifié la campagne à l'aide de l'algorithme "boule de neige" de Recorded Future, un système d'analyse basé sur l'apprentissage automatique qui relie les comptes de médias sociaux lorsque:

  • Publier les mêmes URL et hashtags, en particulier dans un court délai
  • Utilisez les mêmes raccourcis d'URL
  • Avez-vous un "comportement temporel" similaire que vous publiez à des moments similaires – soit au cours de votre activité, soit au cours d'une journée ou d'une semaine
  • Commencez à fonctionner peu de temps après la fin de l'activité d'un autre compte publiant un contenu similaire
  • Avez-vous des noms de compte similaires, "définis par la distance de travail entre leurs noms", comme l'explique Staffan Truvé de Recorded Future.

Les opérations d'influence cherchent généralement à façonner la vision du monde d'un public cible afin de créer des divisions sociales et politiques. saper l'autorité et la crédibilité des dirigeants politiques; et générer de la peur, de l'incertitude et des doutes quant à leurs institutions. Ils peuvent prendre la forme de bulletins d’information réels diffusés par le biais de fuites, de faux documents ou d’experts coopératifs (comme l’a fait l’Union soviétique en propageant la désinformation sur l’armée américaine causant le sida). Cependant, avec un ciblage facile et peu coûteux sur les médias sociaux, il est devenu beaucoup plus facile de diffuser des histoires (même des faux) pour un impact encore plus grand. Cela se voit dans l'utilisation des données de Cambridge Analytica pour cibler des personnes pour des campagnes politiques et le projet IRA Lakhta, entre autres. Depuis 2016 Twitter a identifié plusieurs campagnes d'influence sur les médias sociaux apparemment financées ou influencées par l'État d'Iran, du Venezuela, de Russie et du Bangladesh.

Fausses nouvelles, anciennes nouvelles

Dans un article de blog, Truvé of Recorded Future a cité deux exemples de campagnes de "fausses nouvelles" identifiées par la recherche. La société s'était initialement intéressée aux informations faisant état de brutalités policières lors d'émeutes en Suède, affirmant que les musulmans protestaient contre les croix chrétiennes et montrait des images de personnes vêtues de noir qui détruisaient un portrait du Christ sur la croix. L'histoire a d'abord été rapportée dans un rapport en russe, puis reprise par des "comptes de presse" de droite au Royaume-Uni. Cependant, il a utilisé des images tirées d'un article sur des étudiants qui manifestaient au Chili en 2016. Une partie de la campagne Fishwrap a utilisé d'anciens récits d'un attentat terroriste à Paris en 2015 pour publier un article sur un faux attentat terroriste survenu en mars de cette année. L'histoire liée, cependant, était l'histoire originale de 2015 – les lecteurs attentifs se rendent compte que c'est un peu démodé.

La campagne Fishwrap consistait en trois groupes de comptes. La première vague a été active de mai à octobre 2018, après quoi de nombreux comptes ont été fermés. Une deuxième vague a débuté en novembre 2018 et est restée active jusqu'en avril 2019. Certains comptes sont restés actifs pendant toute la période. Tous les comptes utilisaient des programmes de troncature de domaine hébergés sur un total de 10 domaines, mais utilisaient un code identique.

De nombreux comptes ont été suspendus, mais Truvé a indiqué qu '"il n'y a pas eu de blocage général des comptes liés à ces pompes à url". Une des raisons est que les messages ne violent pas les conditions d'utilisation des plateformes de médias sociaux qu'ils définissent lorsque les comptes publient du texte et des liens associés à des événements "anciens, mais réels!". Activez cette option pour réduire le risque qu’elle soit remplacée par une modération humaine ou algorithmique.

Des chercheurs découvrent que le "fishwrap" a un impact sur les campagnes de recyclage de vieilles informations terroristes
4.9 (98%) 32 votes
 

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *