bots, trolls et nous tous

[ad_1]

Plus tôt ce mois-ci, la Maison Blanche a organisé un «Sommet sur les médias sociaux» qui a permis de recadrer et de détourner l'attention d'une manipulation sérieuse et hostile du discours en ligne. Les algorithmes, les modèles économiques et les impulsions humaines qui rendent l’écosystème des médias sociaux vulnérable à la désinformation, à la propagation délibérée de contenus trompeurs, ont déjà fait couler beaucoup d'encre. Bien que les grandes sociétés de technologie soient souvent trop peu ouvertes ou motivées pour résoudre le problème, elles ont commencé à prendre des mesures contre ce que Facebook appelle un «comportement inauthentique coordonné».

Mais la désinformation n’est pas aussi simple que le supposent la plupart des gens: ceux qui sont derrière les campagnes de désinformation associent délibérément une action orchestrée à une activité organique. Les publics deviennent des collaborateurs consentants mais involontaires contribuant à la réalisation des objectifs des militants. Cela complique les efforts de défense des espaces en ligne.

Lorsque mon laboratoire a étudié l'activisme en ligne autour de #BlackLivesMatter, les théories du complot qui se présentent après les crises et le conflit syrien, nous avons découvert des campagnes de désinformation promouvant des points de vue multiples, souvent contradictoires. Au début, j'ai négligé leur influence, dans l'espoir d'arriver à des phénomènes sous-jacents plus importants. Mais finalement, j'ai commencé à voir comment les réseaux de désinformation faussaient les conversations en ligne et le discours politique mondial, et j'ai changé mon objectif de recherche. Des années plus tard, les sortes d'idées fausses qui m'avaient conduit à écarter la désinformation continuent d'entraver les réponses à la menace.

L'idée fausse la plus commune est peut-être que la désinformation est simplement une fausse information. Si c’était le cas, les plates-formes pourraient simplement ajouter des étiquettes «Vrai» et «Faux», tactique souvent suggérée. Mais la désinformation superpose souvent les informations vraies à des informations fausses – un fait précis situé dans un contexte trompeur, une vraie photo délibérément mal étiquetée. L'important n'est pas de déterminer la vérité d'un message ou d'un tweet spécifique, mais de comprendre comment cela s'inscrit dans une campagne de désinformation plus vaste.

Une autre idée fausse est que la désinformation provient principalement d’agents produisant de faux contenus («trolls rémunérés») et de comptes automatisés («bots») qui en font la promotion. Mais les campagnes de désinformation efficaces impliquent des participants divers; ils pourraient même inclure une majorité d ’« agents involontaires »qui ignorent leur rôle, mais qui amplifient et embellissent les messages qui polarisent les communautés et font douter de la science, du journalisme traditionnel et des gouvernements occidentaux.

Cette stratégie remonte à plusieurs décennies. Lawrence Martin-Bittman, qui passa de la Tchécoslovaquie à l’Ouest en 1968 et qui devint un universitaire éminent (L. Bittman Le KGB et la désinformation soviétique; 1985). Historiquement, la manipulation des journalistes était une stratégie primordiale. À présent, les plateformes de médias sociaux ont donné la parole à de nouveaux influenceurs et élargi la gamme de cibles. Nous voyons des membres authentiques de communautés en ligne devenir des contributeurs actifs dans les campagnes de désinformation, en co-créant des cadres et des récits. Les messages à sens unique émanant d’acteurs délibérés seraient relativement faciles à identifier et à désamorcer. Reconnaître le rôle des foules involontaires est un défi persistant pour les chercheurs et les concepteurs de plates-formes. Il en va de même de décider comment réagir.

L'idée fausse la plus déroutante est peut-être que le message d'une campagne est le même que ses objectifs. Sur le plan tactique, les campagnes de désinformation ont des objectifs spécifiques: répandre les théories du complot en affirmant que le FBI avait organisé un événement de tir de masse, par exemple, ou décourager les Afro-Américains de voter en 2016. Souvent, cependant, le message spécifique importe peu. D'autres pensent que l'utilisation généralisée de la désinformation sape les processus démocratiques en suscitant le doute et en déstabilisant le terrain d'entente requis par les sociétés démocratiques.

L’idée fausse la plus dangereuse est peut-être que la désinformation ne cible que les personnes peu averties ou peu éduquées, qu’elle ne fonctionne que sur les «autres». La désinformation utilise souvent spécifiquement la rhétorique et les techniques de la pensée critique pour favoriser le scepticisme nihiliste. Mon étudiant, Ahmer Arif, a comparé cela à une écoute statique au casque. Il est conçu pour surcharger notre capacité à interpréter les informations, à nous faire penser que la réponse la plus saine consiste à se désengager. Et nous pouvons avoir du mal à voir le problème lorsque le contenu s'aligne sur nos identités politiques.

Des campagnes de désinformation nous attaquent là où nous sommes le plus vulnérables, au cœur de nos systèmes de valeurs, autour de valeurs sociétales telles que la liberté d’expression et les objectifs des plateformes de médias sociaux tels que «rassembler les gens». En tant qu'individus, nous devons réfléchir davantage à la manière dont nous interagissons avec les informations en ligne et considérer que les efforts pour nous manipuler pourraient bien provenir de nos propres communautés.

Avant que les plates-formes de médias sociaux ne puissent déterminer comment identifier et combattre la désinformation, elles doivent déterminer quels comportements sont problématiques, même lorsque de tels comportements peuvent être rentables. Et ils doivent reconnaître que la technologie n'est pas neutre, que leurs plateformes intègrent certaines valeurs. Si soutenir le discours démocratique fait partie de ces valeurs, les entreprises doivent en assumer le sens, ancrer leurs réponses dans cette valeur et ne pas se laisser intimider par des déclarations de partialité fallacieuses de la part de ceux qui cherchent à tirer profit de la propagation continue de la désinformation.

En tant que chercheurs et décideurs, nous devons faire plus que tenter de mesurer l’impact des campagnes de désinformation individuelles à l’aide de modèles simples d’intrants (par exemple, des messages postés par des robots ou des trolls) et des extrants (comme des goûts, des retweets ou même des votes). Nous avons besoin de modèles pouvant comprendre comment la désinformation change les cœurs, les esprits, les réseaux et les actions. Pour résoudre ce problème, il faudra franchement un niveau de collaboration entre concepteurs de plateformes, décideurs, chercheurs, technologues et développeurs d’affaires difficile à imaginer. Une société libre dépend de notre recherche d'un moyen.

[ad_2]