[ad_1]
Une initiative de recherche pionnière conçue pour se heurter à un obstacle majeur à la vie privée.
L’objectif du projet était de permettre aux chercheurs universitaires d’étudier l’influence des médias sociaux sur les démocraties – et d’établir un modèle de collaboration qui permettrait aux scientifiques de tirer parti de la richesse des données des entreprises technologiques. Mais les bailleurs de fonds qui soutiennent l’initiative envisagent de ne plus soutenir le projet, car des problèmes de confidentialité ont empêché Facebook de fournir aux scientifiques toutes les données promises – et il n’est pas clair quand elles seront disponibles.
Les scientifiques universitaires ont de plus en plus envie de mettre la main sur des données émanant de géants de la technologie, tels que Facebook, pour mener des analyses indépendantes sur l'inquiétude suscitée par l'influence de la désinformation circulant sur les sites de médias sociaux qui minent les processus politiques dans le monde. L'initiative de recherche américaine – lancée en coopération avec Facebook en juillet dernier – a financé 12 projets conçus pour étudier des sujets tels que la propagation de fausses informations et l'utilisation des médias sociaux lors des dernières élections en Italie, au Chili et en Allemagne. Facebook n'a pas participé à la sélection des projets ayant reçu un financement.
Mais les problèmes avec les données sont rapidement apparus: Facebook a pu partager certaines informations avec les chercheurs, mais leur fournir des données plus sensibles et détaillées sans compromettre la vie privée des utilisateurs s’est avéré techniquement plus difficile que prévu par les organisateurs du projet.
Le mois dernier, les 8 organismes de bienfaisance – qui ont jusqu'à présent fourni un total de 600 000 USD au programme, appelé programme de subventions pour la recherche sur les médias sociaux et la démocratie – ont donné à Facebook jusqu'au 30 septembre pour fournir l'intégralité des données ou leur dire qu'ils commenceraient. terminer le programme. Ils disent qu'il n'est pas pratique de permettre aux chercheurs de continuer à faire des offres d'argent alors que personne ne sait quand les données nécessaires seront disponibles. La structure du programme, qui comprenait des organes distincts chargés de superviser les subventions et de fournir un accès aux données, s’était également révélée trop complexe, a déclaré Larry Kramer, président de l’une des organisations caritatives, la Hewlett Foundation, à Menlo Park, en Californie.
Suite à la déclaration des bailleurs de fonds, Facebook a publié un nouveau jeu de données, mais pas le jeu complet initialement promis. Maintenant que la date limite est passée, la Hewlett Foundation déclare travailler avec ses partenaires pour évaluer les prochaines étapes de ce projet et déterminer les propositions de recherche initialement approuvées pouvant être réalisées. Les chercheurs qui ont déjà reçu de l'argent ne seront pas obligés de le restituer, et ceux qui seront en mesure de terminer leurs études avec le jeu de données limité continueront à recevoir des fonds, déclarent les associations caritatives.
D'autres partenaires qui participent au projet – et travaillent depuis un an avec Facebook sur des solutions de partage de données – déclarent poursuivre leurs efforts pour mettre en place une infrastructure informatique permettant à l'entreprise de partager ses données avec des chercheurs, quels que soient les fondateurs. les décisions. Les partenaires continueront à publier des ensembles de données dans les semaines à venir, et Facebook compte plus de 30 personnes travaillant sur le projet, a déclaré Gary King, expert en sciences sociales à l'Université Harvard de Cambridge, dans le Massachusetts, et cofondateur de Social Science One. corps qui est au cœur du projet. Les universitaires ont mis en place cet organisme à but non lucratif dès le début du programme de financement pour jouer le rôle de «courtier de données» entre Facebook et les chercheurs participant à cette initiative, ainsi que les futurs.
«Pour en savoir plus sur les sociétés, nous devons aller là où se trouvent les données», explique King. Bien qu'il existe plus de données de sciences sociales que jamais auparavant, la plupart sont liées à des entreprises et sont inaccessibles aux chercheurs, ajoute-t-il. King note également que le modèle que son équipe met en œuvre reste le seul modèle plausible pour de futures collaborations avec d'autres géants de la technologie et qu'il est essentiel de résoudre le problème de la récupération des données utiles des entreprises tout en préservant la confidentialité des utilisateurs.
Un porte-parole de Facebook a déclaré La nature: «Il s’agit de l’un des plus importants ensembles de liens jamais créés pour la recherche universitaire sur ce sujet. Nous travaillons fort pour couvrir d’autres domaines démographiques tout en protégeant la vie privée des personnes. "
Lacunes de données
La question en cause est la quantité et le type d'informations que Facebook a été en mesure de fournir à des chercheurs externes.
Les ensembles de données publiés à ce jour, par exemple, incluent 32 millions de liens, ou URL, qui sont partagés depuis le 1er janvier 2017 par au moins 100 utilisateurs dont les paramètres de confidentialité ont été définis sur "public". Ces liens contiennent des informations précieuses, telles que les évaluations de la fiabilité de la page, telles que notées par les sites tiers de vérification des faits.
Toutefois, la société avait promis de donner aux chercheurs un accès à des URL partagées publiquement une seule fois et à un éventail plus large de données démographiques sur les utilisateurs. Il s'agit d'un ensemble de données plus volumineux d'environ un milliard de liens et comprendrait ceux qui étaient en grande partie partagés en privé, déclare Simon Hegelich, spécialiste des données politiques à l'Université technique de Munich en Allemagne, dont l'équipe étudie les campagnes de désinformation menées pendant le Élection de 2017. Parce que les fausses nouvelles ont tendance à circuler dans des liens partagés en privé, les données sur les actions publiques ne permettent pas de comprendre la propagation de la désinformation en général, a déclaré Hegelich. «Mon impression est que, du moins pour notre projet, les données offertes par Facebook sont plus ou moins inutiles», ajoute-t-il.
Mais d'autres scientifiques financés par le programme affirment que les données déjà publiées sont sans précédent et leur permettront d'atteindre au moins certains de leurs objectifs de recherche. «Les résultats de cette initiative sont prometteurs», déclare Magdalena Saldaña, sociologue à l'Université pontificale catholique du Chili à Santiago. Son équipe examine comment les utilisateurs de Facebook ont consommé de la désinformation – et les propriétés communes des contrevérités – lors de la campagne pour l'élection présidentielle chilienne de 2017. Bien qu'ils ne puissent pas encore, par exemple, étudier les profils démographiques des utilisateurs qui ont tendance à être exposés à la désinformation, ils peuvent déterminer comment le contenu prédit la quantité de fausses nouvelles qui sont partagées, dit-elle.
Partie de confiance
Facebook effectue ses propres recherches sur l'impact de l'information partagée sur sa plateforme. Mais les universitaires veulent mener leurs propres études qui ne sont pas soumises à un contrôle de la part de l'entreprise. Cela pose un problème car les utilisateurs de Facebook autorisent le traitement de leurs données uniquement par la société et non par des tiers indépendants. La solution consistait à établir un courtier de données – Social Science One – qui servirait de «tiers» de confiance. Grâce à un accord juridique complexe, l'organisation agit en tant qu'initié sur Facebook: elle est capable de voir toutes les données et de sélectionner des ensembles intéressants, ce qui permet aux chercheurs de conserver la liberté académique et de s'assurer qu'ils peuvent avoir confiance en ce qui est publié.
Mais Social Science One a rencontré un problème presque dès le début du projet. King et son cofondateur, Nathaniel Persily, de l’Université de Stanford en Californie, pensaient que les chercheurs pourraient effectuer leurs travaux en utilisant les systèmes de Facebook. Toutefois, la société ne disposait pas de structures pouvant être facilement adaptées pour permettre aux parties d’avoir accès à des données spécifiques, a déclaré King. «C’était comme si vous louiez une chambre si vous n’aviez pas une entrée séparée. Vous deviez plutôt donner les clés de toute la maison», explique King.
Le partage de données avec les chercheurs sans compromettre la vie privée des utilisateurs nécessitait une infrastructure entièrement nouvelle. En collaborant avec Facebook, Social Science One a créé un portail sécurisé qui se connecte aux serveurs de Facebook et utilise une technique mathématique appelée confidentialité différentielle, initiée par Cynthia Dwork, chercheuse en informatique chez Harvard et Microsoft Research. Cela ajoute du bruit aux résultats des analyses, qui empêche les utilisateurs de devenir personnellement identifiables, mais ne biaise pas les résultats. «La confidentialité différentielle s'est avérée non seulement utile, mais aussi essentielle,» a déclaré King.
Jake Metcalf, éthique de la technologie au sein du groupe de réflexion Data & Society à New York, a déclaré Jake Metcalf. Ce modèle de «tiers de confiance» est un modèle que les scientifiques espèrent imiter avec d’autres sociétés. Des systèmes similaires sont utilisés pour donner aux chercheurs l'accès aux données génétiques, dit-il. Mais il ajoute que les données des médias sociaux, bien que moins sensibles que les informations médicales, posent un défi supplémentaire en matière de protection de la vie privée dans la mesure où elles sont liées au comportement réel d'une personne. Cela signifie que, même si les données sont anonymisées, il est relativement facile de les utiliser pour identifier des personnes, en particulier si elles sont référencées avec d'autres données, telles que celles provenant de téléphones portables, explique Metcalf – qui fait également partie de l'équipe de conduite examens éthiques des propositions au régime.
«Facebook fait les manchettes ici, mais en réalité, les efforts ont été déployés pour créer un modèle de partage de données entre les plateformes de médias sociaux et les chercheurs», a déclaré Metcalf. "C’est un modèle très difficile à réaliser."
Bien que le programme de subventions ait pu être trop ambitieux, sa rupture n’est pas un glas pour le modèle, dit-il. «Je suis toujours confiant que c’est fondamentalement le moyen d’aller de l’avant».
[ad_2]