Arrêtez l'utilisation de la technologie de reconnaissance faciale jusqu'à ce qu'elle soit réglementée

[ad_1]

Plus tôt ce mois-ci, l'Ohio est devenu le dernier en date des États et des gouvernements locaux aux États-Unis à empêcher les agents de la force publique d'utiliser des bases de données de reconnaissance faciale. Cette décision faisait suite à des informations selon lesquelles l’agence pour l’application des lois dans les domaines de l’immigration et des douanes avait numérisé des millions de photos dans les bases de données des permis de conduire de l’État, des données pouvant être utilisées pour cibler et expulser les immigrants sans papiers. Des chercheurs de l'Université Georgetown à Washington DC ont utilisé des demandes de documents publics pour révéler cette opération auparavant secrète, qui fonctionnait sans le consentement de personnes ou l'autorisation de législateurs fédéraux ou de l'état.

Ce n'est pas le seul projet de ce type. Le Service des douanes et de la protection des frontières utilise quelque chose de similaire dans les aéroports, en enregistrant le départ de chaque passager. Le géant de la technologie, Amazon, établit des partenariats avec plus de 200 services de police afin de promouvoir ses caméras de sécurité pour la maison Ring aux États-Unis. Amazon a un accès permanent aux séquences vidéo; la police obtient des pots-de-vin sur des produits technologiques.

La technologie de reconnaissance faciale n'est pas prête pour ce type de déploiement, pas plus que les gouvernements ne sont prêts à l'empêcher de causer des dommages. Il est urgent de mettre en place des garanties réglementaires plus strictes, de même qu'un débat public plus large sur ses effets actuels. Une législation complète doit garantir des restrictions quant à son utilisation, ainsi que la transparence, une procédure régulière et d'autres droits fondamentaux. En attendant que ces garanties soient en place, nous avons besoin d'un moratoire sur l'utilisation de cette technologie dans les espaces publics.

Il existe peu de preuves que la technologie biométrique puisse identifier les suspects rapidement ou en temps réel. Aucune étude examinée par des pairs n'a montré de données convaincantes indiquant que la technologie est suffisamment précise pour respecter les normes constitutionnelles américaines en matière de procédure régulière, de cause probable et de protection égale requises pour les perquisitions et les arrestations.

Même le plus grand fournisseur mondial de caméras pour les corps de police – Axon à Scottsdale en Arizona – a annoncé cette année qu'il ne déploierait pas de technologie de reconnaissance faciale dans aucun de ses produits, car elle était trop peu fiable pour le travail policier et qu'elle "pourrait exacerber les inégalités existantes en matière de maintien de l'ordre" , par exemple en pénalisant les communautés noires ou LGBTQ ». Aux États-Unis, trois villes ont interdit l'utilisation de la reconnaissance faciale par les organismes chargés de l'application de la loi, invoquant des préoccupations de partialité.

Ils ont raison de s'inquiéter. Ces outils génèrent bon nombre des mêmes préjugés que les agents de l'ordre humains, mais avec la fausse patine de la neutralité technique. Les chercheurs Joy Buolamwini du Massachusetts Institute of Technology à Cambridge et de Timnit Gebru, puis de Microsoft Research à New York, ont montré que certains des logiciels de reconnaissance faciale les plus avancés ne permettaient pas d’identifier avec précision les femmes à la peau sombre dans 35% des cas. à un taux d'erreur de 1% pour les hommes blancs. Des travaux distincts ont montré que ces technologies ne concordaient pas entre 28 membres américains du Congrès et une base de données de clichés mugshots, avec un taux d'erreur de près de 40% pour les membres de couleur. Des chercheurs de l'Université d'Essex, à Colchester, au Royaume-Uni, ont testé une technologie de reconnaissance faciale utilisée par la police métropolitaine de Londres. Ils ont constaté qu'elle ne faisait que 8 correspondances correctes sur une série de 42. Un taux d'erreur qu'ils soupçonnaient ne serait pas jugé légal par un tribunal . Par la suite, un comité parlementaire a demandé que les essais de technologie de reconnaissance faciale soient arrêtés jusqu'à ce qu'un cadre juridique puisse être établi.

Mais nous ne devrions pas imaginer que tout ce que nous pouvons espérer, c’est une parité technique pour l’arsenal de surveillance. Beaucoup plus que des améliorations techniques sont nécessaires. Ces outils sont dangereux quand ils échouent et dangereux quand ils fonctionnent. Nous avons besoin de garde-corps légaux pour tous les systèmes de surveillance biométrique, en particulier parce qu'ils améliorent leur précision et leur caractère invasif. En conséquence, le AI Now Institute que j'ai cofondé à l'Université de New York a défini quatre principes pour un cadre de protection.

Premièrement, étant donné les erreurs coûteuses, les discriminations et les atteintes à la vie privée associées aux systèmes de reconnaissance faciale, les décideurs ne doivent pas les financer ou les déployer avant d’avoir été vérifiées et de mettre en place des protections solides. Cela inclut l’interdiction des liens entre les bases de données privées et gouvernementales.

Deuxièmement, la législation devrait exiger que les agences publiques examinent de manière rigoureuse les technologies biométriques afin de détecter les préjugés, les problèmes de respect de la vie privée et les droits civils, et sollicitent les commentaires du public avant leur utilisation. Les agences qui souhaitent déployer ces technologies devraient être tenues de réaliser une (AIA). Basées sur des cadres d'évaluation d'impact pour les droits de l'homme, la protection de l'environnement et la protection des données, les AIA aident les gouvernements à évaluer les systèmes d'intelligence artificielle et à garantir la participation du public.

Troisièmement, les gouvernements devraient exiger des sociétés qu'elles renoncent à toute restriction légale concernant la recherche ou la supervision de ces systèmes. Comme nous l'avons expliqué dans le, les entreprises de haute technologie sont actuellement en mesure d'utiliser les lois sur le secret commercial pour se protéger de tout examen public. Cela crée une "boîte noire" légale aussi opaque que toute "boîte noire" algorithmique et sert à mettre un terme aux recherches sur les implications sociales de ces systèmes.

Enfin, nous avons besoin de meilleures protections des lanceurs d'alerte pour les employés des entreprises technologiques afin de garantir le respect des trois autres principes. Les techniciens eux-mêmes sont devenus une force de responsabilité importante: par exemple, des lanceurs d’alerte ont révélé le travail de Google sur un moteur de recherche censuré en Chine. Sans plus de protection, ils risquent des représailles.

Les chercheurs soulignent depuis des années les risques techniques et sociaux de la reconnaissance faciale. Une plus grande précision n'est pas le point. Nous avons besoin de solides garanties juridiques garantissant les droits civils, l’équité et la responsabilité. Sinon, cette technologie nous rendra tous moins libres.

[ad_2]