La police et les forces de sécurité du monde entier testent des systèmes automatisés de reconnaissance faciale afin de les utiliser comme un moyen d'identifier les criminels et les terroristes. Mais quelle est l'exactitude de cette technologie et quelle est sa facilité et que l'intelligence artificielle (IA), à partir de laquelle elle fonctionne, devient un outil de persécution et d'oppression?
Caractéristiques du système
Imaginez qu’un terroriste présumé soit envoyé en mission suicide dans un centre-ville densément peuplé. S'il lâche une bombe, des centaines de personnes peuvent mourir ou être gravement blessées. La procédure de numérisation de visages dans une foule à l'aide de la vidéosurveillance vous permet d'identifier un attaquant et de comparer automatiquement ses caractéristiques avec des photographies d'une base de données de terroristes célèbres ou de "personnes d'intérêt" pour les services de sécurité.
En cas de coïncidence, le système sonne l'alarme et les forces anti-terroristes de réaction rapide sont envoyées à l'endroit où elles "neutralisent" le suspect avant qu'il puisse activer les explosifs. Des centaines de vies sauvées grâce à la technologie moderne.
Problèmes possibles au travail
Mais que se passe-t-il si la technologie de reconnaissance faciale (FR) ne fonctionne pas correctement? Et il s’est avéré que ce n’était pas un terroriste, mais une personne ordinaire qui n’était que malchanceuse et qui s’est avéré être comme un attaquant. Une vie innocente aurait été simplement détruite parce que les experts aussi croyaient en un système erroné. Mais que se passe-t-il si vous devenez une telle personne?
Ce n'est qu'un des dilemmes éthiques auxquels sont confrontés le système de reconnaissance des visages et l'intelligence artificielle. Il est très difficile de former les machines à «voir», reconnaître et distinguer les objets et les visages. En utilisant la vision par ordinateur, comme on l'appelle parfois, il n'y a pas si longtemps, les chercheurs ont tenté de déterminer la différence entre les petits pains aux raisins et le chihuahua, qui est devenu une sorte de test décisif permettant de déterminer l'efficacité de cette technologie.
Problèmes de reconnaissance de visage
Joy Buolamvini, technologue en informatique, représentant le laboratoire du Massachusetts Institute of Technology (et fondateur de la Ligue de justice algorithmique), et Timnit Gebru, codirecteur technique de l'équipe Google sur les questions éthiques liées à l'intelligence artificielle, ont montré que le système de reconnaissance faciale était difficile distingue les hommes des femmes si leur peau est suffisamment sombre. Le système a souvent confondu les femmes à la peau foncée et les hommes.
"Environ 130 millions d'Américains adultes utilisent déjà des bases de données de reconnaissance de visage", a déclaré le Dr Gebru en mai lors du AI for Good Summit à Genève. "Mais les ensembles de données d'origine contiennent principalement des représentants de la race blanche, parmi lesquels il y a beaucoup plus d'hommes." Par conséquent, lors de la reconnaissance de personnes ayant un type de peau plus sombre, il existe toujours un pourcentage énorme d’erreurs dues au type de peau et au sexe.
Utilisation de la technologie
La ville californienne de San Francisco a récemment interdit l’utilisation de la reconnaissance faciale par les agences de transport et les forces de l’ordre, en reconnaissance de ses imperfections et de sa menace pour les libertés civiles. Mais d'autres villes aux États-Unis et dans d'autres pays du monde continuent de faire l'expérience de cette technologie.
Au Royaume-Uni, par exemple, les forces de police du sud du Pays de Galles, de Londres, Manchester et Leicester testent cette technologie, qui terrifie des organisations de défense des libertés civiles telles que Liberty et Big Brother Watch, qui s'inquiètent du nombre de fausses correspondances qui surviennent pendant le fonctionnement du système.
Erreurs et peurs
En pratique, cela signifie que des personnes innocentes sont appelées à tort criminels potentiels. Selon M. Gebru, de tels problèmes devraient certainement inquiéter tout le monde. L'utilisation de telles mesures préventives et prédictives implique des taux élevés.
Étant donné que les Noirs américains constituent 37,5% de tous les détenus aux États-Unis (selon le Federal Bureau of Prisons), bien qu'ils ne représentent que 13% de la population américaine, des algorithmes mal écrits utilisant les ensembles de données actuellement disponibles peuvent prédire que les Noirs sont plus susceptibles de commettre un crime. Vous n'avez pas besoin d'être un génie pour comprendre ce que cela peut signifier pour la police et les politiques sociales.
Plus récemment, des scientifiques de l'Université d'Essex ont conclu que les coïncidences utilisées dans les procès devant la police de Londres étaient erronées à 80%, ce qui pourrait potentiellement conduire à de graves violations de la justice et au droit des citoyens à la vie privée.
Un Britannique, Ed Bridges, a intenté une action en justice contre la police du sud du Pays de Galles pour avoir utilisé une technologie de reconnaissance faciale après sa photo a été prise alors qu'il était en train de magasiner, et la commissaire britannique à l'information, Elizabeth Denham, s'est dite préoccupée par l'absence de cadre juridique régissant l'utilisation de la technologie de reconnaissance.
Mais ces craintes n’ont pas empêché le géant de la technologie, Amazon, de vendre son outil Rekognition FR à la police américaine, en dépit d’une émeute hésitante d’actionnaires qui n’a toujours rien donné.
Les perspectives
Amazon dit qu'il n'est pas responsable de la manière dont les clients utilisent sa technologie. Mais comparez cette relation avec Salesforce, une technologie de gestion de la relation client, qui a développé son propre outil de reconnaissance d’image appelé Einstein Vision.
«La technologie de reconnaissance des visages peut être appropriée dans une prison pour suivre les prisonniers ou prévenir la violence des gangs», a déclaré BBC Salesforce, un expert en intelligence artificielle de la BBC. Mais lorsque la police a voulu l'utiliser avec des caméras pour arrêter des personnes, la société a jugé cela inapproprié. Dans ce cas, il convient de se demander s'il est nécessaire d'utiliser l'IA en général dans certains scénarios, et l'un des exemples est la reconnaissance faciale.
Actuellement, cette technologie est également utilisée par l'armée, car les fournisseurs de technologies affirment que leurs logiciels peuvent non seulement identifier les ennemis potentiels, mais également reconnaître les comportements suspects.