L'UE est le «Far West» par rapport aux États-Unis sur les règles de reconnaissance faciale

L'UE est le «Far West» par rapport aux États-Unis sur les règles de reconnaissance faciale

26 juin 2020 0 Par Village FSE

Dans le contexte des manifestations de Black Lives Matter et des violences policières, IBM, Amazon et Microsoft ont annoncé il y a deux semaines qu'ils cesseraient, d'une manière ou d'une autre, de vendre leur logiciel de reconnaissance faciale aux forces de police des États-Unis.

IBM a d'abord déclaré aux membres du Congrès américain qu'ils n'offriraient plus du tout de technologies de reconnaissance faciale.

Amazon a emboîté le pas quelques jours plus tard, mettant une interdiction temporaire d'un an sur les contrats de reconnaissance faciale avec les services de police américains.

Enfin, Microsoft a déclaré qu'eux aussi ne vendraient plus la reconnaissance faciale aux services de police américains sans réglementation fédérale.

Mis à part les détails, ces déclarations partagent toutes la confession implicite du danger que la reconnaissance faciale représente pour les droits de l'homme et la démocratie.

Cette maîtrise de soi issue de la Big Tech ne répond cependant pas à ces mêmes dangers qui existent dans l'UE.

Bien que ces technologies soient également utilisées dans les États membres de l'UE, les décisions d'IBM, d'Amazon et de Microsoft ne s'appliquent qu'au contexte américain.

Remarquablement, cela signifie que les États-Unis ont désormais une réglementation plus stricte pour les logiciels de reconnaissance faciale que l'Union européenne, bien que cette dernière se soit à plusieurs reprises présentée comme un modèle pour la réglementation de l'IA.

À ce jour, cependant, cette proclamation n'a abouti à aucune législation concrète: les citoyens de l'UE ne sont pas protégés des conséquences néfastes que la reconnaissance faciale a démontré.

Cela ne veut pas dire que l'UE n'a jamais fait face à ces dangers et comment les réduire, mais ils ont toujours cessé de mettre quoi que ce soit en œuvre.

Interdire ou ne pas interdire?

Par exemple, au début de cette année, la Commission européenne avait élaboré sa « Structure du Livre blanc sur l'intelligence artificielle – une approche européenne », qui a été divulguée au public.

Dans ce projet divulgué, une interdiction de cinq ans des technologies de reconnaissance faciale était proposée.

Ce moratoire temporaire a été salué par les groupes de défense et les chiens de garde comme un moyen de donner suffisamment de temps pour élaborer une politique globale régissant l'utilisation de la reconnaissance faciale au sein de l'UE.

Cependant, dans la version officielle du Livre blanc publiée un mois plus tard, cette interdiction était introuvable – pour des raisons inconnues du public.

Au lieu de cela, la Commission est revenue sur sa proposition de règlement et a simplement classé l'utilisation des technologies d'IA pour « l'identification biométrique à distance » (par exemple, la reconnaissance faciale) comme « à haut risque » et a écrit que le traitement de ces données ne peut avoir lieu que dans des conditions spécifiques en le laissant à la discrétion des autorités nationales gouvernementales et des forces de l'ordre.

Ce n'est pas suffisant pour contrôler le rôle que les logiciels de reconnaissance faciale ont joué et continueront de jouer dans les espaces publics.

De nombreux sujets litigieux restent inchangés, notamment en ce qui concerne le contexte européen.

Par exemple, qu'en est-il de l'utilisation des technologies de reconnaissance faciale par les forces de l'ordre dans les États européens? Qu'en est-il de l'utilisation de la reconnaissance faciale dans les douanes et les patrouilles frontalières européennes?

Ou qu'en est-il des nombreux États membres de l'UE qui ont acheté l'accès à une base de données de milliards d'empreintes faciales collectées par une entreprise aux États-Unis sans le consentement des citoyens ou même à l'insu des citoyens, même si cela est probablement incompatible avec le RGPD?

Actuellement, l'Europe est le Far West; chaque État, ainsi que l'Union dans son ensemble, pourrait continuer à se procurer des logiciels de reconnaissance faciale auprès du secteur privé et continuer à utiliser ces logiciels dans les organismes gouvernementaux et les services répressifs.

En s'efforçant d'élaborer une stratégie cohérente qui se traduit par une gouvernance et une réglementation, l'UE permet non seulement aux entreprises technologiques d'utiliser leurs technologies en Europe – au détriment des citoyens de l'UE – sans être tenue pour responsable, elle permet également au secteur privé donner le ton au débat autour de la régulation.

Stratagème de relations publiques

Si l'UE avait tenu ses nombreuses promesses d'être un leader dans la réglementation de l'IA, les déclarations faibles et ambiguës comme celles que nous avons entendues la semaine dernière d'IBM, Microsoft et Amazon ne seraient pas applaudies, mais plutôt considérées comme le stratagème des relations publiques qu'elles étaient.

Le logiciel de reconnaissance faciale n'est pas le seul exemple de technologies d'IA faisant plus de mal que prévu, et ce ne sera certainement pas le dernier.

Nous devons pratiquer une élaboration de politiques meilleure et plus solide qui maintient ces acteurs et ces technologies à un niveau qui tient compte des droits de l'homme et des valeurs européennes.

Dans le cas de la reconnaissance faciale, nous devons rouvrir le débat européen sur un moratoire ou une autre réglementation concrète alors que nous faisons un pas dans cette direction.