Le temps de l'éthique est révolu – EURACTIV.fr

Le temps de l'éthique est révolu – EURACTIV.fr

29 juin 2020 0 Par Village FSE

Organiser des débats éthiques a longtemps été un moyen efficace pour l'industrie de retarder et d'éviter une réglementation stricte. L'Europe a désormais besoin de droits forts et exécutoires pour ses citoyens, écrit l'eurodéputée verte Alexandra Geese.

Si les règles sont trop faibles, il y a un trop grand risque que nos droits et libertés soient compromis: cela s'applique actuellement à toutes les applications de l'intelligence artificielle, qui jusqu'à présent n'étaient fondées que sur des principes et des valeurs éthiques non contraignantes. Dans cette législation, l'Europe a la possibilité d'adopter un cadre juridique pour l'IA avec des règles claires. Nous avons besoin d'instruments solides pour protéger nos droits fondamentaux et la démocratie.

Au cours des dernières années, les gouvernements du monde entier ont été occupés à mettre en place des comités spéciaux, des conseils et des groupes d'experts pour discuter de l'éthique de l'intelligence artificielle: le groupe d'experts de haut niveau sur l'intelligence artificielle nommé par la Commission européenne, le groupe d'experts sur l'IA au sein de la Société de l'Organisation de coopération et de développement économiques (OCDE), du Conseil consultatif sur l'utilisation éthique de l'intelligence artificielle et des données à Singapour et du Comité restreint sur l'intelligence artificielle de la Chambre des Lords du Royaume-Uni ou aux États-Unis, le L'administration Obama a élaboré une feuille de route pour la politique d'IA.

La ville de New York, qui a été l'une des premières à créer un conseil spécial appelé «Groupe de travail sur le système de décision automatisé», a même mis plus d'un an pour se mettre d'accord sur une définition de la prise de décision automatisée. À ce jour, il n'a toujours pas réussi à dresser un aperçu de tous les systèmes d'IA utilisés dans la ville.

Dans le même temps, de nombreuses entreprises ont accepté avec gratitude le libre passage à l'autorégulation en créant des comités d'éthique, en rédigeant des lignes directrices et en parrainant des recherches sur des sujets tels que les biais algorithmiques ou «l'équité en intelligence artificielle».

Ces dernières années, le secteur des entreprises a construit une «machine à laver éthique» l'une après l'autre. Facebook a financé des éthiciens en IA à la TU Munich en Allemagne, tandis que Google, SAP et Microsoft ont tous adopté des principes et des codes éthiques directeurs.

Je ne veux pas remettre en question ces prétendues bonnes intentions, mais il est évident que l'accent mis sur les débats éthiques est depuis longtemps un moyen efficace pour l'industrie de gagner du temps et d'éviter une réglementation stricte. Trop souvent, le recours à l'éthique et à l'autorégulation a été insuffisant pour obliger les entreprises à rendre des comptes, en l'absence de mécanismes rigoureux d'application et de contrôle indépendants fournis par un cadre institutionnel.

Au cours des dernières années, nous avons vu de nombreuses preuves mettant en évidence le fait que nos lois actuelles sont insuffisantes pour protéger contre la discrimination, alors que la charge de la preuve incombe toujours à la victime qui pourrait même ne pas être au courant qu'elle est victime de discrimination par un algorithme. , et lorsque la responsabilité pour les dommages ne peut pas toujours être établie tout au long de la chaîne d'approvisionnement complexe d'un système d'IA.

Les personnes les plus susceptibles d'être victimes de discrimination par les systèmes d'IA sont également plus susceptibles de ne pas avoir les moyens financiers ou la confiance en soi pour intenter une action en justice dont l'issue est incertaine. Les outils de prise de décision automatisés peuvent souvent exacerber le racisme et le sexisme ancrés dans nos sociétés.

Pensez simplement au système COMPAS qui a été utilisé aux États-Unis pour prédire si les accusés commettront à nouveau des crimes – il s'est avéré discriminatoire à l'égard des accusés noirs. Dans une étude récente de l'Institut Alan Turing de Londres et de l'Université d'Oxford, une équipe de recherche a démontré que les lois actuelles en Europe sont insuffisantes pour protéger les personnes contre les dommages causés par des algorithmes défectueux.

Il existe de nombreux exemples qui illustrent qu'une approche non contraignante via l'éthique, l'autorégulation et la responsabilité sociale des entreprises échoue de manière spectaculaire presque à chaque fois. Par exemple, L'Intercept a révélé en 2018, Google développait une version censurée de son moteur de recherche pour le gouvernement chinois – en violation directe de ses principes éthiques en matière d'IA.

Il ne sera pas facile pour les décideurs politiques européens de rédiger une loi qui soit pertinente, qui contienne des mesures ciblées, suive le rythme de la technologie et ne cause de dommages collatéraux à personne.

Mais ce défi est aussi une opportunité pour nous en Europe. Nous avons maintenant la chance d'être le premier continent à placer l'humanité au centre des politiques numériques et à garder à l'esprit que de puissants intérêts tentent de faire avancer le «programme d'éthique». Nous avons besoin de droits forts et exécutoires pour les utilisateurs des futurs systèmes d'IA, car ils ont une influence croissante sur tous les aspects de notre vie.

C'est pourquoi le processus législatif doit être aussi participatif et inclusif que possible. La Commission européenne vient de tenir une consultation publique visant à préparer sa proposition d'approche européenne de l'IA. Théoriquement, les citoyens pourraient répondre mais le processus de consultation de la Commission européenne n'est malheureusement pas très accessible, car il vous est demandé de créer un compte avant de pouvoir répondre à un questionnaire contenant une longue liste de questions très techniques.

Les décideurs politiques de l'UE devraient donc trouver d'autres forums et impliquer de manière proactive les groupes les plus touchés par l'IA et moins susceptibles de s'asseoir à la table où les décisions sont prises. Cela contribuerait également à accroître la transparence et à renforcer la confiance dans le processus décisionnel de l'UE.

Ce n'est qu'alors que nous pourrons nous assurer que nous adoptons des règles qui rendent nos droits et libertés garantis par les traités et la Charte, au lieu d'adopter simplement des directives éthiques au nom de « principes et valeurs ».