L'UE doit lutter «de manière proactive» contre la discrimination liée à l'IA, déclare Jourová – EURACTIV.fr

L'UE doit lutter «de manière proactive» contre la discrimination liée à l'IA, déclare Jourová – EURACTIV.fr

19 septembre 2020 0 Par Village FSE

L’UE ne doit pas «copier-coller» la discrimination raciale quotidienne et les préjugés dans les algorithmes de l’intelligence artificielle, a déclaré vendredi 18 septembre la vice-présidente de l’UE chargée des valeurs et de la transparence, Věra Jourová.

S'exprimant au sujet de la publication du plan d’action de la Commission contre le racisme, Jourová et la commissaire à l’égalité Helena Dalli ont dénoncé les utilisations potentiellement néfastes de la technologie pour opprimer les groupes ethniques minoritaires.

«Nous devons accorder une attention et une vigilance très fortes pour ne pas créer de nouveau type de biais ou de discrimination technologique, a déclaré Jourová. «En d'autres termes, je dis toujours que nous devons agir de manière proactive contre le copier-coller des imperfections et de l'injustice du monde réel dans le monde de l'IA.»

Jourová a également fait référence au Livre blanc de la Commission sur l'éthique et l'intelligence artificielle, publié en février de cette année, qui stipule que de nouvelles mesures réglementaires de l'UE pourraient être introduites en vue d'éviter les préjugés dans l'intelligence artificielle qui «pourraient conduire à une discrimination interdite».

Pendant ce temps, le plan d’action de vendredi donne plus de détails sur l’utilisation d’algorithmes pour perpétuer les préjugés raciaux dans la société.

« L'utilisation d'algorithmes peut perpétuer ou même stimuler les préjugés raciaux si les données pour former des algorithmes ne reflètent pas la diversité de la société européenne », indique le document.

«À titre d'exemple, des études ont démontré que les algorithmes de reconnaissance faciale basés sur l'IA peuvent présenter des taux d'erreurs de classification élevés lorsqu'ils sont utilisés sur certains groupes démographiques, tels que les femmes et les personnes issues d'une minorité raciale ou ethnique. Cela peut conduire à des résultats biaisés et finalement à la discrimination », a-t-il ajouté.

La reconnaissance faciale a été présentée comme une technologie particulière qui pourrait atténuer les préjugés raciaux dans la société.

En 2018, une enquête du Massachusetts Institute of Technology a révélé qu'un logiciel d'intelligence artificielle de reconnaissance du genre produit par IBM, Microsoft et la société chinoise Megvii pouvait identifier correctement le sexe d'un individu 99% du temps – mais uniquement pour les hommes blancs, ce qui représente un risque accru. de fausse identification pour les femmes et les minorités ethniques.

Depuis lors, Microsoft et IBM ont abandonné leurs programmes de développement de reconnaissance faciale – craignant que la technologie ne puisse amplifier les préjugés raciaux déjà répandus dans la société.

Alors que la position de la Commission sur la future réglementation des technologies de reconnaissance faciale a été vague – des fuites de documents sur sa stratégie d'IA ont déjà fait état de la notion de moratoire sur le logiciel – elle semble avoir adopté une approche plus distincte en ce qui concerne les algorithmes préjudiciables veux dire.

En juin de cette année, la vice-présidente de la Commission européenne pour la politique numérique, Margrethe Vestager, a déclaré que certaines applications d'IA utilisées dans le domaine de la police prédictive ne sont « pas acceptables » dans l'UE.

«S'il est correctement développé et utilisé, il peut faire des miracles, à la fois pour notre économie et pour notre société», a déclaré Vestager. «Mais l'intelligence artificielle peut aussi nuire», a-t-elle prévenu, soulignant que certaines applications peuvent conduire à des discriminations, amplifiant les préjugés et les préjugés dans la société.

«Les immigrants et les personnes appartenant à certains groupes ethniques peuvent être ciblés par des techniques de police prédictive qui attirent toute l'attention des forces de l'ordre sur eux. Ceci est inacceptable. »

Dans l'espace politique, une consultation publique sur l'approche de la Commission en matière de réglementation de l'IA s'est achevée en juin, et toute position potentiellement plus dure sur l'utilisation de ces technologies sera examinée dans le cadre du suivi du livre blanc de la Commission sur l'IA, qui est prévu. à venir début 2021.

(Edité par Zoran Radosavljevic)