L'Allemagne appelle à une réglementation renforcée de l'IA au niveau de l'UE – EURACTIV.fr

L'Allemagne appelle à une réglementation renforcée de l'IA au niveau de l'UE – EURACTIV.fr

30 juin 2020 0 Par Village FSE

Quatre mois après que la Commission européenne a présenté son «livre blanc» sur l'intelligence artificielle (IA), le gouvernement allemand a déclaré qu'il était largement d'accord avec Bruxelles, mais qu'il jugeait nécessaire de renforcer la sécurité. Le gouvernement est particulièrement préoccupé par le fait que seules les applications d'IA à «haut risque» doivent répondre à des exigences particulières. Reportage d'EURACTIV Allemagne.

Selon le «livre blanc» de la Commission européenne, il existe deux critères pour les applications d’IA à «haut risque».

Premièrement, ils doivent être utilisés dans des secteurs sensibles, tels que la santé, la sécurité ou la justice, et deuxièmement, leur application concrète doit également être associée à des risques particuliers, tels que la discrimination, les blessures ou le danger de mort. Si une application AI remplit les deux critères, elle doit également répondre à des exigences particulières, par exemple en ce qui concerne la conservation des données ou la supervision humaine.

Cependant, pour l'Allemagne, ces exigences ne sont pas assez importantes. Le gouvernement propose donc de resserrer à la fois la classification et les exigences elles-mêmes.

«Risque élevé»: étendre les critères

Les critères pour une application d'IA à «haut risque» devraient être «reconsidérés et, si nécessaire, étendus», selon le gouvernement, qui n'aimait pas non plus le fait que les applications à risque ne doivent répondre à des exigences particulières que si elles sont utilisées dans des secteurs sensibles.

« En conséquence, certaines utilisations à haut risque ne seraient pas couvertes d'emblée si elles ne relevaient pas de certains secteurs », ajoute le communiqué. Le fait que la Commission européenne ait elle-même signalé d'éventuels cas exceptionnels illustre la nécessité d'une réglementation plus complète.

FUITE: l'UE pousse à la transformation numérique après la crise du COVID-19

Les États membres de l'UE et la Commission européenne devraient «analyser en profondeur les expériences acquises lors de la pandémie de COVID-19» afin d'éclairer les politiques futures sur l'ensemble du spectre du domaine numérique, ont révélé des documents du Conseil divulgués par EURACTIV.

Plus de niveaux de classification des risques

Cependant, c'est aussi le système de classification lui-même qui devrait être révisé, selon Berlin. Il est «douteux que les réglementations européennes existantes soient suffisantes pour les applications d'IA présentant un risque inférieur à« élevé »», indique l'avis.

Par conséquent, Bruxelles est invitée à développer un nouveau système de classification avec les États membres.

Il devrait prévoir plusieurs niveaux de classification «pour les risques et dommages pertinents, en tenant compte du montant des dommages et de la probabilité de dommages», tels que «vie et santé, biens, processus démocratiques, environnement, climat, participation sociale, sociétale et économique ».

Cependant, si une application d'IA devait être complètement exempte de dommages potentiels, aucun contrôle spécifique ne devrait être requis.

Exigences trop vagues

En principe, l'Allemagne se félicite des exigences qui, selon la Commission, doivent être satisfaites par des applications d'IA dépassant un certain risque potentiel. Ce que Berlin veut, c'est une amélioration des détails.

Par exemple, l'Allemagne demande une définition plus concrète lorsque les enregistrements de données doivent être stockés sur une base obligatoire.

Selon la Commission, c'est le cas dans «certains cas justifiés», mais elle n'est pas claire et doit être précisée, tout comme la description actuelle d'une «période limitée et appropriée» pendant laquelle les enregistrements de données doivent être conservés.

L'aspect de la sécurité des informations, «compris comme une protection à la fois contre les erreurs accidentelles, par exemple, dues à une intervention inattendue des utilisateurs, et contre les manipulations ciblées par des attaquants», devrait également être davantage pris en compte qu'auparavant. Ici, l'Allemagne considère qu'une «norme obligatoire élevée de sécurité informatique pour les systèmes d'IA à haut risque» est «indispensable».

Le gouvernement voit également la nécessité d'une amélioration dans le domaine de la supervision humaine des systèmes d'IA, où Bruxelles doit encore spécifier «dans quelles circonstances quelle forme de supervision humaine devrait être rendue obligatoire».

Seehofer: de la reconnaissance faciale à la protection des données

De plus, les Allemands font plusieurs références à l'utilisation de la télé-identification biométrique dans le document, qui inclut des technologies controversées telles que la reconnaissance faciale.

En janvier, le ministre de l'Intérieur, Horst Seehofer, espérait étendre l'utilisation de la reconnaissance faciale en Allemagne, mais a rapidement reculé suite aux critiques massives de la société civile.

Le ministère de l'Intérieur est co-auteur de la déclaration, qui met l'accent sur les «risques particuliers pour les libertés civiles des citoyens» posés par l'identification à distance biométrique, et «l'ampleur de l'empiètement possible sur les biens protégés par les droits fondamentaux».

Le texte indique clairement sur deux points que le «comment» et le «si» de l'utilisation de ces technologies continuent d'être un sujet de débat.

Dans une première version du «livre blanc», un moratoire à l’échelle de l’UE sur la reconnaissance des visages était toujours à l’étude, mais il a été à nouveau rejeté.

«Il est important que les applications d'IA soient non seulement innovantes mais également sûres. À l'abri des attaques de pirates, à l'abri du sabotage, à l'abri des fuites de données non autorisées », a déclaré Seehofer, selon un communiqué de presse.

Sous la direction de Samuel Stolton