Intelligence artificielle  - L’UE veut «ouvrir la voie à une technologie éthique»
Publié

Intelligence artificielle L’UE veut «ouvrir la voie à une technologie éthique»

Avec son projet de réglementation de l’intelligence artificielle, l’Union européenne veut devenir «le fer de lance de nouvelles normes mondiales».

Photo d’illustration. 

Photo d’illustration.

Pixabay

Garantir la sécurité des futurs véhicules autonomes ou le respect des droits face aux systèmes de surveillance... Bruxelles a dévoilé mercredi un projet de réglementation qui entend faire de l’Europe une championne de l’intelligence artificielle, en évitant les dérives. «L’intelligence artificielle offre un immense potentiel mais présente également un certain nombre de risques», a déclaré Thierry Breton, commissaire européen au Marché intérieur.

Bruxelles est convaincue que cette révolution industrielle, à base de logiciels et de données, ne pourra se développer qu’en apaisant les craintes des Européens. «La confiance est une nécessité, pas un luxe», a affirmé la commissaire européenne à la Concurrence, Margrethe Vestager. «Avec ces règles historiques», l’UE veut devenir «le fer de lance de nouvelles normes mondiales» et «ouvrir la voie à une technologie éthique».

L’UE a raté la révolution de l’internet grand public et ne possède aucun champion équivalent aux cinq géants américains Google, Apple, Facebook, Amazon et Microsoft, les fameux Gafam, ou à leurs équivalents chinois Baidu, Alibaba, Tencent et Xiaomi. Mais rien n’est perdu concernant la révolution provoquée par l’irruption massive de l’informatique dans les secteurs où l’Europe excelle comme les transports, l’énergie, le tourisme, l’agriculture ou le médical.

Conformité aux normes européennes

Le projet dévoilé mercredi prévoit d’interdire un nombre restreint d’utilisations qui menacent les droits fondamentaux. Seront prohibés les systèmes de «surveillance généralisée» de la population, ceux «utilisés pour manipuler le comportement, les opinions ou les décisions» des citoyens. Des autorisations dérogatoires sont cependant prévues pour la lutte antiterroriste et la sécurité publique. Les applications militaires ne sont pas concernées.

Les peurs sont alimentées à la fois par des technologies non abouties, comme les véhicules autonomes, et les possibilités de contrôle des populations offertes aux régimes autoritaires. Les systèmes de notation citoyenne, comme ceux utilisés en Chine, seront notamment prohibés en Europe. Le texte prévoit d’introduire des tests de conformité aux normes européennes pour des applications jugées «à haut risque» avant leur arrivée sur le marché. Ces exigences viendront s’ajouter aux règles déjà existantes en matière de sécurité des produits, y compris l’obligation d’un contrôle humain.

Entre protection et innovation

La Commission dresse une liste précise de ces applications sensibles. Une première catégorie, incluant «l’identification biométrique à distance des personnes dans les lieux publics» et les «éléments de sécurité dans des infrastructures publiques essentielles» se verra imposer des tests de conformité réalisés par une autorité tierce. Une deuxième catégorie comprend notamment les systèmes de priorisation des services d’urgence, les outils utilisés pour le recrutement, pour déterminer l’accès à des institutions éducatives, ou encore pour évaluer la solvabilité des personnes. Leur conformité sera garantie par une auto-évaluation conduite par l’entreprise, sous le contrôle d’une autorité de surveillance.

Les autres usages, considérés comme sans danger, ne se verront imposer quasiment aucune contrainte réglementaire supplémentaire. De lourdes amendes sont prévues pour les entreprises en infraction. Pour Alexandre de Streel, codirecteur du groupe de réflexion Center on Regulation in Europe (Cerre), il y a un équilibre difficile à trouver entre protection et innovation. Le cadre fixé est «relativement ouvert et tout dépendra de la façon dont il sera interprété» par la justice, estime l’expert redoutant un possible coup de frein aux efforts de recherche des PME.

Surveillance biométrique de masse

Les entreprises de technologies saluent l’analyse par cas d’usage privilégiée par Bruxelles. «L’Union européenne poursuit une approche fondée sur le risque pour réglementer l’intelligence artificielle. Ce serait une approche sage et stratégique», estime Christian Borggreen, vice-président du CCIA, un des lobbies du secteur numérique.

Mais pour certains, le règlement ne va pas assez loin. «Il autorise encore certaines utilisations problématiques, comme la surveillance biométrique de masse. L’UE doit adopter une position plus ferme et interdire la surveillance indiscriminée de la population sans autoriser d’exceptions», estime Orsolya Reich de l’ONG Liberties. La nouvelle législation sera encore débattue durant des mois, notamment avec le Parlement européen et les 27 Etats membres, avant la mise en œuvre d’un texte définitif.

(AFP)

Votre opinion