L’Europe s’adapte à l’ère du numérique

Un projet de loi de l’UE vise à réguler strictement l’utilisation de l’IA à identification biométrique à distance.

Mercredi 21 avril, la Commission européenne a présenté le premier projet de loi mondial complexe consacré au durcissement et à la régulation détaillée des systèmes d’intelligence artificielle (IA), notamment à reconnaissance faciale. L’UE répartira les technologies d’IA en fonction du niveau de risque pour la sécurité, pour la vie et les droits des citoyens, et limitera significativement ou interdira l’usage des technologies si celles-ci représentaient un risque élevé. Ces initiatives de l’UE sont avancées sur fond de leur application massive par les autorités des pays comme la Chine et d’autres, et de vif débat public sur le politiquement correct et la légalité de leur utilisation dans les pays tels que les Etats-Unis.

Ces initiatives de l’UE sont soumises au public, au Parlement européen et aux pays membres de l’UE. En cas de leur approbation, elles seront directement applicables sur tout le territoire de l’UE. L’élément clé du projet de loi est la répartition des systèmes d’IA en fonction du niveau de risque pour la sécurité, pour la vie et les droits des citoyens.

L’utilisation de systèmes d’IA à risque trop élevé sera interdite en UE. Il s’agit notamment des systèmes ou applications d’IA qui manipulent le comportement humain pour priver les utilisateurs de leur libre arbitre (par exemple, des jouets utilisant une assistance vocale incitant des mineurs à avoir un comportement dangereux) et des systèmes qui permettent la notation sociale par les États: la modélisation du comportement humain ou sa classification à l’aide d’une analyse par l’IA du comportement sur les réseaux sociaux en utilisant les informations telles que le poids, l’âge, le sexe, le poids, l’apparence, le lieu de naissance ou de résidence, le lieu de travail, la fonction, etc. »

Il est proposé d’appliquer des restrictions sévères et un contrôle rigoureux aux systèmes d’IA à haut risque avant que de tels systèmes n’arrivent sur le marché. L’UE propose d’y attribuer tous les systèmes à identification biométrique à distance; l’évaluation automatique de la solvabilité d’un citoyen susceptible d’influencer la décision de lui refuser un prêt; les technologies d’IA utilisées dans le domaine du maintien de l’ordre, qui sont susceptibles d’interférer avec les droits fondamentaux des personnes, par exemple, la vérification de la fiabilité des éléments de preuve.

En parlant de systèmes à identification biométrique à distance, le projet de loi précise que l’application de tels systèmes doit être soumise à des exigences strictes. Par exemple, lorsque cela est strictement nécessaire pour rechercher un enfant disparu, prévenir une menace terroriste spécifique et imminente ou détecter, localiser, identifier ou poursuivre l’auteur ou le suspect d’une infraction pénale grave. Sachant que l’utilisation de ces systèmes doit alors être autorisée par une instance judiciaire ou un autre organe indépendant et est soumise à des limitations appropriées concernant la durée et le lieu.

L’UE suggère de considérer des systèmes d’IA auxquels s’appliquent des obligations spécifiques en matière de transparence, lorsqu’ils utilisent des systèmes d’IA tels que des chatbots, comme des systèmes à risque limité. De tels systèmes doivent être régulés de sorte que les utilisateurs reçoivent des informations suffisantes et sachent qu’ils communiquent avec une machine afin de pouvoir décider en connaissance de cause de poursuivre ou non cette communication.

Il est proposé d’attribuer aux systèmes à risque minime les jeux vidéo ou les filtres anti-spam reposant sur l’IA. Le projet de règlement ne prévoit pas d’intervention dans ce domaine.

Ce projet de loi de l’UE pour l’évaluation complexe des risques et le règlement strict des systèmes d’IA, notamment en ce qui concerne l’identification biométrique à distance, est présenté sur fond de débats enflammés concernant la légalité de l’utilisation de telles technologies dans différents pays et d’inquiétude grandissante des militants des droits de l’homme à cet égard. Les systèmes de reconnaissance faciale sont notamment répandus en Chine, qui est dans l’ensemble connue pour une utilisation active des technologies pour surveiller et observer les citoyens.

D’après IHS Markit, 176 millions de caméras sont déjà installées en Chine, et d’ici 2022 leur nombre augmentera jusqu’à 2,76 milliards. En 2018, la Chine représentait pratiquement la moitié de l’ensemble du commerce pour la reconnaissance faciale. Les compagnies chinoises vendent activement de tels systèmes à l’étranger, notamment au Zimbabwe, à l’Ouganda, au Kazakhstan, à l’Australie, à la Birmanie, ce qui a été qualifié par certains militants des droits de l’homme d' »exportation de l’autoritarisme ». Les habitants de la Chine sont préoccupés par cette situation.

Silkie Carlo, directrice de l’organisation britannique des droits de l’homme Big Brother Watch, a qualifié les systèmes de reconnaissance faciale, indépendamment de leur sophistication, d' »instrument parfait d’oppression », et d’ajouter qu’au pire des cas « vous pourriez vous retrouver dans une société où vous n’avez aucune chance à l’anonymat.

Les autorités de certains pays et régions sont également devenues méfiantes de telles technologies ces derniers temps. Plusieurs Etats américains ont déjà interdit leur utilisation avec la Californie en tête, qui a instauré en septembre 2020 un moratoire de trois ans sur l’usage de tels systèmes par la police et par d’autres services publics.

L’un des auteurs du projet de loi, la vice-présidente exécutive pour une Europe adaptée à l’ère du numérique Margrethe Vestager a noté qu' »en établissant les normes, nous pouvons ouvrir la voie à une technologie éthique dans le monde entier […] Nos règles s’appliqueront lorsque c’est strictement nécessaire: quand la sécurité et les droits fondamentaux des citoyens de l’Union sont en jeu ».

Plus tôt, elle avait déjà souligné que « l’IA doit être au service des gens, c’est pourquoi son application doit toujours correspondre aux droits de l’homme ».

Alexandre Lemoine



Articles Par : Alexandre Lemoine

Avis de non-responsabilité : Les opinions exprimées dans cet article n'engagent que le ou les auteurs. Le Centre de recherche sur la mondialisation se dégage de toute responsabilité concernant le contenu de cet article et ne sera pas tenu responsable pour des erreurs ou informations incorrectes ou inexactes.

Le Centre de recherche sur la mondialisation (CRM) accorde la permission de reproduire la version intégrale ou des extraits d'articles du site Mondialisation.ca sur des sites de médias alternatifs. La source de l'article, l'adresse url ainsi qu'un hyperlien vers l'article original du CRM doivent être indiqués. Une note de droit d'auteur (copyright) doit également être indiquée.

Pour publier des articles de Mondialisation.ca en format papier ou autre, y compris les sites Internet commerciaux, contactez: [email protected]

Mondialisation.ca contient du matériel protégé par le droit d'auteur, dont le détenteur n'a pas toujours autorisé l’utilisation. Nous mettons ce matériel à la disposition de nos lecteurs en vertu du principe "d'utilisation équitable", dans le but d'améliorer la compréhension des enjeux politiques, économiques et sociaux. Tout le matériel mis en ligne sur ce site est à but non lucratif. Il est mis à la disposition de tous ceux qui s'y intéressent dans le but de faire de la recherche ainsi qu'à des fins éducatives. Si vous désirez utiliser du matériel protégé par le droit d'auteur pour des raisons autres que "l'utilisation équitable", vous devez demander la permission au détenteur du droit d'auteur.

Contact média: [email protected]