Reconnaissance faciale en temps réel, interprétation des émotions, catégorisation des pensées religieuses, sexuelles et politiques… La France a activement milité pour que ces pratiques soient permises par « l’AI Act », le règlement européen sur l’intelligence artificielle, révèlent Disclose et Investigate Europe, documents confidentiels à l’appui.Imaginez que vous participiez à une manifestation pour le climat, que vous portiez un badge ou que vous brandissiez une pancarte. Une caméra « intelligente » détecte ces signes, enregistre votre visage et transmet les images à la police pour les comparer au fichier des personnes recherchées pour crimes environnementaux. Vous n’y figurez pas, mais les données restent stockées. Imaginez un naufragé qui vient de débarquer sur l’île de Lampedusa. Arrêté, il est interrogé à l’aide d’une caméra capable de détecter des émotions. Le système enregistre des signes de nervosité, de peur, d’indécision : il en conclut que l’exilé ment sur son âge ou ses origines. Sa demande d’asile est rejetée.
Ces scènes qui semblent sorties d’un film de science-fiction pourraient devenir réalité dans les prochaines semaines. Le 2 février, les articles les plus controversés — dits « risques inacceptables » — du règlement européen sur l’intelligence artificielle (IA) entreront en vigueur avec, dans leur sillage, une myriade de portes ouvertes pour contrôler l’espace public. Le texte était pourtant censé encadrer l’usage de l’intelligence artificielle contre les menaces pour les droits fondamentaux et les libertés publiques en Europe. Mais après deux ans de négociations secrètes entre les États européens, ce cadre n’a pas survécu aux coups de boutoir de la France, qui a obtenu des exemptions majeures en imposant le thème de « la sécurité nationale ».
C’est ce que démontre l’analyse d’une centaine de documents confidentiels européens sur l’AI Act, obtenus par Disclose et Investigate Europ. Des comptes-rendus de négociations qui dévoilent comment Paris est parvenu à ouvrir une brèche pour autoriser la surveillance de masse dans l’espace public.
La « ligne rouge » de la sécurité nationaleLe lobbying de la France commence fin 2022. À l’époque, les débats sur ce projet porté par la Commission européenne depuis avril 2021 sont tendus. Au cœur des discussions entre les 27 pays de l’UE : la classification des risques liés à l’utilisation de l’IA. Très vite, Paris s’oppose à ce que la future loi européenne interdise certaines technologies particulièrement intrusives. En l’occurrence, celles qui présentent des risques dits « inacceptables » pour les libertés publiques.
Le 18 novembre 2022, au cours d’une réunion organisée à huis clos avec ses homologues européens, le représentant français prévient : «
L’exclusion des questions de sécurité et de défense [du cadre du règlement]… doit être maintenue à tout prix ». Par cette requête, la France veut garder la possibilité de recourir à la reconnaissance faciale en temps réel dans l’espace public, en cas de risque pour la sécurité du pays. Cela vaut aussi pour le maintien de l’ordre. Ce que confirme une source en première ligne des négociations : «
La France considère que l’ordre public fait partie de la sécurité nationale, c’est pourquoi elle a réclamé que tous les aspects du maintien de l’ordre soient exclus du règlement. Elle est le seul pays à avoir demandé cette exclusion totale ». Des manifestant·es accusé·es de troubler l’ordre public pourraient ainsi devenir les cibles légales de la reconnaissance faciale. Sollicités à plusieurs reprises, le gouvernement français et ses représentant·es à Bruxelles n’ont pas répondu aux questions de Disclose et Investigate Europe.
D’abord isolé, Paris ne ménage pas ses efforts pour persuader ses homologues européens du bien-fondé de sa demande. En septembre 2022, l’ambassadeur adjoint français s’entretient avec l’un des rapporteurs du texte au Parlement européen. Objectif : le convaincre de la nécessité d’autoriser la reconnaissance faciale pour le maintien de l’ordre. «
Le diplomate français était nerveux, il y avait de la tension dans la pièce, témoigne notre source. Le ton est monté… Le représentant français campait sur ses positions, au prétexte que la France organisait les Jeux olympiques quelques mois plus tard .» En France, avant les JO, l’utilisation de la vidéosurveillance algorithmique par la police n’était autorisée que dans de très rares cas. L’événement sportif a donné l’occasion au gouvernement de faire adopter une loi validant son expérimentation jusqu’en mars 2025. Sans toutefois parvenir à convaincre les parlementaires d’y inclure la reconnaissance faciale.
Matignon à la manœuvre L’activisme de Paris en faveur de technologies ultra-intrusives est étayé par un courrier envoyé, fin novembre 2023, au secrétariat du Conseil de l’UE. Ce document que Disclose et Investigate Europe se sont procuré est signé du Secrétariat général aux affaires européennes (SGAE), un service placé sous l’autorité de Matignon et chargé de la coordination interministérielle pour les politiques européennes. Le service rappelle d’abord la «
ligne rouge » de la France «
sur l’exclusion de la sécurité nationale ». Il insiste ensuite pour pouvoir utiliser l’IAdans l’espace public «
en cas d’urgence justifiée ».
Les efforts de la France ont été récompensés. Comme l’indique l’article 2.3 de l’AI Act. Celui-ci dispose en effet que «
le présent règlement (…) ne porte pas atteinte aux compétences des États membres en matière de sécurité nationale. » Selon Aljosa Ajanovic, membre de l’EDRI, une organisation de défense des droits des citoyen·nes européen·nes, ce principe «
permet d’introduire des systèmes de surveillance biométrique de masse qui risquent d’affecter lourdement nos libertés de mouvement, de réunion, d’expression ainsi que notre vie privée ».
Quant à l’article 46, alinéa 2 du règlement européen, il précise que «
dans une situation d’urgence dûment justifiée pour des raisons exceptionnelles de sécurité publique (…) les autorités répressives » peuvent utiliser «
un service d’IA à haut risque spécifique », sans autorisation.
Appartenance religieuse et politiqueSi un État estime que sa sécurité est en jeu, il pourra aller jusqu’à rechercher une personne sur la base de la «
race, opinions politiques, affiliation à une organisation syndicale, convictions religieuses ou philosophiques, vie sexuelle ou leur orientation sexuelle », grâce à la science algorithmique. Une attaque en règle contre les libertés publiques et les droits civiques qui semble également défendue par les autorités françaises, comme l’indique un passage du courrier du Secrétariat général aux affaires européennes. Celui-ci souligne que la France estime «
très important de préserver la possibilité de rechercher une personne sur la base de critères objectifs exprimant une croyance religieuse ou une opinion politique ». Une surveillance qui serait rendue possible grâce, notamment, est-il précisé, à la détection du «
port d’un insigne ou d’un accessoire, lorsque cette personne est impliquée dans l’extrémisme violent ou présente un risque terroriste ». Un badge d’un mouvement écologiste classé «
extrémiste et violent » pourrait donc motiver l’allumage de caméras dopées à l’IA.
«
Il est glaçant de voir l’UE laisser ses polices recourir à ces systèmes pour tenter de détecter l’orientation sexuelle, s’indigne Félix Tréguer, auteur de Technopolice, la surveillance policière à l’ère de l’IA et porte-parole de la Quadrature du Net, une association française de défense des libertés numériques. «
C’est aussi ça l’intelligence artificielle, poursuit-il, le retour des théories naturalisantes, des pseudosciences et des catégories arbitraires, désormais inscrites dans de puissants systèmes automatisés pour mettre en œuvre la violence d’État ».
« La plupart du temps, les gens ne sauront pas qu’ils ont été surveillés »
Sarah Chander, cofondatrice de l’ONG Equinox
Au cours des discussions sur l’AI Act, la France a mis en avant deux autres « lignes rouges ». Paris a en effet demandé à ce que les prisons et les zones de contrôles aux frontières soient «
exclues de la définition de l’espace public », comme le dévoile le compte-rendu d’une réunion de novembre 2023. Là encore, aux côtés d’autres pays comme la Grèce, elle a obtenu gain de cause.
Dans quelques semaines, les États membres pourront donc déployer des systèmes de reconnaissance émotionnelle à leurs portes. Des logiciels, qui, une fois reliés à une caméra, pourront être utilisés lors d’interrogatoires de personnes exilées. L’objectif étant, par exemple, de chercher à évaluer avec plus ou moins de fiabilité, leur degré de nervosité ou d’anxiété pour savoir si elles mentent sur leur pays d’origine, leur âge ou la raison de leur départ. «
Ce qui est insidieux dans l’utilisation de l’IA par la police et le contrôle des migrations, c’est que la plupart du temps, les gens ne sauront pas qu’ils ont été surveillés par ces systèmes », déplore Sarah Chander, cofondatrice d’Equinox, une ONG qui lutte contre les discriminations raciales en Europe.
Derrière l’activisme de la France, on trouve enfin la volonté de laisser les coudées franches aux industriels européens de l’intelligence artificielle. C’est du moins ce que sous-entend le représentant de Paris dans une réunion organisée le 15 novembre 2023. Celui-ci «
met urgemment en garde contre les impacts négatifs [que pourrait avoir le règlement]
sur la capacité d’innovation de l’UE ». Il insiste, évoquant le risque que «
les entreprises délocalisent leurs activités dans des régions où les droits fondamentaux ne jouent pas de rôle ». Un argument repris par Emmanuel Macron un mois plus tard. Selon le chef de l’État, en régulant «
beaucoup plus vite et beaucoup plus fort que nos grands compétiteurs, on régulera des choses qu’on ne produira plus ou qu’on n’inventera pas ». À Bruxelles, beaucoup interprètent ces prises de position comme un soutien à peine voilé à un fleuron de la « start-up nation » :
Mistral AI. La société française compte parmi ses actionnaires Cédric O, un proche du président de la République et ancien secrétaire d’État au numérique. C’est lui aussi qui est chargé des relations publiques de l’entreprise, dont l’un des fondateurs confiait il y a tout juste un an : «
Dans sa forme finale, l’AI Act est tout à fait gérable pour nous ».
source : https://disclose.ngo/fr/article/intelligence-artificielle-la-france-ouvre-la-voie-a-la-surveillance-de-masse-en-europe#
ia #
intelligenceartificielle #
technopolice #
videosurveillance #
videosurveillancealgorithmique #
reconnaissancefaciale #
surveillancealgorithmique #
surveillancegeneralisee #
flicagenumerique