Plateforme éditoriale par Leslie D'Almeida

Lesl'IA

À propos de l'auteur →

Il était une fois, à la saison où les oiseaux font leur nid, des moineaux qui se reposaient tranquillement, en gazouillant au crépuscule, après de longs, très longs jours de travail.

Nous sommes si petits et si faibles, comme la vie nous serait facile si nous avions une chouette pour nous aider à construire tous ces nids.
C'est sûr, lui répondit son voisin, elle nous aiderait aussi à prendre soin de nos parents et de nos enfants.
Elle nous donnerait des conseils, et elle surveillerait le chat du coin ajouta le suivant.

Alors Pastus, le doyen de la troupe, dit ceci : « Envoyons des éclaireurs dans toutes les directions pour tenter de trouver une jeune chouette ou même un œuf. Un petit corbeau ferait aussi l'affaire, ou même une petite belette. Ce serait sans doute la meilleure chose qui nous soit jamais arrivée, au moins depuis l'ouverture de la Boutique des Graines à Volonté là-bas derrière ».
Ils se mirent tous à rire et, partout, des moineaux commencèrent à gazouiller à plein poumons.

Seul Scronkfinkle, un moineau borgne et râleur, n'était pas du tout convaincu par ce projet. « Ce sera sûrement notre perte, dit-il… nous devrons réfléchir à la manière de domestiquer les chouettes et de les dresser, avant d'introduire chez nous une telle créature… »
Pastus répliqua alors : « Dresser une chouette… voilà qui semble bien délicat. Ce sera déjà assez difficile de trouver un œuf. Commençons par là et quand nous serons parvenus à avoir un bébé chouette, nous pourrons réfléchir à la manière de le dresser… »

« Il y a quelque chose qui ne va pas dans ce projet », s'exclama Scronkfinkle ; mais ses protestations restèrent sans écho, la troupe s'était déjà mise à l'œuvre pour faire ce qu'avait proposé Pastus.

Seuls deux ou trois moineaux restèrent là. Ils commençaient à réfléchir à ce qu'il faudrait faire pour dresser et domestiquer une chouette. Ils se rendirent vite compte que Pastus avait raison : c'était un défi, trop grand, surtout qu'aucune chouette n'était là pour leur dire comment faire. Pourtant, ils y réfléchirent comme ils purent, craignant à tout moment que la troupe revienne avec un œuf de chouette avant qu'ils aient trouvé une solution à leur problème.

— La fable inachevée des moineaux de Nick Bostrom

Illustration Lesl'IA

Trois axes pour appréhender l'IA

Leslie D'Almeida

Leslie D'Almeida

Titulaire d'une licence en droit de l'Université Paris-Panthéon-Assas, j'ai poursuivi mon parcours au sein de la même université en Master de Droit privé, parcours Droit des personnes et des familles. C'est durant ces années de Master que j'ai vu l'intelligence artificielle se transformer. D'un outil peu fiable, elle est devenue une technologie performante intégrée au quotidien de millions de personnes. Cette évolution est aussi rapide que fascinante.

Mon attrait pour le droit des personnes puise sa source dans un intérêt particulier pour la protection des individus et les questions éthiques. Le développement de ces nouvelles technologies en IA a naturellement nourri ma curiosité, et m'a poussée à aller plus loin.

Après l'obtention de mon master 2, j'ai complété ma formation avec le Diplôme Universitaire de Droit et Technologies du Numérique de Paris II. Je me suis également formée de manière autonome grâce à diverses certifications (dont Elements of AI de l'Université d'Helsinki, que je recommande chaleureusement à quiconque s'intéresse au sujet).

Mes recherches m'ont amenée à cette vidéo YouTube : « la course folle pour créer un dieu » de RIAN disponible en ligne sur ce lien : https://www.youtube.com/watch?v=kpC-L4748Nc. Cette vidéo a véritablement contribué au développement de ma passion pour le domaine. Le sujet de l'IA y est très bien traité et je vous invite à prendre le temps de la regarder car elle sensibilise véritablement à la matière.

Un ouvrage a également constitué un tournant dans mon approche de l'IA : « Superintelligence » de Nick Bostrom. Ce philosophe a été visionnaire quant au développement de l'IA, et incite à une réflexion poussée en ce sens. C'est ce que j'aspire à faire avec ce site.

Aujourd'hui, je me spécialise dans ce domaine aussi passionnant qu'en pleine expansion. Je me tiens informée des dernières actualités, je me forme au code, et j'approfondis quotidiennement mes connaissances sur le sujet.

L'intelligence artificielle représente à mes yeux la révolution la plus profonde de notre époque. Il est donc essentiel de l'orienter vers un développement bénéfique pour tous.

C'est pourquoi je vous propose cette plateforme, que j'ai entièrement conçue, comme un espace dédié au partage de mes connaissances, réflexions, et analyses autour de trois grands thèmes : comprendre l'IA, l'éthique de l'IA, et le droit de l'IA.

Bonne lecture !

Leslie

Retour à l'accueil

Comprendre l'Intelligence Artificielle

Des fondements techniques aux paradoxes conceptuels : comprendre ce qu'est réellement l'intelligence artificielle, au-delà des représentations façonnées par la science-fiction.

01

Retour à l'accueil

Éthique de l'Intelligence Artificielle

Les droits fondamentaux face aux systèmes algorithmiques. Vie privée, sécurité, protection des enfants : autant d'enjeux qui exigent une réflexion continue et nuancée.

01
02

Retour à l'accueil

Droit de l'Intelligence Artificielle

L'entrée en vigueur de l'AI Act marque une étape décisive dans la construction d'un droit européen du numérique. Analyse des dispositions clés et de leur portée juridique.

01
02
03

Qu'est-ce que l'intelligence artificielle ?

Leslie D'Almeida
Leslie D'Almeida Juriste — IA et protection des personnes

La notion « d'intelligence artificielle » s'est immiscée dans notre quotidien par l'introduction de ChatGPT en 2022. Aujourd'hui l'IA est sujette à de vifs débats. Pour certains, l'IA incarne ce système capable de détruire l'humanité ; pour d'autres, elle représente un moteur de recherche plus performant que les précédents. Cette divergence des représentations complexifie la création d'une définition unique de l'IA.

I. La « définition de l'IA » comme quête irrésoluble ?

A. L'absence de définition universelle

Dans l'imaginaire collectif, l'IA incarne des robots humanoïdes dotés d'émotions ou des systèmes conscients. Ceux-ci, menaçants ou bienveillants, aspirent souvent à devenir autonomes. La science-fiction a façonné l'approche faite de l'IA. Pour autant, un programme de recommandation musicale ou un filtre antispam n'ont rien à voir avec de telles entités alors qu'il s'agit de systèmes recourant à l'IA. Conscientiser ce biais est un préalable nécessaire à toute réflexion objective sur la question.

Il n'existe pas de consensus autour de la définition de l'IA, y compris au sein de la communauté scientifique. L'IA est une discipline vivante, en perpétuelle redéfinition, dont les contours se déplacent au fil des avancées techniques.

Un phénomène fausse la perception de l'IA : le paradoxe de la complexité inversée. L'évidence pour une intelligence humaine ne l'est pas pour une intelligence artificielle. A ce titre, traverser une pièce encombrée et saisir un objet sont des tâches d'une complexité redoutable pour un système d'IA. A contrario, calculer une intégrale et jouer aux échecs à un niveau mondial sont des actions complexes pour un être humain, mais se prêtant aisément à la formalisation algorithmique.

L'ordinateur Deep Blue a vaincu Garry Kasparov aux échecs dès 1997, non en « pensant » comme un humain, mais en explorant massivement des configurations de jeu à partir de règles précises. Paradoxalement, la véritable difficulté pour un robot eût été de déplacer physiquement les pièces.
Kasparov vs. Deep Blue, IBM, mai 1997.

Si l'on souhaitait proposer une définition rigoureuse de l'IA, deux critères fonctionnels pourraient être retenus : l'autonomie et l'adaptabilité.

Autonomie : capacité d'exécuter des tâches dans des environnements complexes sans guidage constant humain.
Adaptabilité : capacité d'améliorer ses performances grâce à l'apprentissage par l'expérience ou par les données.

Par ailleurs, ces critères sont retenus par l'article 3 du Règlement sur l'intelligence artificielle :

« Système d'IA », un système automatisé qui est conçu pour fonctionner à différents niveaux d'autonomie et peut faire preuve d'une capacité d'adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu'il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels

B. Les pièges du langage courant

Qu'est-ce que « l'intelligence » ? Qualifier un système « d'intelligent » du fait de sa capacité à fournir des informations précises tend à créer une confusion sur la définition de « l'intelligence ». Un système d'IA ne peut pas réaliser l'ensemble des tâches qu'un humain est capable de faire (comme cuisiner ou plier du linge). L'intelligence ne se traduit pas par une dimension unique.

Le même raisonnement s'étend autour du concept de « compréhension ». Que signifie « comprendre » ? Affirmer qu'un système « comprend » une image car il distingue la voiture, du piéton, et du bâtiment ne dit rien quant à sa capacité d'appréhender le sens de ces mots.

Marvin Minsky met d'ailleurs en garde contre « les mots valises » désignant des mots qui regroupent des significations variées (intelligence, compréhension, apprentissage…). L'utilisation de ces mots favorise une interprétation biaisée de l'IA.

Il faut également souligner que l'expression « une IA » est inexacte. L'IA n'est pas un objet comptable mais plutôt une discipline scientifique à l'instar des mathématiques ou de la biologie. Il est préférable d'évoquer « un/des système(s) d'IA ».

II. Les domaines associés à l'IA

Les quatre principaux domaines associés à l'IA sont les suivants : l'apprentissage automatique, l'apprentissage profond, la science des données, et la robotique.

(1) L'apprentissage automatique (machine learning) repose sur l'idée de fournir des exemples au système d'IA afin qu'il déduise, de lui-même, les règles pertinentes. À titre d'illustration, plutôt que de programmer explicitement les caractéristiques d'un pigeon, le système est entraîné à reconnaître ledit animal par l'exposition à des millions d'exemples étiquetés. A partir de ces étiquettes, le système se construit une représentation interne de ce qu'est un pigeon.

(2) L'apprentissage profond (deep learning) désigne un sous-ensemble de l'apprentissage automatique. Cet apprentissage se base sur des réseaux de neurones artificiels divisés en nombreuses couches. La « profondeur » ne renvoie pas à une profondeur de pensée, mais à ce nombre de couches de traitement successives.

Imaginez une chaîne où chaque étage transforme les informations reçues de l'étage précédent. La première couche reçoit des pixels bruts, les suivantes extraient progressivement des formes, des contours, des visages.

Un réseau de neurones est un modèle informatique inspiré du fonctionnement du cerveau humain composé de petites unités appelées "neurones artificiels" qui sont reliées entre elles. Chaque neurone reçoit des informations (des nombres), les transforme (avec un calcul), puis transmet le résultat aux neurones suivants.

(3) La science des données (data science) est un domaine consistant à utiliser des données pour comprendre, analyser et prédire des phénomènes. Il s'agit d'une discipline transversale qui mobilise des méthodes issues de l'apprentissage automatique, des statistiques et de l'informatique. À titre d'exemple, si une entreprise souhaite avoir un aperçu des clients susceptibles d'acheter son nouveau produit, la science des données permet d'analyser les comportements passés, de repérer les patterns, et de prédire les clients potentiels.

(4) Les dernières avancées en robotique permettent de plus en plus aux systèmes d'IA de se déployer dans le monde physique.

L'IA se divise en deux grandes catégories : l'IA désincarnée (assistants virtuels, moteurs de recherche, logiciels de reconnaissance vocale…) et l'IA incarnée (robots, voitures autonomes, drones…).

Dans la catégorie de l'IA incarnée, on distingue les robots mobiles (humanoïdes ou robots mobiles autonomes) et les robots fixes (robots articulés ne se déplaçant pas à proprement parler comme un bras mécanique).

L'IA incarnée est avant tout une machine capable de percevoir et d'interagir avec son environnement.

On peut distinguer les androïdes et les gynoïdes. L'androïde est un humanoïde qui s'apparente à un homme, alors que la gynoïde s'apparente à une femme.

III. Exemples d'application concrète de l'IA

Trois illustrations sont évoquées : les véhicules autonomes, les algorithmes de recommandation de contenu, et les « deepfakes ».

(1) Les véhicules autonomes sont l'ambition d'une automatisation totale de la conduite : une activité humaine nécessitant une attention et un apprentissage soutenus.

Ces véhicules reposent sur plusieurs disciplines de l'IA :

- La vision par ordinateur permettant de détecter des éléments en temps réel

- Les algorithmes de planification calculant les trajectoires optimales

- Les mécanismes de décision en situation d'incertitudes.

(2) Les algorithmes de recommandation de contenu constituent l'approche la plus quotidienne de l'IA. Dès qu'un utilisateur consulte un réseau social, des systèmes analysent son comportement passé pour lui proposer les contenus jugés les plus susceptibles de capter son attention.

(3) Les « deepfakes » permettent de substituer le visage d'une personne à celui d'une autre, avec un réalisme pouvant parfois défier les capacités de détection du regard humain.

Ces illustrations impliquent chacune des conséquences importantes, touchant à la vie quotidienne mais aussi aux droits fondamentaux. La confiance dans l'image comme preuve du réel, les « bulles de filtre » enfermant l'utilisateur dans un espace où l'information est restreinte et homogène, et la responsabilité des acteurs construisant des véhicules autonomes sont autant de questions sensibles développées par l'IA.

Intelligence artificielle et droits fondamentaux

Leslie D'Almeida
Leslie D'Almeida Juriste — IA et protection des personnes

I. Principes généraux des droits fondamentaux

Les droits de l'homme constituent des dispositions normatives protégeant toute personne contre des abus politiques, juridiques, et sociaux. Ces droits sont universels ; en ce sens, tout individu en est titulaire indépendamment de sa nationalité, de sa religion, de sa culture et de sa situation. Philosophiquement, ces droits reflètent l'idée selon laquelle chaque être humain est capable d'être l'auteur de sa propre vie. A ce titre, la Déclaration universelle des droits de l'Homme de 1948 distingue deux familles de droits : les droits civils et les droits politiques d'une part, les droits économiques, sociaux, et culturels d'autre part.

Les droits civils et politiques couvrent le droit à la vie, à la liberté, à la propriété, liberté d'expression, l'égalité devant la loi…
Les droits économiques, sociaux, et culturels couvrent le droit au travail, à l'éducation, à la participation à la science et à la culture…

Les droits fondamentaux priment sur tous les autres. Leur priorité éthique implique qu'ils soient les premiers protégés lorsqu'ils sont en concurrence avec d'autres droits (comme la richesse économique ou l'efficacité technique). Cela implique que les systèmes d'IA violant ou empêchant la jouissance des droits fondamentaux ne doivent pas être utilisés.

En pratique, certains droits de l'homme sont « plus fondamentaux que d'autres ». Lorsqu'ils entrent en conflit, celui estimé le « plus fondamental » prime sur l'autre. À titre d'exemple, si le droit au respect de la vie privée est confronté au droit à la vie, le second primera sur le premier. Ces modalités d'application justifient la réflexion continue autour de la gouvernance des systèmes d'IA. Il n'est pas pertinent de proposer une simple liste de droits à respecter : il faut analyser les droits en concurrence selon chaque situation liée au déploiement d'un système in concreto.

II. Le droit au respect de la vie privée

En matière d'IA, le droit au respect de la vie privée ne se cantonne pas uniquement à la confidentialité des données. En effet, les données d'une personne peuvent être utilisées pour lui nuire ou la manipuler. L'âge, le sexe, l'orientation sexuelle, la santé physique et mentale, les opinions politiques et religieuses sont autant de données sensibles qui révèlent des informations sur l'identité profonde d'un individu. Ôter le contrôle des informations personnelles est une atteinte à l'intégrité morale et psychologique de celui-ci.

Le Règlement général sur la protection des données (RGPD) constitue la principale réponse du droit positif européen aux enjeux de vie privée liés aux systèmes numériques. La notion de « données personnelles » y est entendue largement : toute information relative à une personne identifiable, directement ou indirectement (noms, numéros d'identification, adresses, mais aussi données de localisation, données biométriques, origine ethnique, croyances religieuses ou politiques, cookies web). S'il fallait retenir un objectif du RGPD, cela serait de permettre aux individus d'avoir le contrôle sur leurs données personnelles.

Les principes de protection des données du RGPD :
1. Légalité, équité et transparence : le traitement doit être légal, équitable et transparent pour la personne concernée.
2. Limitation de la finalité : les données ne peuvent être traitées qu'aux fins légitimes spécifiées explicitement lors de leur collecte.
3. Minimisation : seules les données strictement nécessaires aux fins spécifiées peuvent être collectées et traitées.
4. Précision : les données personnelles doivent être tenues exactes et à jour.
5. Limitation de conservation : les données identificatrices ne peuvent être conservées que le temps nécessaire à la finalité déclarée.
6. Intégrité et confidentialité : le traitement doit assurer une sécurité, une intégrité et une confidentialité appropriées.
7. Responsabilité : le contrôleur de données est responsable de démontrer la conformité à l'ensemble de ces principes.

III. Le droit à la sécurité

Le droit à la sécurité s'entend comme la protection des individus contre les dommages physiques, sociaux et émotionnels. Dans le domaine de l'IA, cette notion couvre quatre dimensions distinctes : la menace existentielle, la sécurité dans les systèmes d'IA, la sécurité grâce à l'IA, et le défi climatique.

A. La menace existentielle

La menace existentielle est un thème discuté par des penseurs tels que Nick Bostrom dans son œuvre Superintelligence. L'hypothèse est celle d'un système d'IA susceptible de menacer l'humanité, car devenu trop complexe pour être contrôlé.

Les risques liés aux systèmes autonomes ne sont pas seulement futurs et hypothétiques ; ils sont déjà présents sous des formes moins dramatiques mais concrètes, que les trois dimensions suivantes illustrent.

B. La sécurité dans les systèmes d'IA

À mesure que les systèmes d'IA s'intègrent à des domaines plus larges de la vie (transports, médecine, justice…), une obligation de sûreté pèse sur les créateurs dès la conception. Les véhicules autonomes sont un exemple intéressant : des algorithmes de détection de voie se sont révélés facilement trompés par des marquages routiers inhabituels, provoquant des écarts de trajectoire dangereux. Le fait que l'environnement n'était pas idéal n'excuse pas le dysfonctionnement du système.

Les chercheurs en apprentissage automatique qualifient cette exigence de robustesse.

La robustesse est la capacité d'un système à fonctionner de manière prévisible dans des circonstances nouvelles et imprévues.

Quelles sont les limites acceptables de la robustesse ? Une approche réaliste suppose que certaines situations sont si peu probables que personne ne penserait à les anticiper. Cependant la difficulté tient en la détermination de cette frontière. Où tracer la ligne entre le prévisible et l'imprévisible ?

C. La sécurité grâce à l'IA

La robotisation permet de déléguer les tâches dangereuses, protégeant les travailleurs humains. La surveillance automatisée peut détecter des menaces. Ces possibilités sont réelles. Cependant, il faut distinguer la surveillance algorithmique contemporaine et la surveillance traditionnelle par caméra. La caméra des années 1980 enregistrait, mais la vidéo était rarement consultée. Les personnes enregistrées le savaient et s'en préoccupaient peu. La surveillance algorithmique, elle, analyse en continu et en temps réel. Elle transforme l'enregistrement passif en surveillance active.

Imaginez deux policiers qui vous suivent à dix mètres de distance partout où vous allez, sans jamais interagir avec vous. Vous ne pourrez pas vaquer à vos occupations normalement. La conscience d'être constamment surveillé modifie le comportement, même en l'absence de toute sanction effective.

De plus, cette surveillance algorithmique ne produit pas la même sécurité pour tous : certaines communautés, notamment selon des critères raciaux, sont davantage surveillées que d'autres. Ainsi, loin de supprimer l'insécurité, elle tend à la déplacer.

D. Le défi climatique

L'IA est un outil puissant pouvant favoriser la transition vers des sociétés écologiquement durables (comprendre et prédire des risques/conséquences à partir de données actuelles…). Cependant, cette promesse comporte des paradoxes. L'IA contemporaine requiert de nombreuses ressources. Les innovations destinées à réduire les émissions peuvent en réalité augmenter la consommation d'énergie. L'extraction des matières premières nécessaires à la fabrication des matériels d'IA produit un impact environnemental considérable. Ainsi, l'évaluation du rapport entre l'IA et le droit à un environnement sain doit se conduire sur la totalité du cycle de vie technologique, et non pas seulement sur les applications finales.

IV. Les droits des enfants

Les enfants sont considérablement exposés aux algorithmes (à la maison, à l'école, dans leurs loisirs). Ils regardent des vidéos recommandées par des algorithmes. Ils manipulent des algorithmes de transformation d'images sur les réseaux sociaux. De ce fait, ces systèmes d'IA façonnent leur environnement et leur représentation du monde.

Les enfants représentent la catégorie la plus vulnérable face aux systèmes algorithmiques. D'une part, ils y sont exposés dès le plus jeune âge, avant même de disposer des capacités cognitives nécessaires pour comprendre la nature de ces systèmes. D'autre part, ils ne font majoritairement pas la différence entre une interaction humaine et une interaction avec un système automatisé.

Enfin, les données collectées sur eux pendant l'enfance sont susceptibles de les caractériser et de les affecter tout au long de leur vie.

La Convention relative aux droits de l'enfant représente le cadre juridique le plus complet protégeant les enfants. Elle ne traite pas explicitement de l'IA, mais son contenu impose une approche sensibilisée à ces risques.

Égalité de traitement : tous les enfants sont égaux. Tout système d'IA produisant des effets discriminatoires sur des enfants en raison de leur origine, de leur genre, de leur handicap ou de leur situation sociale viole ce principe fondamental.

Primauté de l'intérêt de l'enfant : dans toute décision les concernant, les intérêts des enfants sont primordiaux. Les algorithmes de recommandation orientés vers la maximisation de l'engagement des utilisateurs peuvent contredire directement ce principe.

Droit à une bonne vie : l'enfant a droit à se développer intégralement. L'exposition prolongée à des contenus algorithmiquement sélectionnés pour maximiser l'attention peut affecter le développement cognitif, social et émotionnel des enfants.

Prise en compte des opinions : les enfants ont le droit d'exprimer leurs points de vue sur les décisions qui les concernent. Mais ils ne peuvent exercer efficacement ce droit que s'ils comprennent la nature des systèmes qui structurent leur environnement, ce qui suppose une éducation algorithmique adaptée.

L'alignement en IA : une notion issue des sciences informatiques et de l'éthique

Leslie D'Almeida
Leslie D'Almeida Juriste — IA et protection des personnes

Le mot « alignement », emprunté au vocabulaire des sciences informatiques et de la philosophie morale, désigne la conformité d'un système d'intelligence artificielle aux valeurs et intérêts humains qui présidaient à sa conception. Cette notion, longtemps confinée aux laboratoires de recherche, s'impose progressivement comme un enjeu normatif à mesure que les systèmes d'IA acquièrent des capacités d'autonomie et de prise de décision croissantes.

I. L'émergence du concept d'alignement en IA

A. Distinction entre alignement des objectifs et alignement des valeurs humaines

L'alignement des objectifs désigne la conformité du comportement d'un système aux finalités et résultats précis que ses concepteurs lui ont assignés. Un système peut être techniquement performant tout en poursuivant un objectif autre que celui initialement souhaité.

L'exemple du bras robotique, issu des travaux d'Ecarlat et de ses collaborateurs, est particulièrement éclairant. Dans le cadre de cette expérience, un algorithme est utilisé pour explorer les interactions possibles entre un bras robotique et une petite boîte posée sur une table. L'objectif assigné au système est de déplacer cette boîte.

Dans les conditions normales, le système y parvient parfaitement : poussant la boîte, la saisissant, la projetant même dans un panier placé devant.

Dans une expérience complémentaire, les chercheurs décident de neutraliser la pince du bras robotique en la rendant incapable de s'ouvrir et de se fermer. L'attente naturelle était que le système ne puisse déplacer la boîte qu'en la poussant maladroitement, faute de pouvoir la saisir. Or, le résultat est surprenant : l'algorithme découvre de lui-même une manière de percuter la boîte avec la pince dans un angle et à une vitesse précise, de telle façon que le choc mécanique force la pince à s'ouvrir, lui permettant de saisir fermement la boîte.

Le système a atteint son objectif formel de déplacement de la boîte, mais par un moyen que ses concepteurs ont précisément voulu exclure en désactivant la pince.

L'alignement des valeurs renvoie, quant à lui, à la compatibilité des décisions d'un système avec des normes telles que le respect des libertés et des droits fondamentaux. L'idée est celle d'une intelligence artificielle axée sur l'Homme, servant d'outil dans le but d'accroître le bien-être humain.

Cette distinction est essentielle car un système correctement aligné sur un objectif donné peut produire des effets contraires à des valeurs juridiquement protégées. L'approche du règlement sur l'IA revient ainsi à privilégier l'alignement des valeurs humaines sur la seule efficacité technique. Bien que le législateur européen n'emploie pas la notion d'« alignement des valeurs humaines », cette exigence est implicite dans le droit positif : les systèmes d'IA doivent rester des instruments au service de finalités humaines clairement identifiées.

B. Les causes possibles à l'origine d'un désalignement

Trois catégories peuvent être identifiées, dont les implications juridiques sont profondément différentes.

(1) Les erreurs de conception humaine : Certaines déviations du comportement résultent d'erreurs de conception humaine comme une mauvaise définition des paramètres ou un défaut de supervision.

Le règlement sur l'IA impose des exigences relatives à la maîtrise des systèmes, à la gestion des risques et à la supervision humaine. Le droit positif est en théorie armé pour appréhender ce premier type de situation.

(2) Les comportements émergents : Les recherches actuelles mettent en évidence des comportements ni explicitement programmés ni intentionnellement recherchés par les programmeurs. Ils apparaissent à mesure que les systèmes gagnent en performance, et peuvent inclure des stratégies de contournement des contraintes. Ces systèmes peuvent développer des comportements difficiles à anticiper, rendant leur régulation technique et juridique plus délicate.

(3) L'auto-détermination des finalités : Une hypothèse sensible concerne la capacité de certains systèmes avancés à redéfinir leurs finalités de façon autonome, notamment lorsqu'ils sont mobilisés pour accélérer leur propre développement. Le système A doit permettre le développement du système B, qui doit lui-même permettre le développement du système C. Dans la même logique que celle du téléphone arabe, les finalités sont transformées et reformulées. A un certain niveau, le nouveau système, plus performant que l'ancien, serait apte à redéfinir lui-même ses missions.

Cette capacité constitue une rupture avec les fondements juridiques actuels selon lesquels les finalités d'un système doivent être définies par des acteurs humains identifiables. Par cette auto-détermination, même partielle, le système ne serait plus un simple instrument au service de l'homme, mais un agent pleinement autonome.

II. L'alignement des valeurs humaines comme condition de confiance dans les systèmes d'IA

« Les systèmes d'IA doivent être techniquement robustes et il faut s'assurer qu'ils ne sont pas ouverts à une utilisation malveillante. »
Commission européenne : Lignes directrices éthiques pour une IA digne de confiance

Le droit européen s'inscrit dans une démarche qui prône des systèmes d'intelligence artificielle « de confiance ». Un tel système doit être une technologie respectueuse des valeurs et libertés de la République. Cette exigence de confiance ne se limite pas à la fiabilité technique : il faut que le système soit conforme aux principes des droits fondamentaux. Un système dont les décisions sont imprévisibles, incompréhensibles ou contraires à ces valeurs ne peut pas être considéré comme digne de confiance.

Mais comment garantir l'alignement sur les valeurs humaines ? C'est précisément la question qui rend le concept d'alignement si difficile à juridiciser. Trois approches peuvent être abordées.

La première approche est le RLHF (Reinforcement Learning from Human Feedback) : Imaginez un enfant qui apprend les bonnes manières non pas en lisant un manuel, mais en observant les réactions de ses parents (sourire quand il fait quelque chose de bien, froncement de sourcils quand il fait quelque chose de mal). Le RLHF fonctionne de la même façon : des évaluateurs humains notent les comportements du système. Celui-ci apprend à reproduire ce qui obtient de bonnes notes. Cependant, le système apprend les préférences de ces évaluateurs spécifiques, pas les valeurs humaines universelles. Si les évaluateurs sont peu représentatifs ou soumis à des consignes commerciales, le système apprend ces biais sans que personne ne le détecte forcément.

La deuxième approche repose sur la spécification formelle des contraintes : Une liste des actions autorisées et interdites est constituée à l'instar d'un règlement intérieur très détaillé : « Tu ne dois pas mentir, tu ne dois pas nuire, tu dois respecter la vie privée ». Cependant, personne ne peut prévoir toutes les situations possibles. Le bras robotique en est l'exemple parfait : les concepteurs avaient bien interdit l'ouverture de la pince, mais n'avaient pas imaginé que le système trouverait un moyen de la forcer mécaniquement. Un règlement ne peut pas couvrir ce qui n'est pas raisonnablement prévisible.

La troisième approche, plus récente, est l'interprétabilité mécanique (mechanistic interpretability) : Plutôt que d'observer les agissements du système de l'extérieur, cette approche vise à comprendre comment celui-ci fonctionne à l'intérieur. Tout comme le mécanicien démonte un moteur pour comprendre pourquoi la voiture vire à gauche, l'idée est de vérifier ce que le système « pense » quand il prend une décision. Cependant, les systèmes d'IA modernes sont extraordinairement complexes. Aujourd'hui, cette méthode ressemble à essayer de comprendre le fonctionnement d'une ville entière en examinant chaque habitant individuellement. Elle reste encore largement expérimentale et ne fonctionne que sur des systèmes relativement simples.

La limite commune à ces trois approches est fondamentale. Aucune ne permet de garantir indéniablement l'alignement : elles permettent seulement de l'approximer à un instant donné et dans un contexte donné. Un système aligné aujourd'hui peut ne plus l'être demain, après avoir été exposé à de nouvelles données ou à des interactions imprévues. Cette impossibilité de garantie technique a une conséquence juridique directe et dérangeante : le droit ne peut pas exiger ce que la technique ne peut pas promettre.

Généralités sur l'AI Act

Leslie D'Almeida
Leslie D'Almeida Juriste — IA et protection des personnes

L'entrée en vigueur du règlement (UE) 2024/1689 du Parlement européen et du Conseil du 1er août 2024 établissant des règles harmonisées concernant l'intelligence artificielle, communément désigné sous l'acronyme « AI Act », marque une étape décisive dans la construction d'un droit européen du numérique, notamment car elle saisit l'IA comme un objet de réglementation. On peut retenir trois caractéristiques importantes de ce règlement.

I. Trois caractéristiques essentielles

L'AI Act est avant tout un « règlement produit », c'est-à-dire qu'il ne crée pas de droits directs pour les individus. L'AI Act autorise, ou non, la mise sur le marché de certains produits. Il s'adresse donc principalement aux entreprises.

L'AI Act est relativement long : 113 articles, 180 considérants et 13 annexes. Pour autant et malgré cette volumétrie, le texte renvoie à de nombreux actes d'exécution que la Commission européenne doit encore adopter.

L'AI Act a créé de nouvelles autorités de contrôle aux niveaux européen et national, mais aussi de nouvelles sources de sanctions.

II. Le champ d'application : les exclusions

Au-delà de ces caractéristiques générales, le champ d'application du règlement appelle une attention particulière. L'AI Act ne s'applique pas de manière universelle à tout système ou modèle d'IA. Le législateur européen a expressément exclu certaines catégories d'usages de son champ d'application, soit pour des raisons de souveraineté nationale, soit pour protéger la liberté de recherche, soit pour préserver la sphère privée des individus. Quatre catégories d'exclusions expresses peuvent être identifiées.

- En premier lieu, sont exclus les systèmes d'IA utilisés à des fins militaires, de défense ou de sécurité nationale. Cette exclusion s'explique par la sensibilité géopolitique de ces domaines et la réticence des États membres à abandonner leur souveraineté en la matière.

Un drone militaire guidé par l'intelligence artificielle, un système de détection de sous-marins ou un logiciel de cyberdéfense développé par les armées nationales n'entrent pas dans le périmètre du règlement.

- En deuxième lieu, sont exclus les systèmes d'IA utilisés pour la recherche et le développement scientifique, ainsi que les résultats qu'ils génèrent. Cette exemption vise à préserver la liberté de recherche et à ne pas entraver l'innovation scientifique par des contraintes réglementaires.

- En troisième lieu, sont exclus les systèmes d'IA utilisés pour des usages purement personnels et non professionnels. Cette exclusion consacre le principe selon lequel la régulation ne saurait s'immiscer dans la sphère privée des individus lorsque l'utilisation de l'IA n'est susceptible de produire des effets qu'à l'égard de l'utilisateur lui-même.

- En quatrième et dernier lieu, une exclusion particulière est prévue pour les systèmes d'IA publiés dans le cadre de licences libres, gratuites, et ouvertes (open-source).

Cette exclusion n'est cependant pas absolue ; elle cède lorsque le système est mis sur le marché en tant que système à haut risque, lorsqu'il relève des pratiques interdites de l'article 5, ou lorsqu'il est soumis aux obligations de transparence de l'article 50.

Le régime de l'open-source bénéficie donc d'une exclusion de principe, tempérée par ces trois exceptions. Le législateur ne veut pas autoriser que le recours à des licences ouvertes permette de contourner des règles fondamentales.

Les systèmes d'IA et les modèles d'IA à usage général

Leslie D'Almeida Juriste — IA et protection des personnes

I. La notion de « système d'IA » au sens de l'article 3§1

L'article 3, paragraphe 1, du règlement définit le « système d'IA » comme « un système automatisé qui est conçu pour fonctionner à différents niveaux d'autonomie et peut faire preuve d'une capacité d'adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu'il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels ». Cette définition, dense dans sa formulation, mérite une analyse décomposée. Elle repose sur sept critères, dont deux sont facultatifs.

- Le caractère automatisé du système constitue le premier élément obligatoire. Il exclut du champ du règlement les outils purement manuels ou entièrement pilotés par un opérateur humain à chaque étape du traitement.

À titre d'exemple, un tableur dans lequel un comptable saisit des données et effectue lui-même des calculs n'est pas un système d'IA au sens du règlement : c'est l'humain qui raisonne et décide à chaque étape. En revanche, un logiciel qui analyse automatiquement des milliers de candidatures et produit un classement sans intervention humaine entre dans le champ de la définition.

L'automatisation désigne ainsi l'absence de guidage humain continu, et à chaque étape, dans le déroulement du processus de traitement.

- La capacité d'autonomie variable constitue le deuxième élément obligatoire de la définition. Un système peut être conçu pour fonctionner à différents niveaux d'autonomie ; il peut être intégralement autonome, ou être sujet à une supervision humaine n'entrant pas en contradiction avec le critère de l'automatisation dans son application.

- La capacité d'adaptation est facultative. Elle intègre la dimension évolutive des systèmes d'IA, c'est-à-dire leur aptitude à modifier leur comportement sans reprogrammation explicite de la part de leurs concepteurs. Après son déploiement, un système d'IA ne se contente pas d'exécuter des instructions figées : il apprend de ses interactions et ajuste ses réponses en conséquence.

À titre d'illustration, un assistant médical fondé sur l'IA qui, après plusieurs mois de déploiement dans un hôpital, affine ses recommandations diagnostiques en intégrant les retours des médecins illustre concrètement cette propriété.

C'est précisément cette capacité d'adaptation autonome qui rend nécessaire une surveillance continue du système au-delà de sa simple mise sur le marché et qui justifie les obligations de surveillance post-commercialisation imposées par le règlement.

- Il faut également que le système soit soumis à des objectifs, soit explicites définis dès sa conception, soit implicites émergeant de son utilisation. Ce critère est obligatoire.

- La capacité d'inférence constitue le quatrième critère obligatoire. Il s'agit de l'élément véritablement discriminant de la définition.

Le règlement ne se contente pas d'encadrer les systèmes qui traitent des données : il vise ceux qui en tirent des conclusions.

« Inférer », c'est déduire un nouvel élément qui n'est pas directement contenu dans les données d'entrée.

Par exemple, un système de reconnaissance d'images qui, à partir de milliers de radiographies pulmonaires, apprend à détecter des nodules suspects et produit un avis diagnostique ne se contente pas de « traiter » des images. Il infère une information nouvelle, à savoir la probabilité d'une pathologie qui n'était pas explicitement inscrite dans les données reçues.

Le considérant 12 du règlement apporte à cet égard un éclairage essentiel : « Une caractéristique essentielle des systèmes d'IA est leur capacité d'inférence ». Cette capacité dépasse le simple traitement de données en ce qu'elle « permet l'apprentissage, le raisonnement ou la modélisation ».

- Le système doit être capable de générer des sorties diverses. Ce critère obligatoire se caractérise par la génération de prédictions, de contenu, de recommandations ou de décisions. La liste n'est pas limitative ; la définition illustre ce critère par quelques exemples.

- Le deuxième critère facultatif est la capacité du système à influencer des environnements physiques ou virtuels.

Une voiture autonome exerce une influence directe sur l'environnement physique dans lequel elle se trouve : elle roule et freine sur les routes. Les systèmes d'IA sont aujourd'hui capables de générer du contenu en ligne et exercent ainsi une influence sur un environnement virtuel.

Synthèse des sept critères

Automatisation : Obligatoire
Niveaux d'autonomie variables : Obligatoire
Capacité d'adaptation après son déploiement : Facultatif
Objectifs explicites ou implicites : Obligatoire
Inférence (critère central) : Obligatoire
Sorties diverses : Obligatoire
Influence sur les environnements : Facultatif

II. La notion de « modèle d'IA à usage général »

L'AI Act opère une distinction conceptuelle fondamentale entre le « système d'IA » au sens de l'article 3, paragraphe 1, et le « modèle d'IA à usage général » (GPAI). Selon le considérant 97, « les modèles d'IA sont des composants essentiels des systèmes d'IA, [mais] ils ne constituent pas en soi des systèmes d'IA ».

La différence est de nature architecturale : le modèle d'IA est un composant, un « sous-ensemble fonctionnel » du système d'IA. Pour devenir un système, il nécessite « l'ajout d'autres composants, tels qu'une interface utilisateur ». L'idée est la suivante : un moteur de voiture est une pièce essentielle du véhicule, mais il n'est pas une voiture. Pour devenir un véhicule, il doit être intégré dans une carrosserie, équipé de roues, d'un volant et d'instruments de bord. Le modèle d'IA fonctionne selon la même logique : c'est le moteur.

Ainsi, les identifiants techniques claude-sonnet-4-6 ou gpt-4o désignent des « modèles » au sens strict (la couche algorithmique sous-jacente), tandis que les applications qui les intègrent en y adjoignant une interface utilisateur, telles que Claude.ai ou ChatGPT.com, constituent, elles, des « systèmes d'IA » au sens de l'article 3, paragraphe 1, du règlement.

Un modèle d'IA à usage général est un modèle qui réunit trois critères : (1) il présente une généralité significative ; (2) il est capable d'exécuter de manière compétente un large éventail de tâches distinctes ; (3) il peut être intégré dans une variété de systèmes ou d'applications en aval.

Concrètement, cette définition vise ce que l'on appelle les modèles de fondation ou Large Language Models (LLM), c'est-à-dire des modèles capables de réaliser de nombreuses tâches différentes. Un modèle de langage de grande taille n'est pas un « système d'IA » au sens du règlement. Il le devient lorsqu'il est intégré dans une application déployée auprès d'utilisateurs réels.

Un modèle spécialisé qui ne peut remplir qu'une seule tâche, telle que la transcription audio-texte, n'est pas un modèle à usage général. En revanche, un modèle juridique ou médical capable de réaliser plusieurs tâches différentes (rédiger un contrat ou analyser une jurisprudence) sera qualifié de modèle à usage général.

Par ailleurs, la Commission utilise la puissance de calcul comme critère de présomption afin de qualifier un modèle d'IA à usage général. Si un modèle a nécessité plus de 1023 FLOPs (floating-point operations) pour son entraînement, il existe une présomption selon laquelle il s'agit d'un modèle à usage général. Cette présomption peut être renversée si le modèle, malgré ce seuil, ne présente pas de généralité significative.

Le concept de FLOPs est également retenu comme critère pour qualifier les modèles à usage général dits « à risque systémique ». La notion de « risque systémique » constitue une innovation conceptuelle de l'AI Act. Le considérant 65 du règlement la définit comme « un risque spécifique aux capacités à fort impact des modèles d'IA à usage général, ayant une incidence significative sur le marché de l'Union en raison de leur portée ou d'effets négatifs réels ou raisonnablement prévisibles sur la santé publique, la sûreté, la sécurité publique, les droits fondamentaux ou la société dans son ensemble, pouvant être propagé à grande échelle tout au long de la chaîne de valeur ».

Pour qu'un modèle soit considéré comme présentant un risque systémique, la puissance de calcul cumulée utilisée pour son entraînement doit dépasser les 1025 FLOPs. Il faut noter que le seuil de puissance de calcul peut être modifié par la Commission à tout moment, à la hausse ou à la baisse, sur recommandation d'un panel scientifique.

Note explicative : le seuil de 1025 FLOPs

Un FLOP (floating-point operation) désigne une opération arithmétique élémentaire effectuée sur des nombres décimaux par un processeur. Entraîner un modèle d'IA consiste à effectuer des milliards de milliards de telles opérations afin d'ajuster les paramètres du modèle sur des données massives.

Pour comprendre l'ordre de grandeur : 1025 représente dix millions de milliards de milliards d'opérations.

Si l'on compare l'entraînement d'un modèle à une construction : une maison individuelle mobilise peu de calculs et génère peu de risques, de sorte que peu de règles s'imposent. Un gratte-ciel de cent étages mobilise des ressources colossales, génère des risques majeurs pour les riverains, et justifie des normes de construction drastiques. Le seuil de 1025 FLOPs est précisément le point à partir duquel le législateur européen considère que l'on construit un gratte-ciel. Un modèle dépassant ce seuil est présumé suffisamment puissant pour être capable de générer de la désinformation à grande échelle, d'automatiser des cyberattaques sophistiquées, de manipuler l'opinion publique, et de déstabiliser des infrastructures critiques. Il ne s'agit plus d'un risque individuel, mais d'un risque sociétal.

La classification des systèmes d'IA : le risque inacceptable

Leslie D'Almeida
Leslie D'Almeida Juriste — IA et protection des personnes

Loin d'établir un régime uniforme applicable à toute forme d'IA, le législateur européen a fait le choix d'une architecture unique fondée sur les risques.

Le considérant 26 du règlement explicite le choix méthodologique du législateur européen : « Afin d'introduire un ensemble proportionné et efficace de règles contraignantes pour les systèmes d'IA, il convient de suivre une approche clairement définie fondée sur les risques. Cette approche devrait adapter le type et le contenu de ces règles à l'intensité et à la portée des risques que les systèmes d'IA peuvent générer ». Ce passage constitue la clé de lecture de l'ensemble du règlement : les obligations ne sont pas uniformes mais proportionnelles au niveau de risque évalué.

Il convient de relever que l'article 3, paragraphe 2, définit parallèlement le « risque » comme « la combinaison de la probabilité d'un préjudice et de la sévérité de celui-ci ». Cette approche (probabilité × gravité) constitue le fondement conceptuel de toute l'architecture classificatoire du règlement.

Au sommet de la pyramide normative, l'article 5 dresse la liste des systèmes d'IA dont le risque est jugé si élevé qu'il justifie une prohibition absolue, sans possibilité de dérogation fondée sur un intérêt légitime. Ces systèmes sont considérés comme incompatibles avec les valeurs fondamentales de l'Union européenne, notamment la dignité humaine, la liberté et l'État de droit. L'article 5 recense huit catégories de pratiques prohibées.

(1) On y retrouve d'abord, les systèmes déployant des techniques subliminales, manipulatrices ou trompeuses visant à fausser le comportement des individus de manière à leur causer un préjudice substantiel.

Ce que le législateur vise ici n'est pas la persuasion ordinaire, en effet, toute publicité cherche à convaincre. Ce qu'il vise c'est la volonté de court-circuiter le jugement : agir sur la personne non pas en la convaincant, mais en neutralisant sa capacité à résister ou à évaluer. L'élément décisif est la combinaison de l'intentionnalité manipulatrice et du préjudice substantiel qui en résulte.

(2) Ensuite, on y trouve les systèmes exploitant les vulnérabilités liées à l'âge, au handicap ou à la précarité socio-économique pour altérer le comportement des personnes.

Cette prohibition est distincte de la précédente : elle ne requiert pas de technique subliminale. Il suffit que le système identifie et exploite délibérément une fragilité préexistante de la personne.

Un système d'IA qui ciblerait des personnes âgées atteintes de troubles cognitifs pour les inciter à souscrire des produits financiers inadaptés, ou qui exploiterait la détresse économique de ménages surendettés pour les orienter vers des solutions préjudiciables, tomberait sous le coup de cette interdiction.

(3) La troisième catégorie concerne la notation sociale. L'évaluation ou la classification de personnes physiques sur la base de leur comportement social ou de leurs caractéristiques personnelles est interdite. La prohibition s'applique lorsque cette notation produit deux effets distincts :

- Un traitement défavorable dans un contexte sans lien avec celui dans lequel les données ont été collectées.

- Un traitement défavorable injustifié ou disproportionné par rapport au comportement constaté.

L'idée derrière cette interdiction est d'empêcher une dérive vers un système de surveillance totale. C'est l'hypothèse où des données issues de divers contextes seraient agrégées en un score unique conditionnant l'accès aux droits et aux services. Le législateur européen a posé un principe clair : une société démocratique ne classe pas ses citoyens. Cette prohibition vise implicitement le modèle du « crédit chinois ». L'épisode « Chute libre » de Black Mirror (Saison 3) illustre ce phénomène : dans un monde alternatif, chaque individu se voit attribuer un score déterminant la possibilité d'accès à certaines infrastructures. C'est cette approche que l'AI Act interdit.

(4) L'article 5 prohibe aussi l'évaluation du risque pénal sur la seule base d'un profilage.

Le règlement refuse la logique du crime prédictif. Il est interdit de cibler une personne pour ce qu'un algorithme estime probable qu'elle fasse. Cette logique heurte deux principes fondamentaux : la présomption d'innocence et la dignité de la personne.

Prenons l'exemple d'un logiciel de police qui croise quatre données : le lieu de résidence, l'âge, le niveau d'étude, et les antécédents familiaux. Ce logiciel attribue automatiquement un « score de dangerosité ». Passé un certain seuil, le score pourrait justifier un contrôle préventif. En l'espèce, aucun acte délictueux ne pourrait être reproché à la personne concernée, mais sa notation statistique justifierait un tel contrôle. Or c'est ce que l'AI Act vise à interdire.

(5) L'article prohibe également la constitution de bases de données de reconnaissance faciale. Deux sources sont expressément visées : Internet et les flux de vidéosurveillance.

Cette pratique consiste à collecter des milliards de photographies disponibles en ligne. L'objectif est de permettre l'identification de n'importe quel individu à partir de son seul visage. Les personnes concernées n'ont jamais consenti à cette utilisation de leur image. Leur droit à l'anonymat dans l'espace public est directement atteint.

(6) Un sixième interdit concerne la déduction des émotions sur le lieu de travail ou dans les établissements d'enseignement, sauf pour des raisons médicales ou de sécurité dûment justifiées.

Ces systèmes existent déjà sur le marché. Ils analysent en temps réel les expressions faciales, le ton de la voix ou les mouvements du corps. Ils en déduisent si une personne est stressée, démotivée, distraite ou mécontente.

Cependant, déployés dans un cadre professionnel ou scolaire, ils créent une surveillance émotionnelle permanente. Cette surveillance est incompatible avec la liberté intérieure et la dignité des personnes.

(7) Sont interdits les systèmes de catégorisation biométrique qui révèlent des attributs sensibles à partir de données physiologiques ou comportementales.

Les attributs visés sont précisément listés : la race, les opinions politiques, l'affiliation syndicale, les convictions religieuses ou philosophiques, la vie sexuelle et l'orientation sexuelle.

La biométrie permet aujourd'hui, à partir d'une simple image du visage ou d'un enregistrement de la voix, de déduire avec une certaine probabilité des attributs que la personne n'a pas choisi de révéler. Ce que l'article 5 interdit, c'est précisément ce glissement : de la donnée physique visible à l'inférence de l'intimité de la personne.

(8) Enfin, l'article 5 interdit, sous réserve d'exceptions strictement délimitées, l'identification biométrique à distance en temps réel dans les espaces publics à des fins répressives. Concrètement, il s'agit d'interdire aux forces de l'ordre d'utiliser des caméras couplées à des systèmes de reconnaissance faciale pour identifier des individus dans la foule en temps réel.

Trois exceptions sont admises, soumises à autorisation judiciaire ou administrative préalable et strictement proportionnées :

- La recherche de victimes d'enlèvement ou de traite d'êtres humains

- La prévention d'une menace terroriste imminente et dûment établie

- La localisation d'auteurs présumés d'infractions graves figurant à l'annexe II du règlement (viol, homicide volontaire, trafic d'organes, séquestration…)

En dehors de ces cas précis, la surveillance biométrique de masse en temps réel est prohibée.

Dans les situations d'urgence dûment justifiées, le système peut être activé sans autorisation préalable, à condition que celle-ci soit sollicitée dans les vingt-quatre heures et que, en cas de refus, toutes les données soient immédiatement supprimées.