Pas de connexion à la matrice ni de robots Terminator traquant les humains. L’IA ne peut se résumer à cette vision catastrophique véhiculée par Hollywood. Au contraire, elle est riche de transformations et d’opportunités, notamment pour les forces de sécurité intérieure (FSI). L'IA peut en effet s’imposer comme un levier d'efficience dans la réalisation de leurs missions tout en respectant certaines conditions.
En France, dans un contexte sociétal toujours plus difficile et dans la limite des ressources humaines et financières allouées, les forces de sécurité intérieure développent des technologies innovantes
pour accroître leur efficacité opérationnelle au service de la sécurité des biens et des citoyens. L’intelligence artificielle, souvent fantasmée, peut-elle répondre aux nouveaux enjeux de sécurité
tout en se conformant au cadre législatif en vigueur ?
Un cadre règlementaire qui renforce la confiance dans l’IA
Dans un sondage réalisé en novembre 2023, 68% des Français considèrent que l’IA peut renforcer l’efficacité des forces de l’ordre mais ils sont 53% à penser qu’elle représente un
biais et qu’elle peut favoriser des erreurs d’appréciation et de jugement1. Les avancées technologiques liées à l’IA suscitent des inquiétudes, voire de la méfiance, comme le risque
d'un contrôle excessif de l'État sur ses citoyens, à l'instar de la situation en Chine. Mais ni l’Europe, ni la France ne sont des « sociétés de surveillance » sur le modèle chinois.
Bien que les traitements mis en œuvre pour assurer la sûreté de l’État ou la défense nationale ne relèvent pas du champ d’application du RGPD dans le domaine pénal, ils restent régis par
les dispositions de la loi « Informatique et Libertés ». Celle-ci intègre la directive « Police-Justice2 » définissant les « règles relatives à la protection des personnes
physiques à l’égard du traitement des données à caractère personnel par les autorités compétentes3 à des fins de prévention et de détection des infractions pénales,
d’enquêtes et de poursuites en la matière ou d’exécution de sanctions pénales, y compris la protection contre les menaces pour la sécurité publique et la prévention de telles menaces. »
Les responsables du traitement des données ont des obligations prévues par la directive comme la coopération avec l’autorité de contrôle, à la demande de celle-ci, dans l’exécution de ses
missions. Ce paquet européen relatif à la protection des données à caractère personnel, combiné à la vigilance de la CNIL au niveau national, encadre le traitement des données à caractère
personnel et veille à la protection de celles-ci pour les citoyens français et européens.
Enfin, la nouvelle « loi IA » européenne, qui est une première mondiale, établit une classification des risques4 associés aux systèmes d'IA et définit les mesures à prendre pour chaque
niveau associé. Par exemple, certains systèmes utilisés par les forces de sécurité considérés « à haut risque » seront soumis à une analyse d'impact obligatoire sur les droits
fondamentaux qui devront prévenir et protéger contre les discriminations et les atteintes auxdits droits d’une manière globale, transparente et cohérente5.
Ce corpus règlementaire clairement établi devient un catalyseur d’opportunités pour les FSI. Il permet de placer le curseur au juste équilibre entre limitation des usages pour maintenir la confiance et utilisation raisonnée
de l’IA par les FSI pour accroître leur efficacité opérationnelle.
Ces dernières ont une volonté de transparence et s’engagent à rendre publiques les évaluations des systèmes à base d’IA et des bases de données en adéquation avec les libertés
individuelles et la directive « Police-Justice » dans la limite de son champ d’application particulier6. Cette transparence est gage de confiance. Elle est outre complétée par la double proportionnalité
à laquelle doivent répondre les solutions d’IA utilisées, et qui doit permettre de s'assurer que l'usage de l'IA est justifié, d’une part selon le cadre opérationnel (s’agit-il d’une patrouille,
d’une enquête pour un délit, pour un crime ou pour une menace terroriste, etc.), et d'autre part selon le type de données mobilisées (personnelles, statistiques, etc.).
Des opportunités opérationnelles fortes… en attente de structuration
Malgré cette fermeté réglementaire, l’intelligence artificielle n’est plus seulement une opportunité future, mais répond d’ores et déjà à certains besoins des forces de l’ordre.
En effet, l’intelligence artificielle est déjà exploitée dans certains outils opérationnels répondant à un cadre judiciaire délimité. Ainsi, le programme Sigma-Tau, initié en 2016 par
la Police nationale vise à répondre aux enjeux de traitement des vidéos de masse lors d’enquêtes sensibles, en automatisant plusieurs fonctionnalités : analyse des mouvements, lecture automatique de plaques
d’immatriculation, détection de mouvements anormaux, etc. Les chiffres parlent d’eux-mêmes : pour l’affaire Merah, le traitement des 10 000 heures de vidéosurveillance auraient nécessité le travail
d’un agent pendant 1 an et demi… contre quelques heures pour que l’algorithme effectue un premier tri qualificatif sous le contrôle d’un opérateur.
Néanmoins, l’IA peut s’inscrire davantage encore dans le quotidien des gendarmes et policiers français. Traduction en temps réel, retranscription automatique de la parole, maintenance prédictive du parc automobile
: un grand nombre de cas d’usage demeurent inexploités, alors qu’ils sont juridiquement moins sensibles, étant donné qu’ils n’exploitent que peu (voire pas) de données personnelles.
Ainsi, il convient de considérer l’intelligence artificielle, non pas comme une unique solution qui répond à tous les problèmes, ni même comme un engrenage nécessitant le décloisonnement de données,
mais comme une technologie pouvant améliorer la réponse à des cas d’usage et contextes opérationnels bien définis. Ce principe de spécificité de l’IA va de pair avec un enjeu de cohérence,
pour le ministère de l’Intérieur : les récentes révélations sur l’achat – par certains services de police – de licences d’un logiciel développé par la société
israélienne Briefcam illustrent en effet en premier lieu les difficultés d’industrialisation des solutions IA. Or, la mise au clair des ambitions du ministère conforterait la transparence de ses services dans l’utilisation
de telles technologies. Par ailleurs, une telle démarche de mise à l’échelle permettrait de renforcer la sécurité entourant ces produits. Une approche de sécurité centrée sur les données
assurerait dès lors l’intégrité de la donnée, peu importe où elle se trouve, réconciliant ainsi confiance et souveraineté.
Enfin, par-delà les interrogations techniques et légales, il est impératif de prendre en compte la dimension humaine entourant l’intelligence artificielle. Cette innovation, parce qu’elle s’inscrit dans le soutien
(et non le remplacement) de l’action humaine, doit pour se faire demeurer sous la supervision d’un opérateur. C’est de cet équilibre entre performance et maîtrise que viendra l’acceptabilité sociale
d’une telle technologie.
Les JO 2024 : un test grandeur nature
À l’articulation entre efficacité opérationnelle et protection des libertés, la confiance en cette rupture technologique qu’est l’IA passe donc par l’affirmation d’une posture de responsabilité
des institutions publiques, laquelle se fonde sur des principes – mis en lumière au cours de cet article – de transparence, de proportionnalité, de cohérence, de spécificité et de maitrise.
Expérimentée à l’occasion des Jeux Olympiques 2024, l’intelligence artificielle fera l’objet d’un retour d’expérience crucial, qui conditionnera les possibilités de son exploitation
par les forces de sécurité intérieure. Le ministère de l’Intérieur devra alors affirmer une stratégie IA claire, dans la lignée des valeurs cardinales que sont la transparence, la proportionnalité,
la cohérence, la maîtrise, la sécurité et la responsabilité, car de notre manière de l’accueillir dans notre société, de la gérer, d’assurer la maîtrise des risques
dépendra notre capacité à libérer les nombreuses opportunités qu’elle promet.
1 https://www.soprasteria.fr/espace-media/publications/details/securite-68-des-francais-considerent-que-l-intelligence-artificielle-peut-renforcer-l-efficacite-des-forces-de-l-ordre-d-apres-la-derniere-etude-ipsos-pour-sopra-steria#:~:text=Si%2068%25%20d'entre%20eux,d'appr%C3%A9ciation%20et%20de%20jugement 2 Cette directive a été transposée en France au sein du chapitre XIII de la loi Informatique et Libertés afin de mettre en conformité le droit national avec « le paquet européen de protection
des données à caractère personnel ».3 Toute autorité publique compétente pour la prévention et la détection des infractions pénales, les enquêtes et les poursuites
en matière pénales ou l'exécution de sanctions pénales (les autorités judiciaires, la police, toutes autres autorités répressives etc.), et tout autre organisme ou entité à qui le droit
d’un État membre confie l’exercice de l’autorité publique et des prérogatives de puissance publique aux fins de mettre en œuvre un traitement relevant de la présente directive (par exemple les services
internes de sécurité de la RATP et de la SNCF, les fédérations sportives agréées aux fins de sécurisation des manifestations sportives etc.). Voir https://www.cnil.fr/fr/directive-police-justice-de-quoi-parle-t 4 Risque inacceptable, risque très élevé, risque limité et risque minimal ou nul. Voir
https://digital-strategy.ec.europa.eu/fr/policies/regulatory-framework-ai5 Description des processus du responsable du déploiement, description de la période et de la fréquence de l’utilisation de l’IA,
catégories des personnes physiques ou groupes susceptibles d’être affectés, risques spécifiques de préjudices susceptibles d’affecter les catégories de personnes ou le groupe identifié,
description de la mise en œuvre des mesures de surveillance, mesures à prendre en cas de matérialisation de ces risques. Pour plus de détails : Article 29 bis : Évaluation de l'impact sur les droits fondamentaux des systèmes d'IA à haut risque | Loi européenne sur l'intelligence artificielle (artificialintelligenceact.eu)6 Des droits présents dans le RGPD ne se retrouvent pas dans la directive ou peuvent être assortis de limitations.7 Chiffres du graphique : vidéosurveillance (Rapport d'information n°1089 – 16e législature
Assemblée Nationale) ; heures de patrouille (Baromètre des résultats de l’action publique – 09/23) ; appels police-secours (rapport de la mission MARCUS – 12/19) ; véhicules (Rapport général
n° 163 – PLF 2022 – Sénat) ; TAJ (site internet CNIL) ; terminaux NEO (Le Parisien, 27/01/23).