par Boris Laurent - Expert Défense et Sécurité, Sopra Steria Next
par Quentin Huleux - Expert Défense et Sécurité, Sopra Steria Next
par Paul Robert - Expert Défense et Sécurité, Sopra Steria Next
| minutes de lecture

Le recours à l’intelligence artificielle au service de la sécurité nationale fait l’objet de nombreux débats. Si les forces de sécurité intérieure (FSI) commencent à intégrer l’IA dans leurs activités au service de notre sûreté collective, l’enjeu majeur reste de conserver un usage transparent et proportionné de cette technologie. Alors, comment concilier éthique et sécurité dans le cadre du recours à l’IA par les forces de l’ordre ?

Face à des difficultés structurelles dans les services et à l’émergence d’attaques protéiformes, nos forces de l’ordre sont appelées à développer de nouvelles méthodes de travail, plus adaptées et efficaces, pour répondre à la menace, comme le souligne le dernier rapport de la Cour des Comptes. Le recours à de nouvelles technologies innovantes telles que l’intelligence artificielle apparaît ainsi comme l’une des pistes de réflexion majeure pour améliorer l’efficacité mais aussi les conditions de travail des FSI.

Si les applications de l’IA au service de la sécurité intérieure n’en sont en effet qu’à leur début, nul doute que cette technologie en constante évolution sera l’un des leviers essentiels pour renforcer notre sûreté collective. Depuis quelques années, l’IA est déjà intégrée dans de nombreux outils opérationnels, tel que le programme « Sigma-Tau ». Lancé en 2016 par la Police nationale, ce programme permet un traitement rapide et massif des vidéos de surveillance dans le cadre d’enquêtes sensibles : analyse des mouvements, lecture automatique de plaques d’immatriculation, détection de mouvements anormaux, etc. Pour l’affaire Merah, le traitement des 10 000 heures de vidéosurveillance aurait nécessité la mobilisation d’un agent durant plus d’un an et demi de travail… contre seulement quelques heures pour l’algorithme. De manière plus générale, l’IA offrira dans un futur proche des très nombreuses opportunités comme l’assistance des gendarmes et des policiers français dans la traduction en temps réel des interrogatoires, leur retranscription automatique, la maintenance prédictive du parc automobile de la Police, etc.

Malgré des gains d’efficacité conséquents, les Français restent mesurés. Si 68% d’entre eux considèrent que l’IA pourrait en effet renforcer l’efficacité des forces de l’ordre, 53% estiment également que cette technologie pourrait représenter un biais et favoriser des erreurs d’appréciation et de jugement. L’utilisation de l’IA par les FSI suscite à ce titre une certaine inquiétude - qui peut être légitime - chez nombre de nos concitoyens. Culturellement, la France et les pays européens ne sont pas des sociétés de surveillance, comme la Chine, qui n’hésite pas à recourir largement à l’IA pour surveiller massivement la population.

À ce titre, il est essentiel de rappeler que le cadre réglementaire franco-européen en matière de protection des données des utilisateurs et du public est l’un des plus protecteurs au monde. En France, la Loi informatique et libertés encadre l’utilisation de l’IA par les FSI. Ces dernières doivent par exemple coopérer avec l’autorité de contrôle, à la demande de celle-ci. Par ailleurs, la loi IA européenne établit une classification des risques associés aux systèmes d'IA et définit les mesures à prendre pour chaque niveau associé, comme l’analyse d’impact sur les droits fondamentaux. D’autre part, la notion de proportionnalité est fondamentale ; il faut savoir mesurer si l’usage de l’IA est justifié selon le contexte, et selon le type de données mobilisées. Enfin, les systèmes d’IA utilisés doivent être des outils souverains, français ou européens, afin de garantir une gestion et un suivi éthique des données personnelles, y compris dans le temps.

Ce cadre légal couplé à une stratégie claire et sans ambiguïté assurant la transparence et la proportionnalité du recours à l’IA par les forces de l’ordre est essentiel pour garantir l’acceptabilité sociale. Il permet de trouver un juste équilibre, pour une utilisation éthique, raisonnée et raisonnable de la technologie au service de notre sécurité intérieure. Comme le souligne le rapport de la Cour des comptes, les innovations numériques comme l’IA doivent avant tout avoir pour objectif « d’améliorer l’efficience des forces de sécurité et non de les remplacer ». L’IA doit ainsi être considérée, non pas comme une solution unique qui répondrait à tous les problèmes, mais bien comme une technologie permettant d’améliorer l’efficacité des 250 000 femmes et hommes qui assurent au quotidien notre sécurité.

Search

next

digital-transformation

innovation

artificial-intelligence

Contenus associés

La technologie au service de la lutte contre l’analphabétisme

Comment Norad et Sopra Steria utilisent l'IA et la technologie cloud pour lutter contre l'analphabétisme infantile. 

TradSNCF : L’IA au service des agents de gare pour l’accueil des voyageurs

Découvrez TradSNCF, l'outil de traduction de la SNCF alimenté par l'IA qui améliore l'expérience voyage de millions de passagers du monde entier.

L’IA au service des collaborateurs d’EDF

EDF, leader mondial de la production d’énergie bas carbone, souhaitait déployer un système innovant qui libère le potentiel de son équipe de support IT et améliore sa qualité de service. La solution : AMY.