Sopra Steria s'engage en faveur d'une IA de confiance normée en Europe

| minutes de lecture

Portée par les avancées technologiques, l’essor de l’Intelligence Artificielle (IA) ne se dément pas. Tout le monde utilise ou connaît, d'une manière ou d'une autre, des services et produits enrichis d'IA. Il s’agit notamment de traduction simultanée, de recommandation de vidéos, de véhicule autonome, de contrôle du réseau électrique, de gestion du trafic, de lecture de clichés radiologiques…

Pourtant le déploiement à l’échelle de systèmes à base d’IA reste quand même limité pour deux raisons essentielles. La première c’est la confiance que l’on peut accorder à ces systèmes. La seconde c’est le niveau d’industrialisation que l’on peut leur procurer. La confiance implique que l'IA soit techniquement protégée contre les cyberattaques, qu'elle respecte les règles éthiques (équité, vie privée, non-discrimination, etc.) et qu'elle soit explicable et transparente dans la mesure du possible.

Dans des systèmes critiques où la confiance est essentielle, il est absolument indispensable de pouvoir offrir un ensemble d’outils. Le collectif du programme Confiance.ai rassemble 13 partenaires fondateurs industriels et académiques de premier plan dont Sopra Steria et, plus largement, un écosystème de près de 50 partenaires incluant des startups et PME. L’un de ses grands objectifs est précisément de proposer cet ensemble d’outils permettant non seulement de concevoir, mais également de valider, de certifier et d’expliquer. C’est l’objectif-même de l’environnement de confiance que Sopra Steria fournit.

Ainsi, Sopra Steria, l’un des leaders européens de la Tech, est fier que le programme Confiance.ai, en collaboration avec un consortium allemand conduit par VDE, l’une des plus importantes organisations technologiques d’Europe basée en Allemagne, annoncent un Memorandum of Cooperation (MoC). Cette alliance vise à soutenir le futur règlement européen sur l’intelligence artificielle (AI Act), en créant courant 2023 un label commun franco-allemand sur l’IA de confiance et responsable qui sera étroitement lié aux futures normes harmonisées.

Cette coopération ambitionne de fournir les lignes directrices et spécifications pour les applications d’IA et de préparer les écosystèmes à se mettre en ordre de marche en vue du respect de l’AI Act. Concrètement, ces acteurs clés en France et en Allemagne proposeront un référentiel commun sur l’IA de confiance. À terme, cela accélérera le "time-to-market", notamment en faveur des PME et ETI qui disposeront de solutions qu'elles n'auraient pas pu développer toutes seules.

Search