KANBrief 2/22

L’intelligence artificielle dans le contexte de la sécurité fonctionnelle

L’ISO/CEI élabore actuellement un Rapport technique qui, pour la première fois, définit les bases pour le développement et le contrôle des fonctions de sécurité basées sur l’IA.

L’intelligence artificielle (IA) fait actuellement l’objet d’une attention particulière: considérée comme l’une des technologies clé de l’avenir, elle est en effet déjà utilisée aujourd’hui comme base de nombreuses innovations techniques.

Reconnaissant, elle aussi, l’importance de cette technologie, la Commission européenne a présenté en avril 2021 un premier projet de nouveau règlement sur l’utilisation de l’intelligence artificielle. Dès que ce règlement entrera en vigueur, un fort besoin se fera sentir de concrétiser dans des normes et standards internationaux les exigences qui y seront définies.

La place de l’intelligence artificielle dans le domaine de la sécurité fonctionnelle n’a, jusqu’à présent, pas été encore abordée – ou bien seulement de manière totalement insuffisante. On ne trouve par exemple dans la norme de base de la sécurité fonctionnelle CEI 615081 aucune information exploitable sur l’utilisation de l’IA dans le contexte de la sécurité fonctionnelle, et il n’est à ce jour pas prévu d’intégrer ce sujet dans le contenu de cette norme actuellement en cours de révision.

Le TR 5469, passerelle entre l’IA et la sécurité

Une piste de solution pour pallier cette lacune est actuellement élaborée par le groupe de travail ISO/IEC JTC 1 SC 42 WG3, en collaboration avec des spécialistes du groupe de travail IEC SC65A responsables de la norme CEI 61508. Ils rédigent ensemble le Rapport technique ISO/IEC TR 5469 « Artificial intelligence – Functional safety and AI systems ». Étant donné qu’il est d’ores et déjà prévu de l’utiliser comme base pour d’autres documents normatifs, notamment les spécifications techniques, ce rapport revêt donc une grande importance. Sa parution est actuellement prévue pour la mi-2022.

Le rapport technique vise à sensibiliser davantage aux caractéristiques, aux facteurs de risques pour la sécurité, aux méthodes disponibles et aux limites potentielles de l’intelligence artificielle. Les concepteurs de systèmes ayant une incidence sur la sécurité doivent être ainsi en mesure d’utiliser de manière adéquate l’intelligence artificielle comme faisant partie intégrante des fonctions de sécurité. Il est également prévu que le document fournisse des informations sur les défis et pistes de solution concernant la sécurité des systèmes utilisant l’intelligence artificielle.

Pour cela, le TR 5469 fournit d’abord au chapitre 5 un aperçu des relations qui existent entre sécurité fonctionnelle et les technologies de l’intelligence artificielle. Le chapitre 6 tente ensuite de donner un aperçu qualitatif des différents niveaux de risque pour la sécurité des systèmes d’IA. L’évaluation de ces niveaux repose sur la combinaison de ce qu’on appelle les « classes technologiques d’IA » et des différents niveaux d’utilisation.

Les niveaux d’utilisation se distinguent par leur influence potentielle sur la fonction de sécurité. C’est ainsi, par exemple, que les systèmes dans lesquels l’intelligence artificielle est utilisée à l’intérieur d’une fonction de sécurité sont considérés comme très critiques. Si, en revanche, l’intelligence artificielle est utilisée lors de la phase de développement d’une fonction de sécurité, cela est considéré comme moins critique. Le risque réel émanant du système dans son ensemble et de son application n’entre toutefois absolument pas en ligne de compte.

La classification du deuxième critère d’évaluation, à savoir la classe technologique d’IA, se base par ailleurs uniquement sur la conformité avec des normes existantes ou futures relatives à la sécurité fonctionnelle. Ce critère est très controversé, ce Rapport technique évoquant précisément la problématique selon laquelle les normes actuelles relatives à la sécurité fonctionnelle ne font pas encore état de l’intelligence artificielle. La répartition en différentes classes technologiques ne s’effectue pas sur la base des spécificités de la technologie en question, celles-ci n’ayant, au contraire, aucun rôle à jouer en l’occurrence.

Le chapitre 8 pourrait ici offrir un instrument plus efficace pour évaluer les différentes classes technologiques d’IA et les risques associés. Ce chapitre traite non seulement de l’utilisation sûre et fiable des systèmes d’IA, mais aborde aussi les spécificités des systèmes d’IA modernes, et présente les risques et les défis qui en découlent. Il est par exemple difficile d’évaluer complètement un système basé sur l’apprentissage profond, système qu’il est impossible de décrire totalement en raison de son extrême complexité.

Les chapitres 9, 10 et 11 examinent les solutions possibles à ces défis et risques, basées sur des mesures adéquates de vérification et de validation, ainsi que des procédures et des méthodes, mais aussi des mesures de contrôle et de diminution des risques. Le chapitre 7 décrit en outre un procédé permettant d’utiliser la technologie de l’IA dans les systèmes ayant une incidence sur la sécurité et pour lesquels les normes existantes relatives à la sécurité fonctionnelle ne sont pas applicables.

Dans l’ensemble, l’ISO/IEC TR 5469 fournit déjà de nombreuses informations sur l’utilisation de l’intelligence artificielle dans le contexte de la sécurité fonctionnelle dans le domaine d’application de la norme CEI 61508. La présentation, en particulier, des risques spécifiques à l’IA et des méthodes propre à réduire ces risques constitue une précieuse contribution au débat dans ce domaine. D’autres concepts doivent toutefois encore faire l’objet d’une discussion critique. Un rapport consacré spécifiquement aux applications dans le secteur automobile est en cours d’élaboration.

1 Série de normes CEI 61508 : Sécurité fonctionnelle des systèmes électriques / électroniques programmables relatifs à la sécurité

Dr André Steimers
andre.steimers@dguv.de

Thomas Bömer
thomas.boemer@dguv.de

Institut pour la sécurité et la santé au travail de la DGUV (IFA)