KANBrief 4/22

La rencontre de l'intelligence artificielle et de la SST

Quelque 130 experts issus des milieux de la SST, de la recherche, de la normalisation et de la réglementation se sont rencontrés le 20 octobre à Paris à la 7e conférence d'EUROSHNET pour discuter des impacts de l'intelligence artificielle sur la sécurité et la santé au travail.

L’intelligence artificielle (IA) est présente aujourd’hui dans de nombreux domaines, que ce soit le transport et la logistique, l’industrie, l’agriculture, la santé, les ressources humaines ou encore les assurances. Ce qui manque toutefois à ce jour, c’est une définition claire et nette de l’intelligence artificielle. Raja Chatila, professeur émérite à l’Institut des Systèmes intelligents et de Robotique de l’Université de la Sorbonne à Paris, a souligné que cette définition devait être suffisamment large pour couvrir tous les systèmes d’IA actuels et futurs, mais qu’elle devait être en même temps assez étroite pour permettre de formuler des exigences concrètes auxquelles doivent répondre ces systèmes. Les applications d’IA ont en commun le fait qu’elles traitent de grandes quantités de données et en tirent des conclusions logiques à partir de modèles statistiques. Ce faisant, l’IA n’est toutefois capable de reconnaître ni la qualité ni le contexte de ces données, et est souvent une « boîte noire » dont les processus décisionnels ne sont pas compréhensibles pour les humains.

Qu'est-ce qui caractérise une bonne IA ?

Pour que l'IA soit acceptée par les humains et utilisée de manière responsable, elle doit être digne confiance. Un groupe d’experts de haut niveau dédié à l’IA au sein de la Commission européenne a élaboré des critères clés qui concrétisent la notion de fiabilité et qui doivent être remplis. On citera parmi eux le fait que c’est l’individu qui doit garder le contrôle des systèmes, que ceux-ci doivent être transparents, techniquement robustes et sûrs, garantir la protection des données et exclure toute discrimination et erreur systématique, et que la question de la responsabilité juridique doit être bien claire. Raja Chatila a également rappelé qu’il n’est pas possible de considérer l’IA de manière isolée, mais qu’il faut toujours la voir dans son contexte d’application, et donc en relation avec le système dans lequel elle est utilisée.

S’appuyant sur des exemples éloquents, André Steimers, professeur à l’université de Coblence, a montré comme il peut facilement arriver que l’IA tire des conclusions erronées. Cela peut s'expliquer par des données obsolètes ou non représentatives, mais il est parfois difficile, voire impossible pour l'individu de comprendre la raison de ces erreurs. Il faudrait alors se demander dans quelle mesure un système est fiable et quel degré d'automatisation on est prêt à accepter, surtout dans les domaines critiques pour la sécurité.

Sebastian Hallensleben, Président du comité commun CEN/CENELEC dédié à l’intelligence artificielle, a souligné l’importance de la contribution que peut apporter la normalisation pour la fiabilité de l’IA. Ce dont on a besoin, c’est d’une piste de solution qui soit praticable aussi bien par l’industrie que par les régulateurs et les consommateurs et qui permettent d’appréhender différents aspects. On pourrait par exemple envisager un label standardisé, tel ceux qui indiquent l’efficacité énergétique sur les appareils électriques. Ce label permettrait de s’informer d’un seul coup d’œil sur le degré de transparence, de compréhensibilité, de protection des données, de non-discrimination et de fiabilité d’un produit d’IA.

La nécessité d'un cadre réglementaire

Pour que l’IA soit utilisée en toute sécurité, il est indispensable que la réglementation européenne ne se laisse pas distancer par le progrès de la technique. Victoria Piedrafita, chargée, au sein de la Direction générale GROW de la Commission européenne, du projet de règlement sur les machines, a expliqué comment l’IA est prise en compte dans ce texte et comment celui-ci et le règlement sur l’IA s’imbriquent l’un dans l’autre. Ainsi, toutes les applications d’IA qui concernent des fonctions pertinentes pour la sécurité doivent être classées dans la catégorie de risques la plus élevée, pour laquelle une certification par un organisme notifié est obligatoire. Les risques qui apparaissent après la mise sur le marché en raison de l’auto-évolution des machines doivent être également pris en compte. Dans le cas contraire, les machines ne doivent pas être mises sur le marché, la sécurité étant un enjeu absolument prioritaire.

On ne sait pas encore exactement à l’heure actuelle dans quelle mesure le futur règlement sur l’IA sera applicable à des domaines qui concernent l’organisation de la prévention en entreprise ou des sujets relatifs à l’autonomie tarifaire. Antonio Aloisi, de l’IE University Law School à Madrid, a souligné que, dans de nombreuses tâches de management, des algorithmes remplacent aujourd’hui l’individu – ou tout au moins l’assistent : ils évaluent les CV, donnent des instructions de travail, mesurent les performances des salariés et ont même parfois un rôle à jouer dans les licenciements. Or, à ce jour, cela ne se reflète suffisamment ni dans la législation, ni dans les conventions collectives ou les évaluations de risques. Il faut remédier d’urgence à ces lacunes dans la réglementation. Plusieurs intervenants ont en outre souligné comme il est important que les données utilisées pour chacune des questions soient adéquates et équilibrées. Il peut sinon arriver que, lors de décisions automatisées, certaines catégories de personnes soient favorisées en fonction de leur sexe, de leur âge ou de leur couleur de peau.

Quelle doit être la rigueur de la réglementation ?

Lors de la table ronde finale, Isabelle Schömann (Confédération européenne des syndicats) a mis en garde sur le fait que, lors de la mise en place d'applications de l'IA, il ne fallait pas procéder selon la méthode essai-erreur. La législation européenne stipule clairement que les produits non sûrs sont inacceptables. Jörg Firnkorn (DEKRA) a plaidé en faveur d'un compromis : ce qu'il faut, c'est éviter tant une surréglementation qu’une sous-réglementation. Un risque calculé offre aussi la possibilité de tirer les leçons d’erreurs commises et d’améliorer la technique. Franck Gambelli (fédération patronale française UIMM) a établi un parallèle avec l’avènement de la robotisation, il y a 30 ans. Là aussi, il y a eu au départ de fortes réserves, qui ne se sont pas concrétisées. Ce qui est important, à son avis, c’est que la normalisation offre des aides concrètes pour la mise en œuvre. Christoph Preusse (BG Bois et Métal) a rappelé que les activités dans d’autres pays jouaient également un rôle pour l’Europe. La Chine et les États-Unis, par exemple, visent à élaborer des normes internationales qui touchent aussi des questions relatives à la conception des postes de travail. Les entreprises qui opèrent à l’échelle internationale ne sont pas disposées à faire la distinction entre diverses régions et à différencier leurs produits en conséquence.

Agir plutot que réagir

« Pratiquer la prévention, c'est être proactif. Nous, les préventeurs, ne pouvons pas nous contenter d'attendre de voir ce qui se passe, puis d'agir », a résumé dans son allocution finale la Présidente d'EUROSHNET Pilar Cáceres Armendáriz, de l'Institut espagnol de la sécurité et santé au travail (INSST). En ce sens, la conférence contribue de manière importante à ce que les différents cercles intéressés dialoguent, apprennent les uns des autres et réfléchissent ensemble à la manière dont l’intelligence artificielle peut être prise en compte le mieux possible dans la législation et dans la SST.

Sonja Miesner
miesner@kan.de

Michael Robert
robert@kan.de