KANBrief 4/19

La SST à l’ère de l’intelligence artificielle

La prise de décision automatisée est de mieux en mieux acceptée. Aujourd’hui, l’apprentissage automatique permet même aux managers de prendre des décisions concernant le personnel à partir d’informations détaillés et présélectionnées de façon algorithmique. Étant donné qu’il s’agit d’une technologie pionnière totalement nouvelle, il est important de garder à l’esprit non seulement ses avantages pour les employés, mais aussi les inconvénients et les défis qu’elle représente pour la SST.

Le terme d’intelligence artificielle (IA) est apparu dans les années 1950, lorsque des chercheurs ont entrepris de faire en sorte qu’une machine se comporte comme un être humain intelligent. À cette époque, la notion d’intelligence était associée à l’usage du langage, à l’élaboration d’idées et à la capacité de s’améliorer soi-même et de résoudre des problèmes initialement « réservés à l’être humain » (McCarthy, J., Minsky, M. L., Rochester, N., Shannon, C. E., 1955, ‘A proposal for the Dartmouth Summer Research Project on Artificial Intelligence’).

Au début, la recherche sur l’IA était essentiellement expérimentale et se concentrait surtout sur l’invention de robots. Avec le temps, les « réseaux neuronaux » et la puissance de calcul des ordinateurs ont joué un rôle de plus en plus important. Des capacités de mémoire en constante augmentation et des algorithmes toujours plus sophistiqués promettent aujourd’hui une meilleure IA. Les outils et applications de l’IA trouvent actuellement de plus en plus leur place dans la société et les institutions, de la médecine à l’aide sociale et, de plus en plus souvent, également sur les lieux de travail.

L’IA au travail

Il existe diverses possibilités de mettre à profit les applications de l’IA pour obtenir des postes de travail modernes et des gains de productivité. La mise en place de l’IA aux postes de travail engendre toutefois aussi des questions importantes en matière de SST. Stress, discrimination due à des bases de données inappropriées (p.ex. préjugés ethniques et/ou de genre), inquiétude croissante, perspectives d’une intensification du travail ou de pertes d’emploi, et même troubles musculo-squelettiques peuvent déjà être sources de risques psychosociaux aux postes de travail numériques (Cf. “OSH and the future of work). Ces risques s’aggravent encore lorsque l’IA est intégrée – pour les compléter – dans des technologies existantes qui n’ont pas été conçues pour cette interaction, ou qu’elle est mise en place sans réflexion critique suffisante, à des fins de management et de conception des postes de travail.

Des experts des autorités européennes en matière de SST ont constaté que la collecte des données relatives au personnel comme base de décision dans les analyses, outils et applications basées sur l’IA constitue aujourd’hui l’un des problèmes les plus urgents sur les lieux de travail. Souvent, les utilisateurs ne sont tout simplement pas conscients de la manière dont ce type d’outils de gestion peuvent être utilisés. Les risques tels que le stress chez les employés ou des pertes d’emplois (générées par exemple par un management automatisé des ressources humaines) peuvent survenir quand des technologies basées sur l’IA sont mises en place sans consultation, formation et communication adéquates.

Un sujet pour la normalisation

En réponse à certains de ces problèmes, un comité de l’Organisation internationale de normalisation (ISO TC 260) travaille depuis 2018 à une norme relative à l’utilisation sur les lieux de travail de tableaux de bord de management et de systèmes d’indicateurs de performance basés sur l’IA 1. La norme contient des règles relatives à la collecte et à l’utilisation de données sur les employés, ainsi qu’à la structure des tableaux de bord de management sur lesquels les données sont visibles et exploitables. Les outils de collecte des données deviennent de plus en plus intéressants, surtout pour les multinationales. Une base de données homogène et standardisées reposant sur les indicateurs en question est la condition essentielle du bon fonctionnement d’une IA.

Des représentants du fabricant du logiciel utilisé pour la standardisation des données participent aux discussions de l’ISO. Les indicateurs relatifs aux actions en matière de SST, tout comme l’usage inapproprié d’outils de l’IA étant susceptibles d’avoir un impact important sur la SST, il serait souhaitable d’impliquer également des représentants des praticiens et des partenaires sociaux.

Les normes internationales peuvent contribuer à ce que le potentiel de l’apprentissage automatique contrôlé par l’IA soit réellement exploité. Il faut pour cela faire en sorte que les opérations effectuées dans une entreprise soient, dans une certaine mesure, comparables au niveau international, et rendre les données standardisables. Il est important de veiller à ce que des praticiens des entreprises et des préventeurs participent aux discussions et au processus de mise en œuvre, pour que ces processus soient non seulement fonctionnels, mais aussi humains.2

Assoc Prof Dr Phoebe V Moore
University of Leicester / Social Science Center Berlin (WZB)
Pm358@leicester.ac.uk

1 Systèmes d’information sur écran pour la présentation des indicateurs d’entreprise à l’intention du management, incluant les indicateurs relatifs à la SST.
2 Rolf Jaeger, Communication et négociation interculturelles des partenaires sociaux européens