KANBrief 4/22

Künstliche Intelligenz trifft Arbeitsschutz

Rund 130 Fachleute aus Arbeitsschutz, Forschung, Normung und Regelsetzung kamen am 20. Oktober zur 7. EUROSHNET-Konferenz in Paris zusammen, um über die Herausforderungen von Künstlicher Intelligenz für den Arbeitsschutz zu diskutieren.

Künstliche Intelligenz kommt heute bereits in zahlreichen Bereichen zum Einsatz. Dazu zählen Transport und Logistik, der Industriesektor, die Landwirtschaft, das Gesundheitswesen, das Personalwesen und Versicherungen. Was jedoch bisher fehlt, ist eine eindeutige Definition von Künstlicher Intelligenz. Raja Chatila, emeritierter Professor am Institut für intelligente Systeme und Robotik an der Pariser Universität Sorbonne, machte deutlich, dass es eine Definition braucht, die breit genug ist, um alle heutigen und künftigen KI-Systeme abzudecken. Gleichzeitig sollte sie so eng gefasst sein, dass daraus konkrete Anforderungen an die Systeme formuliert werden können. KI-Anwendungen haben gemeinsam, dass sie große Datenmengen verarbeiten und anhand statistischer Modelle daraus logische Schlüsse ziehen. KI erkenne dabei aber weder die Qualität noch den Kontext der Daten und sei oft eine „Black Box“, deren Entscheidungsprozesse für Menschen nicht nachvollziehbar sind.

Was zeichnet gute KI aus?
Damit Künstliche Intelligenz von Menschen akzeptiert wird und verantwortungsvoll eingesetzt werden kann, muss sie vertrauenswürdig sein. Eine hochrangige Expertengruppe der EU-Kommission zum Thema KI hat Kriterien erarbeitet, die den Begriff der Vertrauenswürdigkeit konkretisieren und die erfüllt sein müssen. Dazu gehört unter anderem, dass der Mensch die Kontrolle behalten muss, die Systeme transparent, technisch robust und sicher sind, den Datenschutz gewährleisten, Diskriminierung und systematische Fehler ausschließen und dass die rechtliche Verantwortlichkeit geklärt ist. Raja Chatila wies zudem darauf hin, dass man die KI nicht isoliert betrachten kann, sondern sie immer im Anwendungskontext sehen muss, also im Zusammenhang mit dem System, in dem sie eingesetzt wird.

Anhand eindrücklicher Beispiele zeigte André Steimers, Professor an der Hochschule Koblenz, wie schnell es passieren kann, dass KI falsche Schlüsse zieht. Dies kann an veralteten oder nicht repräsentativen Daten liegen. Teilweise ist der Grund für diese Fehler für Menschen aber auch gar nicht oder nur sehr schwer nachzuvollziehen. Man müsse sich daher fragen, wie verlässlich ein System ist und welchen Automatisierungsgrad man vor allem in sicherheitskritischen Bereichen bereit ist, zuzulassen.

Sebastian Hallensleben, Vorsitzender des CEN/CENELEC-Gemeinschaftsausschusses für Künstliche Intelligenz, machte deutlich, welch wichtigen Beitrag die Normung für die Vertrauenswürdigkeit von KI leisten kann. Nötig sei ein Lösungsansatz, der sowohl für die Industrie als auch für Regelsetzer und Verbraucher praktikabel ist und der verschiedene Aspekte nachvollziehbar macht. Denkbar sei etwa ein standardisiertes Label, wie man es von Elektrogeräten für die Energieeffizienz kennt. Aus dem Label wäre auf einen Blick ersichtlich, welchen Grad an Transparenz, Nachvollziehbarkeit, Datenschutz, Fairness und Verlässlichkeit ein KI-Produkt bietet.

Regulatorischer Rahmen erforderlich
Für den sicheren Einsatz von KI ist es unerlässlich, dass die europäische Regelsetzung mit den technischen Entwicklungen Schritt hält. Victoria Piedrafita, die bei der Generaldirektion GROW der Europäischen Kommission mit der geplanten Maschinenverordnung befasst ist, erläuterte, wie Künstliche Intelligenz darin berücksichtigt wird und wie sie mit der KI-Verordnung ineinandergreift. So sollen sämtliche KI-Anwendungen, die sicherheitsrelevante Funktionen betreffen, in die höchste Risikokategorie fallen, für die eine Zertifizierung durch eine notifizierte Stelle zwingend vorgeschrieben ist. Auch Gefährdungen, die erst nach dem Inverkehrbringen entstehen, weil sich Maschinen selbst weiterentwickeln, müssen mit berücksichtigt werden. Andernfalls dürfen die Maschinen nicht in Verkehr gebracht werden, da Sicherheit oberste Priorität habe.

Unklar ist derzeit noch, inwieweit die geplante KI-Verordnung auf Einsatzbereiche anwendbar ist, die den betrieblichen Arbeitsschutz oder Themen der Tarifautonomie betreffen. Antonio Aloisi von der IE University Law School in Madrid machte deutlich, dass bei vielen Führungsaufgaben inzwischen Algorithmen den Menschen ersetzen oder ihn zumindest unterstützen: Sie werten Lebensläufe aus, geben Arbeitsanweisungen, messen die Leistung der Beschäftigten und haben teils sogar Einfluss bei Entlassungen. Dies spiegele sich jedoch bisher weder in der Gesetzgebung noch in Tarifverträgen oder Gefährdungsbeurteilungen ausreichend wider. Diese Regelungslücken müssten dringend geschlossen werden. In mehreren Beiträgen wurde zudem deutlich, wie wichtig es ist, dass die Daten für die jeweilige Fragestellung geeignet und ausgewogen sind. Andernfalls könne es passieren, dass bestimmte Personengruppen je nach Geschlecht, Alter oder Hautfarbe bei automatisierten Entscheidungen bevorzugt werden.

Wie streng muss die Regelsetzung sein?
Isabelle Schömann (Europäischer Gewerkschaftsbund) mahnte in der abschließenden Podiumsdiskussion, dass man bei der Einführung von KI-Anwendungen nicht nach dem Prinzip von Versuch und Irrtum verfahren dürfe. Die europäische Gesetzgebung lege ganz klar fest, dass unsichere Produkte nicht hinnehmbar sind. Jörg Firnkorn (DEKRA) plädierte für einen Mittelweg: Sowohl Über- als auch Unterregulierung gelte es zu vermeiden. Ein kalkuliertes Risiko eröffne auch die Möglichkeit, aus Fehlern zu lernen und die Technik zu verbessern. Franck Gambelli (französischer Arbeitgeberverband UIMM) zog eine Parallele zur zunehmenden Robotisierung vor 30 Jahren. Auch hier habe es anfangs große Bedenken gegeben, die sich nicht verwirklicht hätten. Wichtig sei aus seiner Sicht, dass die Normung konkrete Umsetzungshilfen bietet. Christoph Preuße (Berufsgenossenschaft Holz und Metall) wies darauf hin, dass auch die Aktivitäten anderer Länder für Europa eine Rolle spielen. So würden etwa China und die USA die Erarbeitung internationaler Normen anstreben, die auch Fragen der Arbeitsplatzgestaltung berühren. International tätige Unternehmen werden nicht bereit sein, zwischen verschiedenen Regionen zu unterscheiden und ihre Produkte entsprechend zu differenzieren.

Agieren statt reagieren
„Prävention bedeutet vorausschauendes Handeln. Als Arbeitsschützer können wir nicht einfach abwarten, was passiert und erst dann reagieren“, resümierte die EUROSHNET-Vorsitzende Pilar Cáceres Armendáriz vom spanischen Arbeitsschutzinstitut INSST in ihrem Schlusswort. Insofern leiste die Konferenz einen wichtigen Beitrag dazu, dass die verschiedenen interessierten Kreise miteinander ins Gespräch kommen, voneinander lernen und gemeinsam ausloten, wie Künstliche Intelligenz in Gesetzgebung und Arbeitsschutz bestmöglich berücksichtigt werden kann.

Sonja Miesner
miesner@kan.de

Michael Robert
robert@kan.de