Keine sichere Anwendung künstlicher Intelligenz ohne gute Normen!

Es ist gegenwärtig weder aus rechtlicher noch aus Normungssicht klar, welche Methoden der künstlichen Intelligenz (KI) unter welchen Bedingungen angeboten und verwendet werden dürfen. Sowohl die Europäische Kommission (EU-Kommission) als auch die Normungsorganisationen arbeiten mit Hochdruck daran, dieses Problem zu lösen.

Verordnungsvorschlag der EU-Kommission

Die EU-Kommission hat am 21. April 2021 einen Vorschlag für eine Verordnung zur künstlichen Intelligenz vorgelegt. Sie versucht damit, auf einen Schlag mehrere, nicht leicht miteinander vereinbare Ziele gleichzeitig zu erreichen:

  • zu definieren, welche Methoden und Konzepte überhaupt unter den Begriff der künstlichen Intelligenz fallen
  • zu vermeiden, dass aufgrund unterschiedlicher nationaler Vorschriften Handelshemmnisse innerhalb der Europäischen Union entstehen
  • möglichst viel Spielraum für Innovationen zu lassen – schließlich befindet sich die EU mit den USA und China im Wettbewerb
  • und all dies, ohne die europäischen Grundrechte zu beeinträchtigen

Aus Sicht der Prävention ist besonders bedeutsam, dass hier künftig Anforderungen an sicherheitsrelevante Systeme definiert werden, deren Verhalten nicht vorhersehbar ist. Die technischen Grundlagen und Annahmen, auf denen die traditionelle, deterministisch angelegte Sicherheitstechnik aufbaut, sind dafür nicht gemacht.

Als wichtiges Ziel wird in der Normungsroadmap Künstliche Intelligenz unter dem Stichwort ‚Safety-by-design‘ hervorgehoben, dass Qualitätsanforderungen an Systeme der künstlichen Intelligenz bereits bei der Konzeption der Anwendung berücksichtigt werden sollten.

Die EU-Kommission schlägt nun rechtliche Rahmenbedingungen vor, auf deren Grundlage Kriterien für ein akzeptables Risikoniveau entwickelt werden sollen. Dabei wird Sicherheit nicht vorwiegend durch nachprüfbare Produkteigenschaften definiert, sondern eher durch nachprüfbare Prozesskriterien. Solch ein Ansatz klingt ungewohnt, wird aber schon lange bei sehr komplexen Technologien angewendet, beispielsweise in der Nukleartechnik oder der Luft- und Raumfahrt, aber auch bei der Prüfung, ob Software für den sicherheitsrelevanten Einsatz geeignet ist.

Schlüsselrolle der Normung

Die Normung soll nach dem Verordnungsvorschlag einen sehr hohen Gestaltungsspielraum erhalten, denn ihr wird – wie im europäischen Binnenmarkt für die Produktsicherheit üblich – überlassen, die konkreten Kriterien auszuformulieren. Somit werden gegenwärtig nicht nur auf gesetzgeberischer, sondern auch auf technisch-normativer Ebene die entscheidenden Pflöcke für die Zukunft eingeschlagen. Dass dies kein einfaches Unterfangen ist, spiegelt sich auch in der sehr umfangreichen deutschen „Normungsroadmap Künstliche Intelligenz“ und der hohen Anzahl bereits laufender Normungsaktivitäten wider. Neben den rein nationalen sind vor allem die Aktivitäten auf europäischer und internationaler Ebene maßgeblich. Sie behandeln nicht zuletzt auch die allgemeinen Qualitäts- und Sicherheitsmaßstäbe beim Einsatz von künstlicher Intelligenz in Maschinen und Anlagen.

Ausgehend von der internationalen Norm ISO 31000 zum Risikomanagement wird beispielsweise in einem gemeinsamen technischen Komitee der beiden internationalen Normungsorganisationen ISO und IEC die ISO/IEC 23894 über das Risikomanagement für Organisationen, die künstliche Intelligenz anbieten oder verwenden, erarbeitet. In Projekten wie dem internationalen Technischen Bericht ISO/IEC TR 5469 wird versucht zusammenzustellen, was beim Einsatz künstlicher Intelligenz im Zusammenhang mit sicherheitsrelevanten Systemen beachtet werden sollte.

Als wichtiges Ziel wird in der Roadmap unter dem Stichwort „Safety-by-design“ hervorgehoben, dass Qualitätsanforderungen an Systeme der künstlichen Intelligenz bereits bei der Konzeption der Anwendung berücksichtigt werden sollten. Allerdings sind die Konzepte und Standards einer „Prüfbarkeit-by-design“ für Anwendungen der künstlichen Intelligenz zunächst noch ein mittelfristiger Forschungsgegenstand. Sie können daher auch nicht so schnell normativ aufgegriffen werden. Vorgesehen ist in der Normungsroadmap als Normungsthema auch die Zertifizierung von Betrieben – wie etwa Maschinenbaubetrieben, die künstliche Intelligenz einsetzen.

Prävention muss sich beteiligen

Insgesamt gilt es zu untersuchen und zu bewerten, inwieweit aktuelle Methoden der Risikobeurteilung ausreichend sind beziehungsweise welche Anforderungen durch aktuelle Normen, Standards und Technische Regeln noch nicht ausreichend adressiert werden.

Insgesamt gilt es zu untersuchen und zu bewerten, inwieweit aktuelle Methoden der Risikobeurteilung ausreichend sind beziehungsweise welche Anforderungen durch aktuelle Normen, Standards und Technische Regeln noch nicht ausreichend adressiert werden.

Aus diesem Grund muss die Welt der Prävention entscheiden, an welcher Stelle und wie intensiv ein Engagement der Arbeitsschutzfachleute in der Normung notwendig ist und wie dieses am besten koordiniert werden könnte. Das setzt aber voraus, dass klar benannt wird, welche Anwendungen der künstlichen Intelligenz tatsächlich arbeitsschutzrelevant sind oder künftig wahrscheinlich sein werden und welche Chancen und Risiken für den Arbeitsschutz damit verbunden sind.  

Zudem muss ein funktionierender Austausch zwischen den Arbeitsschutzfachleuten über deren Aktivität in Normungsfeldern stattfinden, in denen künstliche Intelligenz schon jetzt eine Rolle spielt oder künftig spielen könnte. Ganz wichtig ist auch die Identifikation von (neuen) Normungsprojekten, bei denen sich der Arbeitsschutz zukünftig einbringen sollte. Und nicht zuletzt braucht es Möglichkeiten, wie Arbeitsschutzfachleute zukünftig besser zusammenarbeiten können, um neue Entwicklungen nicht zu verpassen und diese im Sinne des Arbeitsschutzes mitzugestalten.

Fachgespräch der KAN

Hierzu führte die KAN im September 2020 ein Fachgespräch durch. Dort zeigte sich, dass nicht nur die eher technischen Herausforderungen wie etwa die Entwicklung neuer sicherheitstechnischer Ansätze für Risikobeurteilungen wichtig sind. Es gilt darüber hinaus, ergonomische und psychische Probleme zu berücksichtigen, die mit Anwendungen der künstlichen Intelligenz entstehen können. Dazu gehören die Folgen fehlender Entscheidungsspielräume, zu starke Arbeitserleichterung oder Arbeitsverdichtung oder auch neuartige Mensch-Maschine-Schnittstellen. Zudem kann es auch sozialpolitisch kritische Aspekte geben wie etwa Datensammlung für das Personalmanagement. Das heißt, dass auch bei gegenwärtig zu aktualisierenden Normen, etwa zu psychischen Arbeitsbelastungen, oder neuen Normen über Personalmanagement Entwicklungen berücksichtigt werden müssen, die die künstliche Intelligenz erst möglich macht.

Die Welt der Prävention muss entscheiden, an welcher Stelle und wie intensiv ein Engagement der Arbeitsschutzfachleute in der Normung notwendig ist und wie dieses am besten koordiniert werden könnte.

Die Teilnehmenden unterstrichen auch, dass Erfolg bei der Normungsarbeit einen langen Atem und regelmäßige Mitarbeit voraussetzt. Dafür ist Rückhalt auch von den (politischen) Entscheidungsträgern der Prävention notwendig, um über die erforderlichen zeitlichen und finanziellen Ressourcen zu verfügen. Es wird – wie in anderen Normungsfeldern auch – immer deutlicher, dass Normungsprojekte nur dann effektiv beeinflusst werden können, wenn sich Arbeitsschutzfachleute nicht nur national, sondern direkt auf internationaler Ebene einbringen. Dies bindet Ressourcen, da Präsenzsitzungen es den Beteiligten erleichtern, sich kennenzulernen, Vertrauen zueinander zu fassen, schwierige Fragen zu klären und folgenreiche Entscheidungen zu treffen. Andererseits ist davon auszugehen, dass der Anteil virtueller Sitzungen auch künftig deutlich höher bleiben wird als vor der COVID-19-Krise, sodass es selbst ressourcenschwächeren Interessengruppen leichter möglich sein sollte, sich direkt international einzubringen.

Weitere Informationen:

https://www.baua.de/DE/Aufgaben/Forschung/Schwerpunkt-Digitale-Arbeit/Arbeitsschutz-und-Digitalisierung/Normungs-und-Regierungslandkarte_node.html

Erläuterungen und Grafiken der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) zu wichtigen Richtlinien, Technischen Regeln, Normen, Standards und offiziellen Strategiepapieren. Es wird dabei auch aufgezeigt, welche Gremien auf nationaler und europäischer Ebene aktiv sind.


https://www.din.de/de/forschung-und-innovation/themen/kuenstliche-intelligenz/fahrplan-festlegen

Webseite von DIN (Deutsches Institut für Normung) mit "Deutscher Normungsroadmap Künstliche Intelligenz"


https://www.kan.de/arbeitsgebiete/kuenstliche-intelligenz

Webseite der Kommission Arbeitsschutz und Normung (KAN) mit Link auf einen in der Zeitschrift "Arbeitsschutz in Recht und Praxis (ARP)" veröffentlichten Artikel, der Hinweise und Anregungen enthält, unter welchen Voraussetzungen sicherheitsrelevante Funktionen einer Maschine von Methoden der künstlichen Intelligenz beeinflusst oder automatisiert ausgeführt werden dürfen.