Möglichkeiten und Grenzen von künstlicher Intelligenz in der Arbeitswelt

Künstliche Intelligenz verspricht in verschiedenen Lebens- und Arbeitsbereichen für den Menschen Aufgaben zu erleichtern, zu ersetzen oder sicherer zu machen. Damit hat sie das Potenzial, auch in der Prävention gewinnbringend zu unterstützen. Der Beitrag behandelt die Möglichkeiten und Grenzen des Einsatzes von künstlicher Intelligenz.

Künstliche Intelligenz (KI) steht als Sammelbegriff für automatisierte Systeme, die auf Basis simulierter menschlicher Intelligenz Probleme lösen können. Das Konzept der künstlichen Intelligenz ist nicht neu,[1] hat aber durch die zunehmende Technologisierung aller Lebensbereiche eine neue Dynamik erhalten, die sich in der Verfügbarkeit und Menge generierbarer Daten, steigenden Rechenleistungen und -kapazitäten sowie in den Möglichkeiten digitaler Datenerfassung und -auswertung begründet.[2]

Die Frage, was künstliche Intelligenz überhaupt ist, wird im öffentlichen Diskurs relativ weit gefasst und aktuell noch unscharf beantwortet.[3] Technisch meint künstliche Intelligenz eine Reihe von Systemen, die sich teilweise stark unterscheiden

  • in der Art, wie Schlussfolgerungen generiert werden,
  • in der Einbettung menschlicher Wissens- und Verhaltensregeln in die Systeme,
  • in der Art, wie die Systeme trainiert werden, sowie
  • in ihrer Leistungsfähigkeit.[4]

Dabei verfügt die derzeit überwiegend eingesetzte künstliche Intelligenz nur über eine schwache Ausprägung. Im Gegensatz zu starker künstlicher Intelligenz, die den intellektuellen Fertigkeiten des Menschen gleichwertig oder überlegen ist, löst die schwache künstliche Intelligenz Probleme in bestimmten Anwendungsdomänen (etwa Navigation, Texterkennung).

Diese finden sich in den unterschiedlichsten Anwendungen in Form von Suchalgorithmen, Apps, Robotern oder intelligenten Fahrassistenten. In verschiedenen Bereichen zeichnet sich bereits ab, dass schwache künstliche Intelligenz Steuerungsprozesse unterstützen und in Teilen übernehmen kann. Potenziell eignet sich künstliche Intelligenz für repetitive und standardisierte Aufgaben wie das Auslesen und Auswerten von Daten oder die Überprüfung einfacher Aufgaben, als Assistenz bei der Auswertung von Texten oder Bildmaterial sowie bei schweren und gefährlichen Aufgaben. Hier kann künstliche Intelligenz Daten vorsortieren, Tätigkeiten teilweise übernehmen oder etwa Wartungshinweise für Maschinen rechtzeitig vorhersagen.

Möglichkeiten von künstlicher Intelligenz in der Prävention

Künstliche Intelligenz kann in unterschiedlichen Bereichen der Arbeitswelt dazu beizutragen, im Zusammenhang mit der Tätigkeit auftretende Gefahren zu reduzieren. Beispielsweise indem belastungs- und unfallintensive Tätigkeiten durch künstliche Intelligenz assistiert oder vollständig ohne den Menschen ausgeführt werden oder indem verschiedene Akteurinnen und Akteure bei der Organisation des Arbeitsschutzes unterstützt werden. Die Datengrundlage solcher KI-gestützten Systeme bilden dabei individuelle Beschäftigtendaten, Daten aus der Arbeitsorganisation, Tätigkeitsdaten, Daten des Arbeitsmittels sowie Daten bezogen auf die Arbeitsumgebung.[5]

In der Intralogistik können KI-basierte Assistenzsysteme zum Beispiel im Kontext von Unfallprävention zur Verhinderung von Verkehrsunfällen in Lagerhallen eingesetzt werden. Dabei wird zwischen Gefahrenquellen (Objekte, Personen) differenziert und entsprechende Warnhinweise werden an das Bedienpersonal weitergegeben.[6]

Künstliche Intelligenz kann dazu eingesetzt werden, Arbeitsabläufe zu rationalisieren oder Sicherheitskonzepte zu verbessern, beispielsweise unterstützend für den gesamten Prozesszyklus der Gefährdungsbeurteilung: So können etwa spezifische Arbeitssituationen auf der Basis von Datenpools mit Informationen zu typischen Gefährdungssituationen analysiert und bewertet werden und bilden damit die Grundlage zur Erstellung einer teilautomatisierten Gefährdungsbeurteilung.[7] Werden in dem entsprechenden Arbeitsbereich durch den Einsatz von Sensortechnologie zudem große Echtzeitdatenmengen generiert, können mithilfe künstlicher Intelligenz Vorhersagen zu sich veränderten Arbeitsbedingungen gemacht werden, etwa bevor Ermüdung, Verletzungen oder Exposition beispielsweise gegenüber toxischen Substanzen eintreten. Diese Informationen können dazu verwendet werden, die Gefährdungsbeurteilung in Echtzeit zu aktualisieren oder um mögliche Maßnahmen unmittelbar an Beschäftigte zu melden[8].

In der Arbeitsmedizin haben KI-gestützte Gesundheitsanwendungen beachtenswertes Potential, Teilbereiche von Prävention, Diagnostik und Beratung zu unterstützen. So können etwa in bestimmten Risikoberufen solche Verfahren eingesetzt werden, um Vorscreenings von Hauterkrankungen oder das Selbst-Monitoring bestimmter Vitaldaten durch die Beschäftigten zu ermöglichen.[9]

Unterstützung bei den Kernaufgaben der gesetzlichen Unfallversicherung

Neben der innerbetrieblichen Ebene des Arbeitsschutzes hat künstliche Intelligenz auch das Potenzial, die gesetzliche Unfallversicherung umfassend bei der Erledigung ihrer Kernaufgaben zu unterstützen: So werden bereits heute bei verschiedenen Unfallversicherungsträgern Anwendungen bei der Aufsichtstätigkeit der Präventionsdienste eingesetzt, die beispielsweise die Suche von Unternehmen in der Umgebung der Aufsichtsperson, die Identifizierung unfallanfälliger Unternehmen, den Zugriff auf präventionsrelevante Informationen oder die Besichtigungsberichtserstellung erleichtern.[10]

Bei der Berufsgenossenschaft Energie Textil Elektro Medienerzeugnisse (BG ETEM) kommt eine KI-basierte Methode zur Prüfung möglicher Rückforderungen bei der Beteiligung von betriebsfremden Dritten an Arbeitsunfällen zum Einsatz, die auf Grundlage abgeschlossener Verfahren Plausibilitäten und Erfolgswahrscheinlichkeiten für mögliche Regressverfahren ermittelt.[11] Die Anwendung RehaPlus, die ebenfalls bei der BG ETEM eingesetzt wird, unterstützt die Fachabteilung des Reha-Managements bei der Erstellung von Prognosen zur Wahrscheinlichkeit einer Maßnahme, zur voraussichtlichen Dauer der Arbeitsunfähigkeit und zu den voraussichtlichen Kosten des Falls.[12] Die Prognosen dieser teilautomatisierten Verfahren beider Anwendungen bilden einen relevanten Baustein für die zusätzliche Informationsgewinnung, die Entscheidung über mögliche Maßnahmen wird durch die Fachleute der jeweiligen Stellen getroffen.

Die verschiedenen Ansätze und Initiativen, Sicherheit und Gesundheit bei der Arbeit beim Einsatz künstlicher Intelligenz sicherzustellen und zu fördern, werden durch das am Institut für Arbeitsschutz der DGUV (IFA) angesiedelte Kompetenzzentrum Künstliche Intelligenz und Big Data (KKI) zusammengeführt und weiterentwickelt. Das KKI versteht sich dabei nicht nur als Anlaufstelle für die DGUV und ihrer Träger, sondern unterstützt und berät auch Politik, Forschung und Gesellschaft sowie Akteurinnen und Akteure in Sachen Arbeitsschutz bei der Konzeption, Umsetzung und dem Einsatz künstlicher Intelligenz.

Grenzen von künstlicher Intelligenz

Durch den Einsatz von künstlicher Intelligenz im Bereich Gesundheitsschutz und Unfallverhütung können auch neue Risiken entstehen, die etwa auf Transparenzdefizite der KI-Entscheidungen und Prozesse, fehlende Cybersicherheit oder unzureichenden Datenschutz zurückzuführen sind. Künstliche Intelligenz kann auch zu physischen Beeinträchtigungen oder materiellen Schäden führen, die auf Fehlbedienungen oder -interpretationen sowie auf schadhafte Manipulation von außen zurückzuführen sind. Auf psychosozialer Ebene greift die Verwendung von KI in die Arbeitsorganisation ein und hat Auswirkungen auf die von Menschen geforderten Fähigkeiten und Kompetenzen im Kontext der Mensch-Maschine-Interaktion. Zum anderen besteht die Gefahr, dass der erhöhte Bedarf an Datengenerierung und -erfassung eine verstärkte Überwachung und Kontrolle von menschlichem Handeln zur Folge haben kann.

Ethik

Der zunehmende Einsatz von hoch automatisierten Systemen begünstigt einen strukturellen Wandel in der Mensch-Maschine-Beziehung: Während in teilautomatisierten Prozessen Technologie zur Unterstützung oder Assistenz von bestimmten Arbeitsschritten eingesetzt wird, resultiert die zunehmende Technologisierung von Arbeitsprozessen in einer (gleichberechtigten) Kooperation zwischen Mensch und Maschine.[13] Viele KI-Modelle erzeugen korrelationsbasierte Ergebnisse, die die Interpretationsfähigkeiten des menschlichen Denkens übersteigen. In diesen Fällen bleibt die Logik der erzeugten Ergebnisse für Anwenderinnen und Anwender intransparent, obwohl sie sich direkt auf sie auswirken (Black Box). Dies kann dazu führen, dass die individuelle Handlungsfähigkeit und -freiheit im Mensch-Maschine-Zusammenwirken nachhaltig beschränkt wird. Je umfangreicher also KI-Systeme menschliche Aktivitäten unterstützen, Prozesse effizienter und präzisier machen, desto größer ist die Gefahr, dass menschliche Fähigkeiten marginalisiert werden.

Zudem können KI-Systeme bestehende gesellschaftliche Diskriminierung oder Ungleichbehandlung reproduzieren beziehungsweise verstärken. Dann nämlich, wenn die Ergebnisse der KI-Systeme auf Basis intendiert oder unbeabsichtigt verzerrter Daten generiert oder unkritisch in menschliche Handlungen überführt werden (Automatisierungsbias).

Datenschutz und -qualität

Damit KI-Systeme lernen können, müssen große Datenmengen (Big Data) generiert und analysiert werden. Deren Integrität und Qualität kann häufig nicht uneingeschränkt gewährleistet oder zurückverfolgt werden. Insbesondere bei personenbezogenen Daten wirft das Fragen im Zusammenhang mit den Grundsätzen der Datenerhebung und Datenauswertung auf – nämlich der Transparenz, Zweckbindung und Datenminimierung.[14] Nicht ordnungsgemäß erfasste, extrahierte oder verarbeitete Daten können damit das Recht auf informationelle Selbstbestimmung, also das individuelle Recht über die Preisgabe und Verwendung der eigenen Daten gegenüber staatlichen Stellen, Unternehmen und Einzelpersonen verletzen.

Gleichzeitig greift hier auch der Black-Box-Effekt, weil aufgrund der Eigenschaften selbstlernender Systeme den Datenspendern, Nutzenden oder Entwicklerinnen und Entwicklern die Datengrundlage der Entscheidungsfindungen nicht nachvollziehbar ist.[15] Daher sind bei KI-Anwendungen in der Arbeitswelt technische Maßnahmen, wie zum Beispiel die Anonymisierung der erhobenen Daten, Löschfristen von Datensätzen oder dezentrale Verarbeitung von Datensätzen (föderales Lernen), von zentraler Bedeutung, um etwa missbräuchliche Leistungskontrolle systematisch ausschließen zu können.[16]

Verantwortungsvolle Gestaltung von künstlicher Intelligenz

Um menschliche Handlungsspielräume auch im Kontext des technischen Fortschritts zu erhalten, verantwortungsvoll weiterzuentwickeln und die Akzeptanz von künstlicher Intelligenz aufseiten der Anwender und Anwenderinnen zu fördern, müssen Risiken und Chancen eingeordnet werden. Künstliche Intelligenz muss humanzentriert gestaltet und durch Systemkontrolle reguliert werden. In diesem Kontext definiert das Konzept der vertrauenswürdigen künstlichen Intelligenz[17] auf der Grundlage individueller und gesamtgesellschaftlicher Fragestellungen Kriterien und Standards für einen verantwortungsvollen Umgang mit KI.

Dabei stellt das Konzept der vertrauenswürdigen künstlichen Intelligenz die Unterstützung und den Erhalt menschlicher Autonomie bei der Entscheidungsfindung in allen Prozessschritten in den Vordergrund. Das gilt sowohl für die Entscheidungsfähigkeit im Prozess selbst als auch für die Entscheidung, KI nicht einzusetzen oder Entscheidungen des Systems auszusetzen. Dazu müssen Ergebnisse transparent, nachvollziehbar und steuerbar sein.

Zudem muss sichergestellt sein, dass sich künstliche Intelligenz gemäß ihrer Zweckbestimmung verhält, das Risiko einer Schädigung minimiert oder ausschließt sowie die geistige und körperliche Unversehrtheit des Menschen im Rahmen der Mensch-Maschine-Interaktion sicherstellt. Dazu müssen die Systeme gegenüber Manipulationsversuchen geschützt sein, die zu Beeinträchtigungen der Funktionstüchtigkeit führen, Auswirkungen auf die Schadensanfälligkeit haben und präzise, zuverlässige reproduzierbare Ergebnisse liefern.

KI-Systeme müssen den Datenschutz und die -qualität in allen Phasen des Lebenszyklus eines Systems gewährleisten. Dies betrifft sowohl die Persönlichkeitsrechte und die Rechte auf informationelle Selbstbestimmung der für das System bereitgestellten Daten als auch für die Daten, die innerhalb des Prozesses generiert und ausgewertet werden. KI-Systeme müssen so gestaltet sein, dass Prozesse, Entscheidungen und Empfehlungen für den Menschen rückverfolgbar, erklärbar und transparent sind. Dazu trägt bei, dass die menschliche Autonomie in den Prozessen gewahrt bleibt, die Entscheidungen nachvollziehbar und reproduzierbar sind und Fehlerbehebungen im System ermöglicht werden.

Um eine Ungleichbehandlung der durch die Entscheidungen von KI-Systemen betroffenen Gruppen auszuschließen, müssen mögliche Verzerrungen auf der Ebene der Datenerhebung, der Systementwicklung sowie der Auswertung und Interpretation der Ergebnisse verhindert werden. Mit dem Einsatz von künstlicher Intelligenz in verschiedenen Lebensbereichen sind soziale Chancen und Risiken verbunden, die im jeweiligen Kontext beurteilt und reguliert werden müssen. KI-Systeme dürfen nur im Einklang mit dem gesellschaftlichen und ökologischen Wohlergehen eingesetzt werden.

Literatur

Aschenbrenner, D.: Zukunft der Arbeit im Zeitalter von KI. In: DGUV Forum 10/2021. https://forum.dguv.de/ausgabe/10-2021/artikel/zukunft-der-arbeit-im-zeitalter-von-ki

BG BAU Bauportal: Mehr Sicherheit dank künstlicher Intelligenz. https://bauportal.bgbau.de/bauportal-42020/thema/meldungen/zukunft-des-bauens/mehr-sicherheit-dank-kuenstlicher-intelligenz/

BG ETEM: Whitepaper Künstliche Intelligenz – Die Zukunft ist schon da, 2022. www.bgetem.de/presse-aktuelles/themen-und-geschichten/whitepaper

Börkircher, M.; Terstegen, S.; Hapke, J.: Potenziale der KI für den betrieblichen Arbeitsschutz. Lernende Algorithmen für Gefährdungsbeurteilung und Unfallauswertung. In: Sicherheitsingenieur 11/2022.

DFKI/Bitkom: Künstliche Intelligenz – Wirtschaftliche Bedeutung, gesellschaftliche Herausforderungen, menschliche Verantwortung, 2017. www.bitkom.org/Bitkom/Publikationen/Entscheidungsunterstuetzung-mit-Kuenstlicher-Intelligenz.html

DIN/DKE/VDE: Whitepaper Ethik und Künstliche Intelligenz: Was können technische Normen und Standards leisten?, 2020. www.din.de/resource/blob/754724/00dcbccc21399e13872b2b6120369e74/whitepaper-ki-ethikaspekte-data.pdf

Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung IOSB: KI-Systeme schützen, Missbrauch verhindern, 2022.                                                                                        https://publica-rest.fraunhofer.de/server/api/core/bitstreams/a1e8a9dc-e0b1-4f1d-9905-18fdcca757c0/content

Friele, M.; Bröckerhoff, P.; Fröhlich, W. et al.: Digitale Daten für eine effizientere Prävention: Ethische und rechtliche Überlegungen zu Potenzialen und Risiken. In: Bundesgesundheitsblatt 63/2020. www.springermedizin.de/digitale-daten-fuer-eine-effizientere-praevention-ethische-und-r/17982922?fulltextView=true

Giering, O.: Künstliche Intelligenz und Arbeit: Betrachtungen zwischen Prognose und betrieblicher Realität. In: Zeitschrift für Arbeitswissenschaft 76/2022. https://link.springer.com/content/pdf/10.1007/s41449-021-00289-0.pdf?pdf=button%20sticky (abgerufen am 15.02.23)

Hochrangige Expertengruppe für Künstliche Intelligenz (HEG-KI): Ethik-Leitlinien für eine vertrauenswürdige KI, 2019. https://op.europa.eu/de/publication-detail/-/publication/d3988569-0434-11ea-8c1f-01aa75ed71a1

Jutzi, T.; Brinker, T.: Hautkrebserkennung: Wie künstliche Intelligenz die Differenzialdiagnose schärft. In: Deutsches Ärzteblatt 117(24)/2020. www.aerzteblatt.de/archiv/214284/Hautkrebserkennung-Wie-kuenstliche-Intelligenz-die-Diffenzialdiagnose-schaerft

Keller, A.; Mays, F.; Scharmentke, D.; Nöthen-Garunja, I.; Portuné, R.; Schmid, H.: Einsatz digitaler Werkzeuge in der Prävention – die Zukunft hat bereits begonnen. In: DGUV Forum 3/2022. https://forum.dguv.de/ausgabe/3-2022/artikel/einsatz-digitaler-werkzeuge-in-der-praevention-die-zukunft-hat-bereits-begonnen

SIGUV und KI: Wichtig ist, was dabei herauskommt. www.siguv.de/newsletter/ausgabe-3-2020/siguv-und-ki-wichtig-ist-was-dabei-herauskommt

Schneider, M.; Steimers, A.: Künstliche Intelligenz – Anforderungen und Einsatzmöglichkeiten. In: DGUV Forum 10/2021. https://forum.dguv.de/ausgabe/10-2021/artikel/kuenstliche-intelligenz-anforderungen-und-einsatzmoeglichkeiten