Aktuelle Ausgabe mit Schwerpunkt Bildungseinrichtungen erschienen
Jetzt als PDF herunterladen
Ausgabe 11/2023

KI im Unternehmen – Herausforderungen an die betriebliche Gestaltung moderner Arbeit

Eine Befragung von Beschäftigten zu ihrer Einstellung gegenüber der Nutzung von KI bei der Arbeit ergab – entgegen immer wieder behaupteter Angstzuschreibung – ein abgewogenes „Es kommt darauf an“. Wichtig ist es, Beschäftigte von Anfang an bei der Installation von KI im Betrieb zu beteiligen.

Key Facts

  • Viele Studien zu den Auswirkungen von KI auf die Arbeit konzentrieren sich auf Prognosen zu Arbeitsmarkteffekten in der Zukunft statt auf die Gestaltung heute
  • Beschäftigte zeigen sich wenig ängstlich, betonen stattdessen Gestaltungsbereitschaft und Bedeutung von Mitbestimmung
  • Herausforderungen bei der Gestaltung von KI im Unternehmen sind vielfältig und werden unterschätzt, lassen sich aber konkret benennen

Die Folgen von künstlicher Intelligenz (KI) für die Arbeit werden schon seit Jahren diskutiert, haben aber mit ChatGPT und anderen generativen KI-Systemen oder Large Language Models (LLM) neue Aufmerksamkeit erfahren. Noch finden sich vor allem Prognosen zum Automatisierungspotenzial. So kommt eine aktuelle Studie[1]für die USA zu der Einschätzung, dass mehr Beschäftigte in nicht von KI betroffenen Berufen tätig sind als in Berufen, die am meisten von KI betroffen sind. Zudem seien Jüngere und formal geringer Qualifizierte am wenigsten von KI betroffen. Eine der ersten Studien zur Nutzung generativer KI in Deutschland zeigt, dass diese am häufigsten bei der selbstständigen Textverarbeitung und -erstellung eingesetzt wird.[2]

(Nicht nur) in Bezug auf KI ist die viel beschworene Angst davor wohl eher ein medial und von Unternehmensberatungen entfesseltes Phänomen, „emotional aufgeladene diskursive Erwartungen“ jedoch helfen in der KI-Debatte nicht weiter.[3]KI ist die aktuell am stärksten diskutierte Variante der Digitalisierung. Während sie medial lange vor allem als Auslöser sogenannter „technologischer Arbeitslosigkeit“ galt, wird sie aktuell angesichts des Fachkräftemangels auch als Hoffnungsschimmer gesehen.

So oder so geht man dabei immer davon aus, dass KI vor allem das Potenzial hat, menschliche Arbeit zu ersetzen. Diese Frage nach dem Automatisierungspotenzial der KI ist wohl so alt wie die Idee der KI selbst. Das Problem damit zusammenhängender Prognosen ist vor allem eines: Sie beschränken sich auf den Arbeitsmarkt, unterschätzen die Grenze der Formalisierbarkeit humaner Arbeit[4]und verweisen das Thema gleichzeitig in die Zukunft. Viel zu wenig Beachtung finden Fragen nach der Einstellung der Beschäftigten zu KI sowie zu den konkreten Gestaltungsanforderungen, die sich bei der Nutzung von KI im Hier und Jetzt an die Unternehmen stellen.

Bisher sind Studien zur Einstellung von Beschäftigten gegenüber KI dünn gesät, beziehen sich nur auf einen Anwendungskontext oder fassen KI und Robotik unterschiedslos zusammen. Zudem erlauben die in anderen Ländern erhobenen Ergebnisse wegen unterschiedlicher Arbeitsmarktstrukturen und Mitbestimmungskulturen keine einfache Übertragung auf Deutschland. Studien aus Deutschland wie der Meinungsmonitor Künstliche Intelligenz[5]oder der aktuelle D21-Digital Index[6]beziehen sich nur in wenigen Punkten auf die Arbeitswelt und/oder nur sehr allgemein auf KI und sie nehmen kaum die Effekte des KI-Einsatzes auf die Arbeitsqualität in den Fokus.[7]

Daher zunächst ein Blick auf die Einstellung von Beschäftigten zu KI aus der Studie „KIK – KI als Kollegin?“ (zur Erhebung: siehe Infokasten).

Studie „KIK – KI als Kollegin?“[8]
Basis der vorgestellten Daten ist eine2022 an der Friedrich-Alexander-Universität(FAU) Erlangen-Nürnbergdurchgeführte Onlinestudie. Überaktives Quoten-Management unditerative Gewichtung konnte ein nach Geschlecht, Alter, Qualifikationshöheund Branche den aktuellen Arbeitsmarktdatenrepräsentatives Sample vonn = 2.018 gebildet werden. Die Studiewurde durchgeführt im Rahmen desForschungsverbunds „KI – Mensch –Gesellschaft“ vom Bundesministeriumfür Bildung und Forschung (BMBF).

Zögerlich-ungleichzeitiges Ankommen: KI am Arbeitsplatz

Gefragt nach der KI-Nutzungshäufigkeit gibt 2019 ein Viertel der Beschäftigten in Deutschland mindestens eine seltene Nutzung an. Die Zahl erscheint für eine Erhebung vor einigen Jahren überraschend hoch, die Nutzungshäufigkeit adressiert nur die Variante, am Arbeitsplatz etwas mit KI zu tun zu haben. Jenseits dieser reinen Nutzung, bei der KI Arbeitsmittel ist, kann KI auch Arbeitsgegenstand sein, zum Beispiel weil der Change-Prozess dazu organisiertwird oder weil KI nur Teil einerkomplexeren Produktentwicklung ist. Obwohldrei Jahre später eine breitere Abfragenach dem Einsatz von KI am Arbeitsplatzerfolgte, zeigt sich in unserer Studie eine geringere Verbreitung.

So gibt nur ein Teil von elf Prozent der Befragtenan, dass KI schon am Arbeitsplatzeingesetzt wird, bei weiteren zwölf Prozentsei ein Einsatz schon konkret geplant undin 17 Prozent der Fälle wird im Betrieb zumindestbereits darüber diskutiert (Abbildung1). Trotzdem bleibt KI für die Mehrheitvon 60 Prozent der Beschäftigten wohlauch in naher Zukunft noch ein unbekanntes Terrain am Arbeitsplatz. Die weiterenBalkengrafiken in Abbildung 1 zeigen, dassFrauen mit 68 Prozent gegenüber Männernmit 54 Prozent und über 55-Jährige mit67 Prozent gegenüber Jüngeren häufigernoch keine (Aussicht auf) KI am Arbeitsplatzhaben. Bei der Qualifikation zeigtsich eine interessante Polarisierung: Jeweils13 Prozent der Beschäftigten ohne Abschluss und mit akademischem Abschlusshaben schon KI am Arbeitsplatz, währendes bei den beruflich Aus- und Fortgebildetenneun Prozent sind. Nimmt man jedochden geplanten und diskutierten KI-Einsatzhinzu, findet sich bei den akademisch Qualifiziertenmit 48 Prozent der kleinste Anteilderer, bei denen KI aktuell oder demnächsteine Rolle spielen dürfte.

Abbildung 1: Zentrale Stichprobenmerkmale und aktuelle Verbreitung von KI am Arbeitsplatz | © KIK – KI als Kollegin? Sabine Pfeiffer, FAU 2022
Abbildung 1: Zentrale Stichprobenmerkmale und aktuelle Verbreitung von KI am Arbeitsplatz KIK – KI als Kollegin? Sabine Pfeiffer, FAU 2022

Bedingte Skepsis, ausgewogene Risiko-/Nutzenabwägung

Abbildung 2 gibt einen ersten Eindruck zurEinstellung von Beschäftigten gegenüberKI. Entgegen der immer wieder zu hörendenAngstzuschreibung zeigt sich ein rechteindeutiges „Es kommt darauf an“. Auf derlinken Seite finden sich die Ergebnisse zumEinsatz von KI am Arbeitsplatz: Der kleinsteAnteil von 14 Prozent der Befragten lehntdies grundsätzlich ab, 37 Prozent dagegenkönnen sich das grundsätzlich vorstellen.

Frauen zeigen mit sechs Prozent eine geringeregrundsätzliche Ablehnung als Männer mit neun Prozent. Letztere wiederum können sich mit 41 Prozent den KI-Einsatz am Arbeitsplatz deutlich häufiger vorstellen als der Anteil von 32 Prozent bei den Frauen. Die deutlichste Ablehnung findet sich bei Beschäftigten ohne qualifizierten Abschluss: 17 Prozent von ihnen lehnen KI-Einsatz bei der Arbeit grundsätzlich ab und niemand aus dieser Gruppe spricht sich für deren grundsätzlichen Einsatz aus. Außer bei unter 25-Jährigen und akademisch Qualifizierten überwiegt in allen Gruppen statt einer grundsätzlichen Pro- oder Kontrahaltung die mittlere Antwortkategorie, nämlich dass ein Einsatz von KI nur unter bestimmten Bedingungen akzeptabel ist.

Wie komplex bis widersprüchlich die Meinung zu KI als Kollegin ist, zeigen die Ergebnisse der Balkengrafiken auf der rechten Seite von Abbildung 2: So erreichen die – wie erläutert – grundsätzlich besonders KI-offenen unter 25-Jährigen gleichzeitig mit 34 Prozent den höchsten Wert bei ihrer Einschätzung, in Bezug auf Arbeit und Beschäftigung überwiege das Risiko den Nutzen. Sie sind auch die polarisierteste Gruppe, denn mit 33 Prozent findet sich hier der geringste Anteil bei der Einschätzung, Risiko und Nutzen hielten sich die Waage. Insgesamt verbinden 22 Prozent der Beschäftigten mit KI ein erhöhtes Risiko im Hinblick auf Arbeit und Beschäftigung, 25 Prozent sehen einen größeren Nutzen und wiederum die Mehrheit von 53 Prozent hält Risiko und Nutzen für ausgewogen.

Ins Auge fällt auch, dass sich bei dieser allgemeinen, auf die Arbeit bezogenen Fragestellung kaum geschlechtsspezifische Unterschiede finden. Bei der stärker auf den eigenen Arbeitsplatz bezogenen Frage auf der linken Seite von Abbildung 2 zeigen sich diese Unterschiede viel stärker. Alle Zahlen in Abbildung 2 zeigen vor allem eines: Angst vor KI ist alles andere als ein vorherrschendes Gefühl der Beschäftigten – Skepsis aber findet sich durchaus, wenn auch nicht in hohen Anteilen.

Abbildung 2: KI und Arbeit: Grundsätzliche Einstellung und Risiko-/Nutzenabwägung | © KIK – KI als Kollegin? Sabine Pfeiffer, FAU 2022
Abbildung 2: KI und Arbeit: Grundsätzliche Einstellung und Risiko-/Nutzenabwägung KIK – KI als Kollegin? Sabine Pfeiffer, FAU 2022

Gestaltungsbereitschaft und Wunsch nach mehr Mitbestimmung

Die Zahlen in Abbildung 2 verweisen bereits auf einen klaren Gestaltungsbedarf und -auftrag, sind doch überwiegend die je mittleren Antwortkategorien am stärksten ausgeprägt. Deswegen finden sich in Abbildung 3 auch Zahlen zu zwei Fragen der Studie, die sich auf die Gestaltung beziehen: links die Frage nach der Wichtigkeit, selbst aktiv in den Gestaltungsprozess von KI einbezogen zu werden, rechts die Frage zur Bedeutung der Mitbestimmung beim Thema KI. Schon auf den ersten Blick zeigen die durchweg einstelligen, violett gekennzeichneten Anteile, dass nur sehr wenig Beschäftigte der Mitgestaltung undMitbestimmung in Sachen KI keine Bedeutung beimessen. Hier fällt vor allem auf, dass die unter 25-Jährigen Mitgestaltung und Mitbestimmung am wenigsten wertschätzen, sie erreichen jeweils im Vergleich zu allen anderen Gruppen die geringsten Werte. 18 Prozent der unter 25-Jährigen ist es sehr wichtig, bei der Gestaltung von KI am Arbeitsplatz einbezogen zu sein. 14 Prozent stimmen der Aussage voll zu, dass Beschäftigte beim Thema KI mehr Mitbestimmung benötigten. Diese Gruppe ist altersbedingt erst vergleichsweise kurz im Erwerbsleben – möglicherweise fehlt hier noch die Erfahrung von schlecht eingeführten oder wenig zur Arbeit passenden IT-Systemen.

Insgesamt lässt sich auf jeden Fall eine klare Tendenz ausmachen: Die überwiegende Mehrheit der Beschäftigten findet es (sehr) wichtig, bei der KI-Gestaltung einbezogen zu werden (82 Prozent), und stimmt der Aussage, Beschäftigte benötigten bei KI mehr Mitbestimmung, eher/voll zu (74 Prozent). Diese Gestaltungsoffenheit der Beschäftigten wird auch dringend gebraucht, wenn man sich die Herausforderungen beim KI-Einsatz im Unternehmen konkreter anschaut.

Abbildung 3: KI und Gestaltung: Bereitschaft zur Mitgestaltung und Einstellung zur Mitbestimmung | © KIK – KI als Kollegin? Sabine Pfeiffer, FAU 2022
Abbildung 3: KI und Gestaltung: Bereitschaft zur Mitgestaltung und Einstellung zur Mitbestimmung KIK – KI als Kollegin? Sabine Pfeiffer, FAU 2022

KI-spezifische Gestaltungsherausforderungen im Betrieb

KI-Systeme sind letztlich statistische Systeme, ihre vermeintliche Intelligenz ist nicht mehr als eine Prognose, basierend auf Daten der Vergangenheit und mit einer in der Praxis oft unbekannten Prognosewahrscheinlichkeit. Sie sind wunderbare Tools – aber nur, wenn wir ihre Grenzen kennen, verstehen und mit ihnen umgehen lernen. Andernfalls kann ihr Einsatz gerade im Unternehmen auch schnell destruktiven Charakter haben.[9]Eingegangen wird hier bewusst nicht auf die bereits stark diskutierten Dimensionen der Blackbox oder des Bias. Der Fokus liegt hier auf einigen wenig beachteten, aber beim Einsatz von KI im Unternehmen gestaltungsbedürftigen und zunächst grundsätzlichen KI-spezifischen Problemen:

  • Mehr-als-Bias-Problem: Wenn die Daten eine weniger offensichtliche Verzerrung aufweisen, die sich aus der Leichtigkeit oder Erschwernis beim Sammeln der Daten faktisch ergibt und auf die bei unreflektiertem Einsatz dann nicht mit Gewichtung reagiert wird.
  • Kanonen-auf-Spatzen-Problem: Dem Hype um das Thema blind folgend nutzen Unternehmen KI-Prozesse auch da, wo eine feste Vercodung oder eine relationale Datenbank sachlich sinnvollere Ergebnisse mit weniger Aufwand und mehr Robustheit über die Zeit generieren würden.
  • Komplexitätsreduktionsproblem: Wenn die Potenz des Algorithmus über- und die Komplexität des Anwendungskontexts unterschätzt wird und/oder der Algorithmus (das statistische Modell) – also die Reduktion der realen Komplexität – mit ebenjener gleichgesetzt wird.
  • Schlüsselloch-Problem: Wenn der KI ein zu kleiner oder eingeschränkter Ausschnitt der viel komplexeren Welt präsentiert wird, weil die Messstellen oder Datenpunkte schlecht gewählt sind – die „Schlüssellöcher“ zur Welt sozusagen an den falschen Stellen sitzen oder die falsche „Form“ haben (beispielsweise das falsche Skalenniveau).
  • Badewannen-Problem: Wenn man glaubt, der Unterschied von Korrelation und Kausalität wäre bei KI und Big Data nicht mehr wichtig und man müsse bei einem vermeintlichen Zusammenhang auf aggregierter Datenebene nicht mehr nach Erklärungen realer Zusammenhänge auf der Mikroebene suchen (man müsse also nicht in die „Coleman’sche Badewanne“ steigen, um einen ökologischen Fehlschluss zu vermeiden). Dies wird bei KI sogar noch wichtiger wegen des Datenrauschen-Problems.
  • Datenrauschen-Problem: KI kann in großen Data Lakes für uns bislang nicht sichtbare Zusammenhänge finden – das ist ihre Stärke und Schwäche zugleich. Je mehr unstrukturierte, zufällige und oft unsauber aufgearbeitete Daten es gibt, desto höher ist jedoch die Wahrscheinlichkeit, Zusammenhänge zu finden, die nur ein statisches Artefakt sein könnten. Idealerweise müsste man also noch öfter in die oben genannte „Badewanne“ steigen.
  • Datenpfützen-Problem: Wenn im Unternehmen die erwarteten „Data Lakes“ gerade dies nicht sind, sondern nur „Datenpfützen“, mit denen aufgrund der zu kleinen Lernbasis keine ausreichend stabilen Ergebnisse der KI erreicht werden können. Eng einher geht damit das Skalierungsproblem.
  • Skalierungsproblem: Ein Lernprozess, der die KI zu einer nur geringen Prognosewahrscheinlichkeit befähigt, ist mit wenig Daten schnell gemacht. Soll die KI aber eine Prognosewahrscheinlichkeit von 95 Prozent oder mehr erreichen, steigen Daten- und Kostenaufwand exponentiell an – und sprengen schnell das technisch Machbare, ökonomisch Sinnvolle und produzieren einen oft immensen ökologischen Footprint.
  • Inverses n-Prozent-Problem: Während alte Expertensysteme nur einen sehr geringen Prozentsatz des Fach- und Erfahrungswissens der Beschäftigten hart gecodet abbildeten, bleiben bei der KI immer n-Prozent an Aussageunsicherheit. Prognosen bleiben Prognosen und sind nie zu 100 Prozent korrekte Aussagen. Dies wiederum führt zum Vigilanz-2.0-Problem.
  • Vigilanz-2.0-Problem: Paradoxerweise führen KI-Systeme mit besonders hoher Prognosewahrscheinlichkeit zu einer Anforderung an die Arbeitsgestaltung, wie sie aus Leitwarten schon lange bekannt ist: Je seltener etwas „passiert“ (bei der KI: ein unerwartetes, seltsames Ergebnis), desto geringer die Vigilanz (Wachsamkeit) – man vertraut immer mehr. Was nicht sein darf wegen des Doppeltblind-Problems.
  • Doppeltblind-Problem: Während bei fast jeder Technik, die im Unternehmen zum Einsatz kommt, eine Fehlfunktion meist sofort erkennbar ist, lässt sich auch bei der besten KI nie mit Sicherheit sagen, ob sie richtig oder falsch liegt. Ein plausibel erscheinendes Ergebnis kann im Einzelfall falsch sein, ein seltsam-unerwartetes Ergebnis jedoch korrekt.

In the long run: Gestaltungsprobleme über die Zeit

Nicht nur Mechanik verschleißt, auch die beste KI kann im Laufe der Zeit wieder schlechter werden. Vier KI-spezifische Verschleißdynamiken sind dabei im betrieblichen Einsatz besonders relevant. Sie können sich zudem überlagern und wechselseitig verstärken:

  • Äußeres-KI-Verschleißproblem: Wenn die komplexe Welt, aus der die KI lernt, sich ändert – die vorhandenen Daten und Messstellen aber nicht immer in der Lage sind, dies wahrzunehmen (→ Schlüssellochproblem).
  • Inneres-KI-Verschleißproblem: Weil ein Großteil der KI-Algorithmen im Laufe der Zeit in ihren Lernprozessen überwiegend „in die Mitte tendieren“, also zunehmend möglicherweise sachlich relevante Beobachtungen als statistische Ausreißer, sozusagen als irrelevant, aussortieren.
  • Katze-beißt-sich-in-den-Schwanz-oder Inzest-Problem: Je mehr KI im Einsatz ist, desto weniger humangenerierter Inhalt geht noch in die Lernprozesse ein. Die KI lernt zunehmend von sich selbst und wird in ihrer Aussagefähigkeit inhaltlich enger und weniger aktuell.
  • Lern-Freeze-Lern-Problem: Für viele KI-Anwendungen ist noch völlig unklar (und wird es auch noch eine Zeit lang bleiben), wie lange mit welchen Daten gelernt werden soll, ob dies nur anfänglich oder dauerhaft und immer wieder aufs Neue passieren soll sowie nach welchen Kriterien dabei wann und von wem im Unternehmen entschieden wird.

Alte und neue Gestaltungsantworten

Die gute Nachricht ist: Mit diesen Problemen kann umgegangen werden. Dafür muss man sich ihrer aber erst einmal bewusst sein und KI als das betrachten, was sie ist: ein tolles Tool mit stochastischen Eigenheiten. Oft gibt es für die genannten (und sicher nicht abschließenden) Probleme keine einfache technische, also KI- beziehungsweise lerndatenbezogene Antwort. Auch die viel beschworene Perspektive auf eine wie auch immer gestaltete Mensch-KI-Arbeitsteilung hilft hier allein wenig weiter. Man muss also nicht nur den Menschen als wichtigen Faktor im Systembelassen („Human in the Loop“), sondern auch und vor allem die organisationalen Prozesse („Organisation in the Loop“).[10]

Das beginnt schon bei der Implementierung von KI im Unternehmen: Allzu oft liegt diese allein in den Händen von Informatik und Data Science, Expertinnen und Experten des angezielten Anwendungskontexts werden zu spät oder gar nicht einbezogen – oder nur beim Annotieren beziehungsweise Alignment. Es braucht sie aber von Anfang an: Weil es nicht nur das Wissen um Skalenniveaus der Daten und um die Notwendigkeit ihrer Passfähigkeit zum gewählten Algorithmus braucht, sondern auch das Wissen um die Notwendigkeit der Passfähigkeit von beidem mit den sachlichen Gegebenheiten des Anwendungskontexts.

Beschäftigte haben nicht nur das nötige Fach- und Erfahrungswissen aus den Anwendungskontexten, sondern bringen oft auch statistische Kenntnisse sowie IT-Verständnis mit und können von Anfang an produktiver Teil eines KI-Teams sein. Fast 15 Prozent der Beschäftigten bringen solche KI-bezogenen Kompetenzen mit[11], in der Automobilbranche sind es aktuell 13 Prozent[12]– mehr als genug Potenzial für einen Einbezug in betriebliche KI-Projekte. Dass zudem eine hohe Bereitschaft zur Gestaltung von KI vorliegt, zeigen die oben besprochenen Zahlen.

Organisation und Mensch sind aber nur die eine Seite der Gestaltung. Sie dürfen und können echte Mitbestimmung nicht ersetzen. Obwohl KI in vielen Unternehmen noch nicht einmal angekommen ist, gibt es hier schon konkrete Antworten und eine ganze Reihe praxisorientierter Gestaltungshilfen[13], Steckbriefe[14], Checklisten[15]und Erklärfilme[16]. Diese können nicht nur Betriebsräte sowie betriebliche Datenschutz- und Arbeitsschutzbeauftragte unterstützen, sondern auch für Führungskräfte hilfreich sein – schließlich ist das Thema noch für alle Seiten relativ neu. Die hier diskutierten KI-bezogenen Gestaltungsherausforderungen lassen sich ohne Mensch und Organisation – und erst recht nicht ohne aktive Mitbestimmung lösen. Sie erfordern zudem eine neue Qualität der Technikgestaltung: Insbesondere, weil wir es mit sich autonom verändernder Technik zu tun haben, braucht es einen „mitbestimmten Algorithmus“, in den sich die gewünschten Gestaltungskriterien auch softwaretechnisch einbauen lassen.[17]

Fußnoten

  1. Kochhar, R.: Which U.S. Workers Are More Exposed to AI on Their Jobs? 2023, Pew Research Center, https://www.pewresearch.org/social-trends/2023/07/26/which-u-s-workers-are-more-exposed-to-ai-on-their-jobs/ (abgerufen am 20.08.2023).

  2. Dicks, von A.; Ehlert, M.; Grüttgen, I.; Schulz, B; Vicari, B.: ChatGPT, Cobots & Co: Wie neue Automatisierungstechnologien die Arbeitswelt verändern. 2023, WZB Mitteilungen Online 180, https://bibliothek.wzb.eu/artikel/2023/f-25639.pdf.

  3. Giering, O.: Künstliche Intelligenz und Arbeit: Betrachtungen zwischen Prognose und betrieblicher Realität, In: Zeitschrift für Arbeitswissenschaft 76, Heidelberg 2022, S. 50–64; hier: S. 61.

  4. Huchler, N.: Komplementäre Arbeitsgestaltung. Grundrisse eines Konzepts zur Humanisierung der Arbeit mit KI. In: Zeitschrift für Arbeitswissenschaft 76, Heidelberg 2022, S. 158–175.

  5. Dosenovic, P.; Kieslich, K.; Keller, B.: Meinungsmonitor Künstliche Intelligenz – Methodensteckbrief. Heinrich-Heine-Universität, Düsseldorf 2020, https://uni-duesseldorf.datalion.net/custom/img/16/200629_Methodensteckbrief%20MeMoKI.pdf.

  6. Initiative D21; Kantar: D21-Digital-Index 2022/23. Jährliches Lagebild der Digitalen Gesellschaft, Berlin 2023, https://initiatived21.de/uploads/03_Studien-Publikationen/D21-Digital-Index/2022-23/d21digitalindex_202223.pdf.

  7. Meyer, S.-C.; Hartwig, M.; Tisch, A.; Wischniewski, S.: Künstliche Intelligenz am Arbeitsplatz: Verbreitung und Hinweise auf Zusammenhänge mit Arbeitsqualität. In: Tisch, A.; Wischniewski, S. (Hrsg.): Sicherheit und Gesundheit in der digitalisierten Arbeitswelt, Nomos Verlag, Baden-Baden 2022, S. 315–337.

  8. Pfeiffer, S.: KI als Kollegin (KIK) – Repräsentative Beschäftigtenbefragung zu Künstlicher Intelligenz am Arbeitsplatz. Im Erscheinen. In: Huchler, N.; Heinlein, M. (Hrsg.): Künstliche Intelligenz, Mensch und Gesellschaft, Springer Verlag, Wiesbaden 2023.

  9. Pfeiffer, S.: Digitalisierung als Distributivkraft: Über das Neue am digitalen Kapitalismus, Bielefeld 2021: Transcript, S. 283–285.

  10. Herrmann, Th.; Pfeiffer, S.: Keeping the Organization in the Loop: A Socio-Technical Extension of Human-Centered Artificial Intelligence. AI & Society 38, Heidelberg 2022, S. 1523–1542.

  11. Pfeiffer, S.: Kontext und KI: Zum Potenzial der Beschäftigten für Künstliche Intelligenz und Machine-Learning. HMD – Praxis der Wirtschaftsinformatik 57, Heidelberg 2020, S. 465–479.

  12. Pfeiffer, S.; Autor*innenkollektiv: Arbeit und Qualifizierung 2030 – Essentials. Eine Momentaufnahme aus dem Maschinenraum der dualen Transformation: Transformationserleben – Transformationsressourcen – Transformationsbereitschaft, FAU Erlangen-Nürnberg, Nürnberg 2023, https://www.labouratory.de/files/downloads/AQ2030-Studie-Essentials.pdf.

  13. Z. B. Schröder, L.; Höfers, P.: Praxishandbuch Künstliche Intelligenz: Die Balance zwischen künstlicher Intelligenz und menschlichen Werten, Bund Verlag, Frankfurt/M. 2022.

  14. Grasy, J.; Seibold, B.: Die Komplexität von KI-Systemen durch Steckbriefe bewältigen. Portrait über den Einsatz sogenannter AI-Cards bei der Siemens AG, 2023: Betriebs- und Dienstvereinbarungen 029, https://www.imu-boeckler.de/fpdf/HBS-008560/p_mbf_bvd_portrait_29_2023.pdf.

  15. Schröter, W.: „Mitbestimmungsplan“ und „Checkliste“ zur Gestaltung sogenannter „Künstlicher Intelligenz“. 2023, Blog Zukunft der Arbeit, http://www.blog-zukunft-der-arbeit.de/mitbestimmungsplan-und-checkliste-zur-gestaltung-sogenannter-kuenstlicher-intelligenz/ (abgerufen am 20.08.2023).

  16. Schröter, W.: Wie gestalten wir die sogenannte „Künstliche Intelligenz“? Vier Screencast-Erklärfilme aus dem „Forum Soziale Technikgestaltung“, 2022, Blog Zukunft der Arbeit, http://www.blog-zukunft-der-arbeit.de/wie-gestalten-wir-die-sogenannte-kuenstliche-intelligenz-einladung-zur-mitwirkung/ (abgerufen am 20.08.2023).

  17. Schröter, W.: Der mitbestimmte Algorithmus. Arbeitsweltliche Kriterien zur sozialen Gestaltung von Algorithmen und algorithmischen Entscheidungssystemen. In: Schröter, W.; Scherer, I. (Hrsg.): Der mitbestimmte Algorithmus. Gestaltungskompetenz für den Wandel der Arbeit, Talheimer Verlag, Mössingen 2019, S. 101–150.

Weitere Artikel zu diesem Thema

Zur Sache
Editorial
Liebe Leserinnen und Leser, wir befinden uns gerade mitten in einer rasanten digitalen Entwicklung. Neue Möglichkeiten wie die unterschiedlichen Anwendungen künstlicher Intelligenz (KI) verändern Arbeitsprozesse. Ein Sprachmodell wie ChatGPT ist dafür nur das jüngste Beispiel. Wie können sich Organisationen wie die gesetzliche Unfallversicherung darauf einstellen?
Ausgabe 11/2023
lesen
Change
Die Digitalisierungsstrategie der gesetzlichen Unfallversicherung
Digitalisierung ist ein Begriff, der allgegenwärtig ist. Doch oft wird er missverstanden oder falsch interpretiert. Es ist wichtig, klarzustellen, was Digitalisierung ist – und vielleicht noch wichtiger, was sie nicht ist.
Dr. Diana Herrmann  •  Tobias Schmitz   •  Ausgabe 11/2023
lesen
Change
Digitalkompetenzen für die Arbeitswelt der Zukunft
Damit Organisationen die digitale Transformation erfolgreich meistern können, müssen Beschäftigte über digitale Schlüsselkompetenzen verfügen. Dieser Beitrag erläutert, wie Digitalkompetenzen von anderen „Zukunftskompetenzen“ abzugrenzen sind, welche Bereiche sie umfassen und wie Organisationen die Beschäftigten in ihrer Kompetenzentwicklung unterstützen können.
Silvia Hartung   •  Ausgabe 11/2023
lesen

Wie gefällt Ihnen die DGUV forum? Haben Sie Vorschläge für Verbesserungen?

Äußerst unzufrieden
Äußerst zufrieden