Ab Januar 2026 erscheint die DGUV forum 6 Mal pro Jahr, jeweils in den geraden Monaten.
Ausgabe 10/2025

KI in der Qualifizierung – Perspektiven für das Lehren und Lernen von morgen

Künstliche Intelligenz (KI) ist gerade für die Qualifizierung ein spannendes Betrachtungsfeld. Doch vor einer möglichen Umsetzung stellen sich Fragen zur Wirkung auf das Lernen, zu adäquaten didaktischen Konzepten sowie zu Chancen und Risiken. Dieser Beitrag soll dazu Aufschluss geben und exemplarisch aufzeigen, wie Qualifizierungsangebote mit KI entwickelt und gestaltet werden können.

Key Facts

  • Generative Künstliche Intelligenz (KI) kann die Lernwirksamkeit steigern, wenn ihr Einsatz didaktisch sinnvoll eingerahmt ist.
  • In der Produktentwicklung können digitale Werkzeuge auf der Basis von KI wertvolle und ressourcenrelevante Assistenten sein.
  • Transparente Richtlinien für den Einsatz von KI in der Qualifizierung und die Ausbildung von KI-Kompetenzen sind zwingend erforderlich und qualitätssichernd.

Nur 984 Tage[1] liegen zwischen zwei Ereignissen, die das Bildungswesen und die Qualifizierung der Unfallversicherungsträger grundlegend veränderten: Ab März 2020 erzwang die Covid-19-Pandemie eine schnelle Umstellung auf digitale Lernformate. Knapp drei Jahre später veröffentlichte der KI-Softwareunternehmen OpenAI mit GPT-3.5 ein Sprachmodell, das den breiten Einzug Künstlicher Intelligenz in Gesellschaft und Arbeitswelt einleitete.[2] Seither schreitet die Integration von KI in alle Wirtschaftsbereiche rasant voran. Auch Lernende und Lehrende nutzen bestehende Angebote und erwarten moderne Qualifizierungsangebote. In der Bildungsarbeit entfaltet KI ein disruptives Potenzial, das mit anderen Bereichen der gesetzlichen Unfallversicherung vergleichbar ist.[3] In diesem Beitrag wird der Blick auf zwei Anwendungsbereiche von KI in der Qualifizierung gerichtet – mitsamt ihren Chancen und Herausforderungen: das Lernen und Lehren mit KI und die KI-unterstützte Erstellung von Qualifizierungsangeboten.

KI wirkt – oder doch nicht?

Zahlreiche Studien haben sich in den vergangenen drei Jahren mit der Frage beschäftigt, ob der Einsatz von KI die Qualität von Lernprozessen beeinflusst. Ihre Ergebnisse fallen unterschiedlich aus – abhängig vom Studiendesign, den untersuchten Zielgruppen und Anwendungsfeldern. Insgesamt zeigen diese, dass der Einsatz großer Sprachmodelle beim Lernen und Lehren das Lernergebnis unter bestimmten Bedingungen verbessern kann – vor allem dann, wenn die Nutzung eingeübt, die Technologie über längere Zeiträume hinweg eingesetzt, in problemorientierte Formate eingebettet und didaktisch strukturiert begleitet wird. Dies kann beispielsweise durch praxisnahe Aufgabenstellungen, Reflexionsaufgaben oder gezieltes Feedback gelingen.[4] [5]

Gleichzeitig zeigen anderen Untersuchungen, dass der Einsatz von KI nicht automatisch zu besseren Lernergebnissen führen muss. Ohne didaktische Einbettung kann der Effekt sogar negativ ausfallen. So kann die Nutzung von Sprachmodellen wie ChatGPT zwar kurzfristig die Qualität schriftlicher Ergebnisse verbessern, doch kommen ein nachhaltiger Wissenserwerb und insbesondere die Transferfähigkeit zu kurz. Im Gegenteilt: Es besteht das Risiko, dass Lernende zunehmend auf KI-gestützte Hilfsmittel zurückgreifen und dadurch kognitive Anstrengung vermeiden – auf Kosten tiefer greifender Lernprozesse.[6] In diesem Zusammenhang sprechen Forschende von „metakognitiver Trägheit“: Wird KI ohne Selbstreflexion verwendet, besteht die Gefahr, dass eigene Denkprozesse und Lernanstrengungen vernachlässigt werden.[7] Gerade die Reflexion ist jedoch zentrales Element der präventionsbezogenen Qualifizierung. Das Bildungsverständnis der Unfallversicherungsträger (UV-Träger) begreift Lernen daher auch als aktiven, erfahrungsbasierten Prozess und überwindet ein rein inputorientiertes Lernverständnis[8]: Wissen soll nicht nur aufgenommen werden, sondern muss an bestehende Erfahrungen anknüpfen, in sinnvolle Zusammenhänge eingebettet und durch eigene Auseinandersetzung gefestigt werden. Nur so können nachhaltiger Kompetenzaufbau und wirksames Arbeitsschutzhandeln ermöglicht werden.[9]

Wird KI ohne Selbstreflexion verwendet, besteht die Gefahr, dass eigene Denkprozesse und Lernanstrengungen vernachlässigt werden.

Digitale Tutoren und Simulatoren als Lernpartner

Eine wirksame didaktische Integration von KI kann insbesondere durch den Einsatz intelligenter tutorieller Systeme gelingen. Diese sind bereits seit den 1980er-Jahren erprobt und in Studien mit positiven Effekten auf die Lernleistung belegt.[10] Neue Möglichkeiten großer Sprachmodelle erlauben es heute, derartige Systeme niederschwellig umzusetzen, beispielsweise über vorkonfigurierte Chatbots wie „CustomGPTs“. In ersten Tests in der DGUV wurde auf Basis der Medien und Materialien des Lehrgangs für Fachkräfte für Arbeitssicherheit ein solcher Chatbot, der „Sifa-Lernbuddy“, als Prototyp entwickelt.[11] Dieser könnte angehende Fachkräfte für Arbeitssicherheit dialogisch begleiten – nicht durch generierte Antworten, sondern durch gezielte Rückfragen im Sinne eines sokratischen Tutors[12]. Die Potenziale solcher Systeme sind vielversprechend, setzen jedoch ein gründlich durchdachtes didaktisches Konzept sowie regelmäßige Evaluation und Qualitätssicherung voraus. Besonders in Bezug auf die Tiefe der Rückfragen, das Erkennen von Lernirrtümern oder den Umgang mit ungewöhnlichen Denkwegen – aber auch mit Blick auf Barrierefreiheit sind noch umfassende Tests und Erprobungsphasen notwendig.

Chatbots lassen sich auch gezielt als Rollenspiel- und Simulationspartner einsetzen.[13] Durch eine präzise formulierte Systemanweisung („Prompt“) können ihnen Rollen, sprachliche Stile sowie spezifische Argumentationsmuster zugewiesen und Handlungsspielräume definiert werden. Diese Methode eignet sich beispielsweise für das Training von Gesprächs- und Verhandlungssituationen – etwa im Kontext betrieblicher Kommunikation oder Beratungssituationen –, da sie realitätsnahe Szenarien entstehen lassen kann.

Bewertungsprozesse mit KI unterstützen

Auch für Lehrende bieten KI-basierte Tools Einsatzmöglichkeiten: So können etwa Sprachmodelle auf Basis eines vorab definierten Erwartungshorizonts Bewertungs- oder Feedbackkriterien formulieren. Mit Blick auf den direkten Einsatz von KI-Systemen zur automatisierten Bewertung oder Einstufung von Lernenden ist jedoch Zurückhaltung geboten. Solche Anwendungsfälle berühren zentrale Fragen von Fairness, Transparenz und Verantwortung im Bildungsprozess. Die im April 2024 von der EU verabschiedete KI-Verordnung[14] stuft den Einsatz von Künstlicher Intelligenz zur Leistungsbewertung im Bildungsbereich als Hochrisiko-Anwendung ein. Dies bedeutet, dass hier besonders strenge Anforderungen an Sicherheit, Nachvollziehbarkeit und menschliche Kontrolle gelten.

Für den erfolgreichen Einsatz von KI in der Qualifizierung ist es entscheidend, dass sowohl Lernende als auch Lehrende über grundlegende KI-Kompetenzen verfügen. Dazu gehört ein Verständnis der Funktionsweise, Einsatzmöglichkeiten und Grenzen von KI-Modellen. Ebenso erforderlich ist die Festlegung klarer Rahmenbedingungen und Vorgehensweisen für den Einsatz KI-gestützter Lern- und Lehrformate und der Nutzung von KI-Tools – beispielsweise in Form einer institutionellen KI-Leitlinie.[15]

Qualifizierungsangebote mit KI entwickeln und gestalten

KI verändert nicht nur die Art und Weise, wie künftig präventionsbezogene Qualifizierungsangebote durchgeführt werden können. Gerade in der Entwicklung von Qualifizierungsprodukten[16] kann KI wertvolle Unterstützung bieten. Ob Film, Podcast, Bild, Ton oder Text – nahezu alle Medienformate lassen sich inzwischen KI-gestützt ohne große Vorkenntnisse erstellen.

Entwicklung planen: Insbesondere in konzeptionellen oder kreativen Arbeitsphasen – wie der Erstellung eines Grobkonzeptes sowie einer Zeit- und Ressourcenplanung für das geplante Qualifizierungsprodukt – werden die Potenziale von Softwaretools mit KI deutlich. Sie können bei initialen Ideen und der Überwindung eines etwaigen „Blank-Page-Syndromes“[17] [18] – einer Schreibblockade – unterstützen.[19] [20] [21] Hierfür sind eine zielgerichtete User-Eingabe durch explizit formulierte Prompts und hochqualitative Daten-Uploads vorausgesetzt. Im Sinne eines agilen Prototyping-Ansatzes lassen sich schnell, kosten- günstig und ohne umfangreiche IT-Anforderungen erste Mock-ups (Entwürfe einer Webanwendung) zur Veranschaulichung möglicher Umsetzungsideen erstellen – und bei Bedarf auch wieder verwerfen.

Für die organisatorische Planung der Entwicklung eines Qualifizierungsproduktes kann der Einsatz eines Reasoning-Sprachmodells[22] – das ist eine Funktion, bei der die KI die möglichen Antworten ausführlich herleitet und länger nachdenkt – sinnvoll sein. Die Darlegung

  • des bisherigen Planungsstandes,
  • der bisher generierten Mock-ups,
  • des bisher formulierten Grobkonzeptes sowie
  • der Formulierung konkreter Outcome-Zielvorgaben

in einem oder mehreren aufeinander aufbauenden Prompts kann dabei helfen, Korrekturen und Ergänzungen an der Planung vorzunehmen und diese auf zeitliche und inhaltliche Plausibilität zu überprüfen.

Auf Künstlicher Intelligenz basierende Anwendungen und Automatisierungen heben die bisher bekannte digitale Lernanalytik (Learning Analytics) auf eine gänzlich neue Ebene.

Für den Zweck einer nachvollziehbaren und weiterverarbeitbaren Visualisierung kann der Projektverlauf tabellarisch oder als Gantt-Diagramm ausgegeben werden.

Feinkonzept erstellen: Insbesondere bei der Medienerstellung im Rahmen der Umsetzung des (Fein-)Konzeptes eines Qualifizierungsangebotes können Softwaretools unter Verwendung von KI eine signifikante zeitliche und finanzielle Entlastung darstellen. Während eher textbasierte Dokumente mit Hilfe von KI-Sprachmodellen nahezu vollständig finalisiert werden können, dient die derzeitige Outputqualität von KI-Grafik- und Videogeneratoren nur als Basis- oder Ergänzungsmaterial für die manuelle Medien(post)produktion.

Konzept überprüfen: Insbesondere bei digitalen Lernangeboten auf modernen Lernplattformen ist die Wirkungsmessung durch die zahlreichen Möglichkeiten zur Datenerhebung und -auswertung allenfalls durch das Datenschutzrecht limitiert. Auf Künstlicher Intelligenz basierende Anwendungen und Automatisierungen heben die bisher bekannte digitale Lernanalytik (Learning Analytics) auf eine gänzlich neue Ebene. Insbesondere in Kombination mit den gängigen Methoden der (digitalen) Lernstandserhebung ermöglichen sie tiefgreifende Analysen und Auswertungen. Diese können zu einem deutlich besseren Verständnis führen, wie das jeweilige Qualifizierungsprodukt von den Lernenden genutzt und bedient wird und welche didaktischen Anpassungen zur Verbesserung des Lernprozesses und zur Erreichung des gewünschten Outcomes nötig sind.

Entwicklung abschließen: Soll ein final entwickeltes Qualifizierungsprodukt bei der jeweiligen Zielgruppe beworben werden, können die bereits erwähnten KI-Tools auch bei der Erstellung von Werbemedien für Kommunikationskanäle wie Printmedien, Websites oder Soziale Medien genutzt werden und so zu wirtschaftlichen Anschaffungsbeziehungsweise Betriebskostenmodellen beitragen.

Kritische Aspekte des Einsatzes von Künstlicher Intelligenz

Der Wirkungsgrad eines KI-Modells hängt maßgeblich von der Qualität und Quantität der zugrundeliegenden (angelernten) sowie zusätzlich eingefügten (geprompteten) Daten ab. Auch wenn die in der EU geltenden Datenschutzregeln stellenweise als limitierende Faktoren wahrgenommen werden, sind diese jedoch ein Garant für eine nachhaltig sichere Nutzung von KI-Anwendungen, die stets auch einen gewissen Blackbox-Anteil aufweisen, der selbst für Softwareentwickler nicht vollständig einsehbar und beherrschbar ist. Vor diesem Hintergrund gilt stets die Grundregel, vor der Nutzung von KI-Tools personenbezogene und sonstige sensible Daten und Informationen aus den Prompts und Uploads vollständig zu entfernen.

Auch der ökologische Fußabdruck sei als kritisches Merkmal bei der Verwendung von KI-Anwendungen erwähnt. Mehrere Iterationen in der Erstellung von Texten, Grafiken oder gar Videos führen umgerechnet zu mehreren Litern Wasserverbrauch für die Kühlung von Serverkomponenten und zahlreichen Kilowattstunden Stromverbrauch,[23] sodass diese Opportunitätskosten trotz signifikanter Effizienzsteigerungen und Ressourceneinsparungen im Erstellungsprozess von Qualifizierungsangeboten kritisch reflektiert werden sollten.

Die Qualität von KI-erstellten Ergebnissen und Produkten muss durch menschliches Urteilsvermögen gesichert werden. Die Grunderfordernis einer menschlichen Rückkopplung sollte in sämtlichen automatisierten oder KI-gestützten Verfahrensweisen fest verankert sein. Neben dem „Lernen mit KI“ ist KI als Lerngegenstand unabdinglich. Hier ergibt sich auch aus der KI-Verordnung der EU eine Qualifizierungsverpflichtung. Der sichere, kritische und sinnvolle Umgang mit KI muss eingeübt werden.

Fußnoten

  1. 22. März 2020 bis 30.11.2022

  2. OpenAI.com (2022), Introducing ChatGPT. (Abruf vom 12.05.2025) | https://openai.com/index/chatgpt/

  3. Kort, Jacob für die Deutsche Gesetzliche Unfallversicherung e.V. (2025), KI in der Unfallversicherung: Poten-ziale zur Stärkung des gesetzlichen Kernauftrags. (Abruf vom 12.05.2025) | https://forum.dguv.de/ausgabe/3-2025

  4. Wang, Jin/Fan, Wenxiang (2025), The effect of ChatGPT on students’ learning performance, learning percep-tion, and higher-order thinking: insights from a meta-analysis. Humanities and Social Sciences Communica-tions, 12:621. | https://doi.org/10.1057/s41599-025-04787-y

  5. Simone, Martin De et al.: From Chalkboards to Chatbots. Evaluating the Impact of Generative AI on Learning Outcomes in Nigeria. Policy Research Working Paper 11125; Gan, Wengshen et al. (2023), Large Language Models in Education. (Abruf vom 11.07.2025) | https://arxiv.org/abs/2311.13160

  6. Melisa, Rahyuni et al. (2025): Critical Thinking in the Age of AI: A Systemativ Review of AI’s Effects on Higher Education. Educational Process: Internaional Journal, 14, e2025031.

  7. Fan, Yizhou et al (2024): Beware of metacognitive laziness: Effects of generative artificial intelligence on learning motivation, processes, and performance. British Journal of Educational Technology, 56(2):489-530.

  8. Arnold, Rolf: Ermöglichungsdidaktik – die notwendige Rahmung einer nachhaltigen Kompetenzreifung. Berufs-bildung in Wissenschaft und Praxis 2/2012, S. 45-48, S.45.

  9. Siehe Beitrag „Nachhaltige Qualifizierung: Mehr als Lerntransfer“ in der selben Ausgabe.

  10. LAMARR (2023), Lernpfade (digital) begleiten: Intelligente Tutorielle Systeme. (Abruf vom 11.07.2025) | https://lamarr-institute.org/de/blog/ki-bildung-intelligente-tutorielle-systeme/

  11. Bei der Konzeption von Lern-Chatbots ist es entscheidend, den Zugriff des KI-Modells gezielt auf qualitätsge-sicherte Inhalte zu begrenzen. Nur so lassen sich sogenannte „Halluzinationen“ – also plausible, aber falsche Antworten – wirksam vermeiden. Dieser kontrollierte Datenzugriff verbessert die inhaltliche Verlässlichkeit und didaktische Qualität der Chatbot-Antworten deutlich gegenüber der Interaktion mit frei zugänglichen Sprach-modellen.

  12. Die sokratische Methode ist eine Fragetechnik, die auf den griechischen Philosophen Sokrates zurückgeht. Ein sokratischer Tutor regt Lernende durch gezielte Fragen zum Selbstdenken, Reflektieren und eigenständi-gen Erarbeiten von Wissen an. Ziel ist es, nicht nur Informationen zu vermitteln, sondern kritisches Denken, Verständnis und Einsicht zu fördern.

  13. Stampfl, Rita (2024): Role-Playing Simulation Games using ChatGPT. ERCIM News, 136, S. 14-15.

  14. EU Artificial Intelligence Act, The EU Artificial Intelligence Act Up-to-date developments and analyses of the EU AI Act. (Abruf vom 11.07.2025) | https://artificialintelligenceact.eu/

  15. Nach Angaben der „Zweiten Befragung zur Verbreitung und Auswirkungen von Digitalisierung und Wandel der Beschäftigung (DiWaBe 2.0)“ arbeiten bereits 62 Prozent der Beschäftigten in Deutschland mit Anwendungen, die auf Künstlicher Intelligenz basieren. In den meisten Fällen erfolgt die Nutzung informell Übersetzungs-dienste – ohne eine gezielte Einführung oder Unterstützung durch den Arbeitgeber. Bei der Erstellung von KI-Richtlinien für den Bildungsbereich bietet eine hilfreiche Unterstützung beispielsweise der von der Universität Bamberg entwickelte KI-Policy-Generator (https://web.psi.uni-bamberg.de/ki-policy-generator/v2.html ), des-sen Textpassagen sich grundsätzlich auch gut auf die Rahmenbedingungen der Qualifizierung in den UV-Trägern anpassen lassen.

  16. Die folgenden Entwicklungsschritte orientieren sich an QualiWING – Guide zur zeitgemäßen Angebotsentwick-lung der DGUV Arbeitsgruppe Aus- und Weiterbildung (2024). (Abruf vom 10.07.2025) | https://dguv.de/medien/inhalt/qualifizierung/praev-service/qualiwing.pdf

  17. Husband, Gary in Research in Post-Compulsory Education (2023): The terror of the blank page. | https://doi.org/10.1080/13596748.2023.2206703

  18. Ahmed & Güss in Creativity Research Journal (2022): An Analysis of Writer’s Block: Causes and Solutions. | https://doi.org/10.1080/10400419.2022.2031436

  19. In der Konzeption kann KI als „sparring partner“ punkten: Das Prinzip der „Augmentation“, das heißt der Ein-satz von KI, um menschliche Fähigkeiten zu unterstützen und zu verbessern, anstatt sie zu ersetzen, bringt besonders gute Ergebnisse hervor. Arbeitsergebnisse von „Mensch-Maschine-Teams“ können nach neueren Studien in Summe die Qualität der Ergebnisse rein menschlicher Teams übertreffen. Untersuchungen zeigen aber auch, dass Erfahrungen und ein gutes Verständnis im Umgang mit KI zwingend erforderlich sind, um dieses Potenzial von Mensch-KI-Teams z.B. bei konzeptionellen Aufgaben voll auszuschöpfen.

  20. (Dell’Acqu, Frabrizio et al. (2025): The Cybernetic Teammate: A Field Experiment on Generative AI Reshap-ing Teamwork and Expertise. Harvard Business School Working Paper 25-043.

  21. Schmutz, Jan B. et al. (2024): AI-teaming: Redefining collaboration in the digital era. Current Opinion in Psy-chology, 58:101837.

  22. SRF.ch (2025), Warum ChatGPT jetzt Selbstgespräche führt. (Abruf vom 12.05.2025) | https://www.srf.ch/wissen/kuenstliche-intelligenz/denken-auf-knopfdruck-warum-chatgpt-jetzt-selbstgespraeche-fuehrt

  23. Tagesschau.de (2024), Warum KI viel Wasser und Strom braucht. (zuletzt abgerufen am: 12.05.2025) | https://www.tagesschau.de/wissen/klima/ki-energieverbrauch-100.html

Weitere Artikel zu diesem Thema

Prävention
Das Bildungsverständnis der Unfallversicherungsträger
Wie lernen Menschen am besten? Die Unfallversicherungsträger haben das gemeinsame Bildungsverständnis aktualisiert. Es beschreibt zentrale Prinzipien für wirksames, kompetenzorientiertes und praxisnahes Lernen – als Grundlage für Qualifizierungsarbeit. Der Artikel gibt einen Überblick über die wichtigsten Aspekte.
Dr. Regina Abeld  •  Miriam Potratz   •  Ausgabe 10/2025
lesen
Change
Chancen der digitalen Transformation: Strategien für zukunftssichere Qualifizierung
Arbeitswelt und Bildungslandschaft befinden sich in einem tiefgreifenden Wandel, der auch die Präventionsleistung Qualifizierung unter Anpassungsdruck setzt. Moderne Lernumgebungen ermöglichen neue Formen der Qualifizierung. Versicherte Unternehmen erwarten Vielfalt und Flexibilität – und auch Teilnehmende haben wachsende Erwartungen an eine digitale und passgenaue Qualifizierung.
Julia Maier-Rigaud  •  Diana Röttig  •  Martin Schröder   •  Ausgabe 10/2025
lesen
Change
Nachhaltige Qualifizierung: Mehr als Lerntransfer
Nachhaltigkeit ist längst mehr als ein ökologisches Schlagwort: Auch in der Bildungsarbeit nimmt sie einen größer werdenden Stellenwert ein. Dieser Artikel lotet aus, ob insbesondere soziale Nachhaltigkeit neue Impulse für die Qualifizierung der Unfallversicherungsträger liefern kann.
Dr. Regina Abeld  •  Dr. Katrin Boege  •  Miriam Potratz   •  Ausgabe 10/2025
lesen

Wie gefällt Ihnen die DGUV forum? Haben Sie Vorschläge für Verbesserungen?

Äußerst unzufrieden
Äußerst zufrieden