Aktuelle Ausgabe mit Schwerpunkt Bildungseinrichtungen erschienen
Jetzt als PDF herunterladen
Ausgabe 11/2025

Künstliche Intelligenz in der Hochschulbildung

KI gilt als Treiber tiefgreifender Veränderungen auch an Hochschulen. ­Spätestens seit generativen Systemen wie ChatGPT wird klar: Lehren, Lernen und Prüfen müssen neu gedacht werden. Hochschulen stehen vor didaktischen und rechtlichen Herausforderungen und benötigen klare Regelungen, um ­einen verantwortungsvollen Einsatz von KI-Tools zu gewährleisten.

Key Facts

  • Künstliche Intelligenz (KI) verändert Lehren, Lernen und Prüfen in Hochschulen grundlegend
  • Personalisierte Lernwege und neue Didaktik eröffnen Chancen, erfordern aber kritische Reflexion und digitale Souveränität – bei Lehrenden wie Studierenden
  • Der rechtssichere Umgang des Einsatzes von KI an der Hochschule der Deutschen Gesetzlichen Unfallversicherung (HGU) muss mittel- und langfristig gemäß KI-VO und DS-GVO integriert werden

Die rasante Entwicklung generativer KI-Systeme entfaltet zunehmend Wirkung im Studium. Jüngste Erhebungen zeigen: Rund 50 Prozent der Studierenden und Lehrenden nutzen generative KI-Tools aktiv in Studium und Lehre.[1] Eine weitere quantitative Längsschnittstudie berichtet sogar von mehr als 90 Prozent Nutzung KI-gestützter Tools unter Studierenden im Studienkontext.[2] Ein ähnliches Bild zeigt sich auch bei den Studierenden der Hochschule der Deutschen Gesetzlichen Unfallversicherung (HGU). Hier geben über die Hälfte der Befragten an, KI täglich oder mehrfach pro Woche einzusetzen, weitere 43 Prozent gelegentlich.[3]

Die Einsatzfelder sind dabei vielfältig: Studierende verwenden ChatGPT, Copilot oder Google Gemini zur Informations­be­schaffung und -vertiefung oder zur Zusammenfassung und Strukturierung, während spezialisiertere Tools wie DeepSeek, Perplexity oder NotebookLM gezielt bei wissenschaftlich-akademischen Arbeiten unterstützen. Andere Anwendungen helfen bei Transkriptionen, der Analyse qualitativer Daten oder statistischen Auswertungen. Zugleich nutzen viele Studierende KI auch im Alltag – von der Sprachübersetzung bis hin zur Organisation privater Aufgaben. Diese hohen Nutzungszahlen legen nahe, dass generative KI längst nicht mehr als experimentelles Werkzeug, sondern als Bestandteil studentischer Arbeitsmethoden zu betrachten ist. Diese Entwicklungen bringen zwar erhebliche Effizienz- und Innovationspotenziale mit sich, erfordern jedoch auch eine didaktische Neubewertung und werfen rechtliche Fragen auf.

KI wird selbst zum Lerngegenstand

KI verändert nicht nur Arbeitsweisen, sondern auch Lehr- und Lernprozesse. Anwendungen unterstützen bei Recherchen, Strukturierung, Textproduktion oder Datenanalyse. Lehrende können Chatbots für niederschwellige Betreuung einsetzen oder Lernmaterialien adaptiv aufbereiten. Dadurch verschiebt sich der Fokus: Klassische Wissensabfragen verlieren an Bedeutung, weil Informationen jederzeit KI-generiert verfügbar sind. Zukünftige Prüfungen müssen verstärkt auf das ­abzielen, was Maschinen nicht leisten: Reflexion, Transfer, ­kritisches Denken, Problemlösung, Kreativität und Zusammenarbeit. Gleichzeitig wird KI selbst zum Lerngegenstand. Hochschulen sind damit konfrontiert, digitale Souveränität zu ­fördern, die die Studierenden befähigt, KI-Kompetenzen verantwortlich einzusetzen. Sie müssen Strategien für einen verantwortungsvollen Umgang mit KI entwickeln und die Fähigkeit, KI kritisch zu reflektieren, in die Gestaltung von Lehr- und Lernprozessen integrieren.[4] Damit erweitert sich der didaktische Auftrag: Hochschulbildung muss in der und für die Zukunft befähigen, Technologien nicht nur zu nutzen, sondern auch zu verstehen und kritisch zu hinterfragen.

KI-Nutzung in Prüfungen

Besonders virulent wird die Frage nach der Zulässigkeit von KI im Prüfungswesen. Verfassen Studierende beispielsweise Ausarbeitungen mit KI-Unterstützung, rückt das Prüfungsrecht ins Zentrum. Es soll gewährleisten, dass alle unter vergleichbaren Bedingungen geprüft werden und der Grundsatz der Chancengleichheit (Art. 12 Abs. 1 GG i.V.m. Art. 3 Abs. 1 GG) gewahrt bleibt.[5] Entscheidend ist die Frage nach dem Umfang der Eigenleistung und die Abgrenzung zwischen zulässiger Hilfsmittelnutzung und Täuschung. Formulierungshilfen oder sprachliche Unterstützung können in bestimmten Grenzen erlaubt sein; fehlt jedoch die wissenschaftliche Eigenleistung, wenn ein Text im Wesentlichen durch KI generiert wird, liegt eine Täuschung vor.[6] Ein generelles Verbot des KI-Einsatzes wäre zwar einfach in der rechtlichen Umsetzung, in der Praxis jedoch weder kontrollierbar noch zielführend.[7] Alle Hochschulen, auch die HGU in privater Trägerschaft, sind daher gefordert, ihre Prüfungsordnungen so zu gestalten, dass der Einsatz von KI-Tools klar und abschließend geregelt ist, insbesondere hinsichtlich Transparenzanforderungen und inhaltlicher Abgrenzungskriterien.[8]

Alle Hochschulen, auch die HGU in privater Trägers­chaft, sind gefordert, ihre Prüfungs­ordnungen so zu gestalten, dass der Einsatz von KI-Tools klar und abschließend geregelt ist.

Die HGU hat in ihren Richtlinien für wissenschaftliches Arbeiten mit Wirkung ab 01.09.2025 festgelegt, dass jede Nutzung von KI transparent offenzulegen ist – inklusive Angabe der ­verwendeten Tools, des Zwecks und einer Reflexion der eigenen Weiterbearbeitung. Eine vollständige Generierung ohne eigene Leistung bleibt untersagt. Langfristig wird es jedoch erforderlich sein, den rechtssicheren Umgang mit KI in den verbindlichen Regelungsbereich der Prüfungsordnung selbst zu überführen, zumal hier nicht nur prüfungsrelevante Anforderungen, sondern auch grundrechtlich geschützte Positionen sowie das Gebot der Rechtssicherheit berührt sind.

KI-Einsatz von Seiten der Hochschule

Daneben stehen auch Lehrende vor der Herausforderung, KI sinnvoll und rechtssicher einzusetzen. Hochschulen müssen nicht nur geeignete Infrastrukturen bereitstellen, sondern auch didaktische und rechtliche Qualifizierung ermöglichen. Die europäische KI-Verordnung (KI-VO)[9] ist hierbei zentral. Sie verfolgt laut dem 26. Erwägungsgrund einen risikobasierten Ansatz und sieht je nach Risikokategorie unterschiedliche Anforderungen vor. Für Hochschulen besonders relevant sind Systeme zur automatisierten Leistungsbewertung, Prüfungsüberwachung oder auch zur Zulassung, die als Hochrisiko-KI gelten und nur eingesetzt werden dürfen, wenn strenge Auflagen zum Risikomanagement, zur Transparenz und zur menschlichen Aufsicht erfüllt sind.[10]

Hinzu kommen die Anforderungen der Datenschutz-Grundverordnung (DSGVO)[11]. Bereits die Eingabe personenbezogener Daten wie Name oder Matrikelnummer in ein KI-System stellt eine Verarbeitung dar und bedarf einer Rechtsgrundlage i.S.v. Art. 6 DSGVO. Hochschulen müssen daher sicherstellen, dass nur geprüfte und freigegebene Systeme eingesetzt werden. ­Datenschutz- und IT-Sicherheitsbeauftragte sind daher einzubeziehen, um rechtliche Vorgaben einzuhalten und zugleich praktikable Lösungen zu ermöglichen.

Fazit und Ausblick

KI prägt die Hochschulbildung in der Breite. Studierende bringen die Nutzungspraxis mit, Lehrende und Hochschulen müssen didaktisch und rechtlich Schritt halten. Innovation und Absicherung gehören zusammen. Die Leitfrage lautet: Welche Kompetenzen brauchen Studierende in einer Welt der KI und wie gestaltet man Lehr- und Lernformate und Prüfungsformen dafür? Um sich die mit KI verbundene kulturelle Transformation und das Potenzial zur Stärkung der Qualität akademischer Bildung zu Nutze zu machen, müssen technologische Dynamik, pädagogische Qualität und Rechtskonformität verzahnt werden. Hinzukommen müssen transparente Prüfungsregeln, ­qualifizierte Lehrende, datenschutzkonforme Systeme und die Förderung digitaler Souveränität.

Fußnoten

  1. Vgl. Budde/Friedrich/Sommer (2024), Hochschulforum Digitalisierung, Monitor Digitalisierung 360°, Arbeitspapier Nr. 83/ November 2024, S. 60, 64 (https://hochschulforumdigitalisierung.de/wp-content/uploads/2024/10/251028_HFD_Monitor_Digitalisierung-360_2324_WEB_RZ.pdf, Abfragedatum: 21.07.2025); vgl. auch Wannemacher/Bosse/Lübcke/Kaemena (2025), Hochschulforum Digitalisierung, Arbeitspapier Nr. 87/ April 2025, S. 8 (https://hochschulforumdigitalisierung.de/wp-content/uploads/2025/04/HFD_AP_87_Wie_KI_Studium_und_Lehre_veraendert_final.pdf, Abfragedatum: 21.07.2025).

  2. Vgl. von Garrel/Mayer (2025), Künstliche Intelligenz im Studium – Eine quantitative Längsschnittsudie zur Nutzung KI-basierter Tools durch Studierende (2023&2024), S. 2 (https://opus4.kobv.de/opus4-h-da/frontdoor/deliver/index/docId/533/file/gpt-dokumentation-final-jvg.pdf, Abfragedatum: 21.07.2025); vgl. auch Wannemacher/Bosse/Lübcke/Kaemena (2025), S. 8.

  3. Umfrage im Rahmen des Bachelorarbeits-Workshops des Bachelor-Jahrgangs 2025 an der HGU am 25.07.2025 (N=78).

  4. Vgl. König, A. (2024). Upgrade: KI-Pädagogik: Verstehen-Einsetzen-Beurteilen. Klett/Kallmeyer.

  5. Vgl. Ekardt/Klotz, ChatGPT im Hochschulrecht, Nutzung von KI-Systemen in der Hochschulprüfung – Notwendigkeit und Herausforderungen der Regulierung, MMR 2024, 545 (545).

  6. Vgl. näher dazu Birnbaum, ChatGPT und Prüfungsrecht, NVwZ 2023, 1127 (1128 f.).

  7. Vgl. Ekardt/Klotz, MMR 2024, 545 (546); Ekardt/Bärenwaldt, Digitalisiertes Hochschulrecht: Online-Prüfungen, Benotungen, ChatGPT und Anwesenheitspflicht, NJ 2024, 295 (298).

  8. Vgl. Ekardt/Bärenwaldt, NJ 2024, 295 (298); vgl. auch Gesellschaft für Informatik e.V., Künstliche Intelligenz in der Bildung, Positionspapier vom 17.07.2023, S. 5 (https://gi.de/fileadmin/GI/Hauptseite/Service/Publikationen/GI_Positionspapier_KI_in_der_Bildung_2023-07-12.pdf, Abfragedatum: 21.07.2025).

  9. Verordnung (EU) 2024/1689 des Europäischen Parlaments und des Rates vom 13.06.2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der VO (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der RL 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828 (Verordnung über künstliche Intelligenz).

  10. Vgl. Ekardt/Bärenwaldt, NJ 2024, 295 (299 f.); vgl. Ekardt/Bärenwaldt, NJ 2024, 295 (300).

  11. Verordnung (EU) 2016/679 des Europäischen Parlaments und des Rates vom 27.04.2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der RL 95/46/EG (Datenschutz-Grundverordnung), ABl. EU v. 04.05.2016, L 119/1.

Weitere Artikel zu diesem Thema

Schwerpunkt
In Bildungs­einrichtungen Sicherheit und Gesundheit systematisch fördern
Die unterschiedlichen Versichertengruppen – Lehrende auf der einen, Lernende auf der anderen Seite – stellen ein spezielles Merkmal in ­Bildungseinrichtungen dar. Aber auch die Einrichtungen selbst, mit ihren verschiedenen Aufträgen, weisen Besonderheiten auf, die es bei der ­Präventionsarbeit zu berücksichtigen gilt.
Annette Michler-Hanneken  •  Biljana Miljković   •  aktuelle Ausgabe
lesen
Schwerpunkt
Ermittlung psychischer Belastung von Kindern unter drei Jahren in Kitas
Ein neuartiges Verfahren ermöglicht die Ermittlung der psychischen ­Belastung von Kindern unter drei Jahren in Kindertageseinrichtungen (Kitas). Durch die Umsetzung der aus der Anwendung abgeleiteten Maßnahmen kann langfristig das Wohlbefinden von Kindern sichergestellt und so ihre Gesundheit gefördert werden.
Sophia Thomas   •  aktuelle Ausgabe
lesen
Schwerpunkt
Verkehrssicherheit junger Erwachsener: Erkenntnisse aus Forschung und Praxis
Schülerinnen und Schüler berufsbildender Schulen sind von Unfällen ­im Straßenverkehr besonders betroffen. Was macht ihre Mobilität so ­riskant? Und wie kann wirksame Prävention aussehen? Dies sind die ­Fragen, denen das von der Deutschen Gesetzlichen Unfallversicherung (DGUV) initiierte Forschungsprojekt FP 448 nachging.
Sabine Bünger  •  Rainer Knittel   •  aktuelle Ausgabe
lesen

Wie gefällt Ihnen die DGUV forum? Haben Sie Vorschläge für Verbesserungen?

Äußerst unzufrieden
Äußerst zufrieden