Generative Künstliche Intelligenz in der Schule:
Wie können wir sie offen, fair und reflektiert gestalten?
Generative Künstliche Intelligenz hat längst Einzug in den schulischen Alltag genommen. Doch wie sinnvoll ist die Nutzung in der Schule und welche Verantwortung tragen wir als Nutzende, wenn sie unser Lernen und Lehren beeinflussen?
Der Umgang mit generativer KI ist ein technisches und gesellschaftliches Unterfangen. Es geht um die Entwicklung einer kritisch reflektierten Haltung gegenüber KI-generierten Inhalten. Generative KI birgt das Potential, Lernen individueller, kreativer und gerechter zu gestalten. Sie stellt uns aber auch vor die Herausforderung, konstruktiv mit sich verstärkenden Ungleichheiten, reproduzierten Vorurteilen und oft kaum erkennbaren Falschinformationen im schulischen Kontext umzugehen.
In der Schule sollen junge Menschen ihr Verhältnis zu Wissen, Sprache und Welt entwickeln. Daher ist kritische Reflexion hier eine entscheidende Kompetenz - also die Fähigkeit, etwas aktiv zu hinterfragen, tiefgehend über etwas nachzudenken und schließlich eine Bewertung vorzunehmen. Im Kontext von generativer KI und Schule kann das z.B. anhand der folgenden Fragen erfolgen:
- Wie entstehen KI-generierte Ergebnisse?
- Welche Perspektiven fehlen und warum?
- Wie kann generative KI sinnvoll für Lernprozesse genutzt werden?
Generative KI sollte in Schulen fair, offen und reflektiert eingesetzt werden, damit Schule im Sinne digitaler Ethik ein Ort bleibt, an dem Verantwortung übernommen und Gestaltungskraft gefördert wird.
Datenqualität als Gelingensbedingung für faire KI-generierte Inhalte
Algorithmen lernen aus Daten, die von Menschen erzeugt und ausgewählt werden. Durch unvollständige und/oder überrepräsentierte Daten können dabei Verzerrungen entstehen („Bias“). Ein KI-System, das vor allem westliche, englischsprachige Quellen verarbeitet, wird kulturelle Perspektiven außerhalb dieses Rahmens höchstens eingeschränkt kennen und nicht in die Generierung von Inhalten mit einbeziehen. So kann ein Sprachmodell stereotype Rollenbilder oder ungleiche Geschlechterrepräsentationen fortschreiben.
Generative KI ist keine Person, auch wenn sie im öffentlichen Diskurs oft so inszeniert wird: In Artikeln über generativer KI werden häufig humanoide Roboter mit leuchtenden Augen als Titelbild gewählt und Chatbots erhalten Namen, Gender und ahmen emotionale Reaktionen nach. In Filmen und Büchern werden Künstliche Intelligenzen als Love Interest und sogar als empfindungsfähiges Gegenüber dargestellt. Diese Vermenschlichung kann dazu führen, maschinelle Text- oder Bildproduktion als Ausdruck von Intention oder Bewusstsein zu deuten, wo in Wahrheit statistische Musterverarbeitung vorliegt. Eine klare Trennung zwischen technischer Funktion und menschlicher Bedeutung ist hier entscheidend, um sowohl die Potenziale als auch die Grenzen von generativer KI realistisch einschätzen zu können.
Eine besondere Form dieser Vermenschlichung ist das Gendering von generativer KI: Die Standardeinstellung der meisten generative KI-Systeme ist weiblich und Sprachassistenzen wie ELIZA, Siri und Alexa wurden mit weiblichen Stimmen versehen. Wenn KI weiblich codiert ist, gehorsam antwortet und freundlich klingt, spiegelt dies gesellschaftliche Vorstellungen von Fürsorglichkeit und Unterordnung wider. Die UNESCO hat dies in ihrem 2019 veröffentlichten Bericht „I’d blush if I could“ („Wenn ich könnte, würde ich erröten“) treffend beschrieben: Digitale Assistentinnen reproduzieren Geschlechterstereotype, indem sie Befehle ausführen.
Im schulischen Kontext hat das enorme Bedeutung. Denn Schüler:innen lernen zunehmend anhand KI-generierter Texte, Bilder, Videos und anderer Inhaltsformen. Wenn in diesen Darstellungen etwa Männer häufiger als Experten auftreten und Frauen häufiger in fürsorglichen Rollen, prägt das ihr Weltbild. Lehrkräfte sollten deshalb gemeinsam mit Lernenden fragen: Wer wird wie dargestellt und warum?
Eine reflektierte Auseinandersetzung mit dem Gendering von generativer KI kann förderlich sein, um Fragen nach Identität, Sprache und Macht zu thematisieren. Lehrkräfte können solche Beispiele nutzen, um über gesellschaftliche Zuschreibungen zu sprechen und darüber, wie Softwaredesign Entscheidungen prägt. Denn jede technische Gestaltung trägt kulturelle Werte in sich. Generative KI ist also eine „simulierte Realität“, die immer Leerstellen und Unverhältnismäßigkeiten aufweist.
Faire Produktionsbedingungen generativer KI-Systeme
Darüber hinaus geht mit der Nutzung generativer KI-Systeme die Frage nach Teilhabe und Zugang einher: Die Nutzung privater Konten bei generativen KI-Systemen von Lehrkräften und Schüler:innen stellt keine langfristig tragbare Strategie für generative KI im Unterricht dar. Vielmehr brauchen Schulen Zugang zu qualitativ hochwertigen, datenschutzkonformen generativen KI-Systemen. Nur so lässt sich verhindern, dass KI bestehende Bildungsungleichheiten verschärft und neue schafft. Technische Kompetenz muss durch ethische Reflexion ergänzt werden, etwa indem Lehrende und Lernende ihre Prompts bewusst divers formulieren oder erkennen, wo generative KI gesellschaftliche Schieflagen spiegelt.
Eine ethische Komponente bei der Nutzung generativer KI ist Nachhaltigkeit. Jeder Prompt, ebenso wie das Training von Large Language Models, erfordert Rechenleistung, sodass Strom und Wasser aufgewendet werden. An dieser Stelle ist ein Bewusstsein von Lehrkräften und Schüler:innen notwendig, nach dem Prinzip der digitalen Suffizienz zu agieren: So viel wie nötig, so wenig wie möglich.
Wissen teilen und Teilhabe durch das Prinzip der Offenheit ermöglichen
Im Kontext von generativer KI bedeutet Offenheit mehr als nur Zugang. Sie meint Transparenz, Nachvollziehbarkeit und Demokratisierung von Technologien, die zunehmend unseren Alltag und Bildungsprozesse prägen. Open-Source-Software, also frei einsehbare und veränderbare Programme, schafft die Möglichkeit, dass Lehrkräfte, Forschende und Schüler:innen verstehen, wie KI-Systeme aufgebaut sind, welche Daten sie nutzen und welche Annahmen in ihren Modellen stecken. Das Wissen darüber, wie generative KI funktioniert, ist eine Voraussetzung dafür, sie sinnvoll und verantwortungsvoll einzusetzen.
Doch Open Source ist nicht nur eine technische Praxis, sondern auch eine gesellschaftliche Haltung. Der Grundsatz „Public money, public code“ bringt auf den Punkt, dass öffentlich finanzierte digitale Innovationen allen zugutekommen sollten. Wenn Schulen offene KI-Tools nutzen, fördern sie ihre eigene digitale Souveränität, also die Fähigkeit, Technologien zu verstehen, zu gestalten und kritisch zu bewerten. Damit stärken sie die Selbstwirksamkeit der Lernenden in einer zunehmend automatisierten Welt und begeben sich nicht in die Abhängigkeit proprietärer Systeme.
Offenheit ist schließlich auch eine emotionale und kulturelle Kompetenz. Open-Mindness wird durch Neugier, Toleranz und Kreativität definiert. In einer OECD-Studie von 2021 gehören diese zu den wichtigsten Faktoren für schulischen Erfolg bei 15-Jährigen. Wenn Schüler:innen also ermutigt werden, generative KI zu hinterfragen, zu experimentieren und selbst zu verändern, entsteht ein neues Verständnis von Lernen: Forschend, reflektiert und gemeinschaftlich. Schon 2016 hat das Council of Europe beschrieben, inwiefern Offenheit auf eine demokratische Kultur durch Gemeinwohlorientierung, Verantwortung, Selbstvertrauen in die eigene Handlungsfähigkeit und Toleranz für Mehrdeutigkeit einzahlt.
Lernen mit, über, durch, ohne und trotz generativer KI als gemeinschaftlicher Prozess
Lehrkräfte erleben täglich Situationen, in denen generative KI Antworten liefern, ohne dass Schüler:innen sie verstehen oder durchdrungen haben, was genau die Frage ist und warum sie relevant sein könnte. Generative KI wird laut der JIM-Studie 2025 von Jugendlichen primär für Hausaufgaben genutzt. In einer Studie von Bitcom aus 2024 zeigt sich, dass 37 % der Lehrkräfte die Nutzung von generativer KI eher oder komplett verbieten, nicht einmal die Hälfte der befragten Lehrkräfte traut sich dabei zu, die Verwendung von generativer KI bei Hausaufgaben auch zu erkennen.
Reflexion bedeutet hier, solche Momente als Anlass für gemeinsame Lernprozesse zu nutzen. Was heißt „verstehen“ im Zeitalter algorithmischer Texte? Wie unterscheiden wir zwischen Wissen und Reproduktion? Kritisch-reflektiertes Lernen kann durch einfache Übungen gefördert werden: Schüler:innen lassen sich einen KI-Text generieren, verbessern den Prompt mehrfach, prüfen Fakten in anderen Quellen und analysieren Sprache und Wirkung. So entsteht eine neue Lernkultur: Weniger Konsum, mehr Dialog. KI wird zum Werkzeug, um Denken zu schärfen und Perspektiven zu vergleichen.
Schule als Ort digitaler Mündigkeit und zukunftsorientierter Lernkultur
Künstliche Intelligenz fordert die Schule heraus, ihr eigenes Bildungsverständnis zu überdenken. Sie ist der Raum, in dem Mündigkeit und Literacy entwickelt werden. Fairness, Offenheit und Reflexion sind dabei die Grundpfeiler einer digital-demokratischen Lernkultur.
Schule kann hier zum Labor werden, in dem junge Menschen lernen, generative KI zu verstehen, zu gestalten und kritisch zu hinterfragen. Die Auseinandersetzung mit Bias, Gendering und Vermenschlichung schärft das Bewusstsein für ethische Fragen, ebenso wie für Vielfalt, Sprache und Verantwortung.