Vertrauen statt Kontrolle: Warum KI nicht das Problem ist, sondern wie und was wir prüfen und lernen

Künstliche Intelligenz müsse zu einer grundlegenden Neuausrichtung des Lernens und Prüfens führen, sagt Prof. Ute Schmid. Wie das gehen kann, erklärt sie im Interview.

Michael Klitzsch

Lesezeit: 8 Minuten
Schüler arbeitet mit Skizzenblock, Smartphone und Notizen – Lernen mit digitalen und analogen Hilfsmitteln im Mathematikunterricht

Redaktion: Frau Professorin Schmid, wir haben vor diesem Interview über einen viralen Reddit-Post eines Schülers gesprochen, der sich über den unreflektierten KI-Einsatz seiner Mitschüler und die mangelnde Kontrolle der Lehrkräfte beklagt. Was genau hat Sie an diesem Beitrag so betroffen gemacht?

Prof Dr. Ute Schmid: Mich haben an diesem Beitrag zwei Dinge besonders berührt. Das Erste, was einem direkt ins Auge springt, ist die unfaire Behandlung, die dieser Schüler erfährt. Er beschreibt, wie sein Engagement, mit eigenem Wissen zu argumentieren und Fragen zu beantworten, systematisch ausgebremst wird durch eine Masse von Mitschülern, die lieber schnell eine KI befragen. Er fühlt sich bestraft, weil er den anspruchsvolleren und pädagogisch wertvollen Weg gehen will. Diese empfundene Ungerechtigkeit ist das eine.

Das Zweite, was mich schockiert hat, ist die darin offenbarte Hilflosigkeit des Systems. Der Post legt ja nahe, dass Lehrkräfte anscheinend nicht mehr in der Lage sind, mündliche Beiträge zu bewerten, weil sie nicht kontrollieren können, ob Schülerinnen und Schüler nebenher ChatGPT auf dem Smartphone nutzen. Wenn ich das in Kontrast setze zu Nachrichten, dass Bundesländer wie Hessen Smartphones komplett aus Schulen verbannen oder dass Spicken mit äußerster Härte sanktioniert wird, dann sehe ich einen tiefen Widerspruch. Diese Diskrepanz zwischen drakonischen Verboten auf der einen Seite und offensichtlicher Ohnmacht auf der anderen Seite zeigt, dass wir ein fundamentales Problem haben, das weit über die reine Nutzung von Technologie hinausgeht.

Redaktion: Sie sagen, das Problem liege tiefer. Inwiefern ist die Aufregung um KI nur ein Symptom für bereits bestehende Schwächen in unserem Schulsystem?

Schmid: Die Herausforderung durch KI-Systeme wie ChatGPT legt nur schonungslos offen, was schon lange im Argen liegt. Mich stört am Schulbetrieb seit Langem, dass häufig das im Fokus steht, was ich als „shallow knowledge“, also flaches Wissen, bezeichne. Es geht um Wissen, das leicht abfragbar, aber auch schnell wieder vergessen ist und wenig mit echtem Kompetenzerwerb zu tun hat.

Wenn Schule Kompetenzen so prüft, dass man gute Noten bekommen kann, ohne Inhalte wirklich verstanden, vernetzt und in Zusammenhänge eingeordnet zu haben, dann haben wir ein Riesenproblem. Und genau diese Art von abfragbarem Faktenwissen ist es, die sich durch KI-Tools perfekt ersetzen lässt. Die KI ist also nicht die Ursache des Problems, sondern der Brandbeschleuniger für eine bereits existierende Krise der Prüfungskultur.

Redaktion: Reicht das Problem durch KI nicht tiefer als Sie es skizzieren? Moderne KI-Systeme können bereits heute routiniert komplexere kognitive Aktivitäten leisten, analysieren, bewerten, Zusammenhänge erkennen – und werden schon in sehr naher Zukunft noch deutlich besser darin sein. Wird KI also dann am Ende nicht jede Frage optimal lösen können, nicht nur die nach abfragbarem Faktenwissen? Wie sollen Lehrkräfte dann noch einschätzen können, ob eine Schülerin / ein Schüler mit Zugang zu KI tatsächlich in der Tiefe Wissen verstanden hat?

Schmid: Ich stimme zu, KI-Systeme, insbesondere generative Ansätze, sind heute schon in vielen Bereichen sehr performant. Insbesondere aktuelle Ansätze, bei denen große Sprachmodelle mit speziellem Wissen augmentiert und mit verschiedenen Methoden instruiert werden, liefern für verschiedene Benchmarkprobleme sehr überzeugende Ergebnisse. Allerdings teile ich Ihren Optimismus, dass KI-Systeme am Ende jede Frage optimal beantworten können, nicht ganz. Die Generierung von Ausgaben basiert ja im Kern auf Wahrscheinlichkeiten. Es gibt keine Garantie, dass eine Ausgabe korrekt ist. Beispielsweise zeigt eine aktuelle in Nature publizierte Studie, dass große und instruierbare Sprachmodelle teilweise sogar weniger zuverlässig sind.

Außerdem gehören zur Lösung einer Aufgabe nicht nur die Korrektheit, sondern auch weitere Qualitätskriterien, etwa Nachvollziehbarkeit des Lösungswegs, Originalität der Argumentation oder korrekter Bezug auf Quellen. In jedem Fall ist es notwendig, dass generierte Inhalte auf Korrektheit geprüft und gegebenenfalls weitere Qualitätsmerkmale bewertet werden müssen. Das ist eine für Schülerinnen und Schüler genau wie für Lehrkräfte sehr anspruchsvolle Aufgabe. Dazu braucht es fachliche Kompetenz sowie durch Wissen und Erfahrung fundierte Bewertungskriterien.

Um zu prüfen, ob Lernende tatsächlich etwas verstanden haben, ist die beste Form ein mündliches Prüfungsgespräch. Die Lehrkraft hat hier die Aufgabe, sich Kriterien zu überlegen, mit denen beurteilt werden kann, ob etwas verstanden wurde. Dies ist keine triviale Aufgabe.

Redaktion: Wie Sie beschrieben haben, reagieren viele Schulen auf die KI-Herausforderung mit Verboten und verstärkter Kontrolle. Sie plädieren für einen anderen Weg. Können Sie den erläutern?

Schmid: Der Begriff „Kontrolle“ setzt ja bereits ein grundlegendes Misstrauen voraus. Das halte ich für eine sehr unproduktive und wenig hilfreiche Grundhaltung in Bildungseinrichtungen, sei es an Schulen oder Hochschulen. Ich möchte meinen Studierenden grundsätzlich vertrauen. Wenn ich in einer Vorlesung sehe, dass viele ihre Notebooks geöffnet haben und tippen, unterstelle ich nicht sofort, dass sie private Dinge erledigen. Meine Grundannahme ist, dass sie meine Folien annotieren oder einen Begriff nachschlagen, den ich vielleicht nicht verständlich genug erklärt habe.

Im Gegenzug erwarte ich, dass meine Studierenden mir vertrauen, dass ich ihnen fair und transparent vermittle, welche Kompetenzen mir wichtig sind, und dass ich genau diese dann auch prüfe. Diese Haltung des gegenseitigen Vertrauens ist die Basis. Leider hat sich in den letzten 20 Jahren im Bildungsbereich eine von Misstrauen und Absicherung geprägte Stimmung breitgemacht. In Bayern hängt das zum Beispiel sicher auch mit dem Druck beim Schulübergang zusammen. Lehrkräfte stehen unter einem enormen Rechtfertigungsdruck gegenüber Eltern, die gerichtsfest belegt haben wollen, warum ihr Kind eine bestimmte Note bekommen hat. Diese Kultur der Absicherung führt dazu, dass das Überprüfen von Wissen immer stärker standardisiert wird, um ja keine Angriffsfläche zu bieten. Das lässt wenig Spielraum für die professionelle, vielleicht auch mal weichere pädagogische Einschätzung einer Lehrkraft. Das finde ich sehr bedauerlich, denn es untergräbt die Bewertungskompetenz der Lehrenden und nährt das Misstrauen.

Ich wünsche mir ein Bildungssystem, in dem möglichst viele Lernende das Lernen selbst und den Erfolg, etwas verstanden zu haben oder zu können, als positive Erfahrung wahrnehmen können.

Prof. Dr. Ute Schmid

Redaktion: Wie kann denn eine mehr auf Vertrauen basierende Prüfungskultur in der Praxis aussehen?

Schmid: „Open Book“-Klausuren, also Prüfungen, bei denen Studierende ihre eigenen Notizen und Materialien verwenden dürfen, sind ein gutes Beispiel. Ich biete dieses Format grundsätzlich an, weil ich nicht möchte, dass Studierende meine Folien auswendig lernen. In meinen Prüfungen geht es um Verständnis und Problemlösetransfer. Die Studierenden dürfen alle Unterlagen nutzen, weil die Aufgaben so gestaltet sind, dass reines Nachschlagen nicht zum Erfolg führt. Man muss die Inhalte verstanden haben, um sie auf neue Probleme anwenden zu können.

Redaktion: Doch schon heute kann KI sehr gut Wissen transferieren. Was machen Sie, wenn der Geprüfte zur Verfügung stehendes Material und Fragestellung per Screenshots hochlädt, sich die optimalen Antworten generieren lässt – und Ihr Vertrauen so vermutlich unbemerkt missbraucht?

Schmid: In einer schriftlichen Prüfungssituation ist das nicht ganz auszuschließen. In einer mündlichen Prüfung ist das dagegen kein Problem. Ich behaupte aber, dass es durchaus möglich ist, schriftliche Prüfungsfragen so zu stellen, dass ein KI-System mit hoher Wahrscheinlichkeit nicht die korrekte Lösung liefert, insbesondere wenn neben der Korrektheit auch andere Qualitätskriterien mit in die Bewertung eingehen. Allgemein zeigt Ihr Beispiel aber, dass es problematisch ist, wenn Bildungserfolg rein auf das Erzielen guter Ergebnisse in Prüfungen reduziert wird. Ich wünsche mir ein Bildungssystem, in dem möglichst viele Lernende das Lernen selbst und den Erfolg, etwas verstanden zu haben oder zu können, als positive Erfahrung wahrnehmen können.

Redaktion: Welche Rolle messen Sie dem immer stärkeren Einfluss von Social Media auf Schülerinnen und Schüler in diesem Kontext des Lernens zu?

Schmid: Eine nicht unerhebliche. Die jetzige Generation wächst in einer durch Social Media und Apps geprägten Welt auf. Dies trägt ganz wesentlich dazu bei, dass sie nur noch schnelle Belohnungen als Befriedigung akzeptiert und nicht mehr in der Lage ist, durchzuhalten, bis sich der Erfolg einstellt. Diese ganz schnelle Bedürfnisbefriedigung trainiert die intrinsische Motivation ab. Das hat Konsequenzen für Resilienz, Durchhaltevermögen und auch für das Erkennen von Qualität. Lernen ist mit Anstrengung verbunden, so unsexy das klingt. Daher ist es so wichtig zu vermitteln, dass auf eine Anstrengung eine tiefere Form der Belohnung folgt. Im besten Fall ist das die intrinsische Belohnung durch das Gefühl: „Das kann ich jetzt, das habe ich verstanden.“

Wir geben eine ganz entscheidende kognitive Fähigkeit auf, wenn wir nicht mehr lernen, unsere Gedanken selbstständig zu strukturieren und zu Papier zu bringen.

Prof. Dr. Ute Schmid

Redaktion: In einer neuen Studie des MIT wird explizit davor gewarnt, dass durch das ständige „kognitive Auslagern“ an die KI die Fähigkeit zum eigenständigen, kritischen und strukturierten Denken regelrecht verkümmern könnte. Droht uns eine Generation, die durch die ständige Verfügbarkeit von KI-Lösungen wichtige Fähigkeiten verlernt?

Schmid: Diese Gefahr ist absolut real und eine der größten Herausforderungen. Wir geben eine ganz entscheidende kognitive Fähigkeit auf, wenn wir nicht mehr lernen, unsere Gedanken selbstständig zu strukturieren und zu Papier zu bringen. Mein dringender Rat ist daher: Niemals direkt prompten, bevor man nicht selbst nachgedacht und eine erste Lösung formuliert hat. Wenn ich danach ein KI-Tool nutze und mir zwei weitere Argumente geliefert werden, an die ich nicht gedacht hatte, ist das wunderbar. Dann kann ich diese reflektiert einbauen. Aber der erste Schritt des eigenen Denkens darf nicht übersprungen werden.

Redaktion: Wie können Lehrkräfte hier unterstützen und KI so einsetzen, dass Motivation und Kompetenzerwerb gefördert, statt behindert werden?

Schmid: Hier sind einige konkrete Beispiele für einen konstruktiven Einsatz im Unterricht:

  • Im Deutschunterricht: Eine Gymnasialrektorin hat mir von einem sehr klugen Ansatz erzählt. Wenn sie einen wirklich schlechten Aufsatz von einem Mittelstufenschüler hat, gibt sie diesen in ein KI-System ein. Dann promptet sie genau die Dinge, die sie sonst als Feedback unter die Arbeit schreiben würde: „Nutze mehr Adjektive“, „Baue im Hauptteil wörtliche Rede ein“ oder „Pointiere die Einleitung auf deine Hauptaspekte“. Anschließend zeigt sie dem Schüler seinen Originalaufsatz und die von der KI verbesserten Versionen. So wird die KI zu einem Werkzeug für sichtbares, verständliches Feedback.
     
  • In der frühen Bildung: Denken Sie an Intelligente Tutor-Systeme (ITS). Wir haben zum Beispiel den „Rechenzoo“ entwickelt, ein System für Grundschul-Arithmetik. Wenn ein Kind in der dritten Klasse systematisch Fehler beim schriftlichen Subtrahieren macht, weil es das Konzept des „Borgens“ nicht verstanden hat, erkennt das ITS genau dieses Fehlkonzept. Es sagt nicht nur „falsch“, sondern generiert gezielt strukturanaloge Aufgaben, um genau diese Hürde zu überwinden. Kinder, die den Stoff schon beherrschen, bekommen währenddessen anspruchsvollere Textaufgaben, die ebenfalls von einer KI generiert werden. So wird echte Differenzierung im Unterricht möglich.
     
  • Im Fremdsprachenunterricht: Stellen Sie sich ein sozial scheues Kind vor, das im Englischunterricht einen Dialog sprechen soll. Die Angst vor der Bewertung und der peinlichen Situation im Klassenverbund blockiert das Lernen. Hier könnte das Kind den Dialog zunächst mit einem KI-Avatar üben. Dieser Agent kann qualifiziertes Feedback zu Aussprache, Grammatik und Wortschatz geben, ohne den sozialen Druck einer Prüfungssituation.
     
  • In den MINT-Fächern: Im Informatik- oder Physikunterricht kann es sinnvoll sein, eine natürlichsprachlich formulierte Aufgabe von einem KI-Tool lösen zu lassen, um zum Beispiel eine alternative Beweisidee oder einen anderen Programmieransatz zu sehen. Die entscheidende Regel ist aber auch hier: Erst selbst versuchen, die Lösung zu finden. Die KI dient der Reflexion und Erweiterung, nicht dem Ersatz der eigenen Denkleistung. Wer nie selbst programmiert, wird die Qualität von generiertem Code niemals beurteilen können.

Redaktion: Wenn Sie in die Zukunft blicken, was ist der wichtigste nächste Schritt, den das Bildungssystem jetzt gehen muss, um die Potenziale von KI konstruktiv zu nutzen und die erwähnten Risiken zu minimieren?

Schmid: Der absolut wichtigste und erste Schritt ist, dass die Fachdidaktiken in einen ernsthaften und tiefgreifenden Diskurs eintreten. Sie müssen für ihre jeweiligen Fächer definieren, was die zentralen, unverzichtbaren Kompetenzen für das 21. Jahrhundert sind. Was muss ein Abiturient in Geschichte, Physik oder Deutsch wirklich können und verstanden haben, um mündig und zukunftsfähig zu sein?

Erst wenn wir diese Kompetenzziele klar und fundiert definiert haben, können wir im zweiten Schritt überlegen, an welchen Stellen uns Werkzeuge wie die Künstliche Intelligenz helfen können, diese Ziele besser, effizienter oder individualisierter zu erreichen. Wir dürfen nicht von der Technologie ausgehen und fragen, was wir damit machen können. Wir müssen von unseren pädagogischen Zielen ausgehen und fragen, welches Werkzeug uns wie dafür dient. Das ist die richtige Reihenfolge.

Redaktion: Frau Professorin Schmid, wir danken Ihnen für dieses Gespräch.

Zur Person

Ute Schmid ist Inhaberin des Lehrstuhls für Kognitive Systeme an der Otto-Friedrich-Universität Bamberg. Neben ihren Qualifikationen im Bereich Informatik (Diplom, Promotion, Habilitation an der TU Berlin) ist sie auch Diplom-Psychologin. Seit mehr als 20 Jahren lehrt und forscht sie im Bereich Künstliche Intelligenz. Für ihre Leistungen wurde sie als EurAI Fellow und GI-Fellow ausgezeichnet. Prof. Ute Schmid engagiert sich seit vielen Jahren für die Vermittlung von Informatik- und KI-Kompetenzen. Sie leitet den Arbeitskreis KI in Schulen (KiS) der Gesellschaft für Informatik und ist Mitglied im wissenschaftlichen Beirat des Bayerischen Schulversuchs ki@school.