#K%C3%BCnstlicheIntelligenzKI_

eBildungslabor-Blognele@ebildungslabor.de
2025-10-18

Buchnotizen: Weiß die KI, dass sie nichts weiß?

Katharina Zweig hat mit ‚Weiß die KI, dass sie nichts weiß?‘ ein weiteres Buch im Kontext der aktuellen KI-Debatte geschrieben. Dieses Mal geht es sehr anschaulich um große Sprachmodelle wie ChatGPT und Co.

Wie auch schon bei ihren vorherigen Büchern mag ich es bei Katharina Zweig sehr gerne, dass sie von Technologie sehr begeistert ist, aber es dabei immer und zugleich schafft, nicht in einen unreflektierten Hype abzurutschen. Große Sprachmodelle sind für sie Technik, die erklärt werden kann und keine Magie!

Ich habe ihr Buch mit pädagogischer Brille gelesen. Sie schreibt aus ihrer Perspektive der (Sozio)-Informatik. Das passte aus meiner Sicht ganz wunderbar. Denn ich fand ihre Erklärungen durchweg sehr anschaulich und gut verständlich. Insbesondere im zweiten Teil geht es sehr detailliert in den ‚Maschinenraum der Sprachmodelle‘.

Für meinen Kontext fand ich dann vor allem den dritten Teil sehr relevant. Hier stellt Katharina Zweig dar, was Sprachmodelle können und was eben auch nicht. Vieles hatte ich für mich ähnlich entwickelt (und habe mich sehr gefreut, aus Informatik-Perspektive bestätigt zu werden.).

Wichtig fand ich hier vor allem diese Aspekte:

  • KI-Sprachmodelle haben keinen Weltbezug und können ihren Output nicht, wie wir Menschen, erklären. Sie geben Output auf Basis von dem, was als Prompt gestellt wird und was in ihrer Datenbasis steckt.
  • KI-Sprachmodelle eignen sich nicht als Antwortmaschine. Ich kann sie dann verwenden, um eine Antwort zu erhalten, wenn ich die Antwort eigentlich kenne, aber sie mir gerade nicht einfällt oder ich sie einfach noch einmal anders/ besser formuliert haben will. (‚Wie war das nochmal?‘)
  • KI-Sprachmodelle können keine Werturteile fällen, also z.B nicht bewerten, ob bestimmte Qualitätsdimensionen in einem Text eingehalten werden oder nicht. Sie können lediglich etwas mit einem Text assoziieren. (Zum Beispiel: langer Text = viele Inhalte, oder: viele Fremdwörter = akademisch geprägter Text). Darum hilft es viel mehr, z.B. in Interaktion mit KI-Sprachmodellen Qualitätsdimensionen zu entwickeln oder sich ein mögliches Raster für eine Bewertung vorschlagen zu lassen. Die eigentliche Bewertung können uns KI-Sprachmodelle aber nicht abnehmen.
  • Wir Menschen sind so entwickelt, dass wir Sinn in die Äußerungen eines Gegenübers projizieren. (= Theory of Mind). Das ist super sinnvoll, um menschliche Verständigung produktiv zu gestalten. In der Interaktion mit KI-Sprachmodellen kann uns das zum Teil auf die Füße fallen. Denn der Output dieser Maschinen ist per se eine Konfabulation (= der besser passende Begriff anstelle von Halluzination, denn es handelt sich ja nicht um eine Wahrnehmungsstörung (= Halluzination), sondern Sprache wird nicht so erzeugt, wie wir es annehmen würden (= Konfabulation).)

Sehr anschaulich und hilfreich fand ich außerdem diese Vorschläge und Darstellungen:

  1. Um KI-Sprachmodelle nicht zu vermenschlichen, aber zugleich die veränderte technologischen Möglichkeiten anzuerkennen, lässt sich die Tilde als Symbol nutzen. Ich hatte bisher häufiger versucht, technische Begriffe zu verwenden oder Anführungszeichen zu setzen. Die Tilde scheint mir passender, um sprachlich ausdrücken zu können, mit was wir bei dieser Technologie konfrontiert sind. Zum Beispiel könnte die Tilde wie folgt genutzt werden: „ChatGPT ~antwortet immer sehr freundlich.“ (= Die Tilde vor dem Verb ‚antworten‘ macht deutlich, dass ChatGPT eben nicht so antwortet, wie ein Mensch es tun würde, aber wir es trotzdem so empfinden).
  2. Wir tendieren dazu (wahrscheinlich gerade als Pädagog*innen), sehr wohlwollend auf KI-Sprachmodelle zu blicken, ähnlich wie wir das bei Lernenden tun würden. Wenn ein Schüler zum Beispiel in einer Einmaleins-Abfrage fast alle Ergebnisse richtig weiß, aber dann ein- oder zweimal eben doch daneben liegt, dann würden wir wahrscheinlich denken: „Okay, das hat er verstanden und gut gelernt. Bei den wenigen Ausnahmen war er eben kurz abgelenkt.“ Genau diese Schlussfolgerung sollten wir bei KI-Sprachmodellen aber nicht ziehen. Denn wenn hier ein falscher Output kommt, dann ist eine ‚kurze Ablenkung‘ eben keine rationale Erklärung und es hilft dann nicht, einfach ein bisschen geduldiger zu sein. Vielmehr müssen wir anerkennen, dass es offensichtlich einen Fehler im System gibt, den wir angehen müssen. (Diese Darstellung erklärt für mich übrigens auch sehr gut, warum der Blick auf KI von technischen Menschen sich so oft so stark von dem von nicht-technischen Menschen unterscheidet. Ich habe hier schon oft erlebt, wie aus solchen unterschiedlichen Perspektiven sehr aneinander vorbei geredet wurde).
  3. Für mich selbst weiternutzen und auch Kolleg*innen in meinen Workshops empfehlen, werde ich schließlich insbesondere den Rat von Katharina Zweig, KI-Sprachmodelle immer zunächst so einfach wie möglich zu erklären. Das bedeutet konkret: Wenn ein (sehr faszinierender) Output eines KI-Sprachmodells grundsätzlich damit erklärt werden kann, dass erkannte Muster in menschlichen Texten mithilfe von Wahrscheinlichkeitsberechnungen reproduziert werden, dann gibt es keinen Grund, irgend etwas anderes (eine wirkliche künstliche Intelligenz? ein entwickeltes Bewusstsein der Maschine? …) dahinter zu vermuten.

Um die gesamtgesellschaftliche Einordnung von KI-Technologie geht es in diesem Buch nur am Rande. Dazu findet man mehr in zwei anderen Büchern von Katharina Zweig (‚Die KI war’s‘ und ‚ein Algorithmus hat kein Taktgefühl‘.)

Mein Fazit: Sehr große Leseempfehlung für Lernende und Lehrende, die eine kritisch-konstruktive Nutzung von KI-Technologie in der Bildung anstreben und dazu einen entmystifizierten Blick auf die Funktionsweise der Technologie und den damit verbundenen Möglichkeiten suchen.

Beitrag weiternutzen und teilen

Dieser Beitrag steht unter der LizenzCC BY 4.0und kann somit gerne offen weitergenutzt und geteilt werden.Hier kannst du dir den Beitragslink und/oder den Lizenzhinweis kopieren. Wenn du den Beitragslink in das Suchfeld im Fediverse (z.B. bei Mastodon) eingibst, wird er dir dort angezeigt und du kannst ihn kommentieren.

Link kopieren Lizenz kopieren

#KünstlicheIntelligenzKI_

Ein Foto vom Titelbild von Weiß die KI, dass sie nichts weiß? auf dem tolino
eBildungslabor-Blognele@ebildungslabor.de
2025-09-30

Kurzeinschätzung zum KI-Chatbot telli

Ich hatte Gelegenheit, mir den KI-Chatbot telli anzuschauen und teile hier meine Kurzeinschätzung dazu:

Was ist telli?

telli ist ein KI-Chatbot, der vom FWU (Institut für Film und Bild in Wissenschaft und Unterricht gGmbH), dem Medieninstitut der 16 Bundesländer, entwickelt wurde. Es ist noch in Entwicklungsphase, aber steht in einzelnen Bundesländern, z.B. in Brandenburg, Lehrkräften bereits zur Nutzung zur Verfügung. Nähere Informationen zu telli erhält man auf der Projekt-Website.

Erwähnenswert ist noch, dass telli ein Teilprojekt des größeren Projekts AIS (Adaptive Intelligente Systeme) ist, mit dem KI-Nutzung im Bildungskontext noch weiter erprobt werden soll.

Wie funktioniert telli?

Mit einem Zugang zu telli, den man als Lehrkraft erhalten kann, wenn das System im eigenen Bundesland zur Verfügung steht, kann man sich registrieren und landet dann in einer sehr übersichtlichen und aufgeräumten Umgebung. Wie man es von anderen KI-Chatbots kennt, werden direkt Vorschläge für mögliche Prompts gemacht. Diese sind auf den Bildungsbereich zugeschnitten.

Für die einzelnen Chats kann aus unterschiedlichen Sprachmodellen ausgewählt werden. Darunter sind sowohl proprietäre Modelle (inklusive das neuste GPT5-Modell), als auch Open Source Modelle wie z.B. Mistral.

Zusätzlich gibt es die Möglichkeit spezifische Assistenzen einzurichten. Zum Beispiel einen Assistenten, der mir gezielt bei der Vorbereitung meines Englischunterrichts in der Unterstufe hilft. Ähnlich wie bei CustomGPTs von ChatGPT kann hier festgelegt werden, wie der Assistent jeweils arbeiten soll. Und es lassen sich gezielt Inhalte hochladen, auf die zugegriffen werden soll. Solche Assistenten stehen zum Teil schon vorkonfiguriert zur Verfügung. Wenn Nutzende eigene Assistenten erstellen, haben sie die Möglichkeit, diese nur für sich selbst zu nutzen oder für das eigene Kollegium freizugeben.

Neben diesen Funktionen für Lehrkräfte, können auch Schüler*innen den Chatbot nutzen, allerdings nur vorbereitet durch Lehrkräfte. Dazu können erstens so genannte Lernszenarien angelegt werden. Ein Beispiel wäre hier eine Umgebung, in dem ein Text hochgeladen und in Interaktion mit dem Chatbot verbessert werden kann. Zweitens können Bots entwickelt werden, mit denen Schüler*innen sich in einen Chat begeben und auf diese Weise lernen können. Ein Beispiel wäre ein potentieller Patient in der beruflichen Bildung, den ich als Auszubildender zu einer Untersuchung beraten soll.

Um Lernszenarien oder Bots anzulegen, wird von den Lehrkräften eingetragen, was jeweils gemacht und auch, was nicht gemacht werden soll. Und es wird festgelegt, wie lange die Anwendung zur Verfügung stehen soll. Der Standard ist hier Unterrichtszeit. Das lässt sich aber auch auf mehrere Tage verlängern, so dass Schüler*innen potentiell in der Anwendung auch außerschulisch lernen können. Außerdem können auch hier Inhalte hochgeladen werden. Anschließend wird die Umgebung mit Schüler*innen geteilt.

Wie ist telli pädagogisch einzuschätzen?

Grundsätzlich finde ich es begrüßenswert, dass der Umgang mit KI als öffentliche Bildungsherausforderung anerkannt und von den Ländern nach gemeinsamen Antworten gesucht wird. Nach eigenen Angaben ist telli datenschutzkonform nutzbar. Die Daten, die von Lehrkräften und Schüler*innen bei der Nutzung entstehen, können potentiell für öffentliche Bildungsentwicklung eingesetzt werden. In diesem Rahmen finde ich es auch gut, dass nicht auf ein Sprachmodell gesetzt, sondern unterschiedliche zur Auswahl angeboten werden – darunter eben auch Open Source Modelle, was in der Perspektive das Potential zu einer souveränen Nutzung bietet.

Zweitens folgt telli meinem Eindruck nach zu großen Teilen nicht einer Vereinfachungs- und Automatisierungslogik, die ansonsten vielfach das KI-Narrativ prägt. Natürlich gibt es auch hier Möglichkeiten z.B. zu einer Assistenz in der Schulverwaltung zur Formulierung von Elternbriefen, was an dieser Stelle aber dann ja auch sinnvoll ist. Wenn es ums Lernen geht, dann wird sehr stark darauf gesetzt, dass nicht abgekürzt, sondern sich intensiver mit einem Thema beschäftigt wird.

Ansonsten – und das ist für mich der stärkste Eindruck und zugleich auch wichtigste Kritik – bleibt telli leider in einer Zementmischer-Logik. Das bedeutet: Die bestehende Lernkultur wird nicht umgestaltet und neu gedacht, sondern eher zementiert. telli denkt Bildung lehrseitig und im Prinzip des klassischen Unterrichts. Hintergrund ist hier die erwünschte Entlastung von Lehrkräften.

Die Alternative wäre, Pädagogik vom Lernen her zu denken, dazu Offenheit zuzulassen und Lernenden die Möglichkeit zu geben, sich die Welt auch in Interaktion mit KI-Sprachmodelle zu erschließen. Das wäre pädagogisch herausfordernder und würde mehr Zeit für Lernreflexion und -begleitung und mehr pädagogische Qualifizierung erfordern. So ließe sich aber dann nicht nur Lehrplanwissen mit KI-Unterstützung effizienter vermitteln, sondern vor allem das Lernen selbst lernen, wozu in einer zunehmend KI-geprägten Welt auch die kluge Programmierung von Maschinen gehört.

Update 1. Oktober, aufgrund von Nachfragen:

Ich denke durchaus, dass sich solch eine Perspektive ausgehend vom Lernen mit telli realisieren lässt, wenn man z.B. ein entsprechendes Lernszenario anlegt. Meine Kritik bezieht sich darauf, wie das Tool grundsätzlich angelegt ist und somit sehr wahrscheinlich auch überwiegend verwendet werden wird. telli ist hier nicht anders, als andere KI-Anwendungen in der Bildung. Es ist also ein Kritikpunkt, den ich grundsätzlich auch an andere Anbieter stellen würde. Bei telli hatte ich grundsätzlich die Hoffnung, dass es hier vielleicht endlich mal gelingen könnte, einen Schritt weiter zu kommen. Der erste Schritt, der mit dem Tool gegangen wird, ist sicherlich nicht verkehrt. Siehe dazu auch meine beiden erste Punkten der Einschätzung (= 1. Datenschutz und öffentliche Verantwortung, 2. Vertieftes und personalisiertes Lehren statt Abkürzungslogik)

Wünschenswert wäre aus meiner Sicht auch eine grundsätzliche Reflexion darüber, inwieweit generative Sprachmodelle durch ihre Technologie der Wahrscheinlichkeitsberechung auf Basis bereitgestellter Datenmengen überhaupt sinnvoll als Antwortmaschinen in der Bildung Verwendung finden können. Da hilft dann auch der stete Hinweis wenig, dass die Modelle Fehler machen können.

Außerdem wäre grundsätzlich zu überlegen, inwieweit das Chat-Format und damit eine potentielle Vermenschlichung von Maschinen einer mündigen Nutzung zuträglich ist.

Ich bin gespannt, inwieweit solche Überlegungen im übergeordneten AIS-Projekt eine Rolle spielen werden.

#KünstlicheIntelligenzKI_

Screenshot telli Website
eBildungslabor-Blognele@ebildungslabor.de
2025-09-20

kagi: Recherchetool und Prototyp für die Entwicklung einer KI-Lernassistenz

Vor kurzem habe ich über die Herausforderung von Lesen und Recherchieren im Kontext von KI gebloggt. Daraufhin erhielt ich im Fediverse den Hinweis auf die Suchmaschine kagi. Es würde lohnen, sich diese einmal genauer anzuschauen, auch wenn sie nicht unumstritten sei. Das habe ich getan und teile hier das Ergebnis meiner Erkundungen.

Was ist kagi?

kagi ist eine sehr individuell konfigurierbare und für eine mündige Nutzung ausgelegte Suchmaschine mit integrierter KI-Unterstützung und weiteren Angeboten. Das Tool ist eine mögliche Antwort auf eine wichtige Herausforderung, die im KI-Kontext zunehmend drängender wird: Wie lässt sich die Welt unter Nutzung der zur Verfügung stehenden technologischen Möglichkeiten und den vielfältigen Ressourcen des Internets gut und selbstbestimmt erschließen?

Voranstellen möchte ich den Hinweis, dass es sich bei kagi weder um ein offenes noch kostenfreies Tool handelt. So etwas empfehle ich im eBildungslabor normalerweise nicht. In diesem Fall mache ich eine Ausnahme davon, weil mich die Funktionalität sehr überzeugt hat und weil ich zurzeit keine Perspektive auf eine öffentliche oder Crowd-basierte Finanzierung sehe, mit der es gelingen könnte, dem ‚Mit den eigenen Daten‘-Bezahlmodus und Werbeanzeigen der meisten anderen Suchmaschinen etwas entgegen zu setzen – und trotzdem sehr gute Ergebnisse zu liefern.

Das bedeutet konkret: Wenn du kagi ausprobieren willst, dann musst du dich direkt registrieren. Dir steht dann zunächst ein gewisses Kontingent zum kostenfreien Ausprobieren zur Verfügung. Wenn du kagi dauerhaft einsetzen willst, kostet dich das 5 Dollar im Monat. (Es gibt auch Abonnement-Pläne, die noch teurer sind. Der 5 Dollar Plan scheint mir aber erst einmal auszureichen.)

Kritisch lässt sich außerdem anmerken, dass der Formensitz von kagi in den USA ist und es auf Servern von Google unter Nutzung von Cloudfare läuft. Siehe dazu auch den Datenschutz-Check im Kuketz-Blog.

In der Abwägung ist kagi für mich dennoch sowohl für den eigenen Gebrauch spannend (= es liefert ziemlich gute Ergebnisse und bietet im Kontext von KI, solche Funktionen, die ich sinnvoll finde), als auch als Prototyp für kluge Technologie-Entwicklung in der Bildung (= welche Funktionalitäten sollten KI-Lerntools haben?)

Welche Funktionen hat kagi?

Wie dargestellt ist kagi eine Suchmaschine, die grundsätzlich ganz genau so funktioniert, wie jede andere Suchmaschine auch. Ich gebe also meine Suchbegriffe ein – und erhalte dann passende Treffer aus dem Internet dazu. Sehr hilfreich finde ich an dieser Suche vor allem die folgenden Aspekte:

1. Hilfreicher Suchindex ohne personalisiertes Tracking

Genutzt wird nach Angaben des Unternehmens ein eigener Suchindex in Kombination von Suchindexen von anderen Suchmaschinen (z.B. Google). Weil der eigene Account nicht direkt mit den eingegebenen Begriffen verknüpft wird (durch einen verschlüsselten Token), erfolgt keine personalisierte Speicherung. Die Suchergebnisse fand ich bereits ohne weitere Anpassungen meistens deutlich überzeugender als bei anderen Suchmaschinen, inklusive Google oder anderen Bezahlsuchmaschinen wie Metager. Und schön ist natürlich, dass keine Werbung oder ähnliches ablenkt.

2. Anpassbarkeit und Personalisierung

Ich kann meine Suche sehr vielfältig anpassen.

Erstens gibt es so genannte Bangs, die ich bereits von der Suchmaschine DuckDuckGo kenne. Ein Bang ist ein Ausrufezeichen, gefolgt von einem Kürzel, das ich in meiner Suche ergänze. Wenn ich z.B. „Klimawandel !w“ als Suche eingebe, wird direkt auf der Wikipedia zum Begriff Klimawandel gesucht.

Zweitens gibt es so genannte Linsen („lenses“). Diese haben mich am meisten begeistert. Es sind einfach anklickbare Suchvorgaben, die meine Suche z.B. auf bestimmte Seiten beschränken oder andere Vorgaben machen. Einige dieser Linsen stehen vorkonfiguriert zur Verfügung. Besonders hilfreich ist es aber, eigene Linsen anzulegen. Ich habe zum Beispiel eine Linse angelegt, die direkt nach möglichen Treffern auf meiner eigenen Website sucht oder eine Linse zu OER, in der ich die Suche auf mehrere OER-Repositories begrenze. Zu diesen Linsen kann ich jeweils auch einen Bang entwickeln. So kann ich also jetzt zum Beispiel „Klimawandel !oer“ eingeben – und erhalte dann Treffer zum Begriff Klimawandel aus den von mir festgelegten OER-Repositories.

Drittens kann ich den Suchalgorithmus personalisieren, um mir die am besten für mich passenden Ergebnisse anzeigen zu lassen. Dazu kann ich den Suchalgorithmus für mich kontinuierlich immer besser trainieren. Das funktioniert, indem ich bei Suchergebnissen jeweils gewichten kann, ob ich mehr oder weniger von einer bestimmten Seite sehen will. Es ist auch möglich, eine Website ganz zu sperren.

3. Intelligente KI-Nutzung

Richtig gut finde ich außerdem die Verknüpfung der Suche zu KI-Funktionen. Zum einen kann ich mir Kurzantworten (= ein KI-generiertes Snippet) über meinen Suchergebnissen anzeigen lassen, wenn ich das möchte. Automatisch wird es erstmal nicht angezeigt. Die Anzeige ist sehr simpel, indem ich einfach ein Fragezeichen an den Suchbegriff setze.

Wenn ich vertiefter in ein Thema einsteigen will, kann ich den Assistenz-Bereich nutzen. Hier kann ich mit dem KI-Sprachmodell von kagi interagieren oder (auch innerhalb eines Chats) zwischen unterschiedlichen offenen und proprietären KI-Modellen auswählen. Das ist so ähnlich, wie ich es mir auf meinem KI-Server realisiert habe. Es gibt bei kagi auch die Möglichkeit von Verschlagwortung von Chats, so dass ich mit den Ergebnissen sehr gut weiter arbeiten und mir eine Art vernetzte Wissensbasis aufbauen kann.

Alternativ gibt es auch einen Summarizer, der nach Eingabe einer URL – entweder mit Schlüsselmomenten oder klassisch zusammengekürzt – eine Zusammenfassung des jeweiligen Inhalts liefert. Auch hier fand ich die Qualität ziemlich gut.

Besonders hilfreich finde ich, dass ich diese KI-Funktionen mit meinen Sucheinstellungen verbinden kann. Zum Beispiel kann ich Klimawandel? eingeben und gleichzeitig die Linse ‚OER‘ aktivieren. Dann erhalte ich eine KI-generierte Kurzantwort basierend auf den in dieser Linse eingegebenen Websites und eben nicht irgendeinen zufälligen Quatsch aus dem Internet, der in letzter Zeit ja immer häufiger eine KI-generierte Halluzination ist.

Beispielsuche mit KI-Snippet-Aktivierung und festgelegter Linse ‚OER-Ressourcen‘

Was ist an kagi für die Bildung spannend?

In der Initiative LernAssistenz machen wir uns seit einigen Monaten sehr grundsätzliche Gedanken, wie eine gute KI-Assistenz zum Lernen gestaltet sein müsste. Viele der dort diskutierten Aspekte finde ich nun bei kagi schon in Realität umgesetzt, womit das Tool vielleicht auch ein guter ‚Prototyp‘ für eigene Entwicklungen im Bildungsbereich sein kann. Erwähnenswert finde ich vor allem diese Aspekte:

1. Maschine statt menschenähnlicher Bot

Ich finde es sehr sinnvoll, dass der Ausgangspunkt bei kagi die Suche ist. So wird sehr gut deutlich, dass es um eigene Erschließung der Welt und Lernen geht. Und nicht darum, schnell und automatisiert irgendwelchen Content zu produzieren. Natürlich kann ich mit den zur Verfügung stehenden KI-Tools dann auch bei kagi in menschlicher Sprache mit den zur Verfügung stehenden KI-Tools chatten. Aber auch diese werden mir als Maschinen präsentiert, nicht vermenschlicht als freundliche Roboter oder lustige Tierchen. (Das mag wie eine Nebensächlichkeit erscheinen. Ich finde diesen Aspekt für eine kluge KI-Nutzung aber sehr grundlegend. Denn es sollte unbedingt deutlich werden, dass es hier um Technik und eben nicht um Magie geht und erst recht nicht um einen menschlichen Ersatz.)

2. Transparenz bei der KI-Generierung

Wenn ich die KI-Tools von kagi auf bestimmte Quellen begrenze, dann wird mir direkt angezeigt, zu wieviel Prozent die generierte Antwort auf diesen Quellen basiert. Sehr häufig ist der Wert bei 100%. Wenn er niedriger ist, weiß ich direkt, dass ich vielleicht noch einmal genauer auf die Generierung blicken sollte oder auch, dass meine Eingrenzung für meine Herausforderung nicht so viel an Inhalten hergibt.

Zur Transparenz gehört auch, dass mir nicht nur immer direkt angezeigt wird, mit welchem Modell ich die Antwort generiert habe, sondern zum Beispiel auch, wieviel Tokens dazu benötigt wurden und welchen Kosten das entspricht. Das ermöglicht bewusste Nutzung im Sinne von Nachhaltigkeit.

Screenshot aus der kagi-KI-Assistenz

Transparenz, die bei kagi fehlt, sind Angaben zum genauen Suchindex und das gesamte Tool ist wie beschrieben nicht Open Source, was für den Bildungsbereich aus meiner Sicht unerlässlich wäre.

3. Scaffolding

Wenn du meine obigen Beschreibungen gelesen hast, dann bist du vielleicht zum Schluss gekommen, dass kagi ein reichlich nerdiges Tool ist. Das ist richtig. Es lässt sich sehr viel einrichten und anpassen. Zugleich ist kagi aber auch sehr intuitiv aufgebaut. Ich muss also nicht erst die ganze Dokumentation lesen, um das Tool nutzen zu können, sondern kann mir die vielfältigen Möglichkeiten erkundend und nach und nach erschließen.

4. Kollaboration und Teilen

Es gibt an sehr vielen Stellen die Möglichkeit, mit anderen Nutzenden in Kollaboration und Austausch zu gehen. Zum Beispiel kann ich für die von mir erstellten Linsen Links zum Teilen generieren. Das finde ich für Bildungstools sehr wichtig.

5. Small Web

Ein sehr schöner Ansatz von kagi ist auch der Suchindex des ‚Small Web‘, der auf einer Extra-Seite oder innerhalb der Suche abrufbar ist und gezielt auf individuelle und nicht-kommerzielle Websites im Internet verweist. Im Bildungsbereich könnte solch ein wertschätzender Fokus dazu motivieren, das Internet verstärkt auch selbst mitzugestalten.

Fazit

Herzlichen Dank für diese Empfehlung. Ich habe kagi nun testweise als meine Standard-Suchmaschine eingestellt und bin gespannt, welche weiteren Erkundungen ich damit noch machen werde.

Ich hoffe, dass einige der Funktionalitäten und Ansätze von kagi auch ihren Weg in KI-Lerntools finden, die zurzeit ja an unterschiedlichsten Stellen für die Bildung entwickelt werden.

Wenn du kagi oder auch andere Recherchetools im Kontext von KI ausprobierst, bin ich neugierig, von deinen Erfahrungen zu lesen!

Beitrag weiternutzen und teilen

Dieser Beitrag steht unter der LizenzCC BY 4.0und kann somit gerne offen weitergenutzt und geteilt werden.Hier kannst du dir den Beitragslink und/oder den Lizenzhinweis kopieren. Wenn du den Beitragslink in das Suchfeld im Fediverse (z.B. bei Mastodon) eingibst, wird er dir dort angezeigt und du kannst ihn kommentieren.

Link kopieren Lizenz kopieren

#KünstlicheIntelligenzKI_

Screenshot von kagi
eBildungslabor-Blognele@ebildungslabor.de
2025-09-15

Digitales Lesen im Kontext von KI

Zum Lesen gehört im digitalen Kontext nicht nur, einen bestimmten Inhalt zu erfassen, sondern vor allem auch, den jeweiligen Inhalt für sich einzuordnen. Dazu können vielfältige Kontextualisierungstechniken im Internet genutzt werden. Ausführlich habe ich diese Herausforderung und praktisches Handwerkszeug in einem Blogbeitrag Mitte 2019 vorgestellt. Der Fokus lag hier auf der Herausforderung des Faktenchecks. Rund 6 Jahre später hat sich – vor allem durch das Aufkommen und die zunehmende Verbreitung generativer KI-Sprachmodelle – in diesem Bereich einiges getan, worüber ich im Folgenden schreibe.

Disclaimer vorab: Ich bin mit meinem Nachdenken hierzu noch nicht fertig, aber finde es gerade deshalb hilfreich, dazu etwas zu veröffentlichen. Denn ich kann mir vorstellen, dass auch andere, genau wie ich, dazu aktuell auf der Suche und am Erkunden sind.

Wie verändert sich digitales Lesen im Kontext von KI?

Um über Veränderung des digitalen Lesens im Kontext von KI nachzudenken, muss man sich zunächst vergegenwärtigen, was eigentlich mit digitalem Lesen gemeint ist. Für mich handelt es sich dabei – wie oben schon kurz angeteasert – um ein Lesen, das nicht nur auf den jeweiligen Inhalt fokussiert, sondern für eine umfassende Einordnung und ein Verständnis immer auch den Kontext mit einbezieht. Um das zu realisieren wird das Internet mit seinen vielfältigen Möglichkeiten der Vernetzung genutzt.

Zum digitalen Lesen gehören demzufolge mehrere Schritte, die meistens sicherlich nicht so linear, wie hier dargestellt, ablaufen:

  1. Ich lese einen Inhalt, mit dem ich online konfrontiert bin.
  2. Ich versuche, diesen Inhalt für mich einzuordnen: Wer schreibt aus welcher Perspektive/ mit welchem Interesse worüber? Um diese Frage zu beantworten, nutze ich Informationen direkt auf der jeweiligen Seite, aber vor allem auch Vernetzungen dazu über eine Internetrecherche. (Beispiel: Im Impressum steht eine Organisation. Ich recherchiere über eine Internetsuche, was das für eine Organisation ist. Oder: Im Inhalt wird eine Studie erwähnt. Ich recherchiere über eine Internetsuche die Studie im Original)
  3. Ich kontextualisiere den Inhalt und meine Ergebnisse der Einordnung, indem ich mir die Frage stelle: Was schreiben/ sagen andere dazu? Dieser Schritt wird auch als Corroboration bezeichnet.

Im Kontext von KI verändert sich dieses digitale Lesen nun. Denn erstens bin ich vielfach gar nicht mehr direkt mit einem Primär-Inhalt konfrontiert, wenn ich im Internet recherchiere, sondern mit einem KI-generierten Überblick dazu. Zweitens kann ich für meinen digitalen Leseprozess auch selbst KI-Werkzeuge nutzen.

Zwei Strategien zum digitalen Lesen im Kontext von KI

Bei mir beobachte ich im Kontext von KI zurzeit zwei völlig entgegen gesetzte digitale Lesestrategien. Auf der einen Seite versuche ich, KI-Technologie ganz bewusst aus meinem Leseprozess draußen zu halten. Auf der anderen Seite orientiere ich ebenso bewusst auf KI-Tools als Ausgangspunkt meines Lesens. Für beide Strategien kann ich jeweils sehr gute Gründe nennen.

Strategie 1: KI-generierte Inhalte bewusst ausschließen

Die Strategie des bewussten Ausschlusses von KI-Tools beim digitalen Lesen wähle ich, weil ich für mich potentiell verdummende Abkürzungen vermeiden und der Gefahr von Manipulation entgehen will. Was ist damit gemeint?

  1. Nicht-sinnvolle Abkürzungen: In immer mehr Internetsuchmaschinen (am offensichtlichsten ist es für mich bei Google) wird auf eine Suchanfrage hin ganz oben eine KI-generierte Zusammenfassung angezeigt. In vielen Fällen führt das dazu, dass ich, wenn ich einen Inhalt zum Lesen suche oder Informationen über einen gelesenen Inhalt, gar nicht mehr eine Website anklicken muss, sondern direkt eine Antwort auf meine Frage sehe. Das empfinde ich beim digitalen Lesen als eine Abkürzung, die mir auf längere Sicht für mich nicht sinnvoll erscheint. Denn ich möchte mich ja gerade mit unterschiedlichen Inhalten konfrontieren und nicht verlernen, mich in dieser Vielfalt selbst orientieren zu können.
  2. Potentielle Manipulation: Mir ist bewusst, dass KI-Generierung über einen von Menschen gestalteten Algorithmus erfolgt. Leider bleiben diese Algorithmen für uns meistens intransparent. Bekannt ist aber zum Beispiel, dass das GPT-Modell von OpenAI für Nachrichtenanzeigen bei der Websearch-Funktion eine Kooperation mit dem Axel Springer Verlag eingegangen ist. Ähnliche bewusste Setzungen werden auch Anbieter von Suchmaschinen oder Anbieter anderer KI-Sprachmodelle machen. Ich bekomme als Output von KI-Modellen also nicht eine mögliche Perspektive auf meine Frage oder eine objektive Zusammenstellung von allen verfügbaren Perspektiven, sondern stattdessen eine bewusste, von dem anbietenden Unternehmen gesteuerte Auswahl.

Vor dem Hintergrund dieser beiden Gründe erscheint es mir sehr folgerichtig, digitales Lesen bewusst ohne KI-Tools zu gestalten. Dabei hilft mir das folgende Handwerkszeug:

Zunächst die Suchmaschine DuckDuckGo und ihre Verbindung mit Bangs:

Der große Vorteil (manche würden es vielleicht auch als Nachteil einordnen, ich komme später noch einmal darauf zurück) von DuckDuckGo ist, dass mir hier die jeweils besten Suchergebnisse und nicht personalisierte Suchergebnisse angezeigt werden. Vor diesem Hintergrund bekomme ich erst einmal deutlich mehr vom Internet angezeigt und bleibe nicht nur in meiner selbst gestalteten Bubble gefangen. (Vom Datenschutz her wird DuckDuckGo ansonsten nur eingeschränkt empfohlen. Insbesondere hat das Unternehmen seinen Sitz in den USA und unterliegt somit den dortigen gesetzlichen Bestimmungen. Zudem ist das Geschäftsmodell die Werbefinanzierung. Ich bekomme also in meinen Suchergebnissen auch – natürlich entsprechend markierte – Werbeanzeigen angezeigt.)

Ich habe mich für DuckDuckGo vor allem aufgrund der Möglichkeit von so genannten Bangs entschieden. Ein Bang ist ein Ausrufezeichen mit einer Abkürzung, was ich an meinen Suchbegriff ergänze. Auf diese Weise kann ich z.B. festlegen, dass ich gezielt auf Reddit suchen möchte (mit der Ergänzung !r), oder auf YouTube (mit der Ergänzung !yt) oder in der Wikipedia (mit der Ergänzung !w). Auf diese Weise kann ich sehr gezielt in einen bestimmten Bereich des Internets gehen. (Beispiel: Wenn ein neues KI-Tool auf den Markt kommt, dann kann ich dazu über DuckDuckGo sowohl auf LinkedIn mit dem Bang !li als auch auf Mastodon.social mit dem Bang !ms recherchieren. Auf diese Weise bekomme ich einen sehr vielfältigen Einblick, wie das Tool rezipiert wird.)

Eine durchsuchbare Übersicht aller Bangs stellt DuckDuckGo auf dieser Website zur Verfügung.

Beispielsuche mit Bang bei DuckDuckGo: Was lässt sich zum Suchbegriff eBildungslabor auf LinkedIn finden?

Zweitens orientiere ich auf und pflege ein persönliches Lernnetzwerk:

Der Zugriff auf Informationen über ein persönliches Lernnetzwerk ist bei mir einer Internetsuche vorgeschaltet. Mit meinem persönlichen Lernnetzwerk lege ich somit fest, was ich lese, bevor ich überhaupt etwas suche. Diese Auswahl ist bei mir überwiegend ganz bewusste „Handarbeit“.

  • Erstens kuratiere ich mir meine eigene Timeline über das Folgen von Hashtags und Profilen im Fediverse und nutze auch Social Media Plattformen wie LinkedIn.
  • Zweitens habe ich einen Feedreader, über den ich via RSS mehrere Blogs abonniert habe, die ich so dann direkt als eine Art Timeline angezeigt bekomme.
  • Drittens schreibe und teile ich selbst und erhalte darüber direkte Rückmeldungen.

Beide Zugänge – sowohl die gezielte Internetrecherche mit Bangs über DuckDuckGo als auch die Nutzung eines persönlichen Lernnetzwerk als Basis für mein digitales Lesen – haben sich mit KI für mich nicht verändert. Ich habe aber den Eindruck, dass sie wichtiger geworden sind.

Strategie 2: KI-Tools als Ausgangspunkt nehmen

Während wie dargestellt viele gute Gründe dafür sprechen, KI-generierte Inhalte ganz bewusst aus dem digitalen Lesen draußen zu halten, gibt es natürlich auch viele gute Argumente für das genaue Gegenteil, also für eine Variante, bei der digitales Lesen ganz gezielt auf KI-Tools aufbaut. Auch diese Strategie setze ich ein, sammle Erfahrungen und reflektiere darüber.

Für diese Strategie spricht aus meiner Sicht, dass KI-Technologie eine ausgezeichnete Unterstützung sein kann, um sich vielfältige Inhalte zu erschließen. Ich muss mich dann nicht mühsam von einem Inhalt zum anderen hangeln, sondern kann direkt mit einer Zusammenstellung zu einem Thema starten, zu der ich dann weiter vertiefen kann. Um diese Strategie zu nutzen, finde ich erstens Quellen-Rückverfolgungsmöglichkeiten in KI-Tools wichtig. Zweitens ist für mich ein bewusstes und gezieltes Prompting wichtig, mit dem sich typische Denkfehler vermeiden lassen.

  1. Rückverfolgung: Rückverfolgungsmöglichkeiten gibt es mittlerweile nicht mehr nur bei dafür spezifisch gestalteten KI-Tools wie Perplexity, sondern auch bereits die KI-generierten Snippets in einer Google-Suche geben Links als Quelle an, auf die ich dann klicken und mir ein eigenes Bild verschaffen kann. Oft hilft bereits ein schnelles Durchklicken durch das verwendete Quellenverzeichnis, um zu entscheiden, ob ich mich überhaupt mit dem Snippet befassen soll oder ob ich meine Suchanfrage besser noch einmal anders formuliere.
  2. Gezieltes Prompting: Neben Suchmaschinen-KI lässt sich KI-Technologie in direkter Interaktion mit einem KI-Sprachmodell nutzen. Hier kann es hilfreich sein, einen Inhalt einzugeben und dann den Denkraum durch gezielte Prompts zu öffnen. Also zum Beispiel durch Formulierungen wie diese:
  • Was wären andere Perspektiven, um auf das Thema zu schauen?
  • Was würde Person NN dazu sagen?
  • Welche kritischen Einwände könnte es zu dieser Position geben?
  • Was von diesem Inhalt kannst du nicht eindeutig bestätigen?

Auf diese Weise nutze ich KI-Sprachmodelle vor allem für den Prozess der Corroboration.

Mit solch einer Quellenverfolgung und einem gezielten Prompting ergeben sich für mich zahlreiche neue Möglichkeiten des digitalen Lesens.

Hinzu kommt, dass sich mit KI-Tools schon die Auswahl meiner zu lesenden Inhalte verändert. Anstatt also einen Inhalt zu haben, den ich dann durch unterschiedliche Prompts einordne, erstelle ich mir direkt eine solche einordnende Zusammenstellung auf Basis mehrerer Inhalte. Von dort kann ich dann bei Bedarf auch wieder zu einzelnen Inhalten zurückspringen. Diesen Prozess habe ich in einem meiner KI-Experimente als ‚vernetztes Lesen‘ bezeichnet. Inzwischen gestalte ich diesen Prozess auf meinem eigenen KI-Server und bin nicht mehr auf Tools wie NotebookLM angewiesen.

Fazit: „Sowohl als auch“ und Lesen als sozialer Prozess

Im Ergebnis scheint mir beim digitalen Lesen im Kontext von KI zurzeit ein ‚Sowohl-als-auch‘ zielführender als ‚Entweder-Oder‘. In diesem Sinne lese ich digital sowohl bewusst ohne KI-Tools, als auch bewusst mit KI-Tools – und damit dann häufig so, dass KI-Technologie eine Variante unter vielen ist. Hier ergibt sich als Lesestrategie dann zum Beispiel, dass ich erst offen und nicht-personalisiert und ohne KI-Snippet auf DuckDuckGo nach etwas recherchiere. Anschließend dann mit dem Bang !g zu Google wechsle und dort personalisierte Inhalte sowie ein KI-generiertes Snippet angezeigt bekomme. Meine Einordnung eines Inhalts kann sich dann auf all diese Anzeigen beziehen.

Oder ich starte in einem Fall bewusst ausgehend von einem Einzelinhalt, den ich über mein persönliches Lernnetzwerk finde und kontextualisiere diesen mit einer gezielten Weiterrecherche im Internet. In einem anderen Fall gehe ich von mehreren Inhalten aus und verknüpfe und vernetze diese lesend mit KI-Tools.

Ich finde es spannend zu beobachten, wie sich digitales Lesen auf diese Weise entwickelt und verändert und frühere Ansätze dabei zugleich nicht obsolet werden. Auch kann ich feststellen, dass es solch eine Veränderung in meinem digitalen Lesen auch schon vor KI gab, weil ich z.B. im Blogbeitrag von 2019 die Möglichkeit von Bangs noch nicht nutzte. Die pädagogisch spannende Frage ist dann, welche Strategien man wie in Lernkontexten berücksichtigen möchte und sollte.

Die Reflexion über mein digitales Lesen zeigt mir vor allem auch, dass digitales Lesen im Kontext von KI weiterhin – und vielleicht in solch einer Phase der Veränderung umso mehr – ein sozialer Prozess ist. Wir müssen also gemeinsam und erkundend ein verändertes digitales Lesen lernen und wir befinden uns dabei alle in einem Lernprozess, in dem Austausch uns weiter bringen kann.

Beitragsbild: Noch vielfältiger wird der Prozess, weil natürlich (zumindest bei mir) immer auch noch ganz viel analoges Lesen dazu kommt. Hier ein Blick in einen Teil meines Bücherregals.

Lektüre-Empfehlung zum Weiterlesen: Maik Philipp, digitales Lesen fördern, Vandenhoeck & Ruprecht, 2025.

#DigitaleMündigkeit #KünstlicheIntelligenzKI_

Blick in ein Buchregal
eBildungslabor-Blognele@ebildungslabor.de
2025-09-11

Didaktische KI-Nutzung

Ich hatte heute einen sehr schönen Workshop am Katholisch-Sozialen Institut in Siegburg mit Kolleg*innen aus der katholischen Erwachsenen- und Familienbildung in NRW. Das Thema war KI, aber in einer sehr weitergedachten Form. Konkret haben wir uns unter dem Workshoptitel ‚didaktische KI-Nutzung‘ die Frage gestellt, wie wir als pädagogisch tätige Menschen in unseren Lernangeboten mit dem Thema KI gut umgehen können.

Meine Struktur für den Workshop war ein Vierklang mit Verstehen, Nutzen, Reflektieren und Transformieren. Wir haben immer jeweils selbst erkundet, wie wir mit unterschiedlichen Methoden dazu lernen können. Auf der Meta-Ebene haben wir dann im nächsten Schritt weiter gedacht, was wir davon wie auf unsere jeweils eigenen Lernangebote transferieren können.

In diesem Blogbeitrag stelle ich meine Vorgehensweise im Workshop vor und teile die dafür erstellten Materialien zur offenen Weiternutzung.

Einstieg

Wir starteten den Workshop mit einem Kartentausch mit Thesen zu KI. Diese hatte ich in Interaktion mit einem KI-Sprachmodell mit diesem einfachen und gut weiternutzbaren Prompt entwickelt:

Hier ist eine Workshopbeschreibung: [die veröffentlichte Workshopbeschreibung]. Gib mir eine Liste mit 20 möglichst prägnanten und vielfältigen Thesen, die in diesem Workshop diskutiert werden könnten.

In Paargesprächen wurde dann zu den erhaltenen Thesen erstens reflektiert, inwieweit man der These zustimmt und zweitens welche Relevanz sie für die eigene Arbeit hat. Auf diese Weise stiegen wir nicht nur inhaltlich in das Thema ein sondern die Teilnehmenden lernten sich auch untereinander kennen.

Vierklang zur KI-Didaktik

Anschließend leitete ich in den weiteren Part des Workshops über. Hier erläuterte ich zunächst, warum ich den sehr breiten Ansatz des beschriebenen ‚Vierklangs‘ gewählt hatte. Denn schließlich könnte man sich bei der Frage ja einfach auch ’nur‘ auf Nutzung beschränken. In diesem Fall hätten wir einfach ein paar Prompts miteinander ausprobiert. Mir war aber stattdessen wichtig, dass es weniger um isolierte KI-Nutzung und mehr um eine ermächtigende Lerngestaltung für Handlungsfähigkeit in einer zunehmend KI-geprägten Welt geht. Dazu braucht es neben klugen Nutzungsstrategien vor allem ein Verständnis der Technologie, Befähigung zu einer mündigen Entscheidung, was die Reflexion ihrer Risiken und Schäden voraussetzt, und schließlich eine Form des Lernens, die auf aktive Veränderungskompetenz zielt.

Als Mini-Murmelrunde an diesen Kurzimpuls schloss sich eine ‚Klebepunktaufgabe‘ an. Ich hatte dazu auf einem Flipchart den klassischen Hype Cycle, wonach bei Technologie-Einführung meistens zu Beginn große Begeisterung herrscht, es dann zunehmend zu Enttäuschungen kommt, bevor ein produktiver Umgang erlernt wird und die Kurve wieder nach oben geht, erweitert. Insbesondere hatte ich dargestellt, dass die weitere Entwicklung der Technologie für mich durchaus offen ist. Untersuchungen, wonach z.B. ein KI-Tool wie Perplexity, das vormals fast alle Fehlinformationen erkannte, aber mittlerweile nur noch knapp 50 Prozent, können zum Beispiel diese Einschätzung begründen. Die Teilnehmenden tauschten sich aus und klebten dann ihre Punkte. Das entstandene Bild zeigt, dass wir es mit einer abwartenden bzw. vorsichtig optimistischen Gruppe zu tun hatten, an der auch einzelne Einsteiger*innen in das Thema beteiligt waren.

Ergebnis der Klebepunkt-Reflexion

1. Verstehen

Für das Verstehen der aktuell diskutierten KI-Technologie in Form von großen Sprachmodellen finde ich das Prinzip der Mustererkennung (= es gibt eine riesige Datenbasis, in der Muster erkannt und dann genutzt werden können) und das Prinzip der Wahrscheinlichkeitsberechnung (= der Output wird so generiert, dass der nach Wahrscheinlichkeit am besten passende Inhalt angezeigt wird) wichtig. Diese beiden Prinzipien lassen sich ganz ausgezeichnet mit Online-Tools wie AutoDraw, der Teachable Machine, Emoji Scavenger Hunt oder Sookia GPT erproben. Ich stellte diese Tools kurz im Plenum vor, bevor wir uns Zeit zum Ausprobieren nahmen. Dazu waren die Tools direkt in den Online-Materialien verlinkt und beschrieben.

Für das Verstehen der Technologie finde ich die vier genannten Tools sehr gut, aber noch nicht ausreichend. Mir fehlt dabei der Aspekt, dass die verwendeten Algorithmen natürlich nie nur Blackbox sind, sondern menschliche Gestaltung z.B. über Systemprompts oder verwendete Filter, die uns als Nutzer*innen in den meisten Fällen leider nicht transparent sind.

Um diesen Aspekt sehr anschaulich zu verstehen, versuchten wir uns an einem analogen Nachbau eines Large Language Models in Kleingruppen. Die Gruppen bestanden dabei aus mindestens 6 Personen. Eine Person davon war Nutzer*in und gab die Prompts vor. Eine zweite Person war in Verantwortung für das Modell und konnte also über Systemprompts und Filtermechanismen entscheiden. Der Rest der Gruppe war die Datenbasis, also im Prinzip Inhalte im Internet.

Die nutzende Person erhielt eine Liste mit möglichen Prompts, aus denen sie auswählen konnte. Daneben konnte sie natürlich auch eigene Prompts überlegen. Die Prompt-Liste hatte vor allem den Sinn, dass das Muster (= gesucht waren Prompts, die in wenigen Wörtern oder maximal einem Satz beantwortet werden können, sonst wird das Spiel zu langwierig) deutlich wird.

Die zweite Person erhielt Anregungen sowohl zur hauptsächlichen Sortierung als auch zu möglichen Filtern. Auch diese Person konnte natürlich statt diesen vorgegebenen Ideen auch eigene Regeln überlegen. Für den Rest der Gruppe wurde die Entscheidung nicht transparent gemacht.

Verwendete Rollenkarten für ein analoges LLM

Dann brauchte nur noch die „Datenbasis“ Karteikarten und Kugelschreiber – und das analoge Sprachmodell war einsatzbereit! Sehr schnell hintereinander wurde nun mehrmals gepromptet und ein Output zurückgespielt.

Das lief so ab:

  • Nutzer*in sagte ihren Prompt.
  • Datenbasis schrieb jeweils unabhängig voneinander auf, was dazu potentiell im Internet dazu zu finden sein könnte.
  • Besitzer*in sammelte alle Karten ein, wählte gemäß der getroffenen Sortierentscheidung und Filter aus – und las dann die ausgewählte Karte laut vor und gab sie an die Nutzer*in zurück.
  • Dann äußerte die Nutzer*in den nächsten Prompt
Ergebnis der ‚Datenbasis‘ zum Prompt: ‚Werbespruch für kalten Kaffee‘ – vor der Auswahl durch den Algorithmus

Wir nahmen uns Zeit für 5-6 Durchläufe. Danach erzählten die Besitzer*innen, was ihre Entscheidungen für den Algorithmus gewesen waren. Manches davon war sicherlich sehr realitätsfern, z.B. wenn immer der längste Text ausgesucht wurde. Anderes dann aber durchaus denkbar, z.B. wenn als Filter gesetzt war, dass religiöse Bezüge gefiltert wurden.

Wir konnten uns anschließend gut dazu austauschen, dass nicht der Algorithmus eines KI-Sprachmodells per se ein Problem ist. Denn das ist einfach gesprochen eben die Anweisung, nach der der Output dargestellt wird. Sondern die Tatsache, dass die Gestaltung dieser Algorithmen in den meisten Fällen intransparent und undemokratisch ist.

Schön finde ich an diesem Spiel erstens die sehr einfache Umsetzung. Zweitens kann es Freude machen, weil natürlich auch viel Quatsch-Potential dabei ist. Und drittens lassen sich die Beispielprompts und Sortierregeln sehr gut für unterschiedliche Kontexte anpassen.

Als Anregung teile ich hier meine genutzten Vorlagen für die Rollenkarten. In jedem Set sind Rollenkarten für eine Kleingruppe (= ein analoges LLM). Die Rollen Nutzer*in und Besitzer*in müssen verteilt werden. An Datenbasis-Rollen braucht es 4-6:

Rollenkarten für ein analoges LLMHerunterladen

2. Nutzen

Die Herausforderung des Verstehens habe ich ganz bewusst an den Anfang gesetzt. Denn ohne Verständnis der Technologie ist für mich keine kluge Nutzung möglich. Darauf aufbauend konnten wir dann sehr gut unterschiedliche Interaktionsmöglichkeiten erproben. Ich stellte dafür mein bereits vor einigen Monaten entwickeltes Koordinatensystem vor:

Es gab dann zu jedem Feld eine kurze Erklärung sowie einen exemplarischen Prompt zum Ausprobieren und zur anschließenden Anpassung in Kleingruppen.

Ich nutzte diesen Part außerdem, um meinen KI-Server als eine selbstbestimmte und mündige Form einer KI-Infrastruktur vorzustellen.

3. Reflektieren

Nach der Mittagspause stiegen wir mit einer Kurzfassung der Geschichte ‚The ones who walk away from Omelas‘ von Ursula K. Le Guin in die Herausforderung der Reflexion ein. Die Geschichte stammt schon aus den 70er Jahren und eröffnet im Kontext von KI die Frage, wer von Technologie profitiert und wer verliert und wie damit umgegangen werden kann, dass eine Technologie, die sehr viel Schaden anrichtet, Teil unserer Lebensrealität ist.

Für die Nutzung habe ich die Geschichte von Ursula K. Le Guin in eine eigene Version gebracht, die deutlich kürzer als das Original ist, auf Deutsch erzählt wird und das KI-Thema ein bisschen mit aufnimmt, um einen direkten Bezug herzustellen. Vor dem Workshop hatte ich diese Fassung als Audio eingesprochen, so dass wir hier gemeinsam zuhören konnten. Wenn du diesen Impuls auch nutzen willst, kannst du dazu diesen H5P-Inhalt verwenden:

Die Geschichte leitete dann über zu einem Walk&Talk mit mehreren, inhaltlichen Aspekten zu den Gefahren, Risiken und Schäden von KI-Technologie. Es ging uns dabei nicht nur darum, diese Aspekte gemeinsam zu reflektieren. Zugleich war Raum, um zu überlegen, wie sich das didaktisch in Lernangeboten (gerade mit einer bildungsfernen Zielgruppe oder mit Nicht-Pädagog*innen) aufgreifen lässt.

Walk&Talk Briefumschläge

Für das Thema Bias zeigte ich hierfür ein paar Möglichkeiten bei der Bildgenerierung. Gemeinsam experimentierten wir dann noch mit Fortsetzungsgeschichten, an denen sich gut die Reproduktion von Geschlechterstereotypen in KI-Sprachmodellen zeigen lässt. Die entsprechenden Prompts zur Weiternutzung findest du (mitsamt der Walk & Talk Anregungen) in den Online-Materialien zum Workshop.

4. Transformieren

Damit waren wir auch schon bei der letzten Herausforderung, der Transformation, angelangt. Diese Herausforderung gab zugleich die Gelegenheit, den bisherigen Workshop Revue passieren zu lassen und konkrete nächste Schritte zu überlegen.

Ich leitete damit ein, dass es bei KI in der Bildung eben nicht nur um das Lehren und Lernen mit KI-Tools, sondern vor allem um verändertes Lehren und Lernen geht, welches Handlungsfähigkeit in einer zunehmend KI-geprägten Welt ermöglicht.

Einführung in den letzten Teil des Workshops

Darauf aufbauend entwickelten wir erst Lernenden-Personas und tauschten uns dazu aus, was diese jeweiligen Personas im Kontext von KI besonders benötigen. Auf diese Weise nahmen wir eine Perspektive des Lernens ein.

Eine der entwickelten Personas

Zweitens nutzte ich die Future Backwards Methode in Form eines Silent Writing als Vorbereitung für ein Troika Consulting. Das bedeutete:

Alle notierten für sich im Stillen in je einer Minute Stichpunkte zu den folgenden Fragen:

  • Wo stehst du aktuell im Kontext von KI in deiner Lerngestaltung?
  • Was hat dazu geführt, dass du dort stehst?
  • Wo möchtest du gerne hin, was ist dein Nordstern?
  • Was willst du in keinem Fall?
  • Was könnte vor diesem Hintergrund ein erster nächster Schritt sein?
Future Backwards Methode Schritt für Schritt am Flipchart visualisiert

Dann teilten wir uns alle in Dreier-Gruppen auf. Jede Person in der Dreier-Gruppe konnte sich dann 5 Minuten lang von den anderen beiden zum entwickelten ersten Schritt beraten lassen.

Abschluss

Wir beendeten den Workshop ganz klassisch mit Klärung aller Fragen, die noch offen waren, und mit dem Teilen unserer nächsten Schritte. Dann gab es ein Feedback zum Workshop, was sehr positiv ausfiel. :-)

Fazit

Mir hat der Workshop viel Freude gemacht. Zur Weiternutzung kann ich vor allem diese Aspekte empfehlen:

  • Die sehr anschaulichen Erkundungen, um KI-Technologie zu verstehen, insbesondere das analoge LLM
  • Die ruhige Gesamtgestaltung mit viel Raum für Nachfragen und Erkundungen und einer sehr klaren Struktur, die meiner Wahrnehmung nach immer gut nachvollziehbar war.
  • Die Gestaltung von übersichtlichen Online-Materialien, die wir gemeinsam einmal durchgegangen sind und die jetzt allen zur Weiternutzung zur Verfügung stehen (und hoffentlich auch ohne Workshop verständlich sind)
  • Die Nutzung von Audio in Form der Kurzgeschichte zum Anhören zwischendurch. So etwas möchte ich zukünftig häufiger machen.
  • Die umfassende Betrachtung von KI-Didaktik nicht nur aus reiner Nutzungsperspektive
  • Die Kombination von Silent Writing + Future Backwards Methode + Troika Consulting

Viel Freude wünsche ich dir bei der Weiternutzung und beim Weiterdenken.

Mein Dank geht an die wunderbaren Teilnehmenden für das spannende gemeinsame Lernen, die Katholische Erwachsenen- und Familienbildung NRW für die gute Zusammenarbeit und an das Katholisch-Soziale Institut in Siegburg für die sehr professionell gestalteten und einladenden Tagungsmöglichkeiten. Sehr gerne wieder!

Foto eines Teils der heutigen Workshopgruppe im Innenhof im KSI

Beitrag weiternutzen und teilen

Dieser Beitrag steht unter der LizenzCC BY 4.0und kann somit gerne offen weitergenutzt und geteilt werden.Hier kannst du dir den Beitragslink und/oder den Lizenzhinweis kopieren. Wenn du den Beitragslink in das Suchfeld im Fediverse (z.B. bei Mastodon) eingibst, wird er dir dort angezeigt und du kannst ihn kommentieren.

Link kopieren Lizenz kopieren

#KünstlicheIntelligenzKI_ #MethodenLernformate

Flipchart und Pinnwand mit Workshop-Inhalten
eBildungslabor-Blognele@ebildungslabor.de
2025-08-26

KI-Sprachmodelle überflüssig machen

Gestern bin ich auf den kurzen Text ‚How to ask your mentors for help?‘ von Derek Sivers gestoßen. Kurz gefasst beschreibt er darin, wie er vorgeht, wenn er an einer Herausforderung hängt und nicht weiterkommt. Er fängt dann an, seine Herausforderung detailliert aufzuschreiben, um sie drei Mentor*innen zu schicken und diese um Hilfe zu fragen. Bevor er die Mail abschickt, liest er noch einmal seinen Text durch und ergänzt, was er schon vermuten kann, dass die Mentor*innen ihm raten würden. Dann liest er nochmals drüber und schreibt dazu, welche Erkenntnisse sich daraus dann ergeben. Spätestens dann hat er die Herausforderung selbst gelöst und er muss die Mail gar nicht mehr absenden. So kommt es auch, dass niemand von den drei Mentor*innen weiß, dass sie diese Rolle für ihn haben.

Mir fällt auf, dass ich genau so oft in Interaktion mit KI-Sprachmodellen vorgehe. Meistens gebe ich dann etwas ein und erhalte nicht solch einen Output, wie ich gerne möchte. Also überlege mir, wie ich den Prompt besser formulieren kann und dann noch besser und noch besser … Spätestens dann bin ich so weit, dass ich den Prompt gar nicht mehr abschicken muss, sondern die Herausforderung ganz wunderbar selbst gelöst habe. 🙂

#KünstlicheIntelligenzKI_ #Selbstreflexion

Screenshot des Blogs von Derek Sivers mit dem Titel: How to ask your mentors for help.
eBildungslabor-Blognele@ebildungslabor.de
2025-08-18

Gender-Gap bei der Kompetenz-Zuschreibung bei KI-Nutzung

Im Fediverse bin ich gerade auf diese Studie gestoßen, die ich im Kontext von KI in der Bildung interessant finde. Die Forschenden untersuchten darin, inwieweit reale und erwartete Kompetenz-Zuschreibungen eine Rolle dabei spielen können, ob und wie KI-Technologie genutzt wird. Dazu wurden insgesamt drei Studien durchgeführt:

Studie 1 untersuchte, wie ein in einem Unternehmen eingeführtes und offensiv beworbenes KI-Tool zur Unterstützung beim Coding von den Mitarbeitenden genutzt wird. Das Ergebnis war, dass das Tool nicht einmal von der Hälfte der Mitarbeitenden genutzt wurde, wobei weibliche Personen und ältere Personen das Tool weniger und auch weniger aktiv nutzten, als jüngere und männliche Personen. Der Gender-Gap war dabei am signifikantesten.

Studie 2 lud zu einem Review eines erstellten Codes ein. Die Reviewer*innen waren entweder KI-Nutzer*innen oder keine KI-Nutzer*innen. Der Code, der bewertet werden sollte, war immer identisch. Er wurde aber einmal so präsentiert, dass er mit KI-Nutzung entstanden sei. Im anderen Fall wurde gesagt, dass er ohne KI-Nutzung entstanden sei. Das Ergebnis dieser Studie war, dass sowohl die Kompetenz der angenommenen Erstellenden des Codes als auch die Qualität des Codes selbst insgesamt schlechter bewertet wurde, wenn eine KI-Nutzung angegeben wurde. Interessant waren aber vor allem die Unterschiede in Hinblick auf das Geschlecht: Wenn die Reviewer*innen gesagt bekamen, dass eine Frau den Code mit Unterstützung von KI erstellt hatte, dann wurde ihre Kompetenz signifikant geringer bewertet, als bei einem Mann, der den Code mit KI-Unterstützung erstellt hatte. Besonders stark zeigte sich dieser Gap bei beurteilenden Männern, die selbst keine KI nutzten.

Studie 3 überprüfte dann schließlich, ob diese Kompetenzabwertung von den Mitarbeitenden vorab so eingeschätzt wird. Das konnte sowohl in Hinblick auf das Geschlecht als auch in Hinblick auf das Alter bestätigt werden. Das bedeutet: Eine Frau (und auch eine ältere Person) stimmte der Aussage, dass ihre Kompetenz mit KI-Nutzung wahrscheinlich schlechter eingeschätzt wird, signifikant stärker zu, als ein Mann.

(Das war Darstellung und Interpretation der Studie in einem. Um die genauen Ergebnisse und den Untersuchungsaufbau einschätzen zu können, schaue dir die Studie an.)

Meine Einschätzung

Während ich die Zielstellung der Studie (= Wie können wir KI-Nutzung beschleunigen?) und die möglichen Schlussfolgerungen (= Transparenz bei KI-Nutzung hinterfragen) der Forschenden nicht teile, finde ich die grundsätzlichen Ergebnisse insbesondere für die Pädagogik sehr relevant. Denn schon länger ist bekannt, dass Pädagog*innen bei Bewertungen nicht frei von Bias sind. Im Kontext von KI scheint es nun noch wichtiger zu werden, sich dieses Biases bewusst zu sein und ihn zu reflektieren.

Das Beitragsbild heißt ‚Women and AI‚ und stammt von Reihaneh Golpayegani & Cambridge Diversity Fund via betterimagesofai. Es steht unter der Lizenz CC BY 4.0.

#KünstlicheIntelligenzKI_

The left side incorporates a digital interface, showing code snippets, search queries, and comments referencing Woolf’s ideas, including discussions about Shakespeare’s fictional sister, Judith. The overlay of coding elements highlights modern interpretations of Woolf’s work through the lens of data and AI. The center depicts a dimly lit, minimalist room with a window, desk, and wooden floors and cupboards. The right side features a collage of Cambridge landmarks, historical photographs of women, and a black and white figure in Edwardian attire. There is a map of Cambridge in the background, which is overlayed with images of old fountain pens and ink, books, and a handwritten letter.
eBildungslabor-Blognele@ebildungslabor.de
2025-08-16

Lernkontext-Dateien bei der Nutzung von KI-Sprachmodellen

In diesem Blogbeitrag möchte ich dir die Gestaltung und Nutzung von Lernkontext-Dateien bei der Interaktion mit KI-Sprachmodellen vorschlagen. Ich finde diese Möglichkeit sowohl aus Gründen von digitaler Mündigkeit (= die Hoheit über die eigenen Lerndaten haben und Maschinen bewusst instruieren), als auch aus pädagogischen Gründen (= das eigene Lernen sichtbar und reflektierbar machen) sehr hilfreich. Auf die grundsätzliche Idee bin ich bei der diesjährigen LernOS Convention gestoßen und habe seitdem viel damit experimentiert.

Ausgangspunkt: Personal Context Manager

Die Idee einer Lernkontext-Datei beruht auf der Idee eines ‚Personal Context Manager‘. Solch ein Personal Context Manager wird für verschiedene Themenbereiche (zum Beispiel auch das Selbstlernen) in diesem Github-Verzeichnis beschrieben. Hintergrund dafür ist, dass ein KI-Sprachmodell von sich aus natürlich erst einmal keine Informationen zum jeweiligen Kontext der Nutzenden hat. Wenn dieser Kontext deshalb gleich zu Beginn des Chats eingeführt wird, dann führt das zu passenderen und zielgerichteten Ausgaben.

Inzwischen bieten immer mehr KI-Anbieter vor diesem Hintergrund in den Einstellungen des jeweils eigenen Accounts deshalb auch genau solche Kontextualisierungen bzw. Personalisierungen an. Meistens wird man hier dazu aufgefordert, seine Präferenzen für die Kommunikation mit dem KI-Sprachmodell festzulegen. Gleichermaßen lassen sich natürlich auch inhaltliche Aspekte aufschreiben und als Grundlage für Chats festlegen. Unter anderem bei ChatGPT gibt es alternativ oder ergänzend auch noch die Option, die so genannte ‚Erinnerungsfunktion‘ eingestellt zu lassen. Dann bleibt der Kontext nicht nur innerhalb eines bestimmten Chats erhalten, sondern auch in allen weiteren Chats.

Beispiel für die Festlegung von Präferenzen im KI-Chat – hier bei duck.ai

Ein Personal Context Manager unterscheidet sich von diesem Vorgehen, weil ich meinen Kontext zunächst für mich selbst aufschreibe und auf meinem eigenen Gerät gespeichert habe. Wenn ich dann einen Chat beginne, dann füge ich den Inhalt der erstellten Datei als erstes in das Chatfenster ein oder lade die Datei hoch. Sinngemäß schreibe ich dann dazu: ‚Nutze diese Angaben im folgenden Chat‘. Immer mal wieder sollte ich mir Zeit nehmen, meinen Kontext zu überarbeiten und zu erweitern. Das kann ich auch in Interaktion mit KI-Sprachmodellen machen, indem ich am Ende von ausführlicheren Chats sinngemäß schreibe: ‚Ich habe am Anfang des Chats meinen Lernkontext mit dir geteilt. Welche Aspekte würdest du jetzt in diesem Kontext ergänzen?‘

Die überarbeitete Datei liegt dann wiederum bei mir auf dem Gerät. Ich kann deshalb unproblematisch zwischen unterschiedlichen KI-Anbietern wechseln, weil ich ja – egal mit welchem Modell und auf welcher Plattform ich gerade chatte – immer zu Beginn meinen Kontext teilen kann. Zudem kann ich mir auch unterschiedliche Kontexte erstellen: zum Beispiel einen, wenn es um das Schreiben von Texten geht und einen anderen, wenn es um die Konzeption von Lernangeboten geht. Aus diese Weise mache ich mir selbst meinen Kontext sehr viel mehr bewusst, weshalb sich diese Idee aus meiner Sicht ganz wunderbar zum Lernen eignet.

Lernkontext-Datei als pädagogische Ausgestaltung eines Personal Context Manager

Übertragen auf das Lernen bedeutet die Idee eines Personal Context Manager, dass ich meinen Lernkontext zu Beginn eines Chats deutlich mache. Ich kann also zum Beispiel inhaltliche Herausforderungen teilen, die ich angehen möchte oder schreiben, was ich bereits erfolgreich gelernt habe und woran ich anschließen will. Vor allem kann ich aber auch deutlich machen, welche Lernwerkzeuge ich nutze, welche Form von Feedback für mich besonders hilfreich ist und wie die Chats für mich besonders hilfreich sein können. Auf diese Weise kann das Lernen dann besser funktionieren. Erstens, weil ich klare Angaben mache. Zweitens und vor allem aber auch, weil ich vorab über mein eigenes Lernen reflektiere und so auf einer Metaebene vor allem auch das Lernen selbst lerne.

Auf diese Weise sind es bei der Nutzung einer Lernkontext-Datei weder die Maschinen, die mich mit intransparenten Systemeinstellungen, die sich die anbietenden Unternehmen ausgedacht haben (oft wahrscheinlich zu Marketingzwecken, wie aktuell beim Study Mode von ChatGPT) durch einen Lernprozess führen. Noch sind es Lehrpersonen, die die Maschine mit einer Perspektive des Lehrens instruieren und mir als lernende Person dann zur Nutzung vorschlagen. Stattdessen wird die Perspektive des Lernens eingenommen: Ich bin herausgefordert, selbst Verantwortung für meinen Lernprozess zu übernehmen. Genau dieser Aspekt ist entscheidend und sollte in der pädagogischen Ausgestaltung von Lernkontext-Dateien in den Blick genommen werden.

Lernkontext-Dateien als pädagogische Herausforderung

Die Gestaltung und Nutzung von Lernkontext-Dateien ist eine große Herausforderung. Gerade Menschen, die bisher kaum bis gar nicht gelernt haben, Verantwortung für ihr eigenes Lernen zu übernehmen, werden davon wahrscheinlich erst einmal ziemlich überfordert sein. Die pädagogische Herausforderung besteht in dieser Situation darin, Schritt für Schritt zu dieser Verantwortungsübernahme zu befähigen. Das gelingt nicht dadurch, dass man als pädagogisch tätige Person fertige Lernkontext-Dateien erstellt und Lernende nur noch anleitet, wie sie diese in Chats einfügen müssen (oder noch schlechter: dieses Instruieren der Maschine schon vorab für Lernende übernimmt.). Stattdessen geht es darum, mit Lernenden über ihr Lernen zu reflektieren, ihnen zu zeigen, wie eine Lernkontext-Datei aussehen könnte, sie dazu zu ermutigen, sich eine erste Version ausgehend von einer Vorlage anzupassen und mit dieser zu experimentieren, dabei zu begleiten, den generierten Output zu bewerten und zu zeigen, wie sich die Lernkontext-Datei vielleicht besser gestalten lässt.

Je weniger bewusst und selbstgesteuert Lernende bislang gelernt haben, desto kleinschrittiger wird eine Begleitung und Unterstützung in diesem Prozess sein müssen. Und natürlich kann das am Anfang durchaus auch bedeuten, eine Lernkontext-Datei auch erst einmal ganz vorzugeben. Dabei sollte aber nie der pädagogische Nordstern aus dem Blick verloren werden, dass das Ziel nicht (oder mindestens nicht nur) eine möglichst gut passende Lernkontext-Datei für die jeweilige Lernherausforderung ist, sondern vor allem die Befähigung, das eigene Lernen selbst in die Hand zu nehmen.

Anleitung zur Gestaltung einer Lernkontext-Datei

Eine Lernkontext-Datei soll natürlich vor allem maschinenlesbar sein. Gleichzeitig soll sie aber auch für Menschen verständlich sein, weil darüber ja auch gemeinsam reflektiert werden soll. Außerdem soll die Erstellung möglichst niederschwellig sein. Vor dem Hintergrund der Maschinenlesbarkeit, einer gut strukturierten Form der Inhalte und der einfachen Möglichkeit zur Erstellung von Vorlagen wird für den Personal Context Manager das Dateiformat JSON vorgeschlagen. Dieses Format bietet eine strukturierte Form, Informationen bereitzustellen und wird oft auch im Rahmen von Programmierung eingesetzt.

Hier wäre ein Beispiel, wie so etwas aussehen kann. Es war eine meine ersten Versuche mit Lernkontext-Dateien, sehr orientiert am Personal Context Manager und demzufolge auch auf englisch:

Lernkontext-Datei im JSON Format

Solch eine Datei lässt sich mit einem Texteditor erstellen und dann als .json abspeichern und nutzen. Alternativ lässt sich auch ein Online-Tool nutzen. Gerade wenn man eine Vorlage verwendet, ist beides kein Hexenwerk und ich gestalte meine eigenen Lernkontext-Dateien oft auf diese Weise. Allerdings habe ich die Erfahrung gemacht, dass eine gut strukturierte Textdatei, die ruhig auch deutschsprachig sein kann, ziemlich genau den gleichen Zweck erfüllt und zugleich für die meisten Menschen wahrscheinlich deutlich niederschwelliger in der Gestaltung und Nutzung ist. Für die meisten der aktuellen KI-Sprachmodelle ist das Einlesen der Informationen auch in diesem Format ganz genau so möglich. Deshalb finde ich im pädagogischen Kontext diesen Weg in den meisten Fällen sinnvoller. Das obige Beispiel würde dann einfach so aussehen:

Eine sprachlich und formattechnisch übersetzte Lernkontext-Datei

Meine Learnings für einen guten Einstieg

Von meinen bisherigen Erkundungen möchte ich die folgenden Learnings teilen, die dir vielleicht bei deinem Einstieg mit Lernkontext-Dateien helfen können.

  1. Ich habe mir die Gestaltung und Nutzung von Lernkontext-Dateien vor dem Hintergrund meines eigenen Lernens erschlossen. Diesen Weg empfehle ich dir sehr weiter, weil die Reflexion über das jeweils eigene Lernen sehr zielführend ist, um anschließend Lernende bei ihrer Reflexion über ihr Lernen zu begleiten.
  2. In meinem Lernen finde ich Lernkontext-Dateien vor allem im Bereich meines technischen Lernens sehr hilfreich. Also zum Beispiel, wenn es darum geht, Herausforderungen auf meiner Website anzugehen, meinen KI-Server weiter zu entwickeln oder digitale Lerntools zu konzipieren. Es hilft dann viel, dass auf meiner Lernkontext-Karte mein eigenes technisches Setting (z.B. welches Betriebssystem ich nutze, auf welchem Content Management System meine Website läuft, welche Software mir zur Verfügung steht …) und auch meine Kenntnisse (z.B. kaum Ahnung von Server-Administration, Grundkenntnisse in der Administration von WordPress, Erfahrung mit Terminal-Nutzung) sowie Angaben zum erfolgreichen Lernen (= erst einen groben Überblick verschaffen, was denkbar wäre, dann Schritt für Schritt und möglichst einfach begleiten) dargestellt wird.
  3. Eine weitere Erfahrung ist, dass ich unterschiedliche Lernkontext-Dateien für unterschiedliche Einsatzzwecke sehr hilfreich finde. Die oben beschriebene Lernkontext-Datei für technische Herausforderungen hilft zum Beispiel gar nicht, wenn ich an der Formulierung von Texten sitze oder bei der Konzeption von Lernangeboten. Unterschiedliche Lernkontext-Dateien sind in diesem Fall schnell erstellt – und da ich sie ja ohnehin zu Beginn eines Chats teile, ist es dann sehr einfach, mir immer auch gezielt zu überlegen, welchen Kontext ich gerade nutzen will. (Mit meinem eigenen KI-Server ist das Ganze noch etwas einfacher, weil ich hier alle meine Lernkontext-Dateien in einen Ordner im Wissensspeicher ablege – und dann über die Nutzung eines Hashtags im Chat auf den jeweils passenden Kontext zugreifen kann. Der Weg, sich einen Ordner auf dem eigenen Gerät oder in der eigenen Cloud anzulegen und dann die jeweils passende Datei direkt hochzuladen, funktioniert aber ganz genauso)
  4. Sehr gut funktioniert es bei mir, dass ich in Lernkontext-Dateien sowohl bereits erfolgreich abgeschlossene Lernherausforderungen der letzten Zeit aufnehme, als auch jeweils meine aktuelle Lernherausforderung. Dadurch generiert das jeweils genutzte KI-Modell sehr gut passende nächste Schritte.
  5. Hilfreich finde ich, es mir als Routine anzugewöhnen, immer wieder einen kritischen Blick auf meine Lernkontext-Dateien zu werfen und sie zu überarbeiten. In diesem Sinne haben sie einen kontinuierlichen Prozess-Zustand und sind also nie fertig. (Ich habe das oft auch als Aufforderung an das KI-Modell in meinen Lernkontext-Dateien stehen – ‚Erinnere mich daran, den Lernkontext upzudaten‘ – aber das funktioniert nicht immer)
  6. Ich stelle fest, dass die Arbeit mit Lernkontext-Dateien bei mir einer Vermenschlichung von KI-Modellen erfolgreich entgegen wirkt. Wenn ein KI-Modell nämlich nach dem Teilen einer Lernkontext-Datei Blödsinn generiert, dann fange ich nicht an, es möglichst gut verbal ‚überzeugen‘ zu wollen, sondern überlege stattdessen, welche meiner Anweisungen nicht klar genug formuliert war oder ärgere mich eben über die Grenzen bzw. die grundlegende Funktionsweise dieser Technologie und suche nach anderen Wegen, um meine Lernherausforderung zu bewältigen.
  7. Ich hatte gehofft, dass ich mit den Lernkontext-Dateien auch Vorgaben für die Websuche der KI-Modelle machen kann. Zum Beispiel habe ich versucht festzulegen, dass nur auf bestimmten, von mir kuratierten Websites, gesucht werden soll. Die jeweils einprogrammierten Einstellungen der Websearch scheinen hier aber deutlich stärker zu sein und solche Vorgaben klappen bei mir zwar manchmal, oft aber nur bei wiederholtem Erinnern und immer mal wieder auch gar nicht. Was für die Websearch gilt, stimmt sicherlich auch für andere Bereiche meiner Vorgaben, z.B. für die Angaben zum Aspekt Halluzination (Meine Vorgabe: Mein Lernziel ist es, die Limitationen von KI-Sprachmodellen zu reflektieren. Mache transparent, wenn du keine eindeutige Antwort generieren kannst. Fordere mich grundsätzlich zur Überprüfung von generiertem Output auf.). Auch hier muss mir klar sein, dass KI-Sprachmodelle immer ziemlich viel an eigenen Systemeinstellungen mitbringen, die ich mit meinen Lernkontext-Dateien natürlich nicht einfach schnell überschreiben kann. Doch genau auch das ist ja eine wertvolle Erkenntnis, die mir gerade durch die Arbeit mit den Lernkontext-Dateien bewusster wurde.
  8. Am Anfang fand ich die Aufnahme von Metadaten – also vor allem eine Versionsnumer und das Datum – in meiner Lernkontext-Datei etwas übertrieben. Inzwischen habe ich mir das angewöhnt, speichere die Lernkontext-Dateien dann auch mit der Versionsnummer und dem Einsatzzweck als Dateiname ab und habe so immer alles gut im Überblick. Insbesondere kann es für die eigene Lernreflexion hilfreich sein, sich nach ein paar Wochen anzuschauen, wie sich die Datei verändert hat.

Lernkontext-Datei in der Praxis: Mini-Beispiel

Ich fand es lohnend – wie beim Personal Context Manager vorgeschlagen – mit einer minimalen Lernkontext-Datei zu starten. Im Laufe der KI-Interaktion wird solch eine Lernkontext-Datei dann immer umfassender.

Bei diesem Blogbeitrag bin ich das noch einmal exemplarisch angegangen und kann mein Vorgehen und das Ergebnis im Folgenden teilen:

Ich habe eine minimale Lernkontext-Datei im Chat geteilt. Die sah so aus. (Das kann auch ein guter Ausgangspunkt für deine Versuche sein. Du musst eben meine Angaben mit deinen Angaben ersetzen):

Regel: Beachte die folgenden Aspekte, es sei denn ich gebe andere Anweisungen.
Deine Rolle: Begleitung und Unterstützung bei den von mir definierten Lernherausforderungen
Aktuelles Projekt: ein Blogbeitrag zu selbstbestimmtem Lernen mit KI
Bisherige Projekte: Aufbau eines eigenen KI-Servers, Konzeption von Fortbildungsangeboten zu KI und Bildung, Kritik am Study Mode von ChatGPT
Grundsätze: Offenheit, Open Source, Selbstgesteuertes Lernen, Partizipation, Kollaboration, Kreativität, kritisches Denken, digitale Mündigkeit
Technische Lernwerkzeuge: Linux Manjaro, WordPress Website auf eBildungslabor.de, eigener KI-Server, gehostet auf Hetzner mit Ollama und Open WebUI, Mediengestaltung: Audacity und ShotCut, zur Not: Canva
Vernetzungsmöglichkeit: eigener Blog, Vernetzung im Fediverse
Sprache: Deutsch
Tonalität: Per Du, Ansprache mit Nele, kurzer und prägnanter Output
Vorgehen: Erfrage meinen aktuellen Stand mit meiner Lernherausforderung, kläre dann erst das grundsätzliche Vorgehen und begleite mich dann Schritt für Schritt. Erinnere mich daran, diesen Lernkontext zu aktualisiere.
Art des Feedback: kritisches Hinterfragen, Aufzeigen anderer Optionen
KI-Limitationen: Ich möchte die Limitationen von KI-Sprachmodellen kontinuierlich reflektieren. Mache transparent, wenn du keine eindeutige Antwort generieren kannst. Fordere mich grundsätzlich zur Überprüfung von generiertem Output auf.
Metadaten: Version 1.0, 16.08.2025

Diese Datei habe ich im Chat mit einem KI-Sprachmodell geteilt und bekam direkt die Rückfrage, wo ich aktuell stehe.

Start meines Chats zu diesem Blogbeitrag mit geteilter Lernkontext-Datei

Ich habe erwidert, dass ich einen ersten Entwurf zu einer Lernkontext-Datei geschrieben habe. Es kam bestärkendes Feedback und eine Verbindung zu meinen bisherigen Projekten und die Frage, was genau ich unter einer Lernkontext-Datei verstehe. Das war hilfreich, um mir das selbst noch einmal klarer zu machen. Daraufhin wurde mein bisheriger Entwurf erfragt und bei mehreren Aspekten nachgefragt. Einzelne Bereiche habe ich daraufhin angepasst. Aufgrund der Anmerkung, den Text praxisorientierter zu gestalten, habe ich zum Beispiel den aktuellen Absatz mit diesem Mini-Beispiel ergänzt.

Von allein gab es dann keine Erinnerung an eine Aktualisierung zur Kontext-Datei. Auf meine Nachfrage hin wurde mir eine Ergänzung bei ‚aktuelles Projekt‘ vorgeschlagen. Da ich die KI-Interaktion gut funktionierend fand, sah ich ansonsten auch selbst keinen weiteren Anpassungsbedarf. Mit der Ergänzung habe ich dann Version 1.1 abgespeichert und kann sie nun für den nächsten Einsatz nutzen.

Fazit: Ausprobieren!

Ich kann ich dir eigene Erkundungen mit Lernkontext-Dateien sehr empfehlen: sowohl für dich selbst, um deine Interaktion mit KI-Sprachmodellen zielgerichteter zu gestalten und dein eigenes Lernen zu reflektieren. Und auch in deiner pädagogischen Tätigkeit, um mit einem ganz konkreten Projekt die Perspektive des Lernens einzunehmen, das Lernen gemeinsam mit Lernenden zu reflektieren und dabei zu begleiten und diese vor allem Schritt für Schritt immer besser zu selbstgesteuertem Lernen zu befähigen. Es ist in diesem Sinne zum Beispiel ein sehr hilfreiches Projekt in Fortbildungen, an jeweils eigenen Lernkontext-Dateien zu arbeiten, diese auszuprobieren und gemeinsam zu reflektieren.

Ich bin sehr gespannt, was deine Einschätzung zu Lernkontext-Dateien ist und welche Erfahrungen du damit sammelst. Viel Freude beim Erkunden!

Beitrag weiternutzen und teilen

Dieser Beitrag steht unter der LizenzCC BY 4.0und kann somit gerne offen weitergenutzt und geteilt werden.Hier kannst du dir den Beitragslink und/oder den Lizenzhinweis kopieren. Wenn du den Beitragslink in das Suchfeld im Fediverse (z.B. bei Mastodon) eingibst, wird er dir dort angezeigt und du kannst ihn kommentieren.

Link kopieren Lizenz kopieren

#DigitaleMündigkeit #KünstlicheIntelligenzKI_

Auf eine Mauer ist als Graffitti gesprüht: Did you choose this?
eBildungslabor-Blognele@ebildungslabor.de
2025-07-30

Study Mode von OpenAI: Weiter in eine falsche Richtung!

OpenAI bietet ab sofort einen so genannten Study Mode auf ihrer Plattform ChatGPT an. Ähnlich wie bei der schon zuvor veröffentlichten Recherchefunktion und weiterer Werkzeuge wird dieser Modus innerhalb eines Chats aktiviert. Ich gebe also einen Prompt ein – und klicke zugleich an, dass ich dazu im Lernmodus chatten will. Daraufhin wird eine von OpenAI hinterlegte Systemanweisung aktiviert, die zum Beispiel dazu führt, dass der Bot mir mehr Fragen stellt, als fertige Antworten gibt, mich Schritt für Schritt durch das Gespräch führt, mein Lernlevel erfragt und immer mal wieder Wissensüberprüfungen einstreut. Dabei nutzt der Chatbot eine motivierende und unterstützende Sprache. Laut dem Blogbeitrag von OpenAI zu der Neuerung wurde der Study Mode ‚in Zusammenarbeit mit Lehrkräften, Wissenschaftlern und Pädagogikfachleuten formuliert‘.

Ist diese Neuerung aus pädagogischer Perspektive sinnvoll? Ich habe Zweifel – und möchte die folgenden Aspekte zur Reflexion teilen:

  1. Alles, was der Study Mode macht, konnte man schon zuvor in gut geschriebenen Prompts unterbringen. Dadurch, dass es dazu jetzt einen spezifischen Modus gibt, wird genau solch ein bewusstes Instruieren der Maschine nicht mehr gelernt – zumal die Systemanweisung ja auch nicht direkt transparent ist. Man läuft Gefahr, sich von der Maschine programmieren zu lassen, statt die Maschine im eigenen Sinne zu programmieren. Der Study Mode steht somit im Widerspruch zu einer mündigen Technologie-Nutzung.
  2. Der Study Mode verstärkt den Automation Bias, wonach Menschen von einem KI-Chatbot intuitiv richtige, objektive Antworten erwarten. Unter der Haube verändert sich die Technologie aber nicht. Es findet weiterhin eine Wahrscheinlichkeitsberechnung auf Basis der Datenbasis statt, auf der das Modell trainiert wurde. Halluzinationen sind in dieser Technologie angelegt. Aus meiner Perspektive kann diese Technologie lernförderlich sein, aber nicht, wenn von ihr objektive, richtige Antworten (oder eben eine inhaltlich korrekte Lernbegleitung) erwartet werden, sondern eher als Resonanzmaschine. Genau diese Perspektive wird mit dem Study Mode aber noch mehr verstellt.
  3. Der Study Mode ist ein weiterer Schritt, um Menschen zu einer Nutzung und in der Perspektive dann einer Registrierung auf der Plattform zu drängen – mit all den damit verbundenen Schwierigkeiten wie Lock-In-Effekte, fehlende demokratische Gestaltung und Intransparenz. Mit solch einer Plattform-Logik lässt sich keine gute, demokratisch gestaltete und digital-mündige Bildung realisieren. Nötig wären dazu dezentrale und offene Ansätze und gemeinsames Experimentieren und Lernen.

Die verwendete Systemanweisung (fragend und personalisiert begleiten, schrittweise vorgehen, abwechslungsreich erklären …) ist sicherlich weitgehend zum Lernen sinnvoll. Dadurch aber, dass es als Modus vorgegeben ist, wird eben gerade nicht das Lernen selbst gelernt. Insgesamt wirkt der Study Mode auf mich eher wie ein bewusst gestalteter Marketing-Schachzug, um mit der eigenen Plattform besser Zugang in den Bildungsbereich zu bekommen, als eine sinnvolle pädagogische Neuerung.

#DigitaleMündigkeit #KünstlicheIntelligenzKI_

Screenshot von OpenAI
eBildungslabor-Blognele@ebildungslabor.de
2025-07-29

Langsames Denken bei der Technologie-Interaktion

Vor ein paar Jahren habe ich dieses Buch gelesen, was mich in meiner weiteren Lerngestaltung vielfach geprägt hat:

Cover des Buches, nicht unter einer freien Lizenz

Direkt im Umschlagstitel wird erklärt, was die Autor*innen Karen Schmidt und Frank Habermann unter langsamen Denken verstehen:

  • Fragen vor Antworten
  • Beobachten vor Bewerten
  • Perspektivwechsel vor Standpunkt
  • Selbstreflexion vor Fremdkritik

Die Idee bei dieser Gegenüberstellung ist, dass wir Menschen zu den Handlungen auf der rechten Seite neigen. Wir gelangen aber zu besseren Entscheidungen, wenn wir immer ein bisschen mehr von dem auf der linken Seite machen, als wir es intuitiv für nötig erachten würden. Dann kommen wir zu besseren Ergebnissen. Wenn wir uns also erst möglichst viele Fragen stellen, finden wir bessere Antworten. Oder wenn wir erst einmal eine Situation lange beobachten, dann kommen wir anschließend zu einer besseren Bewertung.

Diese Überlegungen sind als Manifest nicht nur in dem genannten Buch, sondern auch online veröffentlicht.

Langsames Denken bei der Technologie-Interaktion in der Bildung?

Bei Bildung im digitalen Wandel geht es unter anderem darum, wie wir auch in Interaktion mit Technologie gutes Lernen gestalten können. Im Kontext der aktuellen KI-Debatte ist diese Interaktion sehr offensichtlich, weil Maschinen immer menschenähnlicher gestaltet werden. Wir können uns also zum Beispiel mit KI-Sprachmodellen in einen Chat begeben.

Ich finde, dass es gerade in dieser Situation hilfreich ist, das langsame Denken auf diese Technologie-Interaktion anzuwenden. Dazu habe ich das ursprüngliche Manifest des langsamen Denkens angepasst.

Meine Anpassung des Manifest des langsamen Denkens auf Technologie-Interaktion

Was ist mit diesen Gegenüberstellungen jeweils gemeint? Lass uns das genauer anschauen.

1. Fragen vor Antworten

Die erste Gegenüberstellung brauchte ich gar nicht anzupassen, denn die Aufforderung Fragen vor Antworten zu stellen, passt auch im Kontext von Technologie-Interaktion. Hier bekommt diese Aufforderung aber zwei weitere Bedeutungen:

  1. Ganz konkret bei KI-Nutzung empfinde ich es als hilfreich, den Fokus darauf zu legen, mich selbst durch solch ein KI-Sprachmodell herausfordern zu lassen. Das klappt zum Beispiel gut mit der so genannten sokratischen Methode, bei der ein KI-Sprachmodell so instruiert wird, dass es mir zu einem bestimmten Thema Fragen stellt und ich zu Antworten herausgefordert werden. Der Gegensatz wäre, dass ich von einem KI-Sprachmodell keine Fragen, sondern direkt fertige Antworten erwarte.
  2. Auf einer Meta-Ebene geht es bei ‚Fragen vor Antworten‘ in der Technologie-Interaktion auch darum, dass ich die jeweilige Technologie reflektiere, bevor ich mich unkritisch darauf einlasse. Im Kontext von KI bedeutet das zum Beispiel, sich diese Fragen zu stellen:
    • Was ist die Datenbasis des Modells?
    • Welche Filtermechanismen werden angelegt?
    • Wer entscheidet darüber?
    • Mit welchem Interesse wird die Technologie angeboten?

Wenn die Aufforderung ‚Fragen vor Anworten‘ in der Technologie-Interaktion in diesem Sinne ernst genommen wird, dann werde ich im Ergebnis zu besseren Antworten kommen bzw. die erhaltenen Antworten mindestens besser einordnen können.

2. Erkunden vor Integrieren

Die zweite Aufforderung ‚Beobachten vor Bewerten‘ habe ich mit der Perspektive von Technologie-Interaktion umformuliert in ‚Erkunden vor integrieren‘. Diesen Grundsatz finde ich gerade in der aktuellen Situation sehr wichtig, in der an immer mehr (Bildungs-)Orten darauf gedrängt wird, den Experimentiermodus der KI-Anfangszeit nun endlich zu verlassen und Nägel mit Köpfen zu machen. Das bedeutet dann zum Beispiel, Richtlinien zu verabschieden, sich für bestimmte KI-Modelle zu entscheiden und dafür Lizenzen zu erwerben und damit dann eine möglichst gut passende Integration der Technologie in die bisherigen Lernkultur sicherzustellen.

Erkunden vor Integrieren ist stattdessen das Plädoyer den Experimentiermodus so lange wie möglich (wenn nicht sogar als neuen Normalzustand) beizubehalten. Dahinter steht erstens die Überzeugung, dass das Experimentieren dazu führen kann, dass Neues entsteht. In diesem Sinne wird Technologie dann nicht einfach in die bestehende Lernkultur integriert, sondern es geht um Veränderung der Lernkultur. Zweitens kann das Experimentieren dazu führen, dass man selbst kompetenter im Umgang mit der Technologie wird und damit dann nicht das erstbeste, möglichst schlüsselfertige Angebot auswählt, sondern sich stärker überlegt, wie eine mündige Technologie-Nutzung aussehen könnte. In meinem Fall führte viel Experimentieren zum Beispiel zur Gestaltung eines eigenen KI-Servers.

3. Resonanz vor Lösung

Aus ‚Perspektivwechsel vor Standpunkt‘ aus dem ursprünglichen Manifest habe ich im Kontext von Technologie-Interaktion speziell mit KI-Sprachmodellen die Gegenüberstellung ‚Resonanz vor Lösung‘ gemacht. Das schließt an den oben formulierten Grundsatz ‚Fragen vor Antworten‘ an und adressiert wiederum die Ebene der konkreten Nutzung.

Hintergrund ist hier, dass ich immer wieder erlebe, dass KI-Technologie im Sinne einer Lösungs- oder Recherche-Maschine genutzt und damit missverstanden wird. Denn die Funktionsweise der Technologie ist im Kern eine Wahrscheinlichkeitsberechnung. Natürlich führt diese Funktionsweise in sehr vielen Fällen zur Wiedergabe objektiver Fakten, also den richtigen Lösungen zu Herausforderungen. Wenn ich also zum Beispiel die Frage eingebe, was die Hauptstadt von Frankreich ist, dann wird ein KI-Sprachmodell sehr wahrscheinlich nicht mit Rom oder Madrid, sondern korrekterweise mit Paris antworten. Zugleich ist aber das so genannte Halluzinieren von KI-Sprachmodellen – also das Erfinden von Antworten, gerade bei offenen und herausfordernden Fragen – kein einzelner Fehler, sondern durch die Funktionsweise der Technologie als Wahrscheinlichkeitsberechnung angelegt.

Hilfreicher als fertige Lösungen zu erfragen und zu erwarten, ist es deshalb, KI-Sprachmodelle als Resonanzmaschinen zu verwenden. Sie können mir weitere Perspektiven (oder auch frei erfundene Ideen) zu einem Thema aufzeigen. Wenn ich mich mit diesen Perspektiven in Resonanz begebe, kann ich im Ergebnis dann eine bessere Lösung für meine Herausforderung finden.

4. Selbstentwicklung vor Technologie-Hype

Ich finde es an vielen Stellen ziemlich faszinierend, wie sich Technologie in den letzten Jahren entwickelt hat. Es macht Freude, das zu erkunden und damit zu spielen. Zugleich finde ich es gerade aus pädagogischer Perspektive wenig hilfreich, wenn wir Technologie-Entwicklung bestaunen, aber uns wenig bis keine Gedanken darum machen, wie wir als Menschen wachsen können. Denn keine Schülerin wird dadurch klüger, dass ChatGPT das Abitur mit Bestnoten besteht.

Die Aufforderung zu Selbstentwicklung vor Technologiehype adressiert genau diese pädagogische Herausforderung: Es sollte uns auch und gerade im digitalen Wandel immer darum gehen, wie wir Menschen mit und ohne sowie wegen und trotz Technologie-Interaktion wachsen können.

Fazit

Ich finde dieses angepasste Manifest des langsamen Denkens für mich in meiner Arbeit und bei meinem Lernen sehr hilfreich. Vielleicht kann es auch dir als Orientierung nützlich sein. Besonders wichtig finde ich es zudem, sich diese Orientierungen im Rahmen von Organisationsentwicklung immer wieder vor Augen zu führen. Gerade hier erlebe ich es sehr oft, dass zu schnell nach fertigen Antworten und Lösungen gesucht wird, anstatt einem bewusst gestalteten Experimentiermodus Raum zu geben.

Das Beitragsbild ist unter CC0 lizenziert und stammt von Krupa Nanda aus dem WordPress Photo Directory.

Beitrag weiternutzen und teilen

Dieser Beitrag steht unter der LizenzCC BY 4.0und kann somit gerne offen weitergenutzt und geteilt werden.Hier kannst du dir den Beitragslink und/oder den Lizenzhinweis kopieren. Wenn du den Beitragslink in das Suchfeld im Fediverse (z.B. bei Mastodon) eingibst, wird er dir dort angezeigt und du kannst ihn kommentieren.

Link kopieren Lizenz kopieren

#KünstlicheIntelligenzKI_

Eine Schnecke mit Schneckenhaus
eBildungslabor-Blognele@ebildungslabor.de
2025-07-06

So gestaltest du dir einen eigenen KI-Server!

Ich habe mir einen eigenen Online-KI-Server eingerichtet. Was das ist, warum ich das sinnvoll finde, wie ich vorgegangen bin und wie du es für dich mit 2-3 Stunden Zeit nachmachen kannst, steht ausführlich im folgenden Blogbeitrag. Eine direkt weiternutzbare Anleitung mit kopierbaren Befehlen in einer Kurzfassung ist hier als Hackpad veröffentlicht.

Disclaimer: Ich bin bei der Konfiguration von Servern keine Expertin, habe deshalb bei der Einrichtung viel mit Internetrecherche und KI-Interaktion gearbeitet – und messe den Erfolg jetzt vor allem daran, dass am Ende genau das rausgekommen ist, was ich haben wollte. Wer schlauere Wege kennt und/ oder in meinem Weg potentielle Schwierigkeiten sieht, möge mir das sehr gerne mitteilen!

Was ist ein eigener KI-Server?

Der Begriff „Server“ erinnert dich vielleicht an das Wort „servieren“, also etwas bereitstellen oder zur Verfügung stellen. Diese Assoziation ist genau richtig. Tatsächlich steckt darin die englische Bedeutung von to serve (bereitstellen, bedienen), aus der das Wort „Server“ abgeleitet ist. Vereinfacht ausgedrückt handelt es sich bei einem Server um ein spezielles Gerät (oft ein leistungsstarker Computer), das Inhalte und Dienste für andere Geräte bereitstellt. Wenn du beispielsweise im Internet Inhalte abrufst, liegen diese Inhalte auf Servern, von denen dein Gerät sie gezielt anfragt und empfängt.

Vor meiner Einrichtung eines eigenen KI-Servers habe ich noch keinen eigenen Server betrieben, sondern z.B. meine Website bei einem Hosting-Anbieter liegen gehabt. Auch solch eine Website liegt dann natürlich auf einem Server, aber mit diesem Server habe ich eigentlich nichts zu tun und habe auch nur einen Teil der Server-Ressourcen gemietet, also Speicherplatz und Rechenleistung. Den Server an sich kann ich nicht selbst konfigurieren, darum kümmert sich der Anbieter.

Weil ich nun aber unterschiedliche KI-Modelle so betreiben und konfigurieren wollte, wie ich das brauche, reichte mir diese Option einer ‚Einmietung auf einen Server‘ nicht mehr. Ich benötigte einen Server, über den ich mehr Kontrolle habe und bei dem ich etwa Software selbstständig installieren und konfigurieren kann. Dieser Server musste ausreichend leistungsfähig sein, um KI-Modelle ohne Probleme auszuführen.

Im Ergebnis habe ich jetzt eine Internetadresse, die ich im Browser eingeben kann. Dort gelange ich zu einem Login. Dann kann ich mich anmelden, um unterschiedliche KI-Modelle (offene und proprietäre) zu nutzen. Zugleich ist auch die Option von RAG (= Retrieval Augmented Generation, also Nutzung von bestimmten Inhalten als Grundlage bei der Generierung) gegeben. Das ist mein eigener KI-Server!

Warum ein eigener KI-Server?

Einen eigenen KI-Server einzurichten und zu betreiben, ist deutlich aufwendiger, als sich einfach bei ChatGPT oder einem anderen KI-Anbieter zu registrieren. Diesen Aufwand finde ich aber aus mehreren Gründen sehr lohnend!

1. Dezentralität: Ich möchte mich nicht in ein KI-Silo begeben!

Wenn ich mich bei ChatGPT oder einem anderen KI-Anbieter registriere, begebe ich mich in eine Plattform, die mir zahlreiche, miteinander verschränkte Funktionen bietet. Beispielsweise werden meine Chats gespeichert und ich kann auch später wieder darauf zugreifen. Ich habe direkt in der gleichen Oberfläche die Möglichkeit, mir eigene GPT’s anzulegen oder auch Projekte. Welche Funktionen es genau gibt, ist von Anbieter zu Anbieter natürlich unterschiedlich.

Die Folge solcher verschränkten Funktionen ist, dass ich, je länger ich mit einer bestimmten Plattform arbeite, immer höhere Opportunitätskosten habe, diese Plattform zu verlassen. Denn dann müsste ich auf einer anderen Plattform wieder ganz von vorne anfangen! Allerdings kann es ja gut sein, dass sich zum Beispiel die Kosten des Anbieters verändern und ich deshalb ein anderes Modell wählen möchte. Oder mir gefällt es nicht, welche politische Ausrichtung ein bestimmtes Modell nimmt … Es kann sehr viele gute Gründe geben, eine Plattform verlassen zu wollen. Wenn das dann nur geht, indem man ziemlich viel zurücklässt, finde ich das blöd. Darum will ich meine KI-Arbeit von vornherein nicht so anlegen.

Bei einem eigenen KI-Server widersetze ich mich solch einer Plattformlogik. Grundlage ist hier nicht eine Plattform. Stattdessen nutze ich zahlreiche Schnittstellen.

2. Vielfalt und Offenheit: Ich möchte mich nicht auf ein KI-Modell festlegen und offenen Modellen den Vorzug gegenüber proprietären Modellen geben

Die beschriebene Dezentralität führt mich direkt zum zweiten Argument für einen eigenen KI-Server: Offenheit und Vielfalt!

Es liegt nicht nur an einem grundsätzlichen Misstrauen gegenüber Plattformlogiken, dass ich meine KI-Umgebung dezentral aufbauen will, sondern auch, weil mir dieser Ansatz mehr Vielfalt verspricht. Dahinter steht die Überlegung, dass es aus meiner Sicht nicht ein passendes KI-Modell für alles gibt. Bei mir ist es z.B. so, dass ich die GPT-Modelle von ChatGPT besonders gut für Interaktion im Sinne von Sparring-Partner-Chats finde. Für eine längere Textproduktion oder auch für Coding nutze ich gerne Claude. Perplexity benötige ich, wenn es mir mehr um eine erste Recherche, als um Generierung geht. Und Gemini finde ich besonders für überblicksartige Darstellungen hilfreich. Hinzu kommen zahlreiche Open Source Modelle, die oft erstaunlich leistungsstark sind, aber die ich durch einen Fokus auf eine bestimmte Plattform dann gar nicht im Blick habe.

Mein eigener KI-Server ermöglicht es hier, beliebig viele KI-Modelle über die jeweiligen Schnittstellen einzubinden. Ich kann dann in einer Oberfläche je nach Bedarf zwischen unterschiedlichen Modellen wechseln. Insbesondere kann ich dabei auch Open Source Modellen, wo immer möglich, den Vorzug geben.

3. Funktionalität: Ich möchte mit generativer KI produktiv arbeiten können

Mein erster Versuch einer eigenen KI-Umgebung war lokal auf meinem schon etwas älteren Lenovo Laptop ohne Grafik-Karte. Das war ganz nett zum grundsätzlichen Experimentieren und ich konnte damit zeigen, dass das grundsätzlich funktioniert. Für einen produktiven Einsatz war es aber nicht geeignet. Dazu war die Kapazität meines Laptops schlichtweg nicht ausreichend. Auf eine einfache Anfrage musste ich oft mehrere Minuten warten.

Hinzu kommt, dass ich sehr häufig auch mobil über mein Smartphone arbeite, was über diverse Apps der proprietären Anbieter ganz wunderbar funktioniert. Oder ich arbeite auf unterschiedlichen Geräten, weil ich bei einer Fortbildung einer Person etwas zeigen will und mich dafür auf ihrem Rechner in meine KI-Umgebung einloggen will.

Drittens finde ich es grundsätzlich eine gute Idee, gemeinsam in einer KI-Umgebung zusammenzuarbeiten.

Mit einem Online-KI-Server ist all das – im Gegensatz zu einer lokalen Installation, zumindest wenn man nicht nur im eigenen Netzwerk bleiben kann/ will – realisierbar. Von Open Web UI gibt es zudem auch eine App. Ich kann meinen Server also auch sehr komfortabel auf meinem Smartphone nutzen.

Da ich einen leistungsfähigen Server gewählt habe, sind die Möglichkeiten nicht schlechter zu denen, wie ich sie bei ChatGPT und Co kennen gelernt habe – aber ich habe die Hoheit, was uns zum nächsten Grund führt.

4. Mündigkeit: Ich möchte verstehen, was ich nutze und bewusste Entscheidungen treffen

Wenn ich KI-Modelle in einer Cloud nutze, über die ich selbst nicht die Hoheit habe, dann weiß ich nicht, was im Hintergrund passiert. Die meisten Menschen werden auch nicht mit unterschiedlichen Modellen experimentieren, sondern sich einmal irgendwo einen Account kaufen und da dann erst einmal dabei bleiben.

Mit meinem eigenen KI-Server bin ich herausgefordert und habe gleichzeitig die Möglichkeit dazu, mir immer gezielt das Modell zu wählen, das mir für meine Anfrage passend erscheint. Ich kann auch sehr bewusst abwägen, ob ich lokale Modelle ansteuere, d.h. alles auf meinem Server bleibt oder ob ich die Verbindung zu proprietären Modellen herstellen will.

Insbesondere bietet ein eigener KI-Server unter Nutzung von Ollama und Open WebUI auch großartige Optionen, um sich eine eigene Wissensdatenbank hochzuladen – und darauf dann je nach Bedarf zurückgreifen zu können – und zwar unabhängig davon, welches Modell ich gerade konkret nutze.

5. Kosten: Ich möchte die Kosten in einem überschaubaren Rahmen halten

Ich habe in den letzten Monaten damit begonnen, mir immer mehr kostenpflichtige Accounts bei diversen KI-Anbietern zu buchen. Den Start machte ChatGPT, es folgte Claude und danach Gemini. Nun war ich am Überlegen, mir auch die kostenpflichtige Version von Perplexity zu buchen. Der Hintergrund ist hier natürlich, dass ich diese Tools nicht nur für mich selbst nutze, sondern vor allem auch in pädagogischen Angeboten dazu auskunftsfähig sein will, welches Modell, was, wie gut kann. Immer mehr kam ich mir dann aber wie eine Vertreiberin von KI-Modellen vor – und das ist definitiv nicht das, was ich machen will! Außerdem kam mit der Zeit dann doch einiges an Kosten zusammen. Denn alle Anbieter wollen ungefähr rund 20 Euro von einem haben.

Mein KI-Server hat nun überschaubare Kosten und vor allem keine Kosten für eine Plattform, die ich eigentlich gar nicht haben will. Sie setzen sich wie folgt zusammen:

  • Serverkosten: ca. 600 Euro pro Jahr
  • Domain-Kosten: ca. 8 Euro pro Jahr
  • Schnittstellen-Kosten zu proprietären Modellen: ca. 100 Euro pro Jahr (geschätzt, bei hoher Nutzung)

Pro Monat ergibt das rund 60 Euro, was ungefähr den Kosten entspricht, die ich vorher angesichts mehrerer Pro-Accounts auch bezahlt habe. Da der größte Posten die Servermiete ist, kann man Geld sparen, wenn man sich mit einer Handvoll Leute zusammen tut und sich gemeinsam einen KI-Server einrichtet. Ich stelle mir das z.B. so vor, dass ein Team von Lehrkräften mit ca. 6 Personen dann nur noch 10 Euro monatlich pro Person zahlen würde. Ähnliches könnte man sich für eine kleine Agentur oder Ähnliches vorstellen.

Wie lässt sich ein eigener KI-Server einrichten?

Wenn man technisch nicht viel Ahnung von Server-Konfiguration und Co hat, kann es ein guter Weg sein, sich bei dieser Herausforderung Schritt-für-Schritt durch ein KI-Sprachmodell begleiten zu lassen. Das gilt vor allem auch deshalb, weil Terminal-Output, den man nicht versteht, dort eingegeben und erklärt werden kann. Dieser Weg wird aber – wie immer bei KI-Sprachmodellen – nur dann funktionieren, wenn man grundsätzlich versteht, was man tut.

Hilfreich finde ich auch, sich bewusst zu machen, dass man ja erstmal nichts kaputt machen kann. Selbst wenn du den Server komplett falsch konfigurierst und nichts funktioniert, dann kündigst du ihn eben danach und hast nur eine einmalige monatliche Gebühr für ein bisschen Experimentieren im Rahmen digitaler Mündigkeit ausgegeben. Du gehst also kein Risiko ein, denn verlieren wirst du in keinem Fall.

Damit am Ende möglichst ein funktionsfähiger KI-Server bei dir rauskommt, hilft es, wenn du die Schritte verstehst, die nacheinander anstehen. Ich beschreibe hier einen von sicherlich vielen möglichen Wegen, der für mich gut funktioniert hat und den ich auch vom Ergebnis her sinnvoll finde. Du kannst dir damit einen Überblick verschaffen, um das grundsätzliche Prinzip zu verstehen. Wenn Du eine direkt nachbaubare Schritt-für-Schritt Anleitung inklusive kopierbarer Terminal-Befehle suchst, dann findest du diese hier als Hackpad.

Also, diese Schritte sind erforderlich:

Schritt 1: Server mieten und einrichten

Du benötigst im ersten Schritt einen Server, den du anschließend konfigurieren kannst. Da KI-Modelle darauf laufen sollen, muss der Server leistungsfähig sein. Ich habe mich für einen Server von Hetzner entschieden. Du meldest dich über die Console an (wenn du schon einen Account bei Hetzner hast) oder registrierst dich neu. Dann kannst du den Server zur Miete buchen. Er steht dir in wenigen Minuten zur Verfügung und die Zugangsdaten werden dir zugeschickt.

Mit dem Server kommunizierst du dann über dein Terminal auf deinem digitalen Endgerät. Ich nutze Linux Mint, wo ich schon früher immer mal wieder mit dem Terminal zu tun hatte. Du kannst die Einrichtung aber auch vornehmen, wenn du bisher noch nie mit einem Terminal gearbeitet hast. Das ist kein Hexenwerk.

Schritt 2: Docker installieren und einrichten

Im zweiten Schritt installierst du dir auf deinem Server über das Terminal das Hilfswerkzeug ‚Docker‘. Mithilfe von Docker kannst du anschließend relativ einfach deine KI-Umgebung installieren.

Schritt 3: KI-Umgebung einrichten

Mithilfe von Docker kannst du dann – wieder nur mit ein paar Befehlen über das Terminal – Ollama und Open WebUI installieren.

  • Ollama kannst du dir wie eine Art Netz vorstellen, an das du unterschiedliche KI-Modelle andocken und für dich nutzbar machen kannst.
  • Open Web UI stellt dir eine Benutzeroberfläche zur Verfügung, so dass du mit deinen KI-Modellen anschließend so chatten kannst, wie du es auch von KI-Plattformen gewohnt bist.

Nachdem du alles eingerichtet hast, kannst du deinen Server im Browser öffnen – und dich darüber dann bei Ollama registrieren, d.h. Mailadresse, Benutzernamen und Passwort festlegen.

Bei Ollama sind keine KI-Modelle vorinstalliert. Das bedeutet: Am Anfang ist deine Umgebung noch ganz leer und du kannst noch nicht chatten. Du musst als erstes eines oder mehrere der angebotenen Open Source Modelle installieren. Das funktioniert direkt in der Oberfläche. Damit ist dann schon ein erster Chat möglich.

Schritt 4: Server mit Firewall und automatischen Updates absichern

Dieser Schritt ist wichtig, damit dein Server nicht ungeschützt im Netz steht. Im Kern richtest du eine Firewall ein (= du schließt den ganzen Server zu und erlaubst nur über wenige Türen, so genannte Ports, den Zugriff). Außerdem kannst du deinen Server so konfigurieren, dass automatische Updates installiert werden, wenn sie verfügbar sind – und du kannst deinen Server gegen Angriffe schützen.

(Profis machen diesen Schritt wahrscheinlich gleich zu Beginn. Ich fing erst an, mir Gedanken um die Sicherheit zu machen, als ich etwas konfiguriert hatte, dass ich schützen wollte.)

Schritt 5: Verbindung zu proprietären Modellen ermöglichen

Wie oben beschrieben, möchte ich grundsätzlich mit Open Source Modellen arbeiten, aber auch die Option zur Nutzung proprietärer Modelle innerhalb meiner Oberfläche haben. Das wäre zum einen so möglich, dass ich mich mit den Schnittstellen der unterschiedlichen Modelle einzeln verbinde, was aber ziemlich aufwendig wäre. Die einfachere Möglichkeit ist es, den Dienst von Openrouter.ai zu nutzen. Hier kann ich mich einmal registrieren und ein paar Euros einzahlen, die mir als Budget zur Verfügung stehen – und mich darüber dann mit praktisch allen KI-Modellen verbinden. Die Kosten für solch eine Schnittstellenverbindung sind dabei sehr überschaubar. Ich kann auch Obergrenzen festlegen, wenn ich das möchte.

Bei Openrouter erhalte ich API-Verbindungsdaten, die ich bei OpenWebUI und Ollama eingeben kann. Für diesen Schritt arbeiten wir also wieder im Browser, nicht im Terminal.

Wenn du diesen Schritt erledigt hast, kannst du nicht nur die bisherigen Ollama-Modelle ausprobieren, sondern es stehen dir auch viele weitere zur Verfügung, die du auch über die Suche finden kannst. (Mit Suche GPT werden dir z.B. alle GPT-Modelle angezeigt, mehr noch als es direkt bei ChatGPT zur Auswahl gibt)

Schritt 6: Domain wählen und SSL einrichten

Ich möchte meinen KI-Server gerne von unterschiedlichen Geräten aus erreichen können und perspektivisch auch mit anderen gemeinsam nutzen. Deshalb ist es sinnvoll, ihm eine Adresse im Internet zuzuweisen. Ich habe mich für myzel-mind.de entschieden. Du bist bei der Wahl des Namens (vorbehaltlich die Domain ist noch nicht vergeben) völlig frei.

Ich habe meine Domain bei namecheap.com registriert, wo es mich nur wenige Euro im Jahr kostet. SSL und sonstige Zusatz-Angebote habe ich nicht dazugebucht. Danach musste ich einrichten, dass die Domain zu meinem Server weist, wozu ich die Software nginx nutze und ich wollte eine Verschlüsselung (https statt http) einrichten. Dazu waren wieder Befehle im Terminal nötig.

Schritt 7: Wissensdatenbank starten

Dieser Schritt gehört eigentlich gar nicht mehr zur eigentlichen Einrichtung, aber ich finde ihn in Hinblick auf Funktionalität eines solchen KI-Servers ganz wunderbar. Du gehst dabei so vor, dass du den ‚Arbeitsbereich‘ in deiner Online-Umgebung öffnest und dort unter wissen spezifische Bereiche einrichten kannst. In jedem Bereich kannst du dann ein oder mehrere Dateien hochladen. Wenn du dann einen Prompt eingibst und einen Hashtag eingibst, werden dir die Wissensbereiche und auch die einzelnen Dateien angezeigt. Du kannst also immer gezielt überlegen, auf was du jeweils Bezug nehmen willst bei deinem Prompt.

Fazit: Nachmachen!

Ich bin sehr begeistert von dem Ergebnis und fange – insbesondere bei der Prompt-, Wissens- und Funktionsdatenbank erst langsam an, alle Möglichkeiten zu entdecken. An die Umsetzung des Projekts habe ich mich lange Zeit nicht wirklich heran getraut. Im Nachklapp bin ich jetzt aber positiv überrascht, wie vergleichsweise einfach die Einrichtung doch war. Ich kann es zum Nachmachen sehr empfehlen!

Ich habe mir meinen Server auf der diesjährigen LernOS Convention eingerichtet. Danke für wertvolle Hinweise der beteiligten Personen und vor allem für den Anstupser und die Ermutigung, diese Wissenslücke endlich zu schließen!

Beitrag weiternutzen und teilen

Dieser Beitrag steht unter der LizenzCC BY 4.0und kann somit gerne offen weitergenutzt und geteilt werden.Hier kannst du dir den Beitragslink und/oder den Lizenzhinweis kopieren. Wenn du den Beitragslink in das Suchfeld im Fediverse (z.B. bei Mastodon) eingibst, wird er dir dort angezeigt und du kannst ihn kommentieren.

Link kopieren Lizenz kopieren

#DigitaleMündigkeit #KünstlicheIntelligenzKI_

eBildungslabor-Blognele@ebildungslabor.de
2025-06-26

Kurz notiert: CC Signals

Ich bin heute auf die Ankündigung von Creative Commons zu den so genannten CC Signals gestoßen und habe mir ein bisschen Zeit genommen, um mich dazu zu orientieren. Meine ersten Learnings und Schlussfolgerungen teile ich hier.

Was ist CC Signals?

Die Abkürzung CC steht für Creative Commons. Bisher arbeite ich vor allem mit dem Lizenzset dieser Organisation. Denn die ‚Creative Commons Lizenzen‘ haben sich als Standard im pädagogischen Bereich bei der Arbeit mit Open Educational Resources (OER) etabliert. Mit einer CC-Lizenz lässt sich bei einem Inhalt festlegen, wie er weiter genutzt werden darf.

Als die CC-Lizenzen entwickelt wurden, gab es generative KI-Systeme in der heutigen Form und Verfügbarkeit noch nicht. Inwieweit CC-lizenzierte Inhalte für das Training von KI-Modellen verwendet werden dürfen, ist deshalb nicht geregelt. Genau diese Lücke wird mit CC Signals zu schließen versucht. Die Argumentation lautet: Wenn wir es nicht regeln, wird nicht mehr geteilt. Das ist schlecht für alle!

(Für die individuelle Nutzung kommt man mit CC-Lizenzen dagegen schon jetzt durchaus weiter: Einen Text der z.B. unter CC BY lizenziert ist, darf ich in ein Sprachmodell eingeben und mir eine Zusammenfassung generieren lassen, aber muss dann eben bei der Weiternutzung des neu entstandenen Textes einen entsprechenden Lizenzhinweis angeben. Das ist lizenztechnisch ähnlich, als wenn ich einen CC-BY lizenzierten Text mit einem Übersetzungstool übersetzen lasse).

Wie funktioniert CC Signals?

CC Signals sollen eine Art Set, wie auch bei den bisherigen Lizenzen und zusätzlich zu diesen werden. Man soll sich somit aus einzelnen Bestandteilen ein passendes CC Signal zusammen stellen können.

Diese Elemente werden diskutiert:

  • Credit – Namensnennung (= Nennung des Urhebers + Quelle)
  • Direct Contribution – direkte Unterstützung (Zahlt oder unterstützt direkt den Rechteinhaber.)
  • Ecosystem Contribution – Unterstützung des Ökosystems (= Zahlt oder unterstützt die Gemeinschaft, aus der der Inhalt stammt.)
  • Open – Offenheit (= Nutzung ist nur erlaubt mit einem offenen KI-System).

Spontan fände ich für meine weiterhin unter CC BY veröffentlichten Inhalte z.B. das CC Signal Credit + Open sympathisch. Dieses würde ich dann zusammen mit der Lizenz sowohl maschinenlesbar als auch für Menschen lesbar auf meine Website packen.

Kann ich die CC Signals jetzt schon nutzen?

Bis jetzt gibt es die CC Signals nur als Ankündigung und ersten Entwurf. Das Ziel ist nun, gemeinsam mit der Community daran zu arbeiten und zu diskutieren. Eine erste richtige Version soll dann planmäßig im Spätherbst veröffentlicht werden.

Offene Fragen betreffen insbesondere die Frage, wie die geplante Unterstützung in den Signals geregelt werden soll.

Um sich an der Entwicklung und Diskussion zu beteiligen, nutzt man am besten das dafür eingerichtete Github-Repository. Zum Austausch in sozialen Netzwerken gibt es den Hashtag #CCSignals.

Sind CC Signals eine gute Sache?

Zu dieser Frage habe ich noch keine abschließende Einschätzung, aber zumindest ein paar erste, kritische Gedanken von anderen zusammen getragen:

  1. Wenn man gegenüber KI-Systemen grundsätzlich kritisch bis ablehnend eingestellt ist, dann sind die CC Signals definitiv ein schlechter Weg. Es wäre dann sinnvoller, direkt in den Lizenzen festzulegen, dass ein Training mit offenen Inhalten grundsätzlich untersagt ist. Das lässt sich damit begründen, dass man Inhalte unter CC freigegeben hat, damit andere Menschen (!) – nicht Maschinen – diese Inhalte weiternutzen können. Vor diesem Hintergrund können CC Signals auch als unpassend für die CC Community eingeordnet werden.
  2. Die CC Signals könnten technisch zum Beispiel in einer robots.txt Datei auf einer Website oder einem Repository abgelegt werden. Diese Datei würde AI-Crawlern signalisieren, was mit den Inhalten gemacht oder auch nicht gemacht werden darf. Das Problem ist allerdings, dass sich offensichtlich die wenigsten Crawler an solche Festlegungen halten.
  3. Angesichts der bisherigen Praxis, dass KI-Unternehmen massenhaft Inhalte ungefragt für das Training ihrer Modelle verwendet haben, ist es etwas naiv anzunehmen, sie könnten nun plötzlich aufgrund eines freundlichen Signals für die Inhalte bezahlen. Hier bräuchte es mehr rechtliche Verbindlichkeit.

Ich ergänze noch, dass die Handhabbarkeit von CC Signals mir sehr auf größere Repositories und Organisationen ausgelegt zu sein scheint. Mir ist im Kontext Offenheit aber Dezentralität sehr wichtig. Und ich selbst teile meine Inhalte auch als Einzelperson.

Positiv lese ich, dass die CC Signals ein wichtiger Schritt sein könnten, um offene Inhalte in einem KI-geprägten Internet zu bewahren und zu stärken.

Die Diskussion wird sicherlich – auch in der deutschsprachigen OER-Community – spannend!

#KünstlicheIntelligenzKI_ #OEROffenheit

eBildungslabor-Blognele@ebildungslabor.de
2025-06-23

Mit KI-generierten Zusammenfassungen lernen?

KI-generierte Zusammenfassungen werden zunehmend als ein Standard-Feature in Online-Arbeitsumgebungen und Tools integriert. Ich habe es zuletzt in Google Drive entdeckt, wo ich nun Googles Sprachmodell Gemini aktivieren kann – und mir dann direkt eine Zusammenfassung eines dort gespeicherten Dokuments oder Ordners angeboten wird. Auch unabhängig von solch einer standardmäßigen Integration scheint mir die Möglichkeit, sich schnell mithilfe von KI-Modellen eine Zusammenfassung eines Inhalts generieren zu lassen, vielfach zum Lernen genutzt oder vorgeschlagen zu werden.

Ich nehme das zum Anlass, um in diesem Blogbeitrag grundsätzlicher darüber zu reflektieren, welchen Wert solche KI-generierten Zusammenfassungen für das Lernen haben können bzw. ob sie sogar ganz im Gegenteil auch eher lernverhindernd wirken können. Das Ziel dieser hinterfragenden Reflexion ist es, mit einem gestaltenden Anspruch auf die aktuelle KI-Entwicklung zu blicken. Das umfasst sowohl die individuelle Nutzung (= Erlebe ich das für mich als sinnvoll – und wenn ja, wie?), die pädagogische Perspektive (= Wie kann ich andere bei einer klugen Nutzung begleiten?) und die technologische Ausgestaltung (= Welche Technologie ist in welcher Form zum Lernen sinnvoll?).

Pappkameraden-Argument: Vollständiges Lesen ist wirkungsvoller als zusammenfassen lassen!

Eine erste, ablehnende Reaktion auf zunehmende Zusammenfassungen von Texten könnte sein, dass man vergleichend analysiert, wie viel man von einem Inhalt mitnimmt, wenn man ihn sich selbst und vollständig erarbeitet versus wenn man eine KI-generierte Zusammenfassung liest. Solche Vergleiche halte ich für großen Quatsch, weil es natürlich klar ist, dass die umfassende Beschäftigung mit einem Text eine sehr viel intensivere Auseinandersetzung ermöglicht, als wenn ich nur die Zusammenfassung des Inhalts lese. Das ist aber unabhängig davon, ob die Zusammenfassung KI-generiert ist oder nicht.

Mit solchen Pappkameraden-Argumenten will ich mich im folgenden deshalb nicht näher auseinander setzen. Um die Tendenz zu zunehmenden Zusammenfassungen klüger zu reflektieren, ist meine Grundlage stattdessen eine veränderte Art und Weise der Rezeption. Das bedeutet: Genau so, wie ich schon im Kontext des Internets immer weniger linear gelesen habe, sondern zwischen Textbestandteilen hin und herspringen konnte, so lässt sich diese Art des vernetzten Lesens nun potentiell noch erweitern. Ich kann mir zunächst über KI-generierte Zusammenfassungen einen schnellen Überblick zu mehreren Inhalten verschaffen – und dann gezielt an den für relevanten Stellen vertiefen. Ich habe darüber in eines meiner KI-Experimente gebloggt.

Der große Vorteil scheint mir bei dieser Herangehensweise zu sein, dass es angesichts von immer mehr Inhalten und immer komplexeren Herausforderungen auf diese Weise gelingen kann, sich zu orientieren und darauf aufbauend zu gestalten.

Genau diese Perspektive will ich mir aber genauer anschauen: Denn solch ein beschriebenes, vernetztes Lesen funktioniert nur dann gut, wenn der grundlegende Baustein der KI-generierten Zusammenfassung hierfür passend ist. So faszinierend ich also grundsätzlich die Perspektive solch eines vernetzten Lesens finde, so wichtig finde ich es zugleich, im Kontext schneller technologischer Entwicklung wie aktuell der KI-Entwicklung immer wieder einen Schritt zurückzutreten und sich zu fragen: Ist das wirklich sinnvoll oder mache ich mir da selbst etwas vor? Also im Fall von Zusammenfassungen konkreter gefragt: Sind diese Zusammenfassungen tatsächlich sinnvoll, um unser Lernen zu immer größeren Teilen auf ihnen aufzubauen?

Leitfragen zur Beobachtung: Verlässlichkeit, Orientierung und Neugier

Um mich im Kontext der KI-Entwicklung zu orientieren, helfen mir eigene KI-Experimente immer sehr gut. Ich folge damit dem Grundsatz des ‚Beobachtens vor Bewertens‘ aus dem Manifest des langsamen Denkens. Das bedeutet: Ich habe nicht direkt eine Meinung dazu, sondern nehme mir Raum zum Erkunden. Ob KI-generierte Zusammenfassungen dann hilfreich sein können, um Lernen (und verändertes Lesen) darauf aufzubauen, möchte ich anhand von drei ‚Nordstern‘-Fragen entscheiden:

  • Sind die Zusammenfassungen verlässlich?
  • Bieten die Zusammenfassungen eine gute Orientierung?
  • Machen die Zusammenfassungen neugierig?

Zusätzlich lassen sich mögliche Alternativen in den Blick nehmen und die Frage stellen, was funktioniert wie gut?

Mein Experiment: Viele, viele Zusammenfassungen!

Mein Versuchsaufbau war so, dass ich mir sieben Texte vorgenommen habe und diese sowohl selbst zusammenfasst habe, als auch mit unterschiedlichen KI-Sprachmodellen zusammenfassen habe lasse. Ganz bewusst habe ich dabei unterschiedliche Texte in Hinblick auf den Stil, den Inhalt, die Länge und die Sprache gewählt.

Hier teile ich zunächst unkommentiert den so entstandenen Output. Mein Prompt war immer: „Schreibe mir eine sehr kurze und prägnante Zusammenfassung von diesem Text als Fließtext: [URL]“

Text 1: AI-Responsibility in a hyped-up World (Per Axbom)

Text 2: Mehr Ambiguität wagen! (Eigener Text)

Text 3: Differenzierung: Gut für die Kinder oder für die Lehrer? (Halbtagsblog)

Text 4: Are ‚AI‘-systems really tools? (tante)

Text 5: Wissensarbeit ohne KI ist wie Sahne mit einer Gabel steif schlagen. (Philippe Wampfler)

Text 6: Future Skills to go (Hochschulforum Digitalisierung)

Text 7: Das Konzept der Neuen Autorität (Quelle: Zeitschrift Pädagogik Ausgabe 6/2005)

Wie lässt sich dieser Output nun vor dem Hintergrund der formulierten Nordstern-Fragen reflektieren?

Fokus 1: Verlässlichkeit

Zur Einordnung der Verlässlichkeit finde ich insbesondere die generierten Zusammenfassungen zum Text von Tante ‚Are ‚AI‘ systems really tools?‘ spannend. Denn offensichtlich ist seine Website so gestaltet, dass ein Zugriff durch KI-Modelle möglichst ausgeschlossen bleiben soll. In den KI-generierten Zusammenfassungen taucht allerdings nur bei Gemini der Hinweis auf, dass ein Zugriff nicht möglich war und die generierte Zusammenfassung auf weiteren Quellen basiert. Claude scheint sich Zugriff verschafft zu haben; zumindest lässt das die generierte Zusammenfassung vermuten. Bei ChatGPT stoße ich nur dann darauf, dass die vermeintliche ‚Zusammenfassung‘ eigentlich eine Rezeption von Bluesky, Reddit und LinkedIn Postings ist, wenn ich gezielt auf ‚Quellen anzeigen‘ klicke.

Quellenanzeige nach Aufforderung bei ChatGPT

Als erstes Risiko lässt sich also festhalten, dass KI-Sprachmodelle häufig so gestaltet sind, dass die oberflächliche Zufriedenheit der Nutzenden mit der Interaktion höher gewichtet wird, als eine verlässliche Information. Diese Orientierung kenne ich bereits aus früheren Interaktionen mit KI-Sprachmodellen: Wenn nichts direkt als Output auf meine Eingabe hin passt, wird eben irgend etwas generiert! Für die Verlässlichkeit von Zusammenfassungen ist das nicht hilfreich.

Neben diesem offensichtlichen Fehler scheinen mir die übrigen Zusammenfassungen überwiegend in Ordnung zu sein. Bei genauem Lesen finden sich aber doch einige objektive Fehler. Zum Beispiel erfindet Claude im Text zu Differenzierung im Halbtagsblog von Jan-Martin Klinge eine Kollegin, die dem Autor widerspricht, was so nicht im ursprünglichen Text auftaucht.

Wichtiger finde ich einen weiteren Punkt: Eine Zusammenfassung ist immer eine Auswahl und damit eine Wertung! Wenn ein Mensch eine Zusammenfassung schreibt, dann wird er sich diese Wertung bewusst überlegen – und er wird dazu vielleicht auch von anderen dazu zur Verantwortung gezogen. Bei den Zusammenfassungen der KI-Sprachmodelle merke ich allerdings bei mir selber, dass ich hier viel eher eine ‚objektive‘ Zusammenfassung erwarte. Nun ist es sicherlich richtig, dass ein KI-Sprachmodell sich nicht wie ein Mensch bewusst dazu entscheidet, einen bestimmten Teil eines Inhalts in der Zusammenfassung eine größere Bedeutung beizumessen, als einem anderen Teil. Aber es gibt eben auch nicht nur eine objektiv, richtige Zusammenfassung, sondern sehr viele unterschiedliche Möglichkeiten. Ein KI-Sprachmodell ‚würfelt‘ somit mit jeder Anfrage eine andere, mögliche Zusammenfassung aus. Wenn ich also zehnmal eine Zusammenfassung generieren lassen, dann habe ich am Ende zehn verschiedene Zusammenfassungen. Ich habe das an meinem eigenen Text ausprobiert und in diesen zehn Versionen durchaus sehr unterschiedliche Schwerpunkte gefunden.

Nun könnte man einwenden, dass ja auch zehn Menschen zehn unterschiedliche Zusammenfassungen entwickeln würden. Das ist richtig. Es gibt aber zwei wichtige Unterschiede:

  1. Es ist bei den menschlichen Zusammenfassungen problemlos möglich – auch in der sozialen Interaktion mit anderen Menschen – auf eine bestimmte Zusammenfassung zu referenzieren. In einer Lerngruppe könnte also eine Person sinngemäß sagen: ‚Ich beziehe mich hier jetzt auf die Zusammenfassung von Person NN‘. Die KI-Zusammenfassung ist dagegen nicht referenzierbar. Selbst wenn alle Personen in einer Lerngruppe mit dem gleichen KI-Sprachmodell arbeiten, erhalten sie alle unterschiedliche Zusammenfassungen.
  2. Bei einer von einem Menschen generierten Zusammenfassung gehe ich grundsätzlich von einer bestimmten Perspektive aus. Bei einem KI-Sprachmodell erwarte ich (ob gerechtfertigt oder nicht sei hier erstmal dahingestellt) Objektivität, was in der Form wie gezeigt nicht realisierbar ist.

Ich halte zum Punkt ‚Verlässlichkeit‘ somit drei Herausforderungen fest:

  1. Alle dazu zu befähigen, zu erkennen, dass (z.B. aufgrund eines fehlenden Zugriffs) Quatsch als Zusammenfassung generiert werden kann.
  2. Im sozialen Austausch auf eine gemeinsame Grundlage zu referenzieren.
  3. Eine grundsätzlich kritische, hinterfragende Haltung auch gegenüber automatisierten, also KI-generierten Zusammenfassungen zu erlernen.

Fokus 2: Orientierung

Bei einer Zusammenfassung ist mir neben einem Überblick über die wichtigsten Inhalte vor allem auch Orientierung wichtig. Ich möchte also wissen, mit was für einem Inhalt ich es hier zu tun habe.

Wenn ich die Zusammenfassungen von mir selbst und von den KI-Modellen zu den unterschiedlichen Texten unter diesem Gesichtspunkt miteinander vergleiche, dann fällt mir auf, dass in meinen Zusammenfassungen deutlich häufiger Anmerkungen zur Orientierung zu finden sind. Ich schreibe zum Beispiel häufiger dazu, in welcher Sprache der Inhalt geschrieben wurde (wenn nicht auf deutsch), von wann er stammt oder um was für eine Art von Inhalt es sich handelt (z.B. eine überblicksartige Darstellung, eine persönliche Reflexion …). Ich mache das automatisch, da ich mich in einem bestimmten Kontext bewegen – und Zusammenfassungen demnach auch in diesen Kontext einordne. Vor diesem Hintergrund greife ich auch bewusst bestimmte Schlagwörter und Themen aus meinem aktuellen Kontext in meinen Zusammenfassungen auf. In ein paar Monaten wäre es somit gut denkbar, dass meine Zusammenfassung eine andere ist.

Der Fokus der KI-generierten Zusammenfassungen liegt dagegen auf der inhaltlichen Zusammenfassung. Sehr häufig wird zudem die Art und Weise der Argumentation weggelassen und stattdessen auf die zentralen Inhalte verwiesen. Diese werden oft sehr ‚fertig‘ postuliert. (Natürlich könnte ich nun an dieser Stelle ausgefeiltere Prompts schreiben und entsprechende Zusatz-Informationen abfragen. Die Entwicklung steuert aber ja zurzeit dahin, dass ich vor dem Blick auf den eigentlichen Inhalt immer häufiger zunächst eine Zusammenfassung sehe, die ich dann selbst gar nicht prompte.)

Als Herausforderung lässt sich hier somit festhalten, dass KI-generierte Zusammenfassungen tendenziell ärmer an Orientierungsmöglichkeiten sind. Diese Orientierungen muss ich mir dann auf anderen Wegen besorgen. Wenn ich darauf verzichte, weil ich zum Beispiel hauptsächlich Inhalte miteinander vernetzen und auf diese Weise lernen will, besteht das Risiko zu entkontextualisierten Einordnungen und somit fehlendem Verständnis oder irrtümlichen Einordnungen.

Fokus 3: Neugier

Die dritte ‚Nordstern-Frage‘ – Machen die Zusammenfassungen neugierig? – ist für mich die wahrscheinlich wichtigste Frage. Denn gerade hier sehe ich im pädagogischen Kontext eine große Herausforderung. Je schneller und einfacher uns Informationen zur Verfügung stehen, desto wichtiger wird es, dass wir eben nicht bei der Befriedigung unserer ‚flüchtigen‘ Neugier stehen bleiben, sondern uns in eine ‚forschende Neugier‘ hinein begeben. Übertragen auf Zusammenfassungen bedeutet das: Eine Zusammenfassung soll mich im besten Fall dazu motivieren, es genauer wissen zu wollen, d.h. mich in das jeweilige Thema vertiefen zu wollen. Das kann dann so aussehen, dass ich auch den vollständigen Text lese – oder aber eben, dass ich mich auf andere Art und Weise mit den Inhalten auseinander setze.

Mein Eindruck ist hier, dass die KI-generierten Zusammenfassungen zu geschliffen und glatt wirken, als dass ich den Eindruck hätte, dass es hier noch mehr zu Entdecken gibt. Stattdessen wirkt es auf mich so, dass ich einen Haken dran setzen kann. Jetzt scheine ich ja gelesen zu haben, was ich dazu wissen muss! Genau das bedeutet dann aber, dass ich bei flüchtiger Neugier stehen bleibe. Durch die weniger generische Darstellung in meinen eigenen Zusammenfassungen habe ich dagegen eher den Eindruck, dass man zum Weiterlesen angestupst wird.

Wo liegen Alternativen?

Zu einem Hinterfragen von KI-generierten Zusammenfassungen gehört auch, sich in Erinnerung zu rufen, was mögliche Alternativen bzw. Ergänzungen (technologisch und nicht-technologisch) sein könnten. Insbesondere diese drei Formen einer Zusammenfassung erlebe ich zum Lernen in diesem Sinne als hilfreich:

  1. Ich kann mir den Text direkt ansehen und querlesen bzw. überfliegen. Orientierung bieten mir dann fett gedruckte Begriffe, Zwischenüberschriften oder auch eigene Abstracts der Autor*innen. Das ist oft schon ausreichend, um zu erkennen, ob ich mich mit dem Text näher auseinandersetzen will oder mit was ich ihn in Verbindung bringen könnte. (Gerade bei den auch hier verwendeten kürzeren Texten ist zudem der zeitliche Aufwand zum Lesen einer Zusammenfassung im Vergleich zum zeitlichen Aufwand zum Lesen des gesamten Textes gar nicht mal so viel höher – und zugleich deutlich freudvoller)
  2. Insbesondere, wenn es in Lernangeboten um mehrere Inhalte geht, kann mit Kollaboration viel erreicht werden: Jede Person liest einen Text und stellt die Zusammenfassung den anderen zur Verfügung. Gemeinsam baut man sich so eine kollaborative Wissensbasis auf.
  3. Technologische Lösungen, die ähnlich wie Zusammenfassungen wirken, sind zum Beispiel die Voyant-Tools, die einen Text ‚durchleuchten‘ und mir als Schlagwortwolke und in weiteren Darstellungen einen Überblick über den Inhalt bieten. Anders als generische KI-Zusammenfassungen laden sie sehr zur Vertiefung ein.
Alternative ‚Zusammenfassung‘ meines Textes mit den Voyant-Tools

Fazit

Technologie ist menschengemacht und gestaltbar. Gerade deshalb lohnt es sich immer wieder, genauer hinzuschauen, was aktuelle, technologische Lösungen versprechen und diese Möglichkeiten pädagogisch zu reflektieren. Zum einen kann dann wo Bedarf gesehen wird auf eine veränderte Gestaltung hingewirkt werden. Zum anderen können auch erkannte neue Herausforderungen durch veränderte Praxis aufgegriffen und bearbeitet werden.

In diesem Fall nehme ich aus meinen Experimenten die folgenden (vorläufigen) Schlussfolgerungen für mich mit:

  • Kritisches Denken wird im Kontext von KI als Kompetenz wichtiger. Menschen müssen lernen, Autoritäten (zu denen in einer zunehmend KI-geprägten Welt auch KI-Modelle gehören) grundsätzlich zu misstrauen und ihren Output kritisch zu reflektieren.
  • Die große Bedeutung, die KI-generierte Zusammenfassungen im Bildungskontext und vor allem bei der Wissensarbeit häufig beigemessen werden, erscheint angesichts der realen Möglichkeiten nicht bzw. nicht immer gerechtfertigt. Grundsätzlich lässt sich die Frage stellen, ob die Gestaltung von KI-Systemen als menschenähnliche Chatbots tatsächlich der Weisheit letzter Schluss ist.
  • Der große Fokus in der aktuellen Bildungsdebatte auf das Lernen von KI-Nutzung sollte nicht dazu führen, dass andere Praktiken – wie hier zum Beispiel Praktiken von Zusammenfassungen – in den Hintergrund gedrängt werden.

Ich freue mich, auch von deinen Überlegungen zu diesem Thema zu lesen.

Nachtrag: Direkt nach Veröffentlichung habe ich ChatGPT um eine Zusammenfassung des Blogartikels unter Verfügbarmachung des Links gebeten. Offensichtlich kann das Tool so kurz nach einer Veröffentlichung den Text noch nicht aufrufen. Anstatt genau das zu formulieren, wird diese vermeintliche ‚Zusammenfassung‘ generiert:

Hier ist die sehr kurze und prägnante Zusammenfassung des Artikels „Mit KI-generierten Zusammenfassungen lernen“ als Fließtext:

Der Beitrag beschreibt, wie KI-gestützte Zusammenfassungen das Lernen bereichern können, indem sie Inhalte kondensieren und als Ausgangspunkt für Reflexion und Vertiefung dienen. Statt sich auf den automatischen Output zu verlassen, empfiehlt die Autorin, zunächst eigene Gedanken und Notizen zu entwickeln und anschließend die KI dialogisch zur Erweiterung zu nutzen – ein Vorgehen, das kritisches Denken fördert und kreative Auseinandersetzung ermöglicht .

#KünstlicheIntelligenzKI_

entschwört.Berlinentschwoert_Ber@troet.cafe
2025-06-16

Am Mittwoch, 18. Juni findet von der @amadeuantonio Stiftung eine Veranstaltung des Projektes #civicnet mit dem Titel "Community-Support 2.0: Künstliche Intelligenz zur Entlastung von Online-Moderation" statt.

Neben Vorträgen werden Live-Experimente mit KI durchgeführt sowie erprobte und experimentelle Tools vorgestellt.

Es gibt noch freie Plätze für die Tagung in #berlin !

amadeu-antonio-stiftung.de/ter

#KI #KünstlicheIntelligenzKI_ #socialmedia #amadeuantoniostiftung

eBildungslabor-Blognele@ebildungslabor.de
2025-06-11

Treffen der Initiative LernAssistenz

Heute war ein zweites und dieses Mal bereits etwas größeres Treffen der Initiative LernAssistenz. Schon vor ein paar Wochen hatten wir uns zum ersten Mal in damals sehr kleiner Runde getroffen. Heute waren dann mehr Menschen und erfreulicherweise ziemliche vielfältige Perspektiven vertreten!

Wir hatten einen sehr guten Austausch …

  • … über unser gemeinsames Anliegen (= das Lernen in der KI-Debatte in den Fokus nehmen.)
  • … über strategisches und praktisches Vorgehen (= einen ersten Aufschlag machen, aber dann iterativ weiter entwickeln und vor allem auch möglichst bald direkt mit Lernenden reflektieren).
  • über unser genaueres Ziel (= nicht einfach wieder ein allgemeines Paper, sondern eher eine Art ‚Lastenheft‘ aus dem dann auch ein Prototyp entwickelt werden kann. Nebenbei wollen wir aber natürlich auch wichtige Diskussionspunkte festhalten. Und der Prototyp muss auch gar nicht eine große Lösung sein, sondern könnte auch aus einer Art Ökosystem mit mehreren kleinen Tools bestehen)

Der nächste Schritt ist nun ein hybrides Treffen am 3. Juli. Hier wollen wir ganz konkret an einem ersten Aufschlag schreiben.

  • Wir treffen uns physisch in Hannover in der Nähe des Hauptbahnhofs von 11.00 bis 17.00 Uhr.
  • Ab 13.00 Uhr starten wir eine Videokonferenz zum Einwählen für alle, die nicht vor Ort sein können.

Wenn du dabei sein kannst und willst, dann trage dich gerne in unseren Verteiler ein. Dann wirst du über den genauen Rahmen informiert und kannst auch in unsere Signal-Gruppe dazu kommen.

Mitmachen bei LernAsssistenz.net

#KünstlicheIntelligenzKI_

eBildungslabor-Blognele@ebildungslabor.de
2025-06-10

Über mein Hadern mit KI-Kompetenzmodellen

In diesem Blogbeitrag möchte ich laut darüber nachdenken, wo aus meiner Sicht die pädagogischen Lücken bei den zurzeit viel diskutierten KI-Kompetenzmodellen liegen. Als weitere oder andere Perspektive möchte ich vorschlagen, nicht bei der Technologie zu beginnen, sondern in den Fokus zu nehmen, wie Lernende gesellschaftliche Handlungsfähigkeit unter den gegebenen gesellschaftlichen Rahmenbedingungen entwickeln können. Nötig ist dazu aus meiner Sicht vor allem Lernen mit Offenheit sowie die durchgängige Berücksichtigung der gesellschaftlichen Einbettung von Technologie.

Was meint „KI-Kompetenzmodell“ – und wo liegen die Schwierigkeiten?

KI-Kompetenzmodelle gibt es in unterschiedlichen Ausprägungen. Gemeinsam ist ihnen, dass sie definieren, welche Kompetenzen im Kontext von KI in der Bildung notwendig sind. Ein viel zitiertes und dank OER-Veröffentlichung auch viel remixtes Modell stammt zum Beispiel von Regina Schulz, Susanne Alles, Manuel Flick und Joscha Falck. Mein Ausgangspunkt war vor dieser Veröffentlichung auch häufig das Medienkompetenzmodell von Dieter Baacke. Er definiert die Bereiche der Medienkunde, der Medienkritik, der Mediennutzung und der Mediengestaltung. Das lässt sich sehr gut spezifisch auf KI-Technologie übertragen.

Solche und viele weitere KI-Kompetenzmodelle sind mit Blick auf die direkte Gegenwart sicherlich hilfreich. Ich kann sie sehr gut nutzen, um mir Klarheit darüber zu verschaffen, wie ich mit und ohne KI sowie über KI gut lernen und lehren kann. Sie bieten in diesem Sinne ‚Erste Hilfe‘ angesichts einer noch relativ neuen Technologie und eine strukturierte Orientierung. Deshalb ist mein Hadern auch keine Kritik an solchen Modellen, sondern eher erweiternd und weiter denkend zu verstehen.

Die Schwierigkeiten bei solchen KI-Kompetenzmodellen entstehen aus meiner Sicht dann, wenn ich dabei stehen bleibe, mir aus einer lehrenden Perspektive zu überlegen, wie ich bei Lernenden diese in dem jeweiligen Modell definierten Kompetenzen zu KI entwickeln kann. Der Blick geht dann von der Gegenwart in die Zukunft. Das führt zu mindestens drei Problemen:

  1. Die betrachtete Technologie (in diesem Fall KI) gilt als gesetzt und wird dabei notwendigerweise überwiegend statisch verstanden. Ansonsten könnte man darauf aufbauend ja keine Kompetenzen definieren. Bildungsplanerisch hinkt man auf diese Weise zwangsläufig immer der gesellschaftlichen Entwicklung hinterher.
  2. KI-Kompetenzmodelle gehen von der Technologie aus und nicht vom Lernen. Damit verhindern sie genau die Offenheit, die eigentlich notwendig wäre, wenn wir Lernen als ganzheitliche Entwicklung verstehen, die ausgehend von den Erfahrungen, Bedürfnissen und Fragen der Lernenden sowie der Auseinandersetzung mit den gesellschaftlichen Rahmenbedingungen in der Gegenwart erfolgt. Verschärft wird dieses Problem, weil im gegenwärtigen Bildungssystem die entwickelten Kompetenzen natürlich immer abprüfbar und vergleichbar sein sollen. Ich laufe damit Gefahr, das bestehende Bildungssystem zu zementieren anstatt es zu verändern.
  3. Gesamtgesellschaftlich betrachtet öffne ich keine Perspektive darauf, dass Technologieentwicklung auch ganz anders verlaufen könnte oder zukünftig ganz andere Schwerpunkte relevant sein könnten. Zugleich habe ich, wenn überhaupt, nur als einen Baustein unter mehreren im Blick, was sich an ethischen, gesellschaftlichen oder systemischen Fragen in Hinblick auf KI-Technologie stellt. Genau das ist aber nicht nur ein ‚Baustein‘, sondern die Grundlage von allem. Denn es gibt nun mal keine „neutrale“ Technologie – unabhängig von den gesellschaftlichen Rahmenbedingungen, in denen sie entwickelt und genutzt wird. (Marc-Uwe Kling bringt diesen Aspekt im Podcast mit edukativ.fm, sehr gut auf den Punkt: „Ich glaube, dass das Ökonomische mitzudenken bei den technologischen Entwicklungen super wichtig ist. Weil ich würde behaupten, die meisten Probleme, die wir aktuell haben mit der Technologie, resultieren gar nicht zwingend aus der Technologie, sondern aus der Art und Weise, wie man mit ihr Geld verdient.„)

Wie geht das auch anders?

Vor diesem Hintergrund schlage ich vor, den Fokus zu erweitern bzw. zu ändern. Wenn wir uns als Anwält*innen des Lernens verstehen, gehört ins Zentrum unserer pädagogischen Bemühungen nicht eine wie auch immer definierte „KI-Kompetenz“, sondern eine sehr viel allgemeinere Zielsetzung, die ich als gesellschaftliche Handlungsfähigkeit bezeichnen würde. Ein erster Schritt zu gesellschaftlicher Handlungsfähigkeit besteht darin, sich im Sinne einer Navigation in der Gesellschaft zurechtzufinden. Ein zweiter – und zunehmend drängender – Schritt wäre dann die Transformation: also die Fähigkeit, gesellschaftliche Bedingungen zu hinterfragen und zu verändern.

Diese Änderung des Fokus bedeutet nun ganz und gar nicht, dass ich die technologische Entwicklung ignorieren oder ausblenden würde. Denn auch mit diesem veränderten Fokus werden Lehrende und Lernende natürlich jeweils analysieren, was gesellschaftliche Handlungsfähigkeit unter den gegebenen Bedingungen bedeutet. Aktuell gehört ganz bestimmt dazu, dass es Künstliche Intelligenz als noch relativ neue und den Diskurs und zunehmend auch gesellschaftliche Praxis stark prägende Technologie gibt. Diese Technologie betrachte ich aber immer eingebettet in ihren gesellschaftlichen Kontext – nicht als vermeintlich ’neutraler‘ Ausgangspunkt und auch nicht als Ziel. Ich gebe somit nicht vor, was dazu gelernt werden soll, sondern reflektiere mit Lernenden, wie sie KI in ihrer Gegenwart erleben und begleite sie bei den daraus entstehenden Lernprozessen. Zugleich sind neben diesen Lernprozessen, die durch Auseinandersetzung mit KI-Technologie erfolgen, auch Lernprozesse aufgrund von Auseinandersetzung mit ganz anderen Herausforderungen möglich. Auch vor diesem Hintergrund empfinde ich solch ein Vorgehen als weniger reaktiv.

Was bedeutet das für meine pädagogische Tätigkeit?

Mit dieser Verschiebung des Fokus kann ich mit unterschiedlichen Brillen auf das Lernen blicken.

Eine stärker bildungspolitische Brille würde den Fokus darauf legen, für welche Rahmenbedingungen ich mich einsetzen muss, damit gutes Lernen überhaupt möglich ist. Im Kern geht es dabei um die Frage, wie ich allen Menschen Zugang zu Wissen und Teilhabe an Lernprozessen ermögliche. Konkret auf die aktuellen gesellschaftlichen Bedingungen im Bereich KI heruntergebrochen gehören dazu Herausforderungen wie die Entwicklung und Stärkung offener Wissensbestände oder der Einsatz für eine offene, transparente und gemeinwohlorientierte KI-Technologie als Lernassistenz. Ebenso geraten auch größere und grundsätzliche Ziele wie eine nachhaltige und friedliche Umgebung, soziale Sicherheit, Demokratie und gute Arbeit in den Blick.

Mit einer pädagogischen Brille liegt mein Fokus darauf, dass alle Menschen ihre Lernprozesse aktiv gestalten können. Pädagogisch bin ich hier gefordert, Lernende mit der „radikalen Gegenwart“ zu konfrontieren, ihnen zu ermöglichen, sich damit in Erkundungsräumen auseinanderzusetzen und sich in einem sozialen Austausch mit anderen zu entwickeln und gemeinsames Handeln zu lernen. Diese Lernprozesse gilt es zu unterstützen und zu begleiten, wobei Reflexion für mich hierfür der wichtigste Schlüssel ist. Gerade in solch einem offenen Lernen entstehen jene Momente, in denen Neues gedacht, Verhältnisse hinterfragt und Handlungsfähigkeit entwickelt werden kann. Denn vor allem wird hier das Lernen selbst gelernt. Mit Kompetenzmodellen, aus denen ich im schlechtesten Fall zuerst passende Übungen und Aufgaben und anschließend vergleichbare Prüfungen ableite, laufe ich Gefahr, diesen Prozess zu ersticken.

Fazit

Wenn wir Lernen ernst nehmen, können wir nicht gleichzeitig von vornherein festlegen, was am Ende dabei genau und überprüfbar herauskommen soll. Pädagogisch sollte deshalb die Schlussfolgerung sein: Nicht von der Technologie und von ihr aus definierten Kompetenzen ausgehen und schon gar nicht von einer vermeintlich neutralen Technologie. Stattdessen gilt es Räume zu schaffen, in denen Lernende in Auseinandersetzung mit gesellschaftlichen Bedingungen, im Austausch mit anderen und unterstützt durch pädagogische Begleitung und Reflexion gesellschaftliche Handlungsfähigkeit entwickeln. Auf diese Weise ermächtigen wir Lernende dazu, Zukünfte zu gestalten, die wir alle noch nicht kennen.

#KünstlicheIntelligenzKI_

eBildungslabor-Blognele@ebildungslabor.de
2025-06-07

Resonanzreiche Lernwerkzeuge

Vor gut zwei Jahren (im Frühjahr 2023) habe ich über meine (damals sehr große, weil für mich sehr neue) Faszination gebloggt, mithilfe von KI-Sprachmodellen Mini-Anwendungen für die Lehre entwickeln zu können. Wenn ich diesen Blogbeitrag heute lese, muss ich innerlich schmunzeln, weil mir meine damaligen Beschreibungen doch sehr banal erscheinen. Denn es ist ja noch so viel mehr und anderes möglich! Über meinen bisherigen Lernweg in diesem Bereich und meine daraus gewonnenen pädagogischen Schlussfolgerungen möchte ich im folgenden Blogbeitrag berichten.

Mein Lernweg

Kurz gefasst erfolgte mein Lernen in diesem Bereich …

  • … technisch von einfachen, statischen Anwendungen hin zu „intelligenten“ Apps, die ich (aus meiner Sicht passender) als resonanzreiche Apps bezeichne.
  • … pädagogisch von einer Perspektive des Lehrens hin zu einer Perspektive des Lernens.

Wie so oft gilt auch hier: Das Neue machte das Alte nicht obsolet. Stattdessen erweiterten sich die Möglichkeiten.

1. Faszination über die Möglichkeiten von „Helfer-Tools“

Der erste Schritt meines Lernwegs war meine oben bereits skizzierte Faszination, wie viel gezielter und einfacher ich in meiner pädagogischen Praxis mit KI-Unterstützung Anwendungen entwickeln konnte, die mich früher sehr viel Mühe und Zeit gekostet hätten oder für die ich auf Online-Angebote von anderen angewiesen gewesen wäre.

Zum Beispiel habe ich eine Anwendung gepromptet, die mehrere Lernende zufällig in Gruppen einteilt. Ein anderes Beispiel war ein Kreativitätsbooster: Hier konnten sich Lernende immer wieder neue, zuvor eingegebene Kreativitätsimpulse anzeigen und so in einem Brainstorming unterstützen lassen. Solche Tools gibt es zuhauf im Internet. Neu war für mich nun, dass ich sie mit KI-Unterstützung selbst gestalten konnte – und zwar genau mit dem Design und den Bezeichnungen, die ich haben wollte.

Mein Vorgehen bei diesen und vielen anderen Anwendungen war und ist so, dass ich zunächst mein Anliegen genau beschreibe und mir darauf aufbauend dann von einem Sprachmodell HTML-Code mit integriertem JavaScript generieren lasse. Den Output teste ich dann und korrigiere ihn, wo nötig. Anschließend stelle ich ihn online und nutze ihn in Lernangeboten.

Solch eine Entwicklung hat sich im Laufe der letzten beiden Jahre für mich immer weiter verbessert. Denn einerseits weiß ich inzwischen besser, wo mögliche Stolperfallen liegen, also worauf ich beim Prompten achten muss. Andererseits werden die KI-Sprachmodelle weiterentwickelt und können solche Coding-Schnipsel immer besser generieren.

2. Vom Helfer-Tool zu Austausch und Reflexion

Der zweite Schritt meines Lernwegs war, dass ich nicht mehr ausschließlich Helfer-Tools gestalte, sondern mehr auf Anwendungen ziele, die Gruppenprozesse unterstützen oder als Reflexionsinstrument dienen.

In diesem Sinne habe ich zum Beispiel das Tool „Brainstormrank“ entwickelt: Alle Beteiligten können hier Ideen eingeben und diese anschließend im Austausch bewerten. Am Ende bekommt man ein Ranking angezeigt.

Der Hintergrund dieser und anderen, ähnlichen Anwendungen ist, dass ich mich hier pädagogisch an ‚gutem Rahmenbau‘ orientiere und hier vor allem reflektiere, was in einer zunehmend KI-geprägten Welt wichtiger wird. Soziales Lernen, kollaborative Reflexion und Austausch in Gruppen erscheint mir besonders relevant. Vor diesem Hintergrund finde ich es sinnvoll, KI-Technologie dazu zu nutzen, Anwendungen zu entwickeln, die Menschen in Austausch miteinander bringen.

3. Vom Lehrwerkzeug zu Anwendungen für den eigenen Gebrauch

Der dritte Schritt meines Lernwegs erfolgte, weil ich zunehmend feststellte, wie sehr wir in der pädagogischen KI-Debatte die bestehende Bildungskultur zementieren, anstatt sie neu zu denken. Der Schlüssel, um das zu ändern, ist für mich vor allem, vom Lernen aus zu denken statt von der Lehre.

Bei meinen bisherigen Erkundungen musste ich mir eingestehen, dass ich ganz klar lehrseitig dachte. Zwar ist Lernraumgestaltung auf dem Weg vom Fokus auf Lehre hin zum Lernen bereits deutlich weiter als klassische Instruktion. Viel sinnvoller wäre es jedoch, Lernende dazu zu befähigen, selbst Anwendungen zu erstellen und darüber zu reflektieren. Um diesen Weg pädagogisch umzusetzen, finde ich es hilfreich, zunächst selbst zu erkunden, wie solch eine Entwicklung von Lernwerkzeugen für mein eigenes Lernen funktioniert.

Der erste Versuch hierfür war, dass ich wieder sehr einfache Helfer-Tools gestaltete – nun allerdings nicht mehr für Lernende, sondern für mich selbst. Das mache ich bis heute immer wieder, wenn ich einen Bedarf entdecke. Erst gestern habe ich zum Beispiel einen Mehrwertsteuerrechner mit Pauschalen-Integration gepromptet, um mir das vermaledeite Rechnungsschreiben in meiner Freiberuflichkeit zu vereinfachen. ;-)

Bei diesem und vielen weiteren Beispielen stelle ich immer wieder fest: Sie sind dann für mich hilfreich, wenn sie von meinem eigenen Anliegen ausgehen.

4. Auf dem Weg zum Lernwerkzeug

Eigene Anwendungen für Herausforderungen in meiner Arbeit zu entwickeln, empfinde ich als sehr nützlich. Zugleich ist mir klar, dass diese Tools noch keine Lernwerkzeuge sind. Denn sie helfen mir zwar sehr gut bei der Bewältigung von Herausforderungen, aber ich verwende sie nicht zum Lernen im Sinne von „klüger werden“ oder Selbstentwicklung.

Um das zu ändern, begann ich damit, typische Lernstrategien, die sich für mich als hilfreich erwiesen hatten, in Anwendungen zu übersetzen, die ich dann zum Lernen nutzen wollte. Zum Beispiel kann ich im Sinne von Kreativitätsentwicklung besonders gut neue Ideen entwickeln, wenn ich sie in einem engen Zeitraum aufschreiben muss.

Vor diesem Hintergrund promptete ich mir als Lernwerkzeug eine simple Anwendung, in die ich eine Herausforderung eingeben kann. Dann läuft ein Timer herunter und ich bin herausgefordert, in dieser Zeit so viele Ideen zu notieren, wie mir einfallen. Anschließend zeigt das Tool alle Ideen an, aus denen ich die relevantesten auswählen und zur Weiterarbeit für mich kopieren kann.

Dieses Lernwerkzeug zum Brainstorming ist nur ein Beispiel für eine Vielzahl von Versuchen, die ich in diese Richtung gestartet habe. Ich habe zum Beispiel auch mit einem selbst geprompteten Vokabel-Abfrage-Tool experimentiert, weil ich testen wollte, wie auch solch ein klassisches Faktenlernen mit einem eigenen Lernwerkzeug angegangen werden kann.

Eine Zeit lang machten mir solche Tools viel Freude. Allerdings erkannte ich auch, dass es oft eher Spielerei bzw. Prokrastination als verändertes oder verbessertes Lernen war: Für ein Brainstorming hätte ich mir genauso gut eine Uhr stellen und meine Ideen auf Karten notieren können. Für das Vokabellernen hätte es vielleicht auch einfach ein Karteikasten getan.

Dennoch fand und finde ich es aus einer Perspektive des Lernens hier spannend, dass ich mir eben erst eine Lernstrategie überlege, diese dann in eine Anwendung übertrage – und die Anwendung aufbauend auf einer Reflexion meines Lernens dann immer wieder verändern kann.

5. Lernwerkzeuge mit KI-Unterstützung

Bei der Entwicklung nützlicher Helfer-Tools für mich selbst und andere experimentierte ich mit unterschiedlichen Sprachmodellen. So kam ich zum fünften Schritt meines Lernwegs, der eher zufällig war.

Bei der Entwicklung meiner eigenen Anwendungen hatte ich schon sehr bald die Canvas-Funktion von KI-Sprachmodellen entdeckt. Diese Funktion ermöglicht es, dass ein Inhalt nicht im Chat, sondern in der rechten Seite in einem extra Fenster entwickelt wird. Der große Vorteil dieser Funktion ist erstens, dass ich den klassischen Chat verlasse, in dem ein Code bei Fehlern immer wieder neu generiert wird. Stattdessen kann ich den Output direkt korrigieren und anpassen. Zweitens kann ich in eine Vorschau wechseln und die Anwendung direkt nutzen. Das macht die Entwicklung und Nutzung von Anwendungen für den eigenen Gebrauch und zum eigenen Lernen also deutlich einfacher.

Zufällig stieß ich dann irgendwann beim Ausprobieren beim KI-Sprachmodell Gemini von Google auf einen Sternen-Button neben einer entwickelten Anwendung auf dem dortigen Canvas.

Sternen-Button in Gemini

Ich probierte diesen Button aus und verstand, dass Gemini daraufhin eine direkte KI-Integration in meine gepromptete App vorschlug und einbaute. Ich wusste zwar, dass so etwas grundsätzlich möglich ist – schließlich gibt es jede Menge Apps mit KI-Integration im Internet – aber neu war mir, dass es sich so simpel auch selbst gestalten lässt.

Anstatt mir nur Vorschläge zu KI-Unterstützung in einer App machen zu lassen, begann ich, meine bisherigen Anwendungen direkt zu überarbeiten. Bei der zeitlich getakteten Brainstorming-App ergänzte ich zum Beispiel einen ‚KI-Wettstreit‘. Ich konnte so Idee entwickeln und gleichzeitig beobachten, welche Ideen ein KI-Sprachmodell generierte. Das funktionierte ziemlich gut!

Eine weitere Idee war eine ganz neue Anwendung, um mich in meinem Denken herauszufordern. Hierzu skizzierte ich dem KI-Sprachmodell zunächst einige der wichtigsten ‚Gebote‘ des systemischen Denkens, mit denen ich mich zu der Zeit beschäftigte – und ließ darauf basierend eine Anwendung entwickeln, in die ich eine Herausforderung eingeben kann und die mir anschließend Denkimpulse im Sinne dieser ‚Gebote‘ anzeigt.

Hier kam dann auch der ‚Sternen‘-Button zum ersten Mal zum Einsatz. Ich hatte bereits KI-Integration in dem Sinne in die Anwendung gepromptet, dass basierend auf meinen systemischen Geboten immer ein passender Denkimpuls generiert werden soll. Das konnte ja nicht statisch vorab eingegeben werden. Gemini schlug mir nun noch zusätzlich vor, eine Metapher anzeigen zu lassen oder Anregungen für einen nächsten Schritt.

Mein Lernwerkzeug um weitere KI-Funktionen erweitert

Bei diesen und weiteren Anwendungen mit KI-Unterstützung promptete ich die Anwendungen immer in der Form, dass ich innerhalb der Anwendung nicht einen üblichen KI-Chatbot integrierte, der mit mir dann in einen Dialog trat. Denn dann hätte ich ja auch direkt in einem normalen Chat bleiben können. Stattdessen war meine Angabe zum Beispiel bei der App für systemische Denkimpulse, dass auf Klick von mir einfach jeweils nur ein sehr prägnanter Denkimpuls zu meiner zuvor eingegeben Herausforderung angezeigt werden sollte.

Vor diesem Hintergrund bezeichne ich die entstehenden Lernwerkzeuge mit KI-Integration für mich auch nicht als ‚intelligente‘ Apps, sondern eher als ‚resonanzreiche‘ Apps: Es ist kein direktes ‚Gegenüber‘, das mit mir hier in eine Kommunikation tritt, sondern ich kann mich dank KI-Unterstützung in Resonanz mit all den Überlegungen begeben, die Menschen in den letzten Jahrzehnten ins Internet geschrieben haben. Ich kann und muss dabei bei jedem Impuls für mich reflektieren, was ich dabei für mich sinnvoll finde und was nicht.

Pädagogische Reflexion

Aus einer emanzipatorischen und befähigenden Perspektive finde ich die (oben insbesondere bei Punkt 4 und 5) dargestellte Möglichkeit, Lernwerkzeuge zu entwickeln, zu nutzen und zu reflektieren, aus mehreren Gründen pädagogisch sehr spannend:

  • Lernende starten die Entwicklung solch einer Anwendung jeweils von ihrem Lernen aus. Sie legen in einem ersten Schritt selbst fest, was und wie sie lernen wollen. Die Berücksichtigung und bewusste, eigene Gestaltung von Form und Struktur ihrer Lernprozesse unterscheidet sich deutlich davon, sich einfach nur mit einer Frage an ein KI-Sprachmodell zu wenden.
  • Die Gestaltung von Lernwerkzeugen bringt uns weg von einer vermenschlichten Perspektive auf KI-Anwendungen. Lernende beginnen die Maschine zu kontrollieren, statt sich von ihr steuern zu lassen. Sie erleben sie mehr als Resonanz- und weniger als Antwortmaschine.
  • Da Anwendungen nicht nur entwickelt und genutzt, sondern auch angepasst und verändert werden können, sind Lernende kontinuierlich zur Reflexion ihres Lernens herausgefordert. In diesem Sinne kann man solche selbst entwickelten Lernwerkzeugen als die Modellierung von Lernstrategien verstehen.

Zusätzlich können Lernwerkzeuge in diesem Sinne immer auch kollaborativ gedacht werden. Lernende können ihre Anwendungen teilen und sich mit anderen dazu austauschen. So lässt sich Lernen gemeinsam besser machen.

Lernwerkzeuge selbst zu entwickeln, zu nutzen und zu reflektieren birgt also ein großes pädagogisches Potential. Vor diesem Hintergrund stellt sich die Frage, wie es gelingen kann, Lernende in Lernangeboten dazu ermächtigen. Einen ersten Versuch habe ich hierzu im Rahmen der zurzeit laufenden EPALE-Akademie zum Thema „Twin Transition“ unternommen. Bereits in den ersten drei Lerneinheiten konnten die Teilnehmenden mit verschiedenen KI-Tools experimentieren, um das Thema füpr sich zu erkunden. In der vierten und letzten Lerneinheit ging es darum, aufbauend auf zuvor entwickelten Themenfeldern konkrete Ideen und erste Schritte zur Umsetzung zu entwickeln. Die Leitfrage war: „Was kann ich praktisch tun, um Twin Transition in meiner pädagogischen Praxis umzusetzen?“

Die Befähigung zur eigenen Entwicklung, Nutzung und Reflexion passender Lernwerkzeuge für diese Herausforderung habe ich in drei Schritten versucht:

  1. Im ersten Schritt habe ich eine Anwendung gepromptet und veröffentlicht, die ähnlich wie meine oben beschriebene Brainstorming- und Ideenentwicklungs-App aufgebaut war. Dann habe ich Lernende eingeladen, diese zu nutzen und somit erste Ideen zu entwickeln.
  2. Im zweiten Schritt habe ich transparent gemacht, dass diese App KI-generiert war, und eingeladen, das eigene Lernen mit der App zu reflektieren und die App daraufhin für sich anzupassen.
  3. Im dritten Schritt habe ich die Möglichkeit zur KI-Integration erklärt und die Teilnehmenden zum Experimentieren damit eingeladen.

Du kannst dir die Lerneinheit hier ansehen. Ich erlebe diesen Weg im Rahmen der Akademie grundsätzlich als sinnvoll. Zugleich bin ich neugierig, welche Erfahrungen andere machen – und werde sicherlich noch viel dazu weiter erkunden.

Fazit

Das war meine Darstellung zur Nutzung von KI-Sprachmodellen zur Entwicklung von Anwendungen und Lernwerkzeugen. Ich will nicht unerwähnt lassen, dass diese Möglichkeiten bisher nur in einem stark monopolisierten, intransparenten Kontext so einfach und niederschwellig umsetzbar sind. Das ist alles andere als zufriedenstellend! Spannend finde ich jedoch, dass mit solchen Erkundungen zugleich durchschimmert, wie eine pädagogisch sinnvolle KI-Technologie aussehen könnte. Ich stelle mir hier eine lokal installierte Entwicklungsumgebung vor, an die mehrere offene und dezentral nutzbare sowie kleinere KI-Modelle und vor allem auch offene Datensätze flexibel angedockt werden können. Lernende könnten sich dann bewusst entscheiden, welche Inhalte sie für ihr jeweiliges Lernwerkzeug nutzen und wie sie damit lernen wollen.

Ich finde diese Perspektive – gerade aufgrund meiner eigenen Lernexperimente – einen sehr sinnvollen pädagogischen Nordstern für die weitere KI-Entwicklung. Als Bild für diesen Beitrag habe ich deshalb auch eine Aufnahme des letzten Chaos Communication Congress (CCC) gewählt. Vor allem in dieser Community von Menschen, die grundsätzlich immer einen gestaltenden und ermächtigenden Blick auf Technologie haben, kann ich mir vorstellen, Bündnispartner*innen für die Realisierung dieses Nordsterns zu finden.

#DigitaleMündigkeit #KünstlicheIntelligenzKI_ #Lernkulturveränderung

eBildungslabor-Blognele@ebildungslabor.de
2025-05-16

5b-Modell: Wie nutze ich KI-Sprachmodelle klug beim Schreiben?

Für die heute beginnende OERcamp Werkstatt in Darmstadt habe ich einen Micro-Content zu klugen Schreibstrategien mit KI-Sprachmodellen gestaltet. Grundlage sind meine subjektiven Erfahrungen und Einschätzungen, die ich insbesondere beim Schreiben meines Buches zu guter Lerngestaltung gesammelt habe. Insgesamt schlage ich 5 – jeweils mit b beginnende und damit hoffentlich leicht zu merkende – Orientierungen vor:

1. behutsam

Ich setze KI-Sprachmodelle wohldosiert ein. Lieber zu wenig als zu viel. Es ist nämlich ziemlich nervig und zeitaufwendig, im Nachhinein jede Menge stochastischer Allgemeinplätze und Übertreibungen glattzubügeln und aus meinem Text zu entfernen. Außerdem nehme ich mir sonst die Chance, selbst zu lernen.

2. bewusst

Ich nutze KI-Sprachmodelle bewusst. Ich überlege mir vorher genau, was ich eigentlich will – und prompte entsprechend. Sonst passiert es schnell, dass mir ChatGPT den ganzen Blogbeitrag umschreibt, obwohl ich eigentlich nur eine Fehlerkorrektur wollte.

3. beteiligt

Ich lehne mich nicht zurück und lasse die KI einfach machen, sondern gehe in den Dialog. Das bringt nicht nur bessere Ergebnisse, sondern verhindert auch, dass ich dümmer und unzufrieden werde. Denn nur Befehle in ein Sprachmodell einzutippen, ist kein Denken und fühlt sich für mich nicht nach sinnvoller Textarbeit an.

4. bohrend

KI-Sprachmodelle sind so angelegt, dass sie mir im Grundsatz immer recht geben. Wenn ich meine Texte verbessern und blinde Flecken oder Fehler aufspüren will, muss ich gezielt nach Widerspruch und Kritik fragen – sonst bekomme ich nur höfliche Zustimmung statt hilfreicher Rückmeldung.

5. bewertend

KI-Sprachmodelle arbeiten auf Basis von Wahrscheinlichkeiten, nicht mit gesundem Menschenverstand. Halluzinationen sind in der Technologie angelegt. Deshalb komme ich nicht umhin, jeden KI-Output – auch Korrekturen – sorgfältig gegen zu lesen und kritisch zu überprüfen.

Diese Zusammenstellung gibt es hier als Mini-Zine gestaltet – zum Ausdrucken, Falten und Teilen!

Zine: Kluge Schreibtechniken mit KIHerunterladen

#KünstlicheIntelligenzKI_ #MicroContent

eBildungslabor-Blognele@ebildungslabor.de
2025-05-09

Konzept und Ergebnisse einer Ideenwerkstatt zu lernförderlicher KI-Nutzung zum Weiternutzen

In diesem Blogbeitrag stelle ich das Konzept und die Materialien für eine Ideenwerkstatt zur lernförderlichen KI-Nutzung zum Weiterverwenden und Weiterdenken zur Verfügung. Ich habe es heute beim Bildungssymposium „Die Schule von morgen heute gestalten“ an der beruflichen Schule ITECH in Hamburg-Wilhelmsburg erstmalig ausprobiert und durchgeführt. Danke an alle, die mit dabei waren, Feedback gegeben und zum Teil auch ihre individuellen Ergebnisse zum Teilen an mich weitergegeben haben!

Hintergrund und Rahmen

Mein Ziel dieser Ideenwerkstatt war die Entwicklung praxisnaher Ideen, um Lernen in einer KI-geprägten Welt gut zu gestalten. Ich wollte dabei einen konsequent lernendenorientierten Blick anregen und allen Beteiligten ermöglichen, KI-Technologie selbstverständlich im Rahmen der Ideenentwicklung und des Austauschs als Lerntool zu nutzen. Der Hintergrund war hierfür meine eigene Einschätzung: Ich finde, dass wir in so vielen aktuellen Bildungsdebatten viel zu wenig vom Lernen ausgehen – sondern vom Lehren oder der Technologie. Ich wollte vor diesem Hintergrund gemeinsam mit den Teilnehmenden erkunden, ob und wie das auch anders geht.

Wir waren in dem Workshop gut 50 Personen. Grundsätzlich lässt sich das Konzept aber auch mit mehr oder weniger Menschen durchführen. Man braucht eben ausreichend Platz, um in unterschiedlichen Konstellationen miteinander ins Gespräch und auch in Bewegung zu kommen. Zeitlich war die Ideenwerkstatt auf 90 Minuten angelegt. Länger wäre besser gewesen. Dazu später mehr beim Teil ‚Feedback‘.

Materialien und Ausstattung

Wir haben viel haptisch gearbeitet, aber genau so selbstverständlich auch digitale Medien und KI-Technologie in unser Lernen einbezogen.

Analoges Material

Grundlage für die Ideenwerkstatt war ein Mini-Zine (= ein kleines Booklet, das sich die Teilnehmenden zu Beginn selbst aus einem DIN-A4-Blatt zusammenfalten konnten). Die Exemplare waren insofern verschieden, als dass es in gleicher Anzahl Booklets mit unterschiedlichen Begriffen gab, die wir im Laufe des Workshops bearbeiteten.

Hier ist das Zine in einer Lesefassung (mit ‚leerem‘ Begriff):

LesefassungHerunterladen

Und hier in der Druckfassung zum Schneiden und Falten:

FaltfassungHerunterladen

(Diese beiden Varianten zeigen dann auch schon, wie man so etwas selbst gestaltet: erst 8 Seiten entwickeln, diese als Bild speichern und dann so anordnen, wie in der Faltfassung zu sehen. Wie man so etwas faltet, steht z.B. hier)

Die Zines konnten für schnelle, individuelle Notizen genutzt werden und zeigten den groben Ablauf, boten QR-Codes zu weiternutzbaren Prompts (siehe unten beim digitalen Material) sowie den Link zu diesem Blogbeitrag für die spätere Nachbereitung.

Ausstattung

Eine klassische Präsentation gab es nicht. Stattdessen habe ich Aufgaben oder wichtige Konzepte auf einem Flipchart visualisiert.

Schließlich brauchten wir noch Pinnwände, Metaplankarten und Packpapier oder auch einfach ein Flipchart zum Beschreiben auf den Tischen in den Gruppenarbeiten. Und ausreichend Platz!

Digitales Material

In den Zines gab es – wie oben dargestellt – QR-Codes zu einem GitHub-Verzeichnis.

  1. Die Teilnehmenden fanden dort Anregungen und/oder einen Prompt zur Eingabe in ein selbstgewähltes KI-Sprachmodell, mit dem sie sich den ihnen zugeteilten Begriff erschließen konnten.
  2. Es gab eine Spielanleitung, die von einer menschlichen Moderation genutzt werden konnte. Alternativ konnte ein Prompt genutzt werden, um sich dann als Gruppe von einem KI-Sprachmodell durch das Spiel Schritt für Schritt führen zu lassen.

Der Code ist in GitHub über diesen Link zugänglich und kann gerne remixt werden. Eine Screencast-Anleitung dazu habe ich hier veröffentlicht. (In dem Screencast geht es um ein anderes Projekt, aber es ist übertragbar.)

(Mein Vorschlag, wenn du es nachmachen willst: Schau dir den Screencast an und versuche dich an einem Remix. Wenn du nicht weiterkommst, dann nimm gerne Kontakt zu mir auf!)

Ablauf des Workshops

Die Ideenwerkstatt war in mehrere Phasen eingeteilt:

1. Einfinden und Grundlagen

Wir starteten mit dem Basteln des Zines und – direkt darin integriert – ein schnelles Silent Writing zu zwei Fragen:

  • Wie definierst du im Kontext der aktuellen Debatte in der Bildung den Begriff Künstliche Intelligenz?
  • Was wäre aus deiner Sicht die dümmstmögliche KI-Nutzung zum Lernen?

Nach dem Silent Writing bewegten sich alle durch den Raum und tauschten sich mit so vielen Menschen wie möglich zu ihren Antworten aus.

Diese Phase hatte zum einen den Sinn der Gruppenfindung und des Kennenlernens. Zum anderen wollte ich allen einen guten Einstieg in das Thema bieten – auch denjenigen, die sich bis jetzt vielleicht noch weniger mit KI-Technologie auseinandergesetzt haben.

2. Perspektive auf das Lernen

Ich hatte mir im Vorfeld fünf Konzepte bzw. Begriffe überlegt, die aus meiner Sicht für eine Perspektive des Lernens in der Bildung grundlegend sind. Diese waren als Begriffe in die Zines eingetragen:

  • Radikale Gegenwart (= das Leben in all seiner Widersprüchlichkeit und Vielfalt in die Bildung holen und ausgehend davon Lernen entwickeln),
  • Agency (= eigene Anliegen entwickeln und für die Umsetzung motiviert und gestärkt werden),
  • Modellierung (= in die Umsetzung gehen und dazu auch eigene Lernprozesse gestalten),
  • Resonanz (= eine Wirkung entfalten – bei sich selbst und bei anderen)
  • Reflexion (= über die eigenen Aktivitäten und das Lernen nachdenken und es weiterentwickeln).

Diese Konzepte wirken in dieser Darstellung sehr linear. Ich habe aber versucht, deutlich zu machen, dass sie ineinander verschränkt und rotierend zu verstehen sind.

Um diese Perspektiven auf das Lernen einnehmen zu können, konnten sich die Teilnehmenden zunächst den Begriff erschließen. Sie gingen dazu in den Austausch mit Nebensitzer*innen, durchsuchten das Internet oder nutzten einen vorbereiteten Prompt nutzen.

3. Begriffsklärung und Ideenentwicklung

Anschließend fanden sich alle Beteiligten, die den gleichen Begriff im Zine stehen hatten, in einer gemeinsamen Gruppe zusammen. (Wir haben diese Gruppen oft noch einmal geteilt, da die Diskussionsrunden ansonsten zu groß geworden wären. Das können aber die Beteiligten am besten entscheiden.)

In diesen Gruppen ging es dann darum, sich zunächst über die gefundenen Begriffsdefinitionen zu verständigen und anschließend in eine Ideenentwicklung zu gehen: Was könnte man vor dem Hintergrund des jeweiligen Konzepts praktisch tun, um gutes Lernen zu ermöglichen?

Die Antworten wurden in einer ersten Phase mit dem Anspruch von Quantität zusammengetragen (= alles, was einem in den Sinn kam). Anschließend verteilte ich Metaplankarten und die Gruppen fassten ihre wichtigsten Punkte zusammen und teilten sie auf einer gemeinsamen Pinnwand. Das hier war unser erstes Ergebnis:

a) Radikale Gegenwart

  • Lernen im Hier und Jetzt – ohne Rückgriff auf Vergangenheit oder Zukunft.
  • Neustart ermöglichen – alte Muster hinter sich lassen.
  • Achtsamkeit – bewusste Wahrnehmung fördern.
  • Fehlerfreier Raum – alles darf sein, angstfreies Lernen.
  • Perspektivenvielfalt:
    • Argumente und Rollenwechsel fördern Verständnis.
  • Visualisierung:
    • z. B. Gartenprojekt
    • Raum für Ideen und Überraschungen schaffen.
  • „Radikale Gegenwart“ ↔ KI – möglicher Widerspruch.

b) Agency (Selbstwirksamkeit im Lernen)

  • Aktive Gestaltung des eigenen Lernprozesses.
  • KI als unterstützender Coach:
    • Diagnostik-Funktion.
    • Unterstützung bei Zielformulierung & Lernweggestaltung.
    • Reflexionshilfe
    • Feedbackgeber

c) Modellierung

  • KI als Lern- und Denkpartnerin.
  • Eigene Ideen mit KI entwickeln und modellieren.
  • Lösungswege sichtbar machen.
  • Transparenz:
    • Eigene und KI-Denkprozesse nachvollziehbar machen.

d) Resonanz

  • Individuelle Lernwege fördern:
    • Kreative, persönliche Lösungen und Produkte.
    • Dialogischer Lernprozess zwischen Mensch und KI.
  • KI für persönliche Beispiele nutzen:
    • Lerngegenstände an individuelle Interessen anpassen.

e) Reflexion

  • Chatbot für individuelle Lernreflexion:
    • Anpassung an verschiedene Lerntypen.
  • Ziele:
    • Reflexionstiefe steigern.
    • Schwächen erkennen.
    • Lernpläne entwickeln.
  • KI-basierte Reflexion als Lern-Booster.

4. Konkretisierung im Rollenspiel

Der letzte Schritt war ein Rollenspiel, für das wir Gruppen bildeten, in denen alle zuvor behandelten Perspektiven/ Begriffe vertreten waren. Eine Person übernahm die Moderation und eine weitere die Dokumentation. Die anderen blickten dann mit der Perspektive einer lernenden Person, einer lehrenden Person und KI/Technologie auf das Lernen. Die Frage war jeweils: Was brauche ich? Was kann ich tun? Bzw. im Fall von KI: Wie kann ich verwendet werden? Dabei wurden nacheinander die unterschiedlichen Phasen/Konzepte betrachtet, mit einer entwickelten Idee verbunden und so konkretisiert. In der Spielanleitung ist das noch besser erklärt.

Den Gruppen war freigestellt, sich selbst durch das Spiel zu moderieren oder ein KI-Sprachmodell zu nutzen. Letzteres hatte den Vorteil, dass das KI-Sprachmodell im Prompt so instruiert war, jeweils eine spezifische Frage zur Phase und entwickelten Idee an die jeweiligen Perspektiven zu richten. Aus meiner Sicht hat das sehr gut funktioniert.

Ergebnisse

Viele Gruppen haben mir ihre Mitschriften zugesandt, woraus mit KI-Unterstützung diese Zusammenfassung entstand:

Ein Gruppenergebnis teile ich hier auch direkt, weil es so schön gestaltet ist und die Arbeitsweise in den Gruppen aus meiner Sicht sehr anschaulich macht:

Ein Mitschrieb aus einer Gruppenarbeit

Feedback und Anregungen zur Weiterentwicklung

Wir haben zum Abschluss ein schnelles Blitzlicht gemacht. Das Feedback war positiv – und ich habe mir drei hilfreiche Anregungen zur Weiterentwicklung des Konzepts mitgeschrieben:

  1. Die Darstellung der fünf Konzepte der Lernphasen fanden manche Teilnehmenden ziemlich „verkopft“ dargestellt. Vielleicht könnte man das bodenständiger und damit zugänglicher machen.
  2. Die fünf Konzepte der Lernphasen waren im Workshop nicht linear gedacht, aber trotzdem haben wir sie linear bearbeitet. Vielleicht könnte es helfen, ‚radikale Gegenwart‘ als Grundlage zu nehmen.
  3. Die heutigen 90 Minuten waren zu kurz. Am besten fände auch ich eine Ausweitung dieses Konzepts in eine Tagesveranstaltung – dann mit noch etwas mehr Austauschrunden. Das wäre aus meiner Sicht dann sehr passend für einen Pädagogischen Tag. Melde dich gerne, wenn du Lust hast, das mit deinem Kollegium mit mir gemeinsam auszuprobieren – oder setze es gerne auch selbst um. Ich freue mich in diesem Fall über Erfahrungsberichte.

(Außerdem mögen nicht alle Menschen basteln, so wie wir das zu Beginn mit den Zines gemacht haben. Da ich das konzeptionell sehr gerne mag, würde ich zukünftig einfach ein paar schon fertig gefaltete und geschnittene Zines mitbringen, sodass man nicht zum Basteln verpflichtet wird, wenn man das nicht will.)

Fazit

Ich hatte viel Freude dabei, den Workshop vorzubereiten und durchzuführen. Vielen Dank an alle, die ihn gemeinsam ausprobiert haben – und eine herzliche Einladung an alle, das Konzept, die Materialien und auch die entwickelten Ergebnisse weiterzunutzen, anzupassen und an ihnen weiterzudenken. Vielleicht hilft das ein bisschen dabei, endlich mehr das Lernen in der KI-Debatte in den Fokus zu nehmen!

Beitrag weiternutzen und teilen

Dieser Beitrag steht unter der LizenzCC BY 4.0und kann somit gerne offen weitergenutzt und geteilt werden.Hier kannst du dir den Beitragslink und/oder den Lizenzhinweis kopieren.

Link kopieren Lizenz kopieren

#KünstlicheIntelligenzKI_ #MethodenLernformate

eBildungslabor-Blognele@ebildungslabor.de
2025-05-08

Vorbereitung für Hamburg: Ideenwerkstatt lernförderliche KI-Nutzung

Ich bin in Hamburg. Morgen findet hier an der beruflichen Schule ITECH in Wilhelmsburg das Bildungssymposium ‚Die Schule von morgen heute gestalten‚ statt. Ich werde auf einem Panel zu KI sein und eine Ideenwerkstatt zu lernförderlicher KI-Nutzung gestalten. Letztere habe ich sehr experimentell vorbereitet und in in einer analog-digitalen Kombination, die ich sehr mag: ein Zine als Workshopmaterial mit QR-Codes darin, die zu einer KI-gestützten Lernassistenz führen.

Einblick in das Zine

Ich mag an dem Workshop die fünf entwickelten Bereiche des Lernens, die wir genauer reflektieren werden:

  • Radikale Gegenwart erleben bedeutet, im Lernprozess ganz im aktuellen Moment verankert zu sein. Die Aufmerksamkeit richtet sich auf das unmittelbare Erleben, auf das, was man gerade tut, wahrnimmt oder erkundet – ohne dass ein späteres Ergebnis im Vordergrund steht.
  • Agency entwickeln beschreibt das wachsende Bewusstsein dafür, dass man das eigene Lernen aktiv gestalten kann. Lernende erleben sich als entscheidungsfähig, handlungswirksam und verantwortlich für ihren eigenen Weg.
  • Modellierung praktizieren meint das bewusste Entwerfen, Erproben und Weiterentwickeln eigener Denk- und Handlungsstrategien ausgehend von bereits bestehenden Kompetenzen und Wissen. Lernende externalisieren mentale Modelle, machen so ihre Überlegungen sichtbar und arbeiten daran weiter.
  • In Resonanz treten bezeichnet ein Lernen, bei dem eine echte Verbindung zu einem Thema, einem Menschen oder einem Gegenstand entsteht. Es kommt zu einer Wechselwirkung, in der Lernende innerlich bewegt werden und zugleich selbst etwas auslösen können.
  • Reflexion ermöglichen heißt, Raum dafür zu schaffen, über gemachte Erfahrungen und das erfolgte Lernen nachzudenken. Lernende ordnen ihr Erlebtes und Gelerntes, prüfen Bedeutungen und gewinnen daraus Einsichten, die ihr weiteres Lernen bewusst beeinflussen.

Ich bin gespannt auf die gemeinsame Ideenentwicklung und werde berichten!

#KünstlicheIntelligenzKI_

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst