Im Rahmen unseres zweiten sipgate Festivals, hatten wir das Vergnügen, Philipp Wicke als Gastredner zu begrüßen. Der Titel seines Vortrags und anschließendem Workshop lautete: „Wie denken LLMs? Unterschiede in menschlichem und maschinellem Bewusstsein”.
Philipp ist unter anderem Dozent an der Ludwig-Maximilians-Universität (LMU) und der BTU Cottbus. Seine Forschungsschwerpunkte liegen in den Bereichen Künstliche Intelligenz und Computerlinguistik.
Disclaimer: Dieser Text ist keine Zusammenfassung des Vortrags von Philipp. Vielmehr spiegelt er meine Gedanken, angeregt durch das Gehörte, wider. Es handelt sich hierbei also um meine persönliche Meinung und Interpretation. Nicht mehr und nicht weniger. Und abweichende Meinungen sind bestimmt genauso richtig oder falsch wie meine.
Die Illusion des Verstehens
Wir reden von „denkenden Maschinen“, als wäre das eine Metapher, die irgendwann zur Realität geworden ist. Doch wenn Large Language Models (LLMs) wie GPT, Claude oder Gemini heute Antworten formulieren, Geschichten erzählen oder gar Ratschläge geben – was genau geschieht da eigentlich? Denken sie? Oder tun sie nur so?
Wie LLMs arbeiten
Im Zentrum aller modernen Sprachmodelle steht ein nüchternes Prinzip: Wahrscheinlichkeitsrechnung. Token für Token berechnen diese Systeme, welches Fragment von Sprache mit größter Wahrscheinlichkeit als Nächstes passt. Kein Plan oder Absicht. Nur der unermüdliche Versuch, den plausibelsten nächsten Schritt vorherzusagen.
Das klingt banal, ist es aber nicht. Denn durch extreme Skalierung – mehr Daten, mehr Parameter, mehr Rechenzeit – wird aus banaler Statistik eine Art emergentes Verhalten. Die Modelle lernen nicht, wie man konkrete Probleme löst. Sie lernen die Struktur, die Sprache solchen Lösungen verleiht. Wer sich fragt, wie eine KI auf eine neue Fragestellung antwortet, sollte nicht an ein neuronales Gehirn denken, sondern an eine Verdichtung kollektiver Sprachmuster.
Denken ohne Bewusstsein?
Maschinen denken ohne Selbst(zweck). Es gibt kein Ich oder eine eigene Perspektive. Was LLMs können, ist Mustererkennung in einem Maßstab, der unser Vorstellungsvermögen übersteigt. Aber ist das schon Denken?
Wir Menschen lernen durch unsere Erfahrung, durch Kontext, besser gesagt durch scheinbar unendlich viele Komponenten. Wir interpretieren nicht nur Inhalte, wir spüren sie. Bedenken die Konsequenzen unseres Handelns (idealerweise). Und wir irren uns nicht nur, wir leiden dann auch potenziell unter unseren Fehlern. Maschinen können sich, rein technisch gesehen, auch irren. Allerdings ohne dabei Emotionen zu zeigen. Es fehlt das Erleben des Irrtums. Die Differenz zwischen Fehler und Scheitern bleibt menschlich.
Sprache als Denkform – bei Mensch und Maschine
Sprache strukturiert Denken. Ein Prinzip, das auch für Maschinen gilt. Doch was bei Menschen über Jahrzehnte kulturell eingebettet geschieht, passiert bei LLMs in Sekundenbruchteilen und auf Basis „eingefrorener“ Datenschnipsel. Eine KI, die auf einem Datensatz von 2025 trainiert wurde, lebt in einem Weltbild von 2025. Ihre Konzepte, Metaphern und Vorannahmen sind eingefroren, statisch.
Was heißt das für uns?
Es ist ein Irrtum, KI daran zu messen, wie menschenähnlich sie ist. Sie ist nicht wie wir. Sie wird nie wie wir sein. Aber sie kann Dinge, die wir nicht können. Und sie tut das auf eine Weise, die nicht besser oder schlechter ist. Aber fundamental anders.
Vielleicht ist genau das der Denkfehler: Zu glauben, dass Intelligenz sich nur auf einem Weg manifestieren darf – unserem. Dabei wäre es klüger, KI nicht als Imitation des Menschen zu sehen, sondern als eigenständige Denkform. Eine, die in bestimmten Kontexten vielleicht sogar präziser, verlässlicher oder auch neutraler agiert. Und eine, die wir dann auch zu unserem Vorteil nutzen können und sollten.
Fazit: Der Mensch denkt, die KI berechnet
Der Unterschied könnte eigentlich größer nicht sein. Wir erleben Denken, KI berechnet Sprache. Unser Bewusstsein entsteht im Dialog mit der Welt. Ein Konzept, welches Maschinen auf absehbare Zeit völlig fremd und unmöglich sein wird.
Die entscheidende Frage ist also nicht, ob LLMs denken wie wir. Sondern, ob ihr Denken in ihrer eigenen Logik Sinn ergibt. Und ob wir bereit sind, diese Logik zu verstehen, statt sie ständig zu vermenschlichen.




