Beim sipgate Festival durfte ich interessierten Kolleg:innen einen Einblick in Conversational Design geben – also in die Kunst, wie man Chat- und Voicebots so gestaltet, dass sie sich wirklich gut anfühlen.
Wie LLMs „denken“
Bevor man einen guten Bot baut, sollte man die Grundlagen der Modelle kennen. LLMs berechnen den nächstwahrscheinlichsten Token. Sie sind auf enormen Datenmengen trainiert und übernehmen deren Muster und Voreingenommenheiten.
Warum das wichtig ist? Je nachdem, in welchem Kontext ein Bot eingesetzt wird, muss man ggf. gezielt entgegensteuern, um vorhandene Einflüsse zu neutralisieren. (Mehr dazu wie LLMs denken „Was LLMs vom menschlichen Denken unterscheidet“)
Die Grundlagen eines guten Systemprompts
Bevor ein Bot das gewünschte Verhalten zeigt, müssen zuerst die Systemparameter eingestellt werden. Parameter wie Temperature (steuert, wie kreativ oder „gesprächig“ die Antworten sind) oder Max Tokens (bestimmt die Länge) wirken oft subtil, sind aber entscheidend.
Eine allgemeingültige Formel gibt es leider nicht, jedes LLM reagiert etwas anders. Vieles entsteht durch Erfahrung und Ausprobieren.
Der Systemprompt – das Herz des Bots
Der Systemprompt ist das Herzstück eines jeden LLM-Bots. Er definiert den Rahmen, wie sich der Bot verhalten soll. Oder auch nicht. Eine klare Struktur hilft dabei ungemein.
Eine bewährte Struktur hierfür sieht wie folgt aus:
- Rolle & Aufgabe: Versetze das Modell in eine konkrete Rolle mit klarer Aufgabe.
- „Du bist ein Support-Mitarbeiter. Deine Aufgabe ist es, Anrufende freundlich und effizient zu unterstützen.“
- Kontext: Gib dem Modell Hintergrundinformationen, die relevant sind.
- „Deine Kund:innen sind neu auf dem Gebiet und brauchen daher etwas mehr Erklärung.“
- Tonfall (Tone of Voice): Der Ton macht den Unterschied. Soll die Konversation sachlich, locker oder empathisch wirken? Beispiele und Anweisungen für bestimmte Situationen helfen enorm und machen die Konversation „natürlicher“.
- „Wenn der Nutzer vom Thema abweicht, mache einen freundlichen Scherz und führe ihn sanft, aber bestimmt zurück.“
Warum das alles wichtig ist
Schlechte Prompts führen schnell zu überladenen Dialogen, wie das folgende Beispiel zeigt:
„Guten Tag, und herzlich willkommen bei der automatisierten Telefonassistenz der Firma Immobilien Max Mustermann GmbH. Ich bin Ihr digitaler Sprachassistent und stehe Ihnen heute bei sämtlichen Anliegen rund um Immobilienverwaltung, Mietverträge, Nebenkostenabrechnungen, Schadensmeldungen, Müllentsorgung, Gartenpflege, Heizungs- und Gasthermenwartung sowie viele weitere Themengebiete gerne digital zur Verfügung.“
Nicht immer hilft viel auch viel. In diesem Fall redet der Bot viel, hilft aber wenig.
Mit klarer Struktur dagegen klingt das dann so:
„Guten Tag! Sie sprechen mit dem digitalen Assistenten der Firma Immobilien Max Mustermann GmbH. Worum geht’s bei Ihrem Anruf?“
Eine kurze und zielgerichtete Frage zum Anfang des Gesprächs erschlägt die oder den Anrufende(n) nicht direkt mit unnützen Informationen. Das fühlt sich viel natürlicher an und erleichtert den Einstieg ins Gespräch.
Gutes Prompten ist kein Zufall
Es braucht Verständnis für die Modelle, Klarheit in der Struktur und Mut zum Ausprobieren. Gezielte Prompt-Anpassungen helfen, das Verhalten von LLM-Bots noch konsistenter und natürlicher zu gestalten. Denn dann entsteht genau das, was wir wollen: Dialoge, die sich auch wirklich natürlich anfühlen.




