Der KI Kompass für Studierende

Ein KI-Buch- und Blog-Projekt von Dr. Stephan Pflaum

Kompass

Über das Projekt

Über den Autor

Impressum / Datenschutz

„Warum schreist Du mich denn an?“

Symbolbild

Die älteren Semester unter uns kennen wohl noch den Loriot’schen Dialog „ICH SCHREIE DICH NICHT AN!

Frei nach diesem Sketch plädiere ich dafür, höflich mit KI zu sprechen – nicht aus Sentimentalität, sondern aus Methodik. Höfliche, strukturierte Prompts erzeugen bessere Modelleingaben und damit bessere Ausgaben (GIGO). Außerdem aktiviert ein respektvoller Dialog soziale und kognitive Routinen, die unser eigenes Denken vertiefen – von der Media-Equation bis zur Personalisierungs-Prinzip-Forschung (Reeves & Nass 1996; Mayer 2005). (Stanford University)

Hinführung

„Garbage in, garbage out“ ist ein alter Grundsatz der Informatik: Schlechte Eingaben produzieren schlechte Ausgaben (Oxford Reference). Übertragen auf Prompts heißt das: Unhöfliche, knappe oder aggressive Eingaben sind meist unpräzise und kontextarm – und liefern entsprechend holprige Resultate. Zugleich reagieren Menschen auf Medien wie auf soziale Akteure; Ton und Höflichkeit rahmen Erwartungen und Verarbeitungsstrategie (Reeves & Nass 1996). (oxfordreference.com)

Warum Höflichkeit bei KI praktisch wirkt

1) Höflichkeit erzwingt bessere Spezifikation (GIGO)

Wer höflich formuliert, formuliert meist auch genauer: Rolle, Ziel, Randbedingungen, Beispiele. Diese Zusatzstruktur verbessert die Eingabequalität – und damit das Ergebnis. Das ist GIGO in der Praxis (Oxford Reference). (oxfordreference.com)

2) Soziale Cues aktivieren kognitive Tiefe

Konversationston („Bitte erkläre Schritt für Schritt …“) steigert nachweislich die Lern- und Verarbeitungsleistung – Personalization Principle (Mayer 2005). Menschen behandeln mediale Systeme sozial; Höflichkeit ist deshalb ein wirkungsvoller Prompt-Frame (Reeves & Nass 1996). (Cambridge University Press & Assessment)

3) Strukturierte Höflichkeit ⇒ besseres Reasoning

Aufforderungen wie „Lass uns Schritt für Schritt denken“ verbessern nachweislich die Schlussfolgerungsleistung großer Sprachmodelle (Zero-shot-CoT, CoT, Self-Consistency: Kojima u. a. 2022; Wei u. a. 2022; Wang u. a. 2022). Höfliche Prompts enthalten solche metakognitiven Prozess-Instruktionen häufiger – und führen so zu nachvollziehbareren Antworten. (arXiv)

4) „Wie man in den Prompt hineinschreit…“ – Medien und soziale Gegenseitigkeit

Die Media-Equation zeigt: Menschen spiegeln soziale Normen gegenüber Computern – inkl. Höflichkeit, Kooperation, Rollenattribution (Reeves & Nass 1996). Wer ruppig promptet, erzeugt häufig ruppige Rahmen (kürzer, härter, weniger Kontext) – und erntet entsprechende Outputs. (Stanford University)

Spiegelneuronen, Selbstgespräch und KI

Ich behaupte nicht, dass KI „Spiegelneuronen“ hat. Aber wir haben neuronale Systeme, die Beobachtetes innerlich mitvollziehen; das ist eine plausible Brücke zwischen sozialer Interaktion und kognitiver Tiefe (Rizzolatti & Craighero 2004). Wenn ich höflich, präzise prompte, forme ich mein eigenes mentales Setting: Ich antizipiere Gegenfragen, reflektiere Annahmen, lasse mir Zeit für Schrittfolgen. Der Dialog mit KI wird so zu einer reflexiven Selbstunterhaltung – funktional ähnlich wie beim lauten Denken oder „Rubber-Duck-Debugging“. Historisch zeigt schon ELIZA (1966), wie stark wir zu sozialer Projektion neigen – ein Grund mehr, den Ton bewusst zu setzen (Weizenbaum 1966). (cs.princeton.edu)

Einwände: „Aber verbraucht Höflichkeit nicht mehr Rechenleistung?“

Ja, mehr Text braucht mehr Tokens. In Forschungs- und Lernkontexten lohnt sich das jedoch oft: Der Zugewinn an Struktur, Nachvollziehbarkeit und Qualität kompensiert die Mehrkosten. Zudem lässt sich Höflichkeit knapp formulieren: Rolle, Ziel, Kriterien und ein freundlicher Ton – keine Romane. Ein Minimalbeispiel:

„Bitte antworte als Statistik-Tutor. Ziel: Regressionsdiagnostik. Nenne Schritte, begründe kurz, zeige 1 Beispiel. Prüfe implizite Annahmen, weise auf Grenzen hin. Danke.“

Mein Prompt-Knigge (kompakt)

  • Rolle + Ziel präzisieren.
  • Schritt-für-Schritt anfordern (CoT) und bei Bedarf Self-Consistency („prüfe mehrere Lösungswege“).
  • Kriterien nennen (z. B. Belege/APA, Code-Qualität, Prüfpfade).
  • Ton: höflich, kooperativ, sachlich.
  • Grenzen und Unsicherheit explizit abfragen („falls unklar, triff die beste Annahme und markiere sie“).

Forschungstagebuch (14.10.2025)

Ich habe meine Heuristik für „höfliche Prompts“ präzisiert: Höflichkeit ist kein Etikett, sondern ein Vehikel für bessere Spezifikation und kognitive Aktivierung. Sie reduziert GIGO-Risiken, verbessert Reasoning-Qualität und stützt eine produktive, reflexive Haltung im Forschungsalltag.

Leitfragen für Studierende

  • Wie sähe dein aktueller Prompt aus, wenn du Rolle, Ziel, Kriterien und Ton in drei Zeilen präzisierst?
  • Welche Schritt-Instruktion (CoT) passt zu deiner Aufgabe?
  • Welche Annahmen willst du explizit prüfen – und welche Belege brauchst du dafür?

Literatur (APA)

  • Brown, P., & Levinson, S. C. (1987). Politeness: Some universals in language usage. Cambridge University Press. (Cambridge University Press & Assessment)
  • Kojima, T., Gu, S. S., Reid, M., Matsuo, Y., & Iwasawa, Y. (2022). Large Language Models are Zero-Shot Reasoners. arXiv. (arXiv)
  • Mayer, R. E. (2005). Principles of Multimedia Learning Based on Social Cues: Personalization, Voice, and Image Principles. In R. E. Mayer (Hrsg.), The Cambridge Handbook of Multimedia Learning (S. 201–212). Cambridge University Press. (Cambridge University Press & Assessment)
  • Reeves, B., & Nass, C. (1996). The media equation: How people treat computers, television, and new media like real people and places. CSLI/Stanford. (Stanford University)
  • Rizzolatti, G., & Craighero, L. (2004). The mirror-neuron system. Annual Review of Neuroscience, 27, 169–192. (cs.princeton.edu)
  • Wang, X., Wei, J., Schuurmans, D., Le, Q., Chi, E., Narang, S., … Zhou, D. (2022). Self-Consistency Improves Chain of Thought Reasoning in Language Models. arXiv. (arXiv)
  • Wei, J., Wang, X., Schuurmans, D., Bosma, M., Ichter, B., Xia, F., … Zhou, D. (2022). Chain-of-Thought Prompting Elicits Reasoning in Large Language Models. arXiv. (arXiv)
  • Weizenbaum, J. (1966). ELIZA—A Computer Program for the Study of Natural Language Communication between Man and Machine. Communications of the ACM, 9(1), 36–45. (cse.buffalo.edu)
  • „Garbage in, garbage out“. Oxford Reference. (oxfordreference.com)

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert