Ich nutze KI als Forschungs- und Schreibwerkzeug, so selbstverständlich wie Statistik-Software oder Literaturverwaltungsprogramme. Die Frage ist daher weniger, ob ich KI einsetze, sondern wie transparent, reproduzierbar und verantwortungsvoll ich das tue. Im Folgenden argumentiere ich, warum KI-Tools legitim sind – und zeige eine praxisnahe Dokumentationsroutine (APA-konform), die sich nahtlos in unseren SFB-Standard einfügt.
Wann habe ich zuletzt eine lineare Regression mit Stift und Papier gerechnet? Vermutlich nie in einer realen Forschungsumgebung. Ich vertraue auf R, Python oder SPSS – werkzeugbasierte Erkenntnis ist die Norm. KI ist die logische Fortsetzung dieser Werkzeuggeschichte: ein Sprach-, Code- und Analyse-Katalysator, der Produktivität erhöht und Barrieren senkt – solange ich Verantwortung, Transparenz und Prüfbarkeit sicherstelle (siehe u. a. [COPE] 2023; [ICMJE] 2025; [Springer] 2024/25). (publicationethics.org)
Warum der Einsatz von KI legitim ist
Werkzeuge verändern Methoden, nicht die Maßstäbe guter Praxis. Die DFG-Leitlinien zur guten wissenschaftlichen Praxis verlangen Integrität, Dokumentation und Nachvollziehbarkeit – sie verbieten KI nicht; sie fordern, dass ich mein methodisches Vorgehen prüfbar mache (DFG-Kodex seit 1. August 2019 verbindlich). (DFG)
Autorschaft bleibt menschliche Verantwortung. Ein breiter Konsens (COPE, WAME, JAMA, Verlage) besagt: KI ist kein Autor, weil ihr Verantwortungs- und Rechenschaftsfähigkeit fehlen. Das legitimiert KI als Werkzeug – sofern ich die Nutzung offenlege und für die Inhalte einstehe. (publicationethics.org)
Transparenz ist rechtlich und normativ im Aufwind. Mit dem EU-AI-Act (Verordnung (EU) 2024/1689) kommen abgestufte Transparenzpflichten, u. a. zur Kennzeichnung synthetischer Inhalte; wesentliche Teile greifen schrittweise bis 2026/27. Für die Wissenschaft heißt das: klare Hinweise auf KI-Einsatz sind „best practice“ – und perspektivisch Regelstandard. (AI Act)
Kurz:
- Es ist legitim, moderne Werkzeuge zu nutzen.
- Illegitim wird es erst ohne Dokumentation, Prüfung und Verantwortung.
Wie ich KI regelgerecht (wissenschaftlich) dokumentiere
Ich halte mich an drei Ebenen der Offenlegung:
A. In der Arbeit selbst (Methoden, Danksagung, Daten/Anhang)
- Wo und wozu? Aufgabenbereiche präzisieren (z. B. Ideenskizze, Strukturierung, Sprachglättung, Code-Review, Prompt-basierte Kategorisierung). (WAME empfiehlt explizite Angaben sogar in Abstract und Methoden, wenn KI analytisch eingreift.) (wame.org)
- Womit? Tool/Familie, Modellname/-version, ggf. Anbieter.
- Wie? Zentrale Prompts/Parameter (gekürzt oder im Repositorium vollständig), Datenquellen und Schutzmaßnahmen (Anonymisierung).
- Wer prüft? Human-in-the-loop: fachliche Gegenlese, Fakt-Check, Code-/Statistik-Replikation.
- Was bleibt zurück? Prompt- und Ergebnis-Log im Anhang/Repository (Reproduzierbarkeit).
- Grenzen & Risiken benennen (Halluzinationen, Bias, veraltete Trainingsstände) und Gegenmaßnahmen dokumentieren.
- Autorschaftsklarstellung: „KI-Tools wurden nicht als Autor:innen geführt; Verantwortung liegt bei den Autor:innen“ (COPE/Verlagslinien). (publicationethics.org)
B. Formale Zitation nach APA
- In-Text-Hinweise: (z. B. (APA Style 2025)), zusätzlich vollständiger APA-Eintrag im Literaturverzeichnis (Tool + Version + Zugriffsdatum/Permalink). Die APA erlaubt und beschreibt explizit, wie generative KI zu zitieren ist. (APA Style)
C. Politik- & Verlagskonformität
- Verlagspolitik prüfen (Springer/SAGE/Wiley/MDPI haben klare KI-Hinweise: offenlegen, nicht als Autor führen; Nutzung teils im Methoden-Teil deklarieren). (springer.com)
- Disziplin-Standards (ICMJE) einhalten: Disclosure und menschliche Verantwortung sind Pflicht (aktualisiert April 2025). (icmje.org)
10-Punkte-Checkliste
- Zweck des KI-Einsatzes (konkret).
- Tool/Modell (Name, Version/Build, Anbieter).
- Datum/Uhrzeit der Nutzung (Zeitzone).
- Prompts/Parameter (Kern im Text, Vollständigkeit im Anhang/Repo).
- Datenbasis (Training unbekannt? dann Risiken benennen), Privacy-Maßnahmen.
- Einsatzstelle im Forschungsprozess (Idee, Entwurf, Analyse, Visualisierung, Übersetzen, Lektorat).
- Human-Kontrolle (Fakt-Check, Replikation, Gegenlesen).
- Fehlerquellen/Bias + Gegenmaßnahmen.
- Reproduzierbarkeit (Logs, Seeds, Skripte, Versionen).
- Formale Offenlegung (Textstellen, Danksagung, Methoden, Literaturangaben).
Muster-Formulierungen (übernehmbar)
- Methoden (analytischer Einsatz):
„Für das offene Kodieren nutzte ich das Sprachmodell [Modell, Version] am [Datum/Zeit, TZ]. Prompts, Parameter (Temperatur, System-Hinweise) und komplette Interaktionen sind im Anhang A bzw. Repository dokumentiert. Alle Kategorien wurden anschließend manuell validiert und an [N=] Fällen nachcodiert. Etwaige Halluzinations-Risiken wurden mittels Fakt-Checks (Quellenprüfung) mitigiert.“ (vgl. [WAME], [ICMJE]). (wame.org) - Danksagung (sprachliches Lektorat):
„Ich habe [Tool/Modell] zur Sprachglättung einzelner Abschnitte eingesetzt. Inhaltliche Verantwortung und Fehlerhaftungen liegen bei mir; das Tool ist kein Autor (vgl. [COPE]; Verlagsrichtlinien).“ (publicationethics.org)
Forschungstagebuch
Ich habe meine KI-Dokuroutine aus unserem Projektstandard entwickelt und mit den „KI-JSON-Ringen“ verzahnt (siehe interner Beitrag: Die KI-JSON-Ringe des Projekts, 10.10.2025). So protokolliere ich Prompts, Parameter und Prüfpfade konsistent – und kann sie bei Bedarf in Methodenabschnitte übernehmen.
Leitfragen
- Wo schafft KI in wissenschaftlichen Projekten echten Mehrwert – und wo würde sie Erkenntnis verschleiern?
- Welche Einsatzschritte (Prompts/Parameter) müssen in Abstract, Methoden, Anhang sichtbar werden?
- Wie sichere ich Replikation (Logs, Seeds, Skripte) und Autorschaftsklarheit (kein KI-Autor)?
Literatur (APA)
- American Psychological Association. (2025). Citing generative AI in APA Style: Part 1—Reference formats. https://apastyle.apa.org/blog/cite-generative-ai-references (APA Style)
- American Psychological Association. (2025). Citing generative AI in APA Style: Part 3—Is AI “allowed” in APA Style? https://apastyle.apa.org/blog/cite-generative-ai-allowed (APA Style)
- American Psychological Association. (2023). How to cite ChatGPT. https://apastyle.apa.org/blog/how-to-cite-chatgpt (APA Style)
- COPE Council. (2023/2024). Authorship and AI tools (COPE position). https://publicationethics.org/guidance/cope-position/authorship-and-ai-tools (publicationethics.org)
- DFG. (2019). Kodex: Leitlinien zur Sicherung guter wissenschaftlicher Praxis. https://www.dfg.de/de/grundlagen-themen/grundlagen-und-prinzipien-der-foerderung/gwp/kodex (DFG)
- DFG (Auszug/DE-Version 1.2). (2024). Leitlinien zur Sicherung guter wissenschaftlicher Praxis [PDF]. https://www.hs-anhalt.de/…/de_Leitlinien_zur_Sicherung_guter_wissenschaftlicher_Praxis_Kodex_Version_1.2.pdf (Hochschule Anhalt)
- European Union. (2024). Artificial Intelligence Act (EU) 2024/1689 (final text; timeline and transparency). https://www.aiact-info.eu/full-text-and-pdf-download/; https://ai-act-law.eu/ (aiact-info.eu)
- ICMJE. (2025, April). Recommendations for the Conduct, Reporting, Editing, and Publication of Scholarly Work (incl. AI disclosure). https://icmje.org/recommendations/ (icmje.org)
- JAMA Network. (2023). Nonhuman “Authors” and Implications… https://jamanetwork.com/journals/jama/fullarticle/2801170 (JAMA Netzwerk)
- SAGE. (2024/25). Assistive and generative AI guidelines for authors. https://www.sagepub.com/about/sage-policies/corporate-policies/ai-author-guidelines (sagepub.com)
- Springer Nature. (2024/25). Artificial Intelligence (AI) | Editorial policies. https://www.springer.com/gp/editorial-policies/artificial-intelligence–ai-/25428500 (springer.com)
- Wiley. (2023). Generative AI Policy [PDF]. https://onlinelibrary.wiley.com/…/Generative%20AI%20Policy_September%202023-1695231878293.pdf (Wiley Online Library)
Schreibe einen Kommentar