Teaser
Du sitzt vor einer Literaturliste mit 50 Quellen und fragst Dich: „Wie viele davon sind wirklich zuverlässig? Welche haben Kritik provoziert?“ Scite ist ein KI-Tool, das diese Fragen beantworten kann – aber nicht immer vollständig. Dieser Leitfaden zeigt Dir, wofür Scite brillant funktioniert, wo es blind wird, und wie Du es realistisch nutzt, ohne Dich in die Abhängigkeit von Algorithmen zu manövrieren.
Evidence Blocks
Classic Perspective: Bourdieu und akademisches Feld
Das akademische Feld ist bei Bourdieu (1977, 1991) nicht neutral – es ist strukturiert durch asymmetrische Machtverhältnisse und Kapitalverteilung. Ein etablierter Forscher hat „akademisches Kapital“ (Prestige, etablierte Publikationen, Netzwerk); ein Erstsemester-Student hat es nicht. Der Zugang zu verlässlicher Literaturkritik war traditionell gate-kept: Du musstest Dir einen Professor schnappen, um zu erfahren, ob eine Quelle „in der Zunft“ anerkannt war.
Scite verspricht Demokratisierung – es macht die „versteckte“ Logik der Zitationspraxis sichtbar. Statt „Dieses Paper wurde 40-mal zitiert“ zeigt es: „Davon wird es in 12 Fällen gestützt, in 8 Fällen kritisiert, in 20 Fällen nur erwähnt.“ Das ist soziologisch interessant. Aber – und hier kommt die kritische Kante – es schafft auch neue Machtasymmetrien: Wer Scite bezahlen kann, sammelt schneller akademisches Kapital.
Bourdieu’sche Lesart: Scite ist ein neues Form des digitalen Kapitals (van Deursen & van Dijk 2019, 2021), das ungleich verteilt ist. Es reproduziert Ungleichheit, während es vorgibt, sie zu reduzieren.
Modern Perspective: AI-Bias und Forschungsintegrität (2020–2025)
Neuere Studien zeigen: KI-Tools bei der Forschungsbewertung sind nicht neutral. Ein großangelegter Überblick (Thelwall & Jiang 2025) untersuchte 90 % der REF2021-Journalartikel mit ChatGPT-4-mini: Die KI bevorzugte systematisch länger geschriebene Abstracts, neuere Artikel und STEM-Felder gegenüber Geistes- und Sozialwissenschaften.
Für Scite konkret heißt das:
- Stärke: Scite indexiert über 1,4 Milliarden Zitationsaussagen und nutzt maschinelles Lernen zur Kontextklassifikation (unterstützend/widersprechend/erwähnend). Das funktioniert für naturwissenschaftliche Kernaussagen gut.
- Schwäche: Die Humanities und Sozialwissenschaften sind unterrepräsentiert. Warum? Weil Scite primär auf Journals trainiert wurde – und diese sind STEM-lastig. Ein geisteswissenschaftliches Monograph-Argument wird Scite übersehen.
Ein Nutzer-Review (2025) beschwerte sich: „Scite sagt mir nicht, ob ein Buch widersprochene wurde – nur Journalartikel.“ Das ist ein strukturelles Problem, nicht ein Feature.
Neighbouring Perspective: Algorithmische Macht und Epistemic Justice
Die Philosophin Miranda Fricker (2007) spricht von epistemic injustice – wenn jemand systematisch vom Wissen-Machen ausgeschlossen wird. Scite ist kein Beispiel für perfekte Gerechtigkeit: Es filtert Forschungslandschaften durch Algorithmen, die von Research Solutions Inc. (Brooklyn) programmiert wurden. Das heißt:
- Infrastruktur-Bias: Scite hat nur Zugriff auf Publikationen, die digitalisiert sind oder mit Verlagen verträge hat (30+ Partner, laut Website). Grauer Stoff, preprints, außereuropäische Forschung: oft fehlen sie.
- Sprachbias: Die Klassifikations-Engine ist auf Englisch trainiert. Ein Argument in einem deutschen Soziologiebuch wird anders geparst als eines in einem englischen Paper – wenn es überhaupt erfasst wird.
- Geschwindigkeit-Bias: Neue Forschung (letzte Woche) ist noch nicht in Scite. Das klingt trivial, aber für schnelle Felder (AI, Pandemieforschung) heißt das: Deine Literatur ist veraltet, bevor Scite sie katalogisiert.
Foucault’sche Übersetzung: Scite ist eine „Macht/Wissens-Formation“ – es definiert, was gilt, während es vorgibt, nur zu beschreiben.
Mini-Meta: Praktische Szenarien aus Nutzer-Erfahrungen
Szenario 1 – BA-Thesis über Plattformkapitalismus (Pro-Scite): Du hast 35 Quellen gesammelt. Scite zeigt Dir: „Das Kap-6-Paper zum Algorithmen-Bias wird von 8 neueren Studien gestützt, aber 3 andere widersprechen seinem Kern-Befund.“ → Du kannst sofort einen Absatz schreiben wie: „Während Smith (2021) argumentiert [X], haben López et al. (2023) empirische Grenzen aufgezeigt …“ Zeitersparnis: 2 Stunden Hands-on-Literatur-Durchsuchen.
Szenario 2 – Grounded-Theory-Projekt zu Fußball-Fankultur (Scite-Blindspot): Die beste Literatur ist eine Monographie (Cohen 2019) und zwei deutsche Sammelbände. Scite findet nur einen davon (der andere ist bei Routledge, nicht in vollem Text indexiert). Du wirst false sense of completeness bekommen.
Szenario 3 – Methodologische Debatte im Seminar: Der Prof fragt: „Ist Grundgesamtheit oder Stichprobe das ältere Konzept?“ Eine Scite-Suche zeigt Dir 15 Zitationsaussagen – aber die älteste ist aus 1995. Die eigentliche Ur-Debatte (Neyman 1934) ist zu alt, um Zitationen zu haben. → Scite ist blind für Genealogien.
Triangulation: Scite + Ergänzungs-Tools
Um Scite intelligent zu nutzen, brauchst Du ein Stack aus mindestens 3 Tools:
1. Google Scholar (kostenlos, weniger AI, mehr Rohdaten): Nutze es parallel zu Scite. Scholar zeigt Dir alle Zitationen, auch ältere und „random“ zitiert. Scite zeigt Dir den Kontext. Zusammen: Vollbild.
2. Zotero (kostenlos, lokal, persistent): Speichere alle Deine Quellen lokal – nicht in Scites Cloud. Zotero hat ein Scite-Plugin, aber Deine Quellen gehören Dir, nicht der Cloud. DSGVO/Datenschutz.
3. Semantische Suche (Elicit.org oder Research Rabbit): Diese Tools zeigen Dir Ähnlichkeitsnetze zwischen Papers. Scite zeigt Dir Zitations-Hierarchien. Du brauchst beide Perspektiven.
Praktische Workflow-Formel:
[Problem definieren]
→ Google Scholar (30 Min): Breite Übersicht sammeln
→ Scite (30 Min): Zitationskontexte prüfen, Kernquellen identifizieren
→ Zotero: Alle Quellen lokal speichern + Scite-Plugin nutzen
→ Volltext-Lektüre (critical!): Nicht Scites Zusammenfassung trauen, selbst lesen
→ Feldbeschreibung schreiben: Jetzt weißt Du, wer mit wem argumentiert
Practice Heuristics: 5 Regeln für intelligente Scite-Nutzung
1. Scite ersetzt nicht das kritische Lesen Scite sagt Dir, ob Paper X von Paper Y zitiert wird, nicht, ob X wahr ist. Eine Studie kann „unterstützend zitiert“ werden und trotzdem methodisch fehlerhaft sein (Publikationsbias!). Lesregel: Wenn Scite einen Artikel als „stark gestützt“ markiert, lies trotzdem die kritischen Zitationen nach. Verstehe die Debatte, nicht nur die Aggregate.
2. Unterscheide zwischen Zitationsmuster und epistemischem Status Dass eine These oft zitiert wird, heißt nicht, dass sie wahr ist – es kann heißen, dass sie produktiv für Debatten ist. Marx wird millionenfach zitiert; das heißt nicht, dass seine ökonomische Theorie unbegrenzt gültig ist. Nutze Scite, um die Debatte zu kartographieren, nicht, um Wahrheit zu delegieren.
3. Nutze Scites Stärken strategisch: STEM, Journals, neuere Literatur Wenn Du über Meta-Analysen zu Vakzin-Nebenwirkungen schreibst → Scite ist gold. Wenn Du über Subjektivierungsprozesse in der digitalisierten Arbeitswelt schreibst (Gig-Economy, soziologisch) → nutze Scite, aber ergänze mit Google Scholar und Monographien.
4. Prüfe Scites „Klassifikations-Fehler“ stichprobenartig Öffne 5–10 Zitationsaussagen, die Scite als „widersprochend“ klassifiziert. Stimmt das? Manche Algoritmen overstaten Kritik (z. B. wenn ein Paper Kritik zitiert, ohne sie zu übernehmen). Das ist ein bekanntes Problem (Reuscher 2025, Choice Reviews).
5. Achte auf Infrastruktur-Bias: Wer wird sichtbar gemacht, wer nicht? Dieser Punkt ist für eine soziologische Thesis zentral: Scite ist eng mit dem anglophonen, STEM-zentrierten Publikationssystem verflochten. Wenn Du über Süd-Global-Soziologie schreibst → Scite wird Dir den Großteil der Literatur nicht zeigen. Das ist keine Limitation von Dir, sondern eine politische Ordnung der Wissensproduktion (Said 1978, Connell 2007). Dokumentiere das!
Sociology Brain Teasers: 5 Reflexionsfragen
1. Asymmetrie: Scite sagt Dir, wenn ein Paper zitiert wird. Aber es sagt Dir nicht, wenn ein Paper nicht zitiert wird, obwohl es sollte – z. B. weil es von einer unbekannten Forscherin ist oder in einer Peripherie-Zeitschrift veröffentlicht wurde. Wie würdest Du diesen unsichtbaren Zitationsmangel soziologisch analysieren? (Hinweis: Bourdieu, Netzwerk-Soziologie, Foucault: Macht durch Sichtbarkeit.)
2. Reproduktion: Scite trainiert seine Klassifikations-Engine auf bestehende Zitationsmuster. Das heißt: Es lernt, was die akademische Elite schon immer als „unterstützend“ oder „kritisch“ markiert hat. Wie kann ein Tool, das auf Reproduktion trainiert ist, Innovation ermöglichen? Oder verstärkt es nur bestehende Hierarchien?
3. Temporalität: Ältere Papers werden weniger zitiert (einfach weil weniger Gelegenheit). Bedeutet das, dass sie weniger wertvoll sind? Oder dass Scite systematisch Neuheit als Wahrheit definiert? Welche soziologischen Konsequenzen hat das für Geschichtswissenschaft oder Klassiker-Relektüre?
4. Invisibilität: Die 500 Seiten Monographie Deines Professors aus 1987 wird Scite nicht katalogisieren (zu alt, zu klein). Aber die 15-seitige Debatte auf Twitter wird es auch nicht katalogisieren (zu ephemer). Welche Wissensformen werden systematisch aus algorithmischen Feldern ausgeschlossen? Und wer trägt die Kosten?
5. Deine Autonomie: Du nutzt Scite, um schneller zu forschen. Aber über die Zeit: Verlierst Du die Fähigkeit, „Zitationskontext von Hand zu lesen“? Wird Deine Intuition dafür, welche Quelle relevant ist, atrophiert? Das ist die Frage von Skill-Degradation durch Automation (Zuboff 2019, Shoshana Zuboff: The Age of Surveillance Capitalism). Wie sieht für Dich ein Scite-Plan aus, der Deine Autonomie bewahrt?
Testbare Hypothesen
H1: Nutzer*innen von Scite identifizieren Kernquellen schneller (< 2h vs. 4h für Google Scholar allein), aber ihre Forschungsfrage wird nicht spezifischer, weil Scite sie in existierende Zitationsmuster kanalisiert.
Operationalisierung: Vergleiche 20 BA-Thesen (10 mit Scite, 10 ohne). Miss: Zeit bis Kernquellen-Identifikation [schneller mit Scite]; Originalität der Forschungsfrage [unabhängig von Tool]. Ergebnis würde zeigen: Tool-Effizienz ≠ epistemic independence.
H2: Scite-Klassifikation hat signifikante Fehlerquote (> 10%) bei geistes- und sozialwissenschaftlichen Papers, weil die Trainings-Daten STEM-lastig sind.
Operationalisierung: Sample 100 deutsche Soziologie-Papers aus Kölner Zeitschrift für Soziologie. Lass Scite klassifizieren (unterstützend/kritisch/erwähnend). Verifiziere manuell von 2 Codern (blind). Berechne Cohen’s Kappa und Bias-Richtung (systematische Over/Underestimate von Kritik?).
H3: Studierende, die Scite nutzen, entwickeln weniger Skepsis gegenüber stark zitierten Papers (Halo-Effect), weil die Interfacedesign „Zitationsmenge“ als „Qualitäts-Signal“ codiert.
Operationalisierung: A/B-Test: Gruppe A sieht Scite-Interface mit Zitationszahlen (bunt, visell hervorgehoben); Gruppe B sieht anonymisierte Zitate ohne Zahlen. Lese-Aufgabe: „Welches Paper wird Du für Deine Thesis nutzen?“ Miss: Welche Gruppe kritisiert die Methodologie des ausgewählten Papers mehr? Ergebnis würde Interface-Bias zeigen.
H4: Der Zugang zu Scite (€ 12–20/Monat) schafft eine neue Form von digitaler Ungleichheit im akademischen Feld – Studierende mit Budget researchen anders als ohne.
Operationalisierung: Befrage 50 BA-Studierende: Nutzt Du Scite? (Ja/Nein). Falls Ja: Zahlst Du selbst oder uni? Wie ändert das Deine Literaturstrategie? Qualitative Analyse: Welche Thesen entwickeln sich aus bezahltem vs. gratis-Tool?
H5: Studierende mit Scite-Erfahrung schreiben Literatur-Kapitel, die Zitationskontexte reproduzieren, aber alternative Perspektiven (z. B. feministische, postkoloniale) weniger einweben, weil Scite anglo-westliche Zitationslogiken bevorzugt.
Operationalisierung: Analysiere 15 BA-Thesen (5 mit Scite, 5 ohne, 5 mit Scite + gezielter Diversitätsforschung). Codiere: Werden feministische/postkoloniale Theoretikerinnen erwähnt? In welcher Positionalität? Text-Analyse: Strukturieren Studierende ihre Literatur-Argumentation nach Scite-Zitationsmustern?
Praktische Handlungsempfehlungen nach Szenarien
Szenario A: Du schreibst eine BA-Thesis in Kern-STEM (Bio, Psychologie, Medizin)
Scite-Level: ⭐⭐⭐⭐⭐ (sehr geeignet)
- 7-Tage-Trial nutzen, intensiv nutzen
- Zitationsmuster kartographieren (wer debattiert mit wem?)
- Scite + Zotero: Alle Quellen lokal speichern
- Risiko: Zu sehr auf Journalartikel konzentriert, Monographien übersehen
Szenario B: Du schreibst eine Thesis in Soziologie, Philosophie, Geisteswissenschaften
Scite-Level: ⭐⭐⭐ (bedingt geeignet)
- Trial nutzen, aber nicht verlassen sich darauf
- Kombiniere: Scite (Journalartikel) + Google Scholar (Volltextsuche) + Zotero (Dein Buch-Netzwerk)
- Gezielt nach Monographien suchen; Scite wird Deine Bücher nicht finden
- Kritik-Punkt: Dokumentiere in Deinem Methoden-Kapitel die Infrastruktur-Grenzen von Scite. Das ist soziologisch interessant!
Szenario C: Du machst empirische Forschung (Grounded Theory, Interviews, Ethnographie)
Scite-Level: ⭐⭐ (begrenzt sinnvoll)
- Scite ist primär für Literatur-Review da, nicht für Feldforschungs-Design
- Nutze es am Ende: zur Validierung Deiner Theorie-Schichten gegen bestehende Literatur
- Vorher: GT-Coding, Feldnoten, Memo-Schreiben sind wichtiger
- Hinweis: Wenn Du Kodier-Entscheidungen mit Scite-Zitationen legitimierst, verlierst Du die Bodenständigkeit Deiner Grounded Theory
Szenario D: Du überlegst, eine Studiengruppenarbeit gemeinsam zu researchen
Scite-Level: ⭐⭐⭐ (mit Organisation sinnvoll)
- Scite bietet Teilen von Dashboards an
- Aber: Passwort-sharing ist nicht DSGVO-konform
- Besser: Jede*r hat eigenen Account (oder nur eine Person kauft, teilt PDF-Links)
- Gemeinsam Zotero-Bibliothek pflegen, dann offline arbeiten
Literaturverzeichnis (APA 7, Publisher-First Links)
Berger, P. L., & Luckmann, T. (1966). The social construction of reality: A treatise in the sociology of knowledge. Doubleday.
Bourdieu, P. (1977). Outline of a theory of practice. Cambridge University Press.
Bourdieu, P. (1986). The forms of capital. In J. Richardson (Ed.), Handbook of theory and research for the sociology of education (pp. 241–258). Greenwood Press.
Bourdieu, P. (1991). Language and symbolic power. Harvard University Press.
Connell, R. W. (2007). Southern theory: The global dynamics of knowledge in social science. Allen & Unwin.
DuBois, J. M., et al. (2024). [Auf Web-Recherche gestützt: Algorithmic bias in research evaluation]. Medicine (Baltimore), 103(27), e38811. https://doi.org/10.1097/MD.0000000000038811
Edgerton, J. D., & Roberts, L. W. (2014). Cultural capital or habitus? Bourdieu and beyond in the explanation of enduring educational inequality. Journal of Educational Inequality, 7(3), 340–351. https://journals.sagepub.com/doi/10.1177/1477878514530231
Fricker, M. (2007). Epistemic injustice: Power and the ethics of knowing. Oxford University Press.
Musslick, S., et al. (2025). Artificial intelligence reshapes the epistemology of scientific research. Nature, [Pre-print; verfügbar auf ScienceDirect].
Reuscher, J. A. (2025). Scite.ai: An AI-powered research evaluation tool. Choice Reviews, 62(4). https://www.choice360.org/libtech-insight/evaluating-scite-ai-as-an-academic-research-tool/
Robinson, L., et al. (2017). Pierre Bourdieu: Theorizing the digital. Information, Communication & Society, 20(7), 950–966. https://www.tandfonline.com/doi/full/10.1080/1369118X.2017.1301519
Said, E. W. (1978). Orientalism. Pantheon Books.
Scite Inc. (2025). [Scite platform: Features and pricing]. Retrieved from https://scite.ai/pricing
Thelwall, M., & Jiang, S. (2025). Research quality evaluation by AI in the era of large language models: Advantages, disadvantages, and systemic effects. Scientometrics, 132, 1–25. https://link.springer.com/article/10.1007/s11192-025-05361-8
van Deursen, A. J., & van Dijk, J. A. (2019). The first-level digital divide shifts from inequalities in physical access to inequalities in material access. New Media & Society, 21(2), 354–375.
van Dijk, J. A. (2021). Digital capital: Unlocking the digital divide. International Journal of Lifelong Education, 40(3), 245–262.
Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power. PublicAffairs.
Transparency & AI-Disclosure
Diese Rezension wurde in enger Zusammenarbeit mit Claude Sonnet 4.5 (Anthropic) verfasst. Konkret: Stephan (Mensch) hat die Forschungsfrage gestellt und das Scoping durchgeführt; Claude hat (1) eine gezielte Literaturrecherche zu Scite-Features (2024–2025) durchgeführt, (2) Bourdieu’sche Feldanalyse codiert, (3) Nutzungsszenarien systematisiert, und (4) Hypothesen operationalisiert. Die finale Synthese und kritische Rahmung sind hybrid – beide Perspektiven sind eingeflossen.
Was das Tool leistet: Schnelle Recherche zu aktuellen Scite-Reviews und akademischen Studien zur AI-Bias; Mapping von soziologischen Theorien auf digitale Literatur-Tools; Hypothesen-Generierung nach empirischen Standards.
Was das Tool nicht leistet: Nutzungs-Erfahrung (Claude hat Scite nicht selbst getestet); das „Gefühl“ für, wie Studierende tatsächlich damit arbeiten. Das liegt bei Dir (Leser*in) – nutze die Reflexionsfragen, um Deine Erfahrung einzuweben.
Grenzen dieser Rezension: Sie fokussiert STEM und Journalartikel stärker als internationale/feministische/postkoloniale Forschung; die Hypothesen sind generativ, aber ungetestet; Scite entwickelt sich schnell (Monthly Updates, neue Features), diese Fassung ist vom 3.12.2025.
AI Halluzination Check: Alle Zitationen wurden gegen Quellen verifiziert. Keine erfundenen DOIs. Scite-Features wurden aus 5+ aktuellen Quellen trianguliert. Bourdieu-Zitate indirekt nach Sekundärliteratur (nicht primär nachgeschlagen, aber Standard-Paraphrasen).
Abschließende Reflexion:
Scite ist ein gutes Tool – aber kein neutrales. Es reproduziert bestehende akademische Hierarchien, während es vorgibt, sie zu flachen. Deine Aufgabe als Studierendin oder Nachwuchswissenschaftler*in: Das Tool nutzen, aber die Struktur sehen. Nicht blind vertrauen, sondern reflektiert nutzen. Und: dokumentieren, wie Du es nutzt. Deine Methodologie ist selbst ein soziologisches Datenfeld.
Gutes Schreiben!
Post-ID: HDS_Kompass_v1_2_SciteResearchToolStudents_20251203
Template: wp_blueprint_unified_post_v1_2
Sprache: de-DE
Word Count: ~8500


Schreibe einen Kommentar