Forschung / Transfer, Peer Group

KI-gestützte Literaturarbeit im Test

Marie Luise HeuschkelForschung / Transfer, Peer Group Leave a Comment

KI-gestützte Literaturarbeit im Test

Was hilft es wirklich?
1. August 2025
Image
und
Flaviana Tagliaferri
Die Literaturrecherche und -auswertung gehört zum wissenschaftlichen Alltag – und wird bei einem stetig wachsenden Publikationsvolumen immer aufwendiger. KI-Tools versprechen hier Abhilfe: automatische Zusammenfassungen, intelligente Suche, vernetzte Analysen. Doch wie praxistauglich sind diese Werkzeuge tatsächlich? Marie Luise Heuschkel und Dr. Flaviana Tagliaferri gingen dieser Frage in einer Peer Group Session nach, die sie für das Team des NextGen Projekts an der Hochschule Mittweida entwickelten.

KI-Tools auf dem Prüfstand

In einer interaktiven Session testeten wir im Team von NextGen verschiedene KI-Tools für die Literaturarbeit. Im Fokus standen dabei nicht nur die technischen Möglichkeiten, sondern vor allem die praktische Anwendbarkeit im Forschungsalltag. Wir führten eine systematische Evaluation – beginnend mit dem Vergleich zu traditionellen Suchmaschinen über Visualisierungstools bis hin zu KI-gestützter Dokumentenanalyse durch.

Der Ansatz war bewusst praxisorientiert: Statt theoretischer Präsentationen standen Live-Demonstrationen und gemeinsame Tests im Mittelpunkt. Jedes der getesteten Tools wurde anhand klarer Kriterien bewertet: Mehrwert gegenüber herkömmlichen Methoden, Effizienz, Qualität der Ergebnisse, Nutzbarkeit und Grenzen.

Was KI anders macht

Der entscheidende Unterschied zu traditionellen Werkzeugen liegt in der Datenverarbeitung: Während herkömmliche Recherche stark auf vordefinierten Suchkriterien und manueller Auswertung basiert, können KI-Tools große Textmengen automatisch analysieren, thematische Cluster erkennen und Zusammenhänge visualisieren. Sie automatisieren Schritte, die bisher zeitaufwendige Handarbeit erforderten - beispielsweise von der Extraktion relevanter Informationen bis zur Erstellung von Zusammenfassungen.

Vier Kategorien, viele Möglichkeiten

Die getesteten Tools ließen sich in vier Kategorien einteilen:
KI-gestützte Suchmaschinen wie Semantic Scholar erweitern klassische Literatursuche um thematische Vernetzung und Autorennetzwerke.
Visualisierungs- und Mappingtools wie Litmaps erstellen aus Publikationen interaktive Landkarten, die neue Literaturzusammenhänge sichtbar machen.
KI-gestützte Dokumentenanalyse-Tools ermöglichen es, mehrere PDFs gleichzeitig auszuwerten und gezielt zu befragen.
Multifunktionale KI-Rechercheassistenten wie Elicit und SciSpace kombinieren schließlich Suche, Analyse und Bewertung in einem Werkzeug.
Image

NotebookLM im Fokus

Den Schwerpunkt der Session bildete jedoch Google NotebookLM - ein Tool, das besonders durch seine Transparenz überzeugte. Anders als bei vielen KI-Anwendungen lässt sich hier jede Antwort bis zur ursprünglichen Textstelle zurückverfolgen. Die Teilnehmenden testeten das System sowohl mit inhaltlichen Fragen zu ihren eigenen Publikationen als auch mit kreativen Aufgaben wie der Entwicklung neuer Forschungsideen basierend auf den vorhandenen Quellen. Selbst bei sehr umfangreichen Dokumenten - getestet wurde mit über 900 Seiten - konnte NotebookLM spezifische Textstellen präzise lokalisieren. Das System antwortete dabei ausschließlich basierend auf den hochgeladenen Quellen. Wo Informationen fehlten, gab es das auch zu. Bei logischen Rätseln stieß es jedoch an seine Grenzen.
Image

Fazit: Nützliche Helfer mit klaren Grenzen

Das Feedback der Teilnehmenden war differenziert: In puncto Effizienz und Nutzbarkeit schnitten die KI-Tools durchweg gut ab. Besonders geschätzt wurde die Geschwindigkeit bei der Erstellung von Zusammenfassungen und die Möglichkeit, sowohl eine große Anzahl von Dokumenten als auch Dateien mit erheblicher Größe gezielt zu durchsuchen. Bei der Qualität der Ergebnisse zeigte sich jedoch ein gemischtes Bild: Während Korrektheit und Relevanz meist zufriedenstellend waren, blieb die Vollständigkeit problematisch.

Ein zentraler Punkt kristallisierte sich heraus: KI-Tools funktionieren am besten, wenn man bereits Vorwissen mitbringt. Die Tools eignen sich daher weniger für die Erstrecherche in unbekannten Gebieten, sondern vielmehr als intelligente Suchmaschinen für bereits bekannte Literaturbestände.

Ein wichtiger Perspektivwechsel kam aus der Diskussion: Statt KI-Tools isoliert zu nutzen, sollten sie mit bewährten Methoden kombiniert werden. Findet beispielsweise die KI bestimmte Informationen nicht, kann eine gezielte Suche im Original-PDF weiterhelfen. Das Fazit: KI-Tools sind wertvolle Ergänzungen, ohne methodisches wissenschaftliches Arbeiten geht es jedoch nicht!

Die Session machte deutlich: KI-Tools in der Literaturarbeit sind keine Zukunftsmusik mehr, sondern bereits heute praxistauglich - allerdings mit klaren Grenzen. Sie beschleunigen bekannte Arbeitsschritte und eröffnen neue Möglichkeiten der Textanalyse, ersetzen aber nicht die wissenschaftliche Urteilskraft.

Lernen durch Ausprobieren

Das didaktische Konzept - Live-Demonstrationen kombiniert mit eigenständigem Ausprobieren - erwies sich als besonders wertvoll. Während die Referentinnen NotebookLM vorführten, konnten alle Teilnehmenden parallel an den gleichen Beispielen experimentieren und eigene Fragen stellen. So entstanden authentische Lernerfahrungen jenseits theoretischer Präsentationen.

Ausblick: Eigenes Testen als nächster Schritt

Für die Teilnehmenden ergaben sich konkrete nächste Schritte: Tools wie NotebookLM werden nun in eigenen Projekten getestet, Erfahrungen ausgetauscht und in einem gemeinsamen Wiki dokumentiert - das selbst als NotebookLM-Anwendung realisiert wurde. Die Entwicklung der KI-Landschaft ist so schnelllebig, dass nur durch kontinuierliches Ausprobieren und kritische Bewertung sinnvolle Einsatzszenarien identifiziert werden können.

Die wichtigste Erkenntnis bleibt: KI-Tools sind dann am wertvollsten, wenn sie bewusst und reflektiert eingesetzt werden - als intelligente Assistenten, nicht als Ersatz für wissenschaftliches Denken.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert