Korpuserschließung und Visualisierung deutschsprachiger Poetiken (1770- 1960) für den „Algorithmic criticism“
Methoden
Methoden
Überprüfung vorhandener und Entwicklung neuer hermeneutischer Hypothesen durch die Kombination traditionell hermeneutischer und algorithmischer Methoden, ausgehend von der Studie ‚A History of Poetics‘, um qualitative und quantitative Komplementaritäten, historische Zusammenhänge und Dynamiken des Korpus nachzuvollziehen.
Anfertigung TEI-konformer XML-Dokumente der Poetiken, die durch umfangreiche (bibliographische, strukturelle und inhaltliche) Metadaten angereichert werden. Diese stammen zunächst aus der hermeneutischen Untersuchung des Korpus, werden aber in Kooperation mit den Experten aus der Informatik ausgeweitet, was durch die Entwicklung neuer Werkzeuge für die Metadatenerfassung erleichtert wird.
Text- und Korpusanalyse mittels Natural Language Processing-Techniken: sprachtechnologische Korpusanalyse (Analyse der Sprache an sich), statistische Verfahren (Berechnung quantitativer Aussagen zur Unterstützung hermeneutischer Hypothesen), Textmining (Named Entity Recognition + Erkennen von benutzerdefinierten Konzepten), Part-of-Speech Tagging, Parsing, Sentiment Analysis, Topic Segmentation + Recognition, automatisch generierte Zusammenfassungen (Word Clouds), semi-supervised Machine Learning(vom Benutzer trainierbare Analysewerkzeuge)
Unterstützung der Analyse und Darstellung der Ergebnisse durch Visual Analytics-Techniken: Informationsvisualisierung (schnelle Verifikation bzw. Falsifikation hermeneutischer Hypothesen), Text- und Corpusviewing (schneller Zugriff auf Texte und Annotationen), Smooth Scroll (gleichzeitige Visualisierung unterschiedlicher Dokumentebenen), interaktive Analysewerkzeuge (interaktive Feedback- und Trainingsmechanismen)