Raum HZ5
Uhrzeit 9:00 - 10:30
In den letzten zehn Jahren ist in den Digital Humanities neben der Erstellung, Verbreitung und Nutzung digitaler Ausgaben und Repositorien ein zweiter, computerbasierter bzw. mathematischer Ansatz entstanden, den man als „Computational Humanities“ bezeichnet hat (Heyer 2014). In diesem Feld sind Verfahren des „deep learning“ immer wichtiger geworden: Etwa das auf word-embeddings basierende word2vec Modell zur Rekonstruktion sprachlicher Zusammenhänge von Wörtern (Mikolov 2013) oder zur Textklassifikationen verwendete Bibliotheken wie fastText und GloVe. Unser Panel fragt, ob und wie solche Verfahren des tiefen Lernens auch in den Literaturwissenschaften anwendbar sind.
Dazu suchen wir Experten für computergestützte Analysen von literarischen Texten (Prosa, Lyrik, Drama) mit Interesse an vertieften Lerntechniken, um die computationale Analyse narrativer (Fokalisierung), dramatischer (Aktantenanalyse), poetischer (Metrik, Metaphorik, Reim) oder gattungsübergreifender (Stilometrie, Topic Modelling) Textmerkmale zu diskutieren. Ein besonderer Schwerpunkt wird auf der Erprobung computationaler Lerntechniken für Anwendungen auf begrenzte Datensätze und auf der Bewältigung schwieriger Probleme beim Verstärkungslernen liegen.
Diese Visualisierung basiert auf der Einreichung
Deep Learning als Herausforderung für die digitale Literaturwissenschaft und setzt sich aus Werten für Flesch-Reading-Ease (26) und Sentimentanalyse (57) zusammen.