Zum Inhalt springen

#4 Transkript – Ein Besuch bei Fotis Jannidis, Universität Würzburg

Zurück zur Podcast-Folge

Deaf IconAuf dieser Seite gibt es das vollständige Transkript der Podcast-Folge inklusive Kapitelmarken und Sprecheridentifikation.
Folgennotizen, weiterführende Links – und natürlich das Audio selbst – gibt es auf der Podcast-Seite der Folge.


Fotis Jannidis ist Professor für Computerphilologie und Neuere Deutsche Literaturgeschichte an der Universität Würzburg. Hier baute er den Bachelor- und Masterstudiengang „Digital Humanities“ auf. Jannidis ist einer der DH-Pioniere in Deutschland und Mitherausgeber der historisch-kritischen digitalen Faust-Edition. Wir sprachen mit ihm über neue Methoden, künstliche Intelligenz und die Lust der Literaturwissenschaft auf Informatik.

Kapitelmarken
Begrüßung
Computerphilologie – Was ist das?
Daten interpretieren: Bessere Textanalysen durch Digitalisierung?
Topic Modeling
Stilometrie und Topic Modeling
Digital Humanities – Entwicklung eines Fachs
Zusammenarbeit zwischen Informatikern/-innen und Geisteswissenschaftlern/-innen
Vom Experiment zur Interpretation
Künstliche Intelligenz und Datenmissbrauch – Brauchen wir eine digitale Wissenschaftsethik?
Tipps und Wünsche an den Nachwuchs
Ausklang, Vorschau und Verabschiedung


Digitale Wissenschaft
Folge: #4 – Ein Besuch bei Fotis Jannidis, Universität Würzburg
Podcast vom: 31.10.2018
Moderatoren: Jens-Martin Loebel, Carolin Hahn
Interviewgast: Fotis Jannidis
Bitte beachte: Das Transkript ist ausschließlich zum persönlichen, privaten Gebrauch bestimmt.


[♫ Intromusik ertönt ♫]

Volker Davids: Digitale Wissenschaft. Forschung verändert sich. Wir erklären, wie.

Ein Podcast über Wissenschaft im Digitalzeitalter. Mit spannenden Interviews, Praxistipps und Forschungsprojekten von Archäologie bis Zellbiologie. Für die Forscher von heute und die KIs von morgen. Mit Jens-Martin Loebel und Carolin Hahn.

[Intromusik endet]

Begrüßung

Jens-Martin Loebel: Ja, Herzlich Willkommen zu unserer vierten Folge Digitale Wissenschaft. Das Semester hat wieder begonnen. Ich hoffe ihr seid alle gut gestartet. Wir waren über den Sommer natürlich auch fleißig und haben nicht eine, sondern gleich zwei Folgen aufgezeichnet. Los geht’s jetzt aber erst einmal…

Carolin Hahn: …mit Fotis Jannidis, der Professor in Würzburg ist und uns besucht hat. Und, ja, lasst euch einfach überraschen von ganz ganz vielen neuen Entwicklungen im Bereich Geisteswissenschaft, die ganz viel natürlich mit dem Digitalen zu tun haben.

Jens-Martin Loebel: Ja, und das Spannende ist, dass Prof. Jannidis Mitglied der Gesellschaft für Informatik ist. Und warum es nicht nur produktiv sein kann, sondern auch sehr wichtig ist, dass Geisteswissenschaftler mit Informatikern reden, wird er euch gleich erklären.

Carolin Hahn: Was macht also, wenn man auf einmal hunderttausende von Büchern gleichzeitig lesen kann?

Jens-Martin Loebel: Ja, und: Kann es sogar gefährlich sein solche Daten auszuwerten und aufzubereiten? Das und noch ganz viel mehr haben wir ihn gefragt.

Carolin Hahn: Ja, dann seid gespannt auf die Antworten. Und…ja, wir fragen euch natürlich ab danach, ne?

Jens-Martin Loebel: Genau, es gibt einen Test. Das ist gut!

Jens-Martin Loebel / Carolin Hahn: *lachen*

Carolin Hahn: Und … ja, wir steigen einfach gleich mal ein. Also sie haben ja in München promoviert, und sind seit 2009 Professor für Computerphilologie und Neuere Deutsche Literaturgeschichte an der Uni Würzburg.

Computerphilologie – Was ist das?

Und da wären wir gleich beim Stichwort: Was heißt denn “Computerphilologie”, Herr Jannidis?

Fotis Jannidis:Computerphilologie” ist ein Name, der in den 80er Jahren als Parallel-Bildung zu “Computerlinguistik” entstanden ist, und das ausdrücken möchte, was Computerlinguistik eben auch ausdrückt. Nur eben in die andere Richtung. Wir haben die Zweiteilung der Philologie in die Literaturwissenschaft und Linguistik, und da geht es darum, dass die Computerphilologie der Bereich ist, in dem Computer für literaturwissenschaftliche Fragestellungen verwendet werden. Und das sind heute, würde ich sagen, zwei Großbereiche:

Das eine ist der gesamte Bereich der digitalen Editionen und Annotationen. Und das Zweite ist der gesamte Bereich dessen was wir “Textanalyse” nennen können. Also quantitative Textanalyse, Text Mining oder eben mit dem Schlagwort von Moretti “Distant Reading”.

Carolin Hahn: Und was ist ihr konkreter Schwerpunkt in Würzburg?

Fotis Jannidis: Am Anfang habe ich noch relativ viel die Editionen gemacht. Und wir schließen jetzt auch in diesem Jahr eine Edition ab, an der wir jetzt lange zwölf Jahre gearbeitet haben: Die Faust Edition, die zusammen mit Weimar und Frankfurt entstanden ist. Aber in den letzten acht Jahren ist mein Arbeitsschwerpunkt im Bereich der Textanalyse.

Carolin Hahn: Wie sind sie denn dazu gekommen als Literaturwissenschaftler?

Fotis Jannidis: Ich habe mich bei der Edition so gelangweilt.

Carolin Hahn / Jens-Martin Loebel: *lachen*

Fotis Jannidis: Also es ist so, dass die Verfahren für die digitale Edition, die sind nicht besonders herausfordernd, jetzt was die Anforderung der Informatik sozusagen betrifft. Und so, dass man sehr bald überschauen konnte: Was sind die eigentlichen Probleme?

Und viele sind Probleme, die kann man sehr schnell lösen, und wenn man sie substantiell lösen will, dann braucht es sehr sehr lange, weil man dann eben das nicht alleine löst, sondern mit anderen zusammen.

Also viele Dinge im Bereich Edition sind eher soziale Probleme, nämlich Probleme, die man – dadurch, dass man Standards aufbaut oder Dinge in Standardverfahren einbringen muss – die man auf diese Weise lösen muss.

Und ich habe relativ viel Theorie gemacht. Also, das heißt relativ intellektuell anspruchsvolle Sachen, und hatte immer das Gefühl, dass ist eine bedauerliche Lücke zwischen meinen theoretischen Interessen – besonders auch im erzähltheoretischen Bereich – auf der einen Seite und auf der anderen Seite meinen digitalen Interessen gibt.

Daten interpretieren: Bessere Textanalysen durch Digitalisierung?

Und dann bin ich mehr oder weniger zufällig in die Stilometrie reingestolpert und dachte: Das ist ja mal interessant. Und hab dann wahrscheinlich in dem Maße in dem dieses Feld einen Aufschwung erlebt hat, und zwar der gesamte Bereich der digitalen Textanalyse in den Nullerjahren, mich immer mehr sozusagen reinziehen lassen.

Und dann die letzten 6–8 Jahre waren sehr intensiv. Also die maschinellen Lernverfahren haben durch die Menge der Daten, die in den letzten 15 bis 20 Jahren dazu gekommen sind, haben die einen ungeheuren Aufschwung erlebt.

Und das betrifft eben auch das Feld, in dem ich tätig bin. Wir haben einfach jetzt plötzlich eine ganze Menge von literarischen Texten zur Verfügung.

Und plötzlich können wir Dinge machen und Fragen stellen, die wir früher nicht stellen konnten. So … dass ich in dieser allgemeinen Euphorie sozusagen mitgelaufen bin. Aber das kann man also noch machen, das kann man machen, und …

Ich gebe zu, in diesem Zustand befinde ich mich in einer gewissen Weise immer noch, also ja.

Jens-Martin Loebel: Das heißt, es wird jetzt unglaublich viel möglich durch das Digitale. Was sind denn so Fragen, die man jetzt stellen kann?

Fotis Jannidis: Ja, vielleicht nicht nur durch das Digitale, sondern ganz konkret durch die Digitalisierungsbemühungen der Bibliotheken. Aber vor allem auch dadurch, dass große Korpora plötzlich zur Verfügung stehen.

Das eine was wir eben eine von Textgrid, eine große Textsammlung eingekauft haben und aufgearbeitet haben. Und das DTA mit seiner Textsammlung ist sicherlich ein wichtiger Punkt.

Und die … die amerikanischen Kollegen haben diese großen, oft kommerziell erzeugten Textsammlungen, also das macht immer sehr viel aus.

Und dazu kommen jetzt dem die eBook-Sammlungen der Bibliotheken und … und ähnliche Dinge. So was macht sozusagen den Reiz bei diesen …

Jens-Martin Loebel: … Was macht den Reiz? Genau.

Fotis Jannidis: Der ist komplementär. Also ich habe sehr gerne mich auch mit intensiver Einzeltextanalyse beschäftigt und halte das tatsächlich für eines der wenigen Gebiete, in denen wir Literaturwissenschaftler wirklich was sagen können. Wir haben einen ungeheuer komplexen Apparat an Textbeobachtungs-Mechanismen aufgebaut.

Der ist nicht so formalisiert, wie in anderen Bereichen, aber es ist trotzdem so, wenn man zwei Literaturwissenschaftler zusammensetzt – selbst unterschiedlichen Ecken – dann können die über einen Text sehr, sehr komplexe Beobachtungen – ästhetische Strukturen, Perspektiven, Probleme, die man beim Lesen haben könnte – entdecken.

Da glaube ich, kann dieses Digitale im Augenblick nicht viel zu sagen und beitragen. Sondern das ist immer dann gut, wenn – und das ist auch bei diesem Einzeltextanalysen irgendwann mal notwendig – jedesmal, wenn man sagt:

Das, was ich hier sehe, das verhält sich zu dem, was im Allgemeinen der Fall ist, in einer bestimmten Art und Weise: “Das ist ganz anders z. B. als alle anderen Texte seit der Zeit” oder “es ist typisch für die Texte der Zeit”. All diese Aussagen sind ja eigentlich quantitative Aussagen. “Wie verhält sich mein Einzeltext zu den anderen Texten?” Und dann plötzlich kommt der Blick auf diese gesamten Texte.

Dieser Blick ist, was die Digitalverfahren betrifft, das muss man sich klar machen, der ist natürlich, dadurch wird das eher formalisiert sein muss – und wie unser Formalisierungsverfahren im Augenblick arbeiten –, ist der meistens sehr auf die Oberfläche bezogen und der ist eher schlicht.

Und wir arbeiten jetzt daran sozusagen die “schlimmsten Schlichtheiten” zu überwinden und glaube das ist auch – wie sagt man so schön – den Schweiß der Edlen wert. Aber gleichzeitig ist es eben so, dass wir da nicht überoptimistisch sein dürfen. Wir werden keine lesenden Maschinen in absehbarer Zeit bauen.

Sondern was wir bauen können im Augenblick sind Dinge, die sagen: “Wenn du eine These hast, die viele Texte betrifft, und einen genauen Blick auf die Texte verlangt, dann können wir dazu was sagen. Also: “Wie ist es mit der Anzahl von männlichen und weiblichen Hauptfiguren in erzählenden Texten?”, “Können wir Sentiment-Verläufe in Texten – also wie Emotionen, wie intensiv die ausgedrückt werden – können wir da drin Muster erkennen?” Und viele, viele andere Dinge mehr. Aber jeder dieser Einzelblicke ist eigentlich ein sehr genauer Einzelblick.

Also anders als unser organisches Lesen – wir nehmen sozusagen mit so einer freistehenden Aufmerksamkeit ganz viel gleichzeitig wahr in einem Text – ist es so, dass wir hier immer nur einen Punkt wahrnehmen. Und meistens müssen wir das vorher wissen, was wir wissen wollen, und können damit dann da draufgucken.

Carolin Hahn: Aber es ist nicht umgedreht auch sehr interessant zu schauen: Okay, ich nehme jetzt meinetwegen mal die weiblichen Hauptfiguren, habe noch keine These vorher, und schau dann, wo der Ausschlag ist, und gehe dann in die Thesengenerierung.

Fotis Jannidis: Genau. Das ist sicherlich ein ebenso valides Verfahren. Aber, jetzt technisch ausgedrückt, können wir entweder erst in die Exploration treten und dann leiten wir aus bestimmten Dingen Hypothesen ab. Und dann überprüfen wir die Hypothesen. Oder wir gehen von vornherein, weil wir theoriegeleitet Hypothesen gebildet haben, dann an die Hypothesenbildung. Ich glaube beides sind völlig legitime und auch gewinnbringende Verfahren.

Ich bin nur nicht ganz davon überzeugt, und ich glaube an die Diskussion zu wollten sie jetzt anknüpfen, dass wir keine Theorie mehr brauchen. Also sozusagen das sind alles nur noch datengetrieben funktioniert. Da bin ich, gebe ich zu, ein bisschen skeptisch, weil das Explorieren der Daten ja oft bedeutet, dass wir noch gar nicht wissen, welche Ebene der Daten wir sichtbar machen können und müssen. Und vor allem weil wir ganz oft die semantische Ebene noch gar nicht greifen können. Oft arbeiten wir mit Proxys. Also, dass wir versuchen, etwas, was auf der semantische Ebene sich abspielt, das versuchen wir sichtbar zu machen, indem wir einen Stellvertreter, auf der Ebene die wir beobachten können, untersuchen.

Und bei solchen indirekten Verfahren ist die Exploration meistens nicht so fruchtbar. Aber ich glaube beide sind völlig legitime Verfahren.

Topic Modeling

Jens-Martin Loebel: Aber das finde ich gerade total spannend. Das heißt also: Das kann der Computer dem Forscher der Forscherin nicht abnehmen zu überlegen … sozusagen: Was will ich überhaupt explorieren? Was will ich wissen? Und jetzt haben wir ganz viel so implizit schon über Verfahren gesprochen. Ich komme ja nicht aus der Literaturwissenschaft. Ist es denn so: Brauche ich denn für jede Fragestellung ein eigenes Verfahren oder muss mein Verfahren irgendwie an die Fragestellung angepasst sein? Und wenn ja, woher weiß ich denn, welches ich nehmen soll? Und woher kommen die überhaupt?

Fotis Jannidis: Also ich fange mal hintenrum an mit dem “Woher kommen die überhaupt”. Das sind alles sehr gute Fragen, und sehr vielfältige und schwierige Fragen.

Also im Augenblick ist es so, dass wir sagen können, der größte Teil der Verfahren kommt entweder aus der Computerlinguistik oder aus der Informatik, den übernehmen wir dort. Also, wenn wir z. B. sowas wie Topic Modeling benutzen, um größere Datenmengen zu erschließen, dann ist das ein Verfahren, das eben in der Informatik entwickelt worden ist.

Und jetzt gucken wir: Was können wir denn damit auch bei literarischen Texten machen? Und für mich spielt sich da bei dieser Übernahme und Adaption der Verfahren ganz viel Wichtiges ab. Wir müssen uns daran gewöhnen, dass die Informatiker sehr gerne auf standardisierten Datensätzen arbeiten, die größtenteils was mit Zeitungen zu tun haben. Und das bedeutet: Sehr oft ist es so, dass wir hören von einem Verfahren und denken, das ist doch toll. Und dann probieren wir das aus und stellen fest, dass es unseren Daten schlecht, gar nicht oder vielleicht ganz unvorhersehbar funktioniert.

Und Topic Modeling ist so etwas. Topic Modeling, deswegen ja auch der Name “Topic”, das wird oft auch falsch verstanden im Sinne von “es extrahiert Themen aus Texten”. Und das funktioniert, wenn sie Sachtexte nehmen, sogar ganz gut. Also da kann man zum Beispiel Zeitschriftentexte reintun und nehmen wir das klassische Beispiel, was in dem ursprünglichen Aufsatz von David Blei und mit zwei Kollegen, der das Verfahren entwickelt und vorgestellt hat, der benutzt eine juristische Zeitschrift, um zu zeigen: Also hier können wir plötzlich Steuerrechtsaufsätze erkennen. Und hier können wir … da geht’s um Gleichstellungsrecht und solche Dinge.

Carolin Hahn: So weit weg von Literatur wie es nur geht, quasi.

Fotis Jannidis: Ja, und jetzt stellen sie sich vor was passiert, wenn sie das mit literarischen Texten machen. Jetzt würde man natürlich erwarten, na ja dann findet er den … Worum geht’s eigentlich in “Krieg und Frieden” oder in “Effi Briest” und … Aber natürlich von …

Carolin Hahn: Ehestreit.

Fotis Jannidis: jaja *lacht*.

Jens-Martin Loebel: Es ist … für Informatiker ist das halt ein kontextfreies Problem. Ich habe den Algorithmus und der kann das klassifizieren, dann ist das ja egal. Da kann ich auch fragen: Worum geht’s denn jetzt bei Goethe?

Fotis Jannidis: Ja, aber ich glaube das Problem ist, dass das Wort “Thema” zwei unterschiedliche Dinge meint. Also das Eine wäre eben zu sagen: Es geht z. B. in “Effi Briest” um das Schicksal des Individuums im Widerstreit mit dem, mit der Gesellschaft. Das wäre jetzt so eine typische abstrakte Themenformulierung.

Das wird kein Algorithmus der Welt im Augenblick da rauskitzeln können, weil das extrem abstrakt ist. So und die Verfahren wie Topic Modelling beruhen auf Kookkurrenzanalyse im weiteren Sinne. Also das bedeutet Wörter, die zusammen gefunden werden in den Texten, werden dann aufgrund dieser überdurchschnittlichen Häufigkeit, mit der sie zusammen auftauchen, dann extrahiert und als Thema … dann kann man sie nachträglich labeln.

Wenn man das mit Literatur macht, also wenn wir das mit Romanen machen, dann finden wir plötzlich Topoi des Erzählens. Also: Wie werden Figuren beschrieben? Also dann kommen plötzlich sowas wie Gesicht, Augen, Nase, Mund und Schultern oder sowas.

Oder Wasser, Boot, Felsen, Brandung und so weiter. Wir erkennen also, dass Worte aufgrund ihrer Kookkurrenzen zusammengebracht werden. Es kommen also sinnvolle Dinge dabei raus. Nur sie bedeuten etwas ganz anderes als “Thema”.

Und das bedeutet, um den Bogen wieder zu schließen: Diese Anpassungsleistung zu verstehen – was macht ein Algorithmus mit meinen Daten? – das kann einem der Informatiker nicht abnehmen, sondern das ist das, was der Fachwissenschaftler, der seine Daten kennt, der muss so kompetent sein, dass er den Algorithmus auf seine Daten anwenden kann. Und dann untersuchen kann, verstehen kann: Was passiert da gerade? Was sieht er, auf was guckt er?

Stilometrie und Topic Modeling

Carolin Hahn: Spannend, weil ich jetzt auch gerade – Sie hat es ja auch schon erwähnt – die Stilometrie hängt dann … Also … für unsere Hörer: Die Stilometrie ist quasi die Analyse des Autorstils. Also auch eine ganz neue Richtung. Wenn man jetzt zurückdenkt an die Siebziger, in denen der Autor als tot erklärt wurde, gibt’s auf einmal jetzt einen Autorstil.

Das heißt, man kann heutzutage herausfinden, ob ein Werk beispielsweise von Goethe oder von Joanne K. Rowling ist. Das heißt dieses Topic Modeling hat ja… also ich kann mir jetzt vorstellen, z. B. bei Fontane, dass besonders viele Beschreibung drin sind oder besonders viele Landschaftsbeschreibungen, Hausbeschreibungen, wie auch immer. Hängt das damit auch zusammen? Also kann ich quasi auch durch das Topic Modeling die Stilometrie wiederum stützen?

Fotis Jannidis: Ja, also im Augenblick eher nicht, weil die auf unterschiedliche Dinge abzielen unserer Erfahrung nach, so … Die Stilometrie funktioniert im Augenblick auf den häufigsten Wörtern eines Textes. Und meistens benutzen wir im Augenblick so um die 2.000 häufigste Wörter. Also die stilometrische Fragestellung ist eine der ältesten in dem Bereich. Die geht bis ins 19. Jahrhundert zurück. Also deutlich vor die Computerzeit, als Leute mit der Hand Texte ausgezählt haben, haben die sich schon die Frage gestellt: Gibt es nicht in der Art und Weise wie Menschen schreiben Regelmäßigkeiten und können wir diese Regelmäßigkeit nicht identifizieren?

Dann im Laufe des 20. Jahrhunderts, sofort mit der Einführung des Computers, haben Leute das dann versucht auch anzuwenden. Und in den 80er Jahren hat John Burrows, ein australischer Gelehrter, der bahnbrechende Dinge dort geleistet hat, hat dann sich besonders auch konzentriert aus sozusagen Kapazitätsgründen auf die 50 häufigsten Wörter. Und hat damit dann schon sehr deutlich zeigen können: Es gibt sozusagen so was wie ein Autorschaftssignal.

Und er hat tatsächlich schon in frühen 90ern einen Aufsatz gegen Foucault geschrieben, auf den sie gerade anspielen. Und dann in den letzten Jahren ist die Tendenz sozusagen, so diese Verfahren immer weiter auszubreiten und immer raffinierter zu machen und gleichzeitig auf andere Dinge z. B. Stil von Epochen, Stil von Gattungen anzuwenden.

Und ich hatte vorhin angesetzt mit dem: Wo kommen eigentlich die Verfahren her? Und, wie gesagt, die meisten übernehmen wir aus dem Bereich der Informatik und der Computerlinguistik. Es gibt eben auch diese kleine Ecke von Verfahren, die innerhalb der Digital Humanities entwickelt worden sind. Und da gehört z. B. Delta von John Burrows … ist eines dieser Verfahren, das eben sehr, sehr leistungsfähig ist.

Und auch wenn John Burrows vielleicht die mathematischen Grundlagen seines Verfahrens selber nicht alle durchblickt hat – das hat ein israelischer Mathematiker dann dankenswerterweise später nachgeholt und transparent gemacht – ist es gleichzeitig so, dass die Intuition, die er gezeigt hat in seinem Verständnis davon, was da zusammengebracht werden muss, um das zu messen, heute noch extrem beeindruckend ist.

Der lebt übrigens noch und ist … haben wir gerade besucht dieses Jahr in Australien. Er ist ein 90-Jähriger Digital Humanist.

Carolin Hahn: Das wusste ich auch nicht, dass der noch lebt.

Jens-Martin Loebel: Womit beschäftigt sich denn die Stilometrie und welche Verfahren setzt man da ein?

Fotis Jannidis: Vielleicht wenn wir das so beschreiben, sollten wir kurz erläutern, was wir da überhaupt machen also …

Wie oft bei Autorschaftsgeschichten hat man ja einen unbekannten Text, den man einem oder mehreren Autoren, die infrage kommen, zuordnen möchte. Dann ist es auch so, dass man sammelt. Dann … also ein typischer Versuchsaufbau sieht so aus, dass man Texte sammelt von den infrage kommenden Autorinnen und Autoren, und dann untersucht man mit einem Verfahren wie Delta: Wie nah dran ist denn der fragliche Text an den Texten der anderen?

Und dann bekommt man eine Nähe-Information, die man dann interpretieren kann: “Ja, das ist der Autor.” Aber natürlich, wenn der Autor gar nicht unter den Verdächtigen ist, die ich da untersuche, dann ist meine Information auch nichts wert.

Weil es wird immer ein nächster Nachbar gefunden. Also das Verfahren sagt nie: “Ich hab keine Ahnung.” Also wie das vielleicht ein Mensch machen würde, Sondern es sagt immer: “Der nächste Nachbar zu mir, zu diesem fraglichen Text, ist dieses hier.” Und dann muss der Sachverstand kommen und sagen: Das ist aus den und den Gründen sehr plausibel, weil es könnte der Autor sein oder usw.

Digital Humanities – Entwicklung eines Fachs

Fotis Jannidis: Also ich glaube, Verfahren kommen aus dieser ganzen Bandbreite und werden ständig weiterentwickelt. Und ich glaube, es ist praktisch ein Kernbereich des Faches Digital Humanities … im Kern jetzt nicht so verstanden … ich glaube es gibt ein weites Verständnis dieses Begriffs, das sind alle diese die Leute, die digitale Ressourcen verwenden oder digitale Verfahren anwenden.

Aber in dem engen Bereichen sind es die Leute, die digitale Ressourcen entwickeln und digitale Methoden weiterentwickeln. Und da gibt es, glaube ich, in diesem engeren Verständnis von Digital Humanities einen wirklich wichtigen Arbeitsbereich: Praktisch das ständige sehr große Angebot der Informatik an neuen Verfahren zu sichten, selektiv bestimmte Verfahren herauszugreifen, zu zeigen, wofür die fruchtbar sind. Für welche Materialien innerhalb der Geisteswissenschaften sie fruchtbar sind. Und sie dann auch so zu parametrisieren, so das grundlegende Verständnis dafür, welche Parameter was verändern in Bezug auf die geisteswissenschaftlichen Materialien.

Carolin Hahn: Das klingt jetzt aber auch schon fast so, dass Sie tatsächlich die Digital Humanities als eigenes Fach begreifen, was neben der Informatik und neben der Literaturwissenschaft und neben der Archäologie, wie auch immer, existiert. Weil das ja auch die große Diskussion sind die Digital Humanities einfach nur ein Werkzeugkoffer, an dem sich alle so ein bisschen bedienen – oder ist es ein eigenes Fach?

Fotis Jannidis: Für mich ist es ganz eindeutig ein eigenes Fach. Aber es ist kein so großes Fach. Es ist wie die Bioinformatik oder die Wirtschaftsinformatik … es ist der Bereich, wo Leute, die viel von der einen und viel von der anderen Seite verstehen, zusammen tätig werden.

Also ein Wirtschaftsinformatiker erklärte mir mal, dass als er in der Ausbildung war hätte man ihm erklärt, dass Wirtschaftsinformatik gar nicht schwer sei. Man müsse nur 75 % von dem, was ein durchschnittlicher sozusagen Informatiker weiß und 75 % von dem, was ein durchschnittlicher Ökonom weiß, wissen.

Und so ähnlich fasse ich das auch für mich als Literaturwissenschaftler auf. Also, wir versuchen, diese beiden Dinge zusammenzubekommen und ich kann gar nicht so tun als würde ich so bewandert sein in der Breite der, sagen wir jetzt der Neueren Deutschen Literaturwissenschaft, wie ein Kollege, der nichts anderes macht. Das kann ich natürlich nicht.

Gleichzeitig bin ich kein Vollinformatiker oder so, sondern ich muss sehr selektiv auf die beiden Bereiche zugreifen, um diese Wissensbereiche dann verbinden zu können in meiner Forschungsarbeit.

Aber das halte ich tatsächlich für ein eigenes Forschungsfeld, was dabei dann entstehen kann. Während es dieses große Weich-Feld gibt, wo jeder eben hier Werkzeuge benutzt, und da sind wir in einem Übergangsbereich. Also das kleinere, engere Fach ist noch nicht deutlich abgegrenzt von dem großen.

Aber im Augenblick ist es so, dass, wenn wir auf eine DH-Konferenz gehen, sind das so viele inzwischen – und so viele wenden aber eigentlich nur an. Und … wo man dann erfährt, dass der jetzt Topic Modeling mit diesen Daten gemacht hat. Aber jeder, der sich nicht gerade für diese Daten interessiert – das werden immer die wenigsten sein – der wird nichts Neues übers Topic Modeling lernen.

Und das bedeutet, da wird sich eine Ausdifferenzierung ergeben. Das nämlich die Leute, die über die Daten sprechen wollen, werden dann wieder zusammengehen. Und die oder der wird dann das in den Fachkonferenzen vortragen und das was er Neues oder sie an methodischem Wissen bei der Arbeit gelernt hat, das wird dann in den DH-Kontext eingespeist werden. Das ist jetzt meine Annahme, dass sich das so ausdifferenzieren wird.

Carolin Hahn: Wobei es ja dann auch spannend wird, wenn es dann um KI geht. Wenn bei jeder Anwendung die KI dazulernt, ist quasi auch jeder Anwendungsfall eine Weiterentwicklung des Programms.

Fotis Jannidis: Ja. Nein. Ja. Also …

Carolin Hahn / Jens-Martin Loebel: *lachen*

Fotis Jannidis: … also die… ist eine interessanteste Formulierung also. Ich glaube, dass wir ja dann über “Typen von Daten” sprechen würden. Also das wir z. B. sagen: “Dramen”. Und dann kommen plötzlich Sozialwissenschaftler und sagen: Ja, Dramen sind gebaut wie Gesprächsprotokolle und es gibt einen bestimmten Typus von Text, der hat etwas mit viel wörtlicher Rede zu tun und da können wir sozusagen Struktur-Äquivalenzen drin erkennen. Und da können wir Werkzeuge für entwickeln und weiter für entwickeln, die uns genauere Blicke darauf ermöglichen.

Natürlich gibt es zwischen fiktionalem und nicht-fiktionalem Text noch mal Unterschiede, die vielleicht methodisch dann auch wieder wichtig werden. So glaube ich … also für viele Anwendungen wird das konkrete Datum nicht so zentral sein. Natürlich gibt es welche, für die das dann wiederum der Fall ist.

Jens-Martin Loebel: Ich würde gerne noch mal einen Schritt zurück, weil ich das super interessant finde gerade. An dieser Ausdifferenzierung, wie sie das so schön beschrieben haben, das ist nämlich eine wunderschöne Idee.

Also weg von diesem reinen: “Ja, ich mache jetzt eine Anwendung. Ich habe ein Forschungsprojekt, da habe ich eine Frage und dann arbeite ich auf Daten und mich interessiert der Korpus und den anderen interessiert der Korpus.

Aber dass sich durch diese Ausdifferenzierung gerade auch neue Kompetenzen herauskristallisieren, wie sie es angesprochen haben, diese diese Intuition, die ich plötzlich entwickeln muss als Geisteswissenschaftler / als Geisteswissenschaftlerin, die Intuition, mit diesen Verfahren umzugehen. An diesen Parametern zu drehen. Das ist eine neue Anforderung, die ist plötzlich gibt, die sich nicht erklären lässt aus: “Ich nehme mir das aus der Informatik, ich nehme das aus der Geisteswissenschaft.” Sondern … da entsteht was Neues, gerade weil ich mir die Sachen genommen hab.

Ist das eine Kompetenz, die man in so einem Fach “Digital Humanities” lehren müsste? Oder wie kann man da als Studierender überhaupt herangehen, so eine Intuition zu entwickeln?

Fotis Jannidis: Na ja, ich glaube, dass ja Studierende insgesamt den Weg gehen, dass sie … für die ist ja alles erst einmal kontingent irgendwie. Sie begegnen Wissenschaft – in welcher Form auch immer – begegnet die denen als ein Set von Proposition, also Aussagen und Praktiken. Und leider ist es so, dass ganz viele Praktiken praktisch gar nicht explizit transportiert werden, sondern die lernt man sozusagen durchs Zuschauen. Der Professor oder die Professorin sagt, wir lesen das und das und es geht uns um darum und darum. Aber dann lernt man plötzlich durchs Zuschauen: Das kann ich jetzt hier sagen und das kann ich hier nicht sagen. Das wird gelobt und das wird getadelt.

Und durch diesen Prozess sozialisiert man sich eine bestimmte Umgangsweise und entwickelt darüber dann wiederum eine Intuition. Paar Jahre später, da kommt dann der Anfänger dazu, dass man sagt: Da wird er jetzt das sagen oder hier wird sie das sagen. Also als Reaktion auf diesen auf diesen Redebeitrag. Und ich glaube das sagt uns, dass wir auch in den Digital Humanities natürlich über das Einüben von Praktiken bestimmte Dinge vermitteln.

Aber ich glaube es ist gleichzeitig ziemlich wichtig, dass wir uns klarmachen, dass viele dieser Praktiken sehr wohl explizit formulierbar sein sollten. Also für mich ist es z. B. ziemlich wichtig – für das gesamte Fach Digital Humanities ist es sehr wichtig–, dass wir zwischen – das tun mir leider häufig nicht so klar – das wir zwischen explorativer Datenanalyse und Hypothesen-geleiteter Datenanalyse deutlich unterscheiden.

Und es gibt eben viele Leute, die explorativ arbeiten. Aber auf dieser Ebene dann sagen: “So ist das”. Und ich glaube, also da ist das methodische Wissen, das man da vermitteln muss, eine wichtige Grundlage ist. Das scheint mir – da muss ich auch in meine eigene Nase fassen – das haben wir nicht so ins Zentrum der Ausbildung gestellt, wie es sein müsste eigentlich. Und wie ich es in Zukunft machen möchte.

Carolin Hahn: Haben sie konkrete Pläne da?

Fotis Jannidis: Ja. Also wir wollen bis zum Ende des Jahres das “Digital Humanities”-Buch, diese Einführung, überarbeiten, und werden ein Kapitel genau dafür, so Forschungsaufbau und Design machen, also …

Carolin Hahn: Das heißt, wir müssen jetzt eigentlich gar nicht die Rezension schreiben. Wir müssen einfach noch ein halbes Jahr warten. *lacht*

Fotis Jannidis: *lacht* Wartet noch ein bisschen.

Jens-Martin Loebel: Wir können es schon mal ankündigen. *lacht*

Fotis Jannidis: Das wäre schön, weil dann gibt es gleich für die zweite Auflage eine Rezension.

Carolin Hahn: Es gibt bald eine Rezension.

Jens-Martin Loebel: Es gibt bald … sehr gut. *lacht*

Fotis Jannidis: Wir sind ja sehr dankbar, dass wir extrem positiv jetzt schon 4–5 Mal rezensiert worden sind. Und mit einer ganz langen Liste von Dingen, die wir überarbeiten sollen. Die haben daraus gewonnen, also wo man das Buch noch besser machen kann.

Und es ist auch wirklich ein ungewöhnlicher Fall, dass ganz viele die Rezensionen geschrieben haben so: “Wie kann man dieses Buch, dass sie toll finden, noch besser machen?” So im Sinne wie ein Bestellmenü: “Das hätten wir noch gerne gehabt. Und das …”

Carolin Hahn: *lacht*

Fotis Jannidis: Und das werden wir versuchen zu berücksichtigen und eben auch in zwei Kapiteln oder drei Kapiteln noch dazu schreiben.

Carolin Hahn: Ist vielleicht auch so ein bisschen der Fachkultur geschuldet, ne?

Fotis Jannidis: Ja.

Carolin Hahn: Dass man halt wirklich, im Gegensatz zu anderen Geisteswissenschaften, wo man dann wirklich eher im stillen Kämmerlein sitzt, in den Digital Humanities dann eher nach draußen geht und sich versucht, gegenseitig zu helfen, weil es einfach noch so ein neues Forschungsfeld ist.

Jens-Martin Loebel: Das man das als iterativen Prozess auffasst.

Fotis Jannidis: Und weil die Leute einfach nett sind.

Also ich finde auch, ich war jetzt in mehreren Forschungsecken unterwegs und ich muss sagen: Die Stimmung, die Kooperationsbereitschaft der Leute … die Bereitschaft, zurückzutreten als Einzelperson, um einen Zusammenhang da positiv wirken zu können, das finde ich total beeindruckend immer noch und sehr, sehr schön.

Zusammenarbeit zwischen Informatikern/-innen und Geisteswissenschaftlern/-innen

Jens-Martin Loebel: Das finde ich auch spannend. Ich komme ja von der informatischen Seite. Nun haben sie ja viel auch plädiert eben für diese Offenheit der Geisteswissenschaft, und ich merk das selber auch in der Community, dass das toll ist. Aber was würden sie denn InformatikerInnen oder Informatikern raten, wie man sich auf die Geisteswissenschaft zubewegt?

Fotis Jannidis: Ich glaube, es gibt da praktisch einen natürlichen Reflex bei den Informatikern, auf Gastwissenschaftler herabzublicken. Und das hat damit zu tun, dass sie sagen: “Diese Ausbildung ist viel ungenauer, die ist viel schwammiger.” Und da haben sie in vielerlei Hinsicht auch recht. Und ich glaube, dass das Standardargument der Geisteswissenschaftler: “Unsere Gegenstände sind komplexer”, dass das ziemlich absurd ist, wenn man begreift, wie komplex die Gegenstände der Informatiker sind.

Vor allem aber das es eben nicht reicht zu sagen: Das ist komplex in der Informatik, sondern man muss die irgendwie bewältigen können. Also da sind auf beiden Seiten glaube ich so bestimmte Denkblockaden und Urteile, die sehr schnell fallen. Deswegen: Das Sich-Einlassen auf die Fragestellung der Geisteswissenschaftler und die Art und Weise, wie sie mit Gegenständen umgehen, das ist am Anfang sehr fremd, und was viele dann nicht verstehen: Es ist sehr zeitintensiv.

Also Informatiker überspringen praktisch immer den Punkt, dass man das Buch auch lesen muss. Also … das heißt sie sehen nicht, was da an Arbeit, intellektueller Arbeit einfach erst einmal an dem Aufbereiten des Materials … sodass man sagen kann: Ja, ich überblicke so etwas wie Literaturgeschichte, indem ich wenigstens einige Werke gelesen habe und Beziehungen herstellen kann. Wie viel Jahre an Lektüre das braucht, bis jemand das für eine Sprache und für eine Gattung vielleicht auch nur sagen kann. Und dann zu sehen, ok und dann gibt es noch die Literaturtheorie, dann gibt es die Erzähltheorie und so weiter.

Ich befürchte, da gibt es sozusagen ziemlich viele Vorurteile auf Seiten der Informatik. Die Informatiker, mit denen ich jetzt zusammenarbeite, wo ich das Gefühl habe, dass das ganz großartig läuft, das sind genau Leute, die sich dann soweit eingelassen haben.

In der einen Arbeitsgruppe ist es so, die haben alle “Effi Briest” gelesen. Also so einfach, damit sie mal ein Gefühl haben. Und … und der Eine sagte auch ganz deutlich: “Gott, habe ich mich gelangweilt.” Und das ist für mich auch … das finde ich auch ein ehrliches Statement. Das kann man auch gut machen. Aber der jetzt sozusagen die Grundlage für ein Gespräch hat, wo wir sagen können: Hier gibt es die Strukturen und so etwas würden wir gerne sichtbar machen. Und bei der anderen Arbeitsgruppe ist es viel weniger so stark auf das Einlassen, aber auf die Fragestellungen einlassen. Und da ist es, glaube ich, auch wiederum eine Aufgabe der Geisteswissenschaftler, die Informatiker so ernstzunehmen, dass man sie nicht als “Macht das bitte für mich, aber ich muss nicht aus meiner Komfortzone raus”, sondern, dass man es sich klar macht: Wenn man mit diesem Bereich zu tun haben will, dann muss man sich an die intellektuellen Werkzeuge – vieles davon sind ja intellektuelle Werkzeuge … erst einmal: Modellierungen und so – muss man sich einlassen, damit man produktiv miteinander reden kann.

Das scheinen mir von beiden Seiten her wichtige Momente zu sein. Irgendwie ist das auch selbstverständlich. Seid einfach ein bisschen höflich und nett zueinander, aber es lohnt sich heute vielleicht ab und zu, das doch zu sagen.

Jens-Martin Loebel: Es schadet nicht, das doch nochmal zu erwähnen.

Aber … genau. Das Eine ist das kognitive Verständnis. Das Andere ist sie die gelebte Praxis, ja da muss man zusammenkommen. Hier in Berlin gibt es jetzt den Digital Humanities Stammtisch. Den gibt’s … sowas Ähnliches gibt es in vielen anderen Städten auch. Es gibt ja seit längerem sogenannte “Hackathons”, es gibt das Coding da Vinci

Gibt’s eine Veranstaltung oder ein Werk oder irgendwas, wo sie sagen: Das wäre mal ein guter Anhaltspunkt, wo man auch mal Praxiserfahrung sammeln kann zusammen?

Fotis Jannidis: Ich bin jetzt in der für diese Diskussion vielleicht etwas eigenwilligen Position: Ich manage einen solchen Studiengang. Also das heißt, ich bin jetzt nicht derjenige, der sagt: Hier gibt es Leute, die machen alle was anderes und ich versuche die zusammenzubringen, sondern ich habe einen Studiengang mit Leuten, auf die ich ziemlich stolz bin irgendwie. Also die machen tolle Sachen und besonders dann im M.A. hat man das Gefühl … Also da gehe ich mit großer Begeisterung in die Seminare, weil ich denke, ja … wir reden dann über neue Themen und interessante aufregende Geschichten. Und die sind auch soweit, dass sie das wissen wollen.

Und auch, was glaube ich ein ganz wichtiger Punkt ist: Die sind auch bereit, dicke Bretter zu bohren. Also ich hatte so ein tolles Erlebnis im vorletzten Semester, dass ich ein Seminar über Information Retrieval hatte und wir haben ein Lehrbuch angefangen durchzuarbeiten, und an einer bestimmten Stelle war es klar, dass jetzt unsere lineare Algebra nicht mehr ausreicht um zu verstehen, welche Begriffe hier verwendet werden.

Also haben wir da angehalten und haben dann erst einmal lineare Algebra gemacht, damit wir die mathematischen Grundlagen haben.

Und dann an der Stelle war es dann so, dass ich dann gesagt haben: So, jetzt haben wir 5–6 Sitzung gehabt, wir hätten noch die drei Sitzungen vor uns. Wir können jetzt zurück zu dem Buch gehen oder wir können weiter lineare Algebra machen.

Und einstimmig wollten die Leute das Schwerere machen. Also weil sie das Gefühl hatten, beides hat sie … Das beides waren reine Informatik-Themen. Aber die lineare Algebra war ganz offensichtlich das womit sie das Gefühl hatten: Diese Grundlage fehlt ihnen und damit haben sie einen viel größeren Hebel, um noch mehr in Zukunft verarbeiten zu können.

Und ich glaube das ist die Einstellung, die man für diese Dinge braucht. Also man darf eben sich nicht erhoffen, dass wir schnelle Erfolge erzielen können. Das Versprechen da drauf, dass wir ganz schnell mit wenigen technischen Tricks irgendwie was machen können, das halte ich für ziemlich verfehlt. Wir werden vielleicht … das ein oder andere wird uns in Schoß kullern, aber im Großen und Ganzen gehe ich davon aus, dass … ich baue meine Forschungsperspektive jetzt auf die nächsten 10 bis 15 Jahre aus und hoffe, dass ich dann große Früchte ernten kann. Aber ich glaube nicht, dass die mir vorher irgendwie zupurzeln.

Und das wäre das, was wir den Digital Humanities Leuten insgesamt sagen müssen: Es gibt Möglichkeiten innerhalb von bestimmten geisteswissenschaftlichen Fragestellungen zu sagen: “Hier verwende ich jetzt ein bestimmtes Werkzeug, um ein bestimmtes Teilproblem zu lösen. Und es ist unsere Aufgabe zu vermitteln, welche Werkzeuge das sein können für bestimmte Teilprobleme.” Aber langfristig die Methodenentwicklung, die wird sicherlich sehr viel Arbeit kosten.

Carolin Hahn: Ja auch wirklich spannend, dass man auch einfach die Informatik nicht als Werkzeugkasten begreift, sondern auch wirklich sich gegenseitig ernst zu nehmen und auch an den jeweils anderen Projekten mitzuentwickeln.

Jens-Martin Loebel: Das ist aber auch ein schöner Appell so an die eigenen Dämonen, dass der steinigere Weg der lohnendere ist – wie so oft im Leben.

Carolin Hahn: Und der spannendere.

Jens-Martin Loebel: Und auch der spannendere. Das man also nicht mit der Einstellung rangeht, jetzt haben wir das Digitale und ich drück jetzt irgendwo … ich muss nur wissen, auf welchen Knopf ich drücke und dann kommt eine 3D-Visualisierung raus und alles ist schön. Sondern ganz im Gegenteil: Ich muss noch viel mehr verstehen, was ich da tue und kann dann erst den Computer nicht als eine Antwortmaschine nehmen, sondern als eine Fragemaschine.

Fotis Jannidis: Das ist ein guter Punkt. Also ich greif nochmal das Thema “Stilometrie” auf. Ich habe das in dem Workshop vermittelt und dann in der zweiten Sitzung war dann so bisschen der gequälte Aufschrei:

“Ja, jetzt hast du uns diese ganzen Einstellungsmöglichkeiten in der Software gezeigt. Was ist denn richtig?” Also… “Wie viel Worte kann man hier nehmen und hier kann man das und das einstellen, da kann man dieses Verfahren einstellen. Was ist denn die richtige Einstellung?”

Und da hab ich gesagt: “Das gibt es nicht.” Es ist abhängig von ganz vielen Faktoren. Man muss testen, wie es mit dem eigenen Material zusammen funktioniert und so. Und das bedeutet, diese Vorstellung, dass da einfach Antworten rauspurzeln, ohne dass ich über bestimmte Dinge nachdenken muss, das funktioniert nicht. Sondern ich muss das methodische Wissen haben, damit ich dann sagen kann: Okay, mit diesen Einstellungen habe ich Vortests gemacht und bekomme diese Ergebnisse. Jetzt mach ich das mit meinem fraglichen Test.

Vom Experiment zur Interpretation

Carolin Hahn: Ja, also es ist quasi auch die Kunst, verschiedene Einzelmethoden zu kombinieren, ne?

Fotis Jannidis: Ja, ganz ganz zentral. Ich glaube, das kann man gar nicht hoch genug schätzen. Ich glaube, dass viel basiert darauf, dass man sagt – wie ein experimenteller Physiker: “Ich hab hier eine These, das könnte so sein – vielleicht gar nicht mal meine eigene.” Und dann: “Wie baue ich meine Experimente so auf, dass ich am Ende eine Antwort habe?” Das finde ich total interessant. Also das ist finde ich auch eine eigene Form von Kreativität hier dran zu bauen.

Das bewundere ich auch bei guten Papern so von so Leuten wie Ted Underwood z. B. oder so. Oder David Bamman, wo man sagt: “Wow, das war wirklich originell. Da muss man mal drauf kommen, dass so aufzubauen.”

Carolin Hahn: Besteht da nicht die Gefahr, dass man das auch so designed, den “Versuchsaufbau” nenn ichs mal, dass man nicht mal, dass man dann auch wirklich auf die Antworten kommt, die man haben wollte? Oder ist eine ausreichende Objektivität gegeben?

Fotis Jannidis: Also deswegen halte ich das für so zentral, dass man praktisch sagt wie können wir Hypothesenüberprüfung machen. Also sozusagen so typische Dinge, dass man dann sagt: “Also die Werte müssen hier z. B. signifikant sein.”

Also … dass man sagt, “Wie ist der p-Wert an dieser Stelle?” Da gibt’s eine große Diskussion gerade innerhalb der Statistik, die wahrscheinlich bekannt ist. Also wie, dass man sich da nicht alleine darauf verlassen darf. Aber es ist gleichzeitig so, dass man sagen muss: “Wir müssen solche Verfahren einsetzen, um eine Qualitätssicherung unserer Antworten zu betreiben.” Aber ja, in jedem einzelnen Schritt, denke ich, muss man so vorgehen.

Carolin Hahn: Etappenziele quasi setzen.

Fotis Jannidis: Genau. Aber gleichzeitig ist es so, dass man sagen kann: “Hier sehe ich jetzt das, und hier sehe ich jetzt das.” Und am Ende: “Ja, sieht so aus, als wäre es so.”

Jens-Martin Loebel: Ich finde es total toll gerade, weil dadurch quasi die Geisteswissenschaft sich methodisch plötzlich an experimentelle Naturwissenschaft annähert. Wobei man ja sonst, das nicht weiter auseinander gehen könnte, quasi das Vorgehen.

Fotis Jannidis: Das ist wirklich interessant. Das Fach Literaturwissenschaft hat immer eine doppelte Aufgabe gehabt: Es hat einerseits die Aufgabe, in die Gesellschaft hinein zu wirken und Menschen ein Bewusstsein für ästhetische Strukturen zu vermitteln. Und auch zu sagen: “Lest diese Texte, weil … da lohnt es sich wirklich. Da werdet ihr viel an ästhetischen … interessanten ästhetischen Strukturen finden.”

Und zweitens ist es immer auch in historisches Fach gewesen. Ein Fach, das gesagt hat: “Das gab es mal und das können wir jetzt so und so beschreiben. Das ist die Geschichte.”

In diesem zweiten Bereich gab es von Anfang an empirische Methoden. Also empirische Methoden in dem Sinne, dass die Leute nicht einfach gesagt haben: “Ich sehe das so.” Sondern: “Ich überprüfe das, ich schlage das nach in Wörterbüchern, Quellen und so weiter.

Deswegen … wenn man jetzt einen Empiriebegriff hat, der eben nicht nur auf das Experiment hinausläuft, sondern eben auf Überprüfungsverfahren. Dann sieht man, dass es diese empirischen Verfahren schon ziemlich lange in den Geisteswissenschaften … Also jetzt auch wieder gerade in der Literaturwissenschaft gibt.

Und da setzen jetzt besonders dann diese Dinge ein. Also eine ästhetische Struktur mit diesen Verfahren sichtbar zu machen. Das würde ich auch weiterhin wahrscheinlich bei denen erst einmal belassen. Aber historische Analysen zu machen – und zwar gerade über mehrere Texte hinweg – in denen wir eben dann sagen können: “Wir haben das jetzt mal untersucht. Wir haben das Merkmal, das interessiert, das haben wir so modelliert. Das haben wir dann so, die Information so abgefragt und können jetzt z. B. in der Zeitleiste oder sonstige Sachen so organisieren.” Und da schließen wir, glaube ich, dann ziemlich direkt an diese empirischen Vorläufer an.

Künstliche Intelligenz und Datenmissbrauch – Brauchen wir eine digitale Wissenschaftsethik?

Jens-Martin Loebel: Also man kann es vielleicht dann so formulieren, sich noch mehr annähern. Was mir in den Sinn gekommen ist, weil Sie Statistik angesprochen haben und diese p-Werte, also p-Value.

Weil es ja da gerade wirklich diese große Diskussion gibt um das p-Value Hacking. Also die Idee: “Was ist statistisch signifikant?” Also wenn man sich alleine diesen p-Wert verlässt, kann man eben seine Daten so drehen oder diesen Wert so drehen, dass man Korrelationen sehen kann die man als signifikant ansehen kann und die es vielleicht gar nicht sind.

Und das betrifft andere Disziplinen noch viel, viel stärker. Also gerade in der Medizin oder Psychologie …

Fotis Jannidis: Psychologie.

Jens-Martin Loebel: … ja, ist es ist es unglaublich groß und auch weit verbreitet.

Fotis Jannidis: Ich glaube es ist ganz wichtig, dass wir uns klarmachen: Was diese Kritik, die jetzt geäußert wird, sagt, ist: Wer ignorant mit diesen Verfahren umgeht, also wer jedes dieser Verfahren wie eine Blackbox behandelt; wer sich nicht klar macht, was passiert; wofür steht eigentlich ein p-Value? Das ist eben nicht die … z. B. die… Oft wird es so verstanden: “Es ist die Wahrscheinlichkeit, dass die Antwort richtig ist oder sonst irgendwas.” Wenn man sich nicht das klar macht, was einer Statistik sozusagen dahinter steht, dann kann man diese Dinge oft falsch verstehen. Und das ist nun mal das wirkliche Problem in Fächern, die auch vieles andere tun müssen.

Das ist überhaupt das Problem bei diesen interdisziplinären Arbeiten: Dass ich Methoden verwende und manchmal sozusagen den richtigen Gesamtkontext nicht mehr präsent halten kann – aus den verschiedensten Gründen. Unter anderem auch, weil die Arbeitslast zu groß ist. Und dann kann es zu solchen Missgriffen führen. Was hier jetzt passiert ist, ist dass in in einer ganzen Reihe von sozialwissenschaftlichen Fächern, sozusagen einfach Publikationsweisen und Umgangsweisen eingetreten sind, die offensichtlich nicht sehr gesund sind für das Publizieren.

Aber was mir gleichzeitig wichtig ist, ist das der p-Value ein extrem wichtiger Wert ist. Also das wir nicht auf den verzichten können oder so. Sondern es geht um diesen Missbrauch, der betrieben worden ist.

Jens-Martin Loebel: Also Verantwortung ist hier wieder das zentrale Stichwort. Das haben wir in einem vergangenen Interview auch schon über Wissenschaftsethik gelernt. Das also die Verantwortung, die kann einem niemand abnehmen.

Im Gegenteil. Es wird immer wichtiger, diese Verantwortung auch anzunehmen, die man hat als als Wissenschaftler / Wissenschaftlerin. Eben da sauber zu arbeiten und auch zu verstehen, was man da tut.

Aber auf der anderen Seite, das fände ich noch ganz interessant: Sie haben jetzt viel Know-How angesammelt was diese Verfahren betrifft. Gibt es etwas wo sie sagen können: “Das sollte man lieber nicht machen bei diesen Verfahren.” Oder: “Da sind prinzipielle Grenzen, das wird das System nie können oder der Computer nie können” Oder: “Da gibt’s einfach Dinge, das sollte man nicht tun.” Falls es sowas gibt.

Fotis Jannidis: Also ich bin jetzt tatsächlich an dem Punkt, wo ich zum ersten Mal glaube, dass es für den Digital Humanities Studiengang notwendig ist, dass wir über Ethik reden. Und zwar nicht wissenschaftsintern – das muss man in jeder Wissenschaft, dass man arbeitet ethisch. Sondern weil wir uns klar machen müssen: Textinterpretation ist vieles. Aber jetzt … wie man ein Gedicht interpretiert ist keine Waffe. Aber Maschinelles Lernen und Deep Learning, das sind Waffen. Da müssen wir versuchen, den Leuten – so vergeblich das auch sein mag oder so – auch ein bisschen an deren Verantwortungsbewusstsein zu appellieren. Ihnen klarzumachen: “Seid vorsichtig, was ihr da macht.” Und wir wissen ja heute schon, dass das Maschinelle Lernen z. B. – und das ist für meine historischen Zwecke durchaus positiv – aber wenn ich jetzt das benutze, z. B. ein großes Textkorpus von Bewerbungsbriefen nehme, und darüber generiere ich Embeddings und die enthalten den Bias von den letzten 10 bis 20 Jahren – wie lange mein Korpus mal gebraucht hat, um zu entstehen – das bedeutet: Wir wissen, dass da Gender Bias drin ist. Wir wissen, dass da Racial Bias drin ist. Also jetzt in dem amerikanischen Sprachraum ist das größer und umfangreicher untersucht worden.

Für uns ist das gut, weil es mich interessiert das ja gerade: unterschiedliche Einstellung zu Geschlechtern, soziale Schichten, Rassen, die man konstruiert hat oder so weiter historisch zu rekonstruieren, damit ich verstehe, was damals die Leute umgetrieben hat. Und z. B. so etwas verstehen kann: Was bedeutet denn dieser Jude, der da im Stechlin auftaucht? Warum wird er mit bestimmten Konzepten zusammengebracht? und so … Aber wenn diese Leute dann rausgehen und dann bei einer Firma anfangen und ihnen ist nicht klar – also meine Studenten jetzt – und ihnen ist nicht klar, was sie da für eine Waffe in der Hand haben und was man da auch mit falsch machen kann. Dann hätte ich das Gefühl, ich hätte einen Fehler in der Ausbildung gemacht.

Ich denke, das ist etwas, was jeder von uns, der in diesem Bereich arbeitet, sich klar machen muss. Aber es gibt total unterschiedliche Ecken. Also jemand, der retro-digitalisiert, ist vielleicht anders betroffen als jemand, der Word Embeddings erzeugt.

Solange wir nicht wissen, ob es eine Singularität gibt. Also solange wir die Singularität in dem Sinne, dass eben ein Punkt kommt, an dem die künstliche Intelligenz sozusagen selbstbewusst wird … so lange, würde ich sagen, wissen wir auch nicht, welche Probleme wir lösen werden. Ich gebe zu, dass ich im Augenblick das Gefühl habe, wenn ich auf die Techniken gucke, die ich kenne, also jetzt was im letzten Jahr z. B. publiziert worden ist, im Bereich so Deep Learning oder so. Dann habe ich den Eindruck, das ist extrem raffiniert, aber wir verstehen eigentlich war noch ziemlich gut, wie diese Dinge zusammenkommen. Und von “Selbstbewusstsein” ist da überhaupt nicht die Rede.

Die Fähigkeit, verschiedene Dinge zu machen, entwickelt sich gerade erst in ganz, ganz kleinen Ansätzen. So etwas komplexes, so ein multimodales System, also “modal” im Sinne von “unterschiedliche Kanäle”, aber gleichzeitig eben auch “modular”, in dem es ganz unterschiedliche Dinge zu verarbeiten kann, da sind wir meilenweit von entfernt, das auch nur ansatzweise bauen zu können.

Deswegen habe ich da keine Angst und deswegen würde ich auch sagen: Die Kurve wird sehr schnell, glaube ich, erstmal weiter arbeiten, weil wir immer mehr Daten haben und die Rechner sich wohl auch noch ganz gut weiterentwickeln, auch die spezialisierten Rechner für diese Art von Techniken. Aber ich denke nicht, dass das jetzt in den nächsten zehn Jahren zu einer Explosion führen wird.

Aber wer bin ich? Also ich meine, das im Augenblick ist ihr Rat so gut wie meiner. Also keiner weiß es wirklich also.

Carolin Hahn: Aber wenn wir uns jetzt wieder noch mal zurück auf die Stilometrie konzentrieren – wenn man sagt, man kann heute schon Autorstil erkennen … würden Sie dann sagen, dass ein Computer… also es muss jetzt kein selbstbewusster Computer sein… aber kann…

Jens-Martin Loebel: … ein Verfahren vielleicht …

Carolin Hahn: … kann ein Verfahren dazu dienen, Sinn rauszufinden oder meinetwegen fünf potenzielle “Sinne” eines Textes herauszufinden? Oder würden Sie sagen, dass ist immer noch was, was der Rezipient mit seiner Kultur, mit seinem Erfahrungsschatz in den Text hineinlegt? Das liegt im Text nicht drin.

Fotis Jannidis: Also das ist eine sehr gute, eine gute und schwierige Frage. Ich gehe mal einen Schritt zurück. Also das Autorschaftsverfahren, mit dem jetzt im Augenblick die meisten von uns arbeiten, ist ein Verfahren, das letztendlich eine Art von Distanz-Metrik ist.

Das sagt also nicht: “Das ist der Stil von Goethe.” Sondern es sagt: “Dieser fragliche Text ist näher bei Goethe als bei Schiller” – oder wem auch immer.

Und wir sind erst in den allerersten Ansätzen erst dabei, die Daten, die dabei entstehen, so auswerten zu können, dass wir auch was über die Schreibweise von Goethe erfahren.

Also das ist etwas, wo wir angefangen haben, jetzt rein zu gucken sozusagen. Aber das ist noch ein ziemlich langer Weg. Es ist keine Stil-Beschreibung, die dabei rauskommt. Sondern es ist nur eine Distanz-Metrik die sagt: “Dieser Text ist näher bei dem.”

Und das ist eigentlich eine ziemlich dumme Antwort. Also die ist funktional gut, weil sie unser Problem löst. Wenn wir zum Beispiel wissen wollen: “Hat Rowling diesen Roman geschrieben oder nicht?” Das macht sie mächtig und in verschiedenen Kontexten – und auch hier spielen dann wieder ethische Fragen eine Rolle – kann das sehr sehr mächtig sein.

Hat dieser Blogger diesen Beitrag geschrieben und darf man sowas überhaupt untersuchen? Und solche Geschichten.

Andererseits ist es eine dumme Antwort, weil sie inhaltlich nichts weiß. Sie weiß nichts über den Stil.

Ich glaube, dass unser Weg noch ziemlich lang ist, sozusagen reiche Verfahren zu bringen. Sondern im Augenblick ist es so: Wir können ein bisschen was über Stil-Eigenschaften sagen. Wir können ein bisschen über die Komplexität des Vokabulars sagen. Wir können bisschen was über die semantischen Nähe von Wörtern in bestimmten Bereichen und so.

Wir haben also ein sich sehr schnell erweiterndes, aber immer noch ziemlich armes Instrumentarium. Und deswegen würde ich sagen: Also wenn jetzt ein Forscher mich fragen würde: “Woran sollte man auf keinen Fall arbeiten?” Dann würde ich sagen: “Das gibts eigentlich nicht.” Aber es gibt bestimmte Fragestellungen, wo ich glaube, dass die Lösung noch in ziemlich weiter Ferne ist. Also z. B. die Interpretation literarischer Texte, Einzeltexte. Da würde ich sagen, literarische Texte unterscheiden sich ja von normalen Texten dadurch, dass sie nicht nur eine fiktionale Welt aufbauen. Also jeder Text baut ja eine Textwelt auf. Selbst eine Betriebsanleitung sagt: “Stellen Sie das Brett so hin.” Und wir stellen uns dann vor: Da gibt es ein Brett und das stellen wir so hin.

Und in der fiktionalen Welt ist es so, dass diese Dinge aber etwas bedeuten. Also die Effi schaukelt gerne. Das ist eine Charaktereigenschaft und die steht wiederum für etwas anderes. Und das bedeutet: Wir haben eine zweifache Interpretation. Da stehen Worte. Wir müssen erstmal verstehen: Das bedeutet, eine Figur steht auf einer Schaukel. Was bedeutet eine Schaukel? Das ist ein Spielzeuggegenstand irgendwie. Also all das muss ein System erst einmal lernen, damit das überhaupt weiß, was “Schaukeln” bedeutet.

Und dann bedeutet es etwas noch als Charaktereigenschaft. Und diesen zweiten Transfer lernen, damit würde ich jetzt nicht unbedingt anfangen, also das zu untersuchen. Weil ich glaube, wir sind gerade noch auf der ersten Ebene, der literalen Ebene, den Dingen beizubringen, was sie eigentlich bedeuten.

Jens-Martin Loebel: Was machen diese digitalen Methoden und die Verfügbarkeit von Daten eigentlich…

Carolin Hahn: …überhaupt mit der Wissenschaft?

Fotis Jannidis: Ich glaube, dass durch das Erzeugen von digitalen Daten in allen Wissenschaftsbereichen und das Bereitstellen jetzt in unserem Bereich der Geisteswissenschaften, des kulturellen Erbes in Form von digitalen Daten, wir sozusagen ganz plötzlich eine Angleichung von Wissenschaften haben, wie sie sie schon lange nicht mehr gesehen haben.

Plötzlich können wir auf methodischer Ebene mit Physikern, mit Marktforschung über ganz verschiedene Fächer in hinweg, weil wir plötzlich sagen können: Wir haben dasselbe Problem: Wir müssen Daten, müssen Dimension reduzieren. Wir müssen visualisieren. Wir müssen bestimmte Analysen machen.

Und das Verständnis sozusagen von Wissenschaft als “Data Science” in einer gewissen Art und Weise. Also, das bedeutet: Ich muss eben zu meiner Fachwissenschaft gleichzeitig Statistikkenntnisse und Informatik-Kenntnisse einfach gewinnen, um diesen großen Reichtum an Instrumenten nutzen zu können.

Darin scheint mir wirklich eine interessante Wissenschaftsentwicklung zu liegen. Und so versuchen wir jetzt eben auch Digital Humanities aufzufassen. Unseren Studiengang, den haben gerade so … nicht eben umstrukturiert, sondern der läuft ganz normal weiter … aber wir bieten den Studierenden an, dass sie innerhalb der fünf Jahre zehn Seminare machen können, die insgesamt einen Data Science Track ergeben. Sodass sie sagen können, ich habe nicht nur Digital Humanities im Allgemeinen, sondern mit einem Schwerpunkt im Bereich Datenanalyse.

Und ich glaube, dass wir nicht alle zu Informatikern werden müssen. Es gibt ganz viele Dinge, die werden der Schwerpunkt der Informatik-Ausbildung sein und das würde ich immer einem Informatik überlassen: Wie baue ich Bibliotheken so, dass sie leicht und gut benutzbar sind? Wie, dass sie performant sind, dass sie robust sind? All das sind Dinge, das müssen Leute machen, die das gelernt haben. Aber die Datenanalyse, die Verwendung von Bibliotheken, das Zusammenbauen von Workflows zur Datenanalyse von ganz verschiedenen Bibliotheken bis hin zur Visualisierung – das ist jetzt kein Hexenwerk. Das kann man in einfachen Dingen, kann man das innerhalb von einer Woche lernen und … das ist dann wie eine Fremdsprache, da kann man immer besser drin werden, natürlich. Und immer reichere Möglichkeiten haben. Aber da sehe ich eine tatsächlich interessante Möglichkeit, auch uns auch mit über die Geisteswissenschaften hinaus – aber natürlich auch innerhalb der Geisteswissenschaft – uns ganz neu als Wissenschaftler miteinander zu verstehen.

Jens-Martin Loebel: Was würden sie denn dann perspektivisch, persönlich gerne anpacken?

Fotis Jannidis: Perspektivisch das, worüber ich gerade gesprochen habe. Ich habe ja ein Forschungsprogramm von einigen Jahren aufskizziert. Mich interessiert es tatsächlich, inwiefern ich … Zwei Dinge, nämlich das erste, das Naheliegendere, dass ich Erzählformen über die letzten 300 Jahre rekonstruieren kann.

Und ein sehr einfaches Beispiel vielleicht: Wir sitzen gerade in einem Projekt dran, Rede-Wiedergaben zu annotieren, sodass die Hoffnung ist, dass wir dann am Ende des Projekts ein Werkzeug haben, mit dem wir aus jedem literarischen Text, und auch nicht-literarischen Texten, alle direkte Rede, dann erzählte Rede, indirekte Rede und eben auch erlebte Rede extrahieren können.

Und mich würde es sehr interessieren: Wann ist es eine erlebte Rede? Wie wie entwickelt die sich über die Zeit? Wird die in verschiedenen Gattungen verwendet und so. Das würde ich für einen extremen Fortschritt unseres historischen Wissens halten über Erzählungen: Wann bestimmte Formen des Narrativen da sich entwickeln.

Carolin Hahn: Und im Juli wurden ja auch die DFG-Drittmittel bewilligt für das Schwerpunktprogramm Computational Literary Studies, also Computerphilologie. Was genau bedeutet es dann für sie und für den Lehrstuhl? Also sind da jetzt damit zusammenhängend konkrete Pläne im Raum?

Fotis Jannidis: Also den Antrag haben wir zu sechst geschrieben, das waren also sechs Forscher: Jonas Kuhn und Nils Reiter aus Stuttgart, Simone Winko, Christof Schöch aus der Trier. Natürlich Evelyn Gius das Hamburg und ich. Und die Kollegen haben netterweise mich zum Sprecher gemacht. Und das bedeutet, das Koordinationsprojekt wird jetzt bei uns sein. Aber das Verfahren sieht so aus, dass jetzt ein Call läuft und Leute aufgefordert sind, dann sich mit Projekten zu bewerben bis November.

Und dann wird eine unabhängige Kommission darüber entscheiden, welche 10 bis 15 Projekte gefördert werden.

Und wir werden dann diese Projekte koordinieren. Und wenn wir Glück haben, sind wir eines der Projekte gleichzeitig. Also wir können auch selber und werden wohl auch alle selber einen Antrag stellen.

Carolin Hahn: Es bleibt also spannend.

Jens-Martin Loebel: Ich glaube schön ist auch zu sehen, dass es halt angekommen ist, als wichtiges Forschungsdesiderat.

Fotis Jannidis: Ich gebe zu, wir sind völlig verblüfft gewesen, dass das jetzt beim ersten Mal durchgekommen ist.

Dass auch gleichzeitig die digitale Kunstgeschichte durchgegangen ist; also es ist ein riesen Schub für die Digital Humanities in Deutschland. Und vielleicht da noch eine Lanze zu brechen fürs BMBF. Das hat jetzt in den letzten 10 bis 12 Jahren sehr, sehr hartnäckig die Geisteswissenschaften in diese Digitalisierungsschiene gebracht.

Jens-Martin Loebel / Carolin Hahn: Schön.

Fotis Jannidis: Das sehr gefördert. Es hat, glaube ich, wirklich ganz viel verändert für ganz viele Menschen in den Geisteswissenschaften. Und den Modernisierungsprozess, der auf dieser Ebene sozusagen anlag, beschleunigt.

Die DFG hat ebenso so, denke ich, es ganz großartig gelöst. Und jetzt ist dieser Punkt erreicht, dass wir eben mit diesen beiden Programmen noch einmal so einen Schub bekommen.

Auf der letzten DH-Konferenz jetzt in Mexico-City sagte ein Kollege aus Kanada, der jetzt ein paar Monate in Deutschland auch war, er hätte den Eindruck, dass die Deutschen die weltstärkste Digital-Humanities-Szene im Augenblick haben. Und das freut mich natürlich sehr.

Carolin Hahn: Das hätte ich jetzt auch nicht gedacht.

Jens-Martin Loebel: Das ist schön.

Tipps und Wünsche an den Nachwuchs

Carolin Hahn: Was würden sie denn dem wissenschaftlichen Nachwuchs mit auf den Weg geben?

Fotis Jannidis: Ja, mir ist wohl vorhin am Anfang unseres Gesprächs klar geworden, dass ich vielleicht jetzt immer für zwei Gruppen gleichzeitig sprechen müsste. Also entsprechend den zwei Hüten, die ich habe.

Das eine ist: Was würde ich am Literaturwissenschaftler sagen? Und das andere ist: “Was würde ich jemanden sagen, der Digital Humanities studiert?

Und ich beginne mal mit dem zweiten, weil das irgendwie vielleicht einfacher ist. Das ist dieses Motto, dass ich aus einem koreanischen Film habe. Da grüßen sich die Leute immer mit … verabschieden sich immer mit einem “Arbeite hart.”

Das finde ich sehr überzeugend. Und da gibt’s ja auch nicht viel mehr zu tun. Es ist praktisch das schönste Forschungsfeld, das man im Augenblick haben kann. Es ist viel zu tun. Man muss viel tun, damit man da arbeiten kann, glaube ich, aber es ist auch extrem in sich befriedigend.

Für Literaturwissenschaftler ist das schwieriger, weil der ja von einer Community beurteilt wird, die sehr heterogen ist. Wo es sozusagen – wir hatten ganz am Anfang darüber gesprochen – es gibt sozusagen sehr widerstreitende Kräfte innerhalb des Faches. Und glaube, dass es gibt einen Widerstand gegen die Digital Humanities auf verschiedenen Ebenen und aus verschiedenen Gründen.

Für die einen ist praktisch alles, was Technik ist, ist praktisch nicht vereinbar mit dem, was sie als die ästhetische Gegenwelt gegen alles Technisch-Moderne betrachte: “Das entspricht nicht meiner Auffassung und nicht meinem Weltgefühl.” Und ich glaube, es ist auch in erster Linie mal ein Gefühl und keine rationale Position. Aber dieses Gefühl trübt ganz viele Dinge ein.

Im Extremen – und es gibt auch dieses Extreme – kann man nichts machen, als woanders hingehen. Das muss man sich auch klar machen. Aber ich glaube, es gibt gar nicht so viele solcher Extrempositionen. Sondern wenn, dann gibt es einfach viele Literaturwissenschaftler, die sagen: “Das ist jetzt nicht meines” – oft auch aus Altersgründen. “Aber, warum nicht, wenn jemand überzeugend und plausibel machen kann, dass er das verwenden kann für seine Forschung.” Das ist sozusagen meine Standard-Erfahrung, dass ich neugierige Kollegen finde, die sagen: Das hören sie sich total gerne mal an, so einen Vortrag. Sie haben das Gefühl, es erweitert den Horizont, sie sehen mehr. Und, was man machen kann, sie haben oft das Gefühl, das ist nichts für sie. Da würde ich dem wissenschaftlichen Nachwuchs sagen: “Für euch ist das was!” Also ihr müsst jetzt nicht Informatiker werden. Aber wenigstens sozusagen sich klarzumachen: Wie funktioniert ein Konkordanz-Programm? Sodass man auf der eigenen Festplatte mit Sammlungen von Texten machen kann und Textstrukturen da drin suchen kann. Das kann man in zwei Tagen lernen. Das ist jetzt auch nicht mit Arbeitsaufwand wirklich dauerhaft zu entschuldigen. Und es ist eine extreme Steigerung der eigenen Produktivität. Und ich denke, alles was darüber hinausgeht, das muss schon wieder mit einer spezifischen Fragestellung verbunden sein.

Also Stilometrie – darüber haben gesprochen, wir haben über Topic Modeling gesprochen, über Programmieren, seine eigenen Pipelines zusammenbauen – ich glaube da muss man dann immer schon das Gefühl haben: “Okay jetzt, ich will was Besonderes.”

Aber eine Datensammlung aufzubauen, das ist heute – für den Bereich, in dem man sich interessiert – das ist machbar und es gibt keinen Grund, das nicht zu machen. Ordentliche Metadaten dafür anzulegen und die dann mit einem Konkordanz-Programm sauber zu analysieren. Und immer wieder darauf zurückzukommen und zu sagen: “Wie kann ich die Dinge, die ich vermute, dass sie da sind, wie kann ich die ummünzen in Fragestellungen, die ich mit so einem Tool beantworten kann?” Das ist einfach eine extreme Erweiterung.

Ich habe jetzt so ein Aha-Erlebnis. Ich habe das Kollegen beigebracht, so ein Konkordanz-Programm. Und wir hatten diesen Novellenschatz.

Und ich hatte meine Hausaufgaben nicht richtig vorbereitet, also habe ich aus dem Kopf so gesagt: “Ja,” – weil ich dachte es natürlich die Antwort liegt ja auf der Hand – “untersucht doch mal in dem Korpus: Was ist denn die beliebteste Beschreibungsdimension für Figuren?” Jeweils nach Geschlechtern, für männliche und für weibliche Figuren. Ich war mir irgendwie ganz sicher. Ist klar, für Frauen wird das die Schönheit sein und für Männer wird das der soziale Status sein.

Und dann trafen wir uns wieder. Und wie beantwortet man so eine Frage? In diesem Konkordanzprogramm gibt man dann eben so etwas ein, wie: Zeige mir so etwas wie sozusagen “Suche das Wort Mädchen oder Frau oder eben Mädchen oder Frau.” Und dann kriegt man die ganzen Fundstellen. Und dann sagt man: “Sortiere das doch nach dem Wort, das links davon steht.” Und dann sieht man ja sofort auf einen Blick: Was steht denn da am häufigsten. Und dann wären das ja jetzt “hübsche” oder “schöne” oder so. Aber die waren deutlich seltener vorhanden als “alt” und “jung”.

Jens-Martin Loebel: Aha.

Carolin Hahn: Das Alter.

Fotis Jannidis: Das Alter. Und das war bei Männern auch so. Also viel wichtiger gewesen als Dimension für Figuren. Und man bekommt plötzlich mit, dass das geschlechtsübergreifend eine wichtige Dimension ist. Wahrscheinlich in der Zeit, in der Alter nochmal sich deutlicher gezeigt hat. So ein einfaches Werkzeug, mit dem man plötzlich solche Aha-Erlebnisse haben kann, ist eigentlich schon ganz hübsch. Und das sollte man sozusagen soweit lernen, dass man seine eigenen Texte damit untersuchen kann.

Jens-Martin Loebel: Gibt es da irgendeine Ressource, Online-Ressource, mit der man loslegen kann?

Fotis Jannidis: Also AntConc ist das Programm. Das kostet nichts. Das kann man runterladen. Es gibt Tutorials, also der hat schöne YouTube-Videos gemacht, der Entwickler von AntConc. Der sehr, sehr treu das Programm auch über Jahre jetzt pflegt. Und, also ich denke, das ist ein guter Einstieg, wo man auch niemanden braucht. Sondern da setzt man sich abends vor seinen Rechner, guckt ein paar Videos und spielt einfach ein bisschen. Und Texte gibt es eben beim DTA und bei TextGrid Rep und so gibt es wirklich genug.

Jens-Martin Loebel: Wir verlinken das natürlich.

Carolin Hahn: Wir verlinken das. Herr Jannidis, vielen Dank für das tolle Interview. Also wir haben ganz viel gelernt und ich denke, unsere Hörer auch. Falls jetzt jemand überfrachtet mit Informationen ist, es gibt auch einen Blog …

Jens-Martin Loebel: Genau, wir bereiten das alles auf.

Carolin Hahn: … mit Links und kleinen Erklärungen.

Jens-Martin Loebel: Ja, ganz ganz herzlichen Dank auch von meiner Seite. Ich habe ganz ganz viele Denkanstöße tatsächlich mitgenommen. Das ist unglaublich toll. War sehr, sehr erhellend. Vielen, vielen Dank.

Fotis Jannidis: Freut mich, sehr gern.

Carolin Hahn: Ja, Tschüss dann.

Jens-Martin Loebel: Ja.

Fotis Jannidis: Ja, Tschüss!

Ausklang, Vorschau und Verabschiedung

Jens-Martin Loebel: Ja, dann habt ihr jetzt ja eine Menge zu tun. *lacht* Aber, Topic Modeling, Distant Reading… das ging mir jetzt alles ein bisschen schnell, oder Caro?

Carolin Hahn: Ja, das geht unseren Hörern wahrscheinlich auch so. Von daher haben wir uns etwas Neues ausgedacht. Auf unserer Website findet ihr mittlerweile ein Glossar. In dem haben wir alle Begriffe, die uns so über den Weg laufen verlinkt und erklärt. Und ihr könnt euch da gerne durchklicken. Übrigens haben wir auch noch mehr dort eingebaut:

Und zwar auch ein Jobportal für wissenschaftliche Mitarbeiter…

Jens-Martin Loebel: Genau.

Carolin Hahn: … und die, die es werden wollen. *lacht*

Jens-Martin Loebel: Genau. Wir arbeiten natürlich fleißig daran die Website für euch auszubauen und zu einem Informationshub zu bauen. Und falls uns mal eine Stellenanzeige durchgerutscht sein sollte schreibt uns gerne eine E-Mail an redaktion@digitale-wissenschaft.de. Dann nehmen wir die gerne auf und veröffentlichen sie auf der Website.

Wenn euch die Sendung gefallen hat und ihr die Rubriken auf unserer Website auch gut findet, dann könnt ihr uns gerne mit einer kleinen Spende unterstützen. Wir sind inzwischen auch auf Steady. Das ist eine deutsche Plattform, d. h. ihr müsst da nicht eure Kreditkarte zücken. Sondern könnt da uns gern mit einem Euro unterstützen.

Aber ja, was wir damit sagen wollen ist: Die Sendung lebt natürlich von euch. Das heißt wir würden gerne von euch hören, welche Themen sollen wir noch behandeln? Welche Rubriken fehlen euch noch auf der Website? Was würdet ihr gern hören? Wen sollen wir mal interviewen? Wir haben immer ein offenes Ohr.

Folgt uns auf Twitter, auf Instagram, Soundcloud…

Carolin Hahn: Wir sind überall.

Jens-Martin Loebel: … und YouTube.

Jens-Martin Loebel / Carolin Hahn: *lachen*

Carolin Hahn: Beim nächsten Mal geht’s nach Bayreuth. Die Stadt ist nämlich nicht nur für Wagner bekannt, sondern auch für den Master Computerspielwissenschaften. Dazu haben wir Jochen Koubek interviewt, der Professor in der Medienwissenschaft ist.

Jens-Martin Loebel: Genau. Er wird uns verraten warum es sehr lohnenswert ist, sich wissenschaftlich mit Computerspielen auseinanderzusetzen. Man kann in Bayreuth sich nämlich vom Bachelor bis zum Doktor ausführlich mit Computerspielen beschäftigen. Aber das hört ihr dann in der nächsten Folge, seid schonmal gespannt.

Wir wünschen euch jetzt erst einmal viel Spaß beim Durcharbeiten der ganzen Notizen *lacht*… Und beim Installieren von AntConc und freuen uns schon auf das nächste Mal.

Carolin Hahn: Also bis bald. Tschüß.

Jens-Martin Loebel: Ciao.

[♫ Intromusik ertönt ♫]

Volker Davids: Das war Digitale Wissenschaft. Weitere Informationen und Links sowie Diskussionsmöglichkeiten zum Podcast findet ihr auf unserer Webseite digitale-wissenschaft.de. Dort gibt es auch unserem Wissensblog in dem wir über Tools, Software und hilfreiche Methoden der digitalen Forschung informieren. Wenn euch die Sendung gefallen hat, könnt ihr uns gerne auf der Crowdfunding-Plattform patreon.com/digiwissen unterstützen. Unser Titellied lautet Epic Song und ist von BoxCat Games. Wir bedanken uns bei allen Zuhörern und freuen uns schon auf das nächste Mal.

[Intromusik endet]

Spannend? Dann unterstütze uns!
Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert