DHd Pre-Konferenz Workshop zum Thema GeoHumanities

20140411-135834.jpgGeoHumanities sind zur Zeit voll im Trend. Spätestens seit dem Spatial Turn in den 1970er Jahren suchen wir ja alle irgendwie nach der wahrhaftigen Beschaffenheit des Raumes. Doch, ob die schönen Techniken der Datenaufbereitung und -visualisierung uns dieser Erkenntnis tatsächlich ein Stück näher bringen, konnte auch dieser Workshp nicht abschließend klären. Dafür wurden allerdings viele Ideen und Ansätze zu gemeinsamem Umdenken präsentiert. Geologen, Informatiker, Linguisten und Archäologen zeigten Methoden und sogar schon erste Ergebnisse der Arbeit mit Georefenzierung. Doch bei aller Begeisterung über die neuen Möglichkeiten blieb doch die eine große Verunsicherung am Ende stehen: Wie soll mit Unschärfen, Ambiguität und mehrdeutigen Datensätzen umgegangen werden? Und wie ich mich so umsehe, steigt in mir selber leise die Frage auf, wo eigentlich meine Kollegen aus der Literaturwissenschaft sind, wenn es um GeoHumanities geht und warum diese Spezialisten für unscharfe Daten sich noch nicht mit den Spezialisten in puncto Raumwissenschaft zusammengetan haben.

20140411-135834.jpgGeoHumanities sind zur Zeit voll im Trend. Spätestens seit dem Spatial Turn in den 1970er Jahren suchen wir ja alle irgendwie nach der wahrhaftigen Beschaffenheit des Raumes. Doch, ob die schönen Techniken der Datenaufbereitung und -visualisierung uns dieser Erkenntnis tatsächlich ein Stück näher bringen, konnte auch dieser Workshp nicht abschließend klären. Dafür wurden allerdings viele Ideen und Ansätze zu gemeinsamem Umdenken präsentiert. Geologen, Informatiker, Linguisten und Archäologen zeigten Methoden und sogar schon erste Ergebnisse der Arbeit mit Georefenzierung. Doch bei aller Begeisterung über die neuen Möglichkeiten blieb doch die eine große Verunsicherung am Ende stehen: Wie soll mit Unschärfen, Ambiguität und mehrdeutigen Datensätzen umgegangen werden? Und wie ich mich so umsehe, steigt in mir selber leise die Frage auf, wo eigentlich meine Kollegen aus der Literaturwissenschaft sind, wenn es um GeoHumanities geht und warum diese Spezialisten für unscharfe Daten sich noch nicht mit den Spezialisten in puncto Raumwissenschaft zusammengetan haben.

Du bist nicht allein

Die erste vom Verein für Digitale Geisteswissenschaften im deutschsprachigen Raum (DHd) ausgerichtete Konferenz zeigt deutlich, dass Geisteswissenschaftler und Informatiker sich zu einer Community entwickeln, die intensiv am Ausbau ihrer Forschungsinfrastruktur arbeitet und aktiv die interdisziplinäre Zusammenarbeit sucht. So stand auch die Einführung in den Pre-Konferenz-Workshop „GeoHumanities: Karten, Daten, Texte in den digitalen Geisteswissen“ durch Dr. Öywind Eide ganz im Zeichen der Vernetzung. Im Zentrum stand natürlich passend zum Workshopthema die ADHO Special Interest Group für GeoHumanities. Doch auch in die Zusammenhänge zwischen DHd, EADH (European Association for Dgital Humanities) und ADHO (Alliance of Digital Humanities Organizations), die in dieser Reihenfolge aufsteigend verknüpft sind, gab er kurz Einblick. Etwa 200 Geowissenschaftler aus diesen Reihen haben sich in der spezialisierten Interessengruppe zusammen getan und warten nun auf weiteren Zulauf.

3 Geohumanities Projekte

Als erstes Projekt stand ReDe auf dem Workshopplan. Recht charmant bezeichnete Prof. Erich Schmidt von der Universität Marburg die Arbeit mit dem Geoinformationssystem (GIS) bereits im Vortragstitel als „Testlabor“ für Sprachwandeltheorie. Tatsächlich zeigt sich, dass der Import teilweise bereits sehr alter Datenerhebungen in die neue Forschungsumgebung bereits als erprobt geltende Theorien in Frage stellt. Neue Erhebungen können jetzt  direkt mit den alten Datenwerten verglichen, alte und neue Sprachregegionen sogar aufeinander abgebildet werden. So zeigt sich plötzlich, dass Sprache sich nicht immer linear entwickelt, sondern Sprünge und Rückführungen zu alten Dialektformen möglich sind.

Dr. Armin Volkmann aus Heidelberg ist als Geologe zunhemend damit konfrontiert, dass Geisteswissenschaftler mehr oder weniger ahnungslos in die Forschungsumgebung hineinstapfen, in der er selbst sich alltäglich mühelos bewegt. So fängt er denn auch ganz basal damit an, die Unterschiede zwischen den lokal operierenden GIS, der reinen Webanwendung eines Geobrowsers und der kombinierten Funktionen eines WebGIS zu erklären. Anschließend zeigt er erste Spielereien mit Daten zu einer Reise Fontanes. Hier blitzt auch erstmals die Problematik des fehlenden Unschärfemanagements auf.  Die Möglichkeit, dass fiktive Orte in Texten neben realen Orten auftauchen, wird zwar theoretisch erwähnt, sie bleiben bei den Untersuchungsansätzen dann aber doch plötzlich unerwähnt und werden nicht mehr berücksichtigt werden.

Ebenfalls in Heidelberg arbeitet Lukas Loos mit seinen Kollegen daran, eine Plattform zur Analyse Archäologischer Daten aufzubauen. MayaArch3d bereitet komplexe Archäologische Daten auf und stellt sie zur collaborativen Forschung zur Verfügung. Hier werden unterschiedliche Schichten oder Level der Fokussierung angeboten, zwischen denen der Nutzer munter hin- und herwechseln kann. Unscharfe Datensätze werden so zwar auch nicht berücksichtigt, aber eine gewisse Vieldeutigkeit bleibt durchaus erkennbar.

A Tool for you?

Im zweiten Teil des Workshops stehen Kurzpräsentationen von Lösungsansätzen auf dem Plan, die alle diejenigen glücklich machen können, die erst noch ein GeoHumanities-Projekt planen – also auch mich. Doch nur zwei der Vortragenden präsentieren tatsächlich Patentlösungen; Thomas Kollatz aus Essen und Stefan Jänicke aus Leipzig. Mit dem DARIAH-Geobrowser und GeoTemCo stellen sie einander sehr ähnliche Tools vor, die eine interaktive Karte mit einer Zeitleiste und einer Tabelle zur Dokumenattion der Daten verbinden. Dank dem DARIAH Datasheet-Editor braucht der Geo-interessierte Geisteswissenschaftler jetzt nur noch Daten, die sowohl einen Ortsnamen als auch einen Zeitstempel aufweisen. Die Kompletierung durch exakte Georeferenzierung und das Mapping in das KML-Format können nun automatisch erfolgen.

Der Vortrag von Prof. Andreas Henrich aus Bamberg ist der erste, der ganz offen mehr Fragen aufwirft als beantwortet. Als Informatiker sieht Henrich sich tagtäglich mit Anfragen von Geisteswissenschaftlern konfrontiert, die möglichst viele Daten möglichst intelligent verknüpft haben und dabei möglichst wenig Ausschuss oder eben auch Unschärfe in Kauf nehmen wollen. Am Beispiel einer mit Geodaten arbeitenden Suchmaschine verdeutlicht er die Unmöglichkeit einer automatischen Abfrage, die mehrdeutige Daten auf eine ähnliche  Weise erfasst wie der Mensch. Technisch sei die Darstellung vieldeutiger Daten zwar möglich, aber nur auf Kosten der Usability umsetzbar. Implizit blitzt eine zentrale Problematik der gesamten digitalen Geisteswissenschaften auf: Geisteswissenschaftler denken noch immer zu selten klassifikatorisch und wollen noch immer zu viel auf einmal.

Am Beispiel der Immi- und Emigrationsströhme in Europa zeigen André Blessing und Prof. Jonas Kuhn aus Stuttgard die unterschiedlichen Visualisierungen, die unterschiedliche Datenquellen in ein umd demselben Tool hervorbringen können. Das Schöne daran ist, dass einer der Datensätze direkt aus Wikipedia als Quelle extrahiert werden. Dies ist im Falle der Migrationsströme nur mittels eines Verfahrens möglich, das grammatische Relationen einbezieht. Eine Methode, die vor allem für andere Textwissenschaftler Hoffnung verspricht, da sie bereits einen großen Schritt in Richtung semantischer Datenverarbeitung gemacht hat.

Wo die Geografie zur zweiten Natur geworden ist

Im letzten Teil dieses vielseitigen Workshops wurden noch einmal in Form von Kurzvorträgen Projekte vorgestellt, die auf unterschiedliche Art und Weise bereits erfolgreich mit Geodatenreferenzierung arbeiten. Aus Dokumenten mit historischen Daten werden in Heidelberg mittels einer Toolbox aus Geotools und Gazetteers Variablen so aufbereitet, dass ihre Visualisierung auf Kartenmaterial geradezu als ein natürlicher schritt erscheint. Evelyn Wandl-Vogt von der Österreichischen Akademie der Wissenschaften zeigt ebenfalls, dass eine Verknüpfung mit Geodaten ganz natürlich daherkommen kann, wenn man die eigene Disziplin, in diesem Falle Lexikografie, zumindest Teilweise als Geodisziplin begreift. Schließlich zeigt Rainer Simon vom Austrian Institute of Technology  das Großprojekt Pelagios, innerhalb dessen mehere Projektpartner an einer kartografischen Verortung antiker Städtenamen arbeiten. Auch hier gibt es viele Unschärfen. Unterschiedliche Schreibweisen, unterschiedliche Sprachen der Ursprungsquellen, uneindeutige räumliche Zuordnung einer Stadt und Ähnliches machen es schwer, einer Maschine allein die Rohdaten anzuvertrauen. Besonders schön ist in diesem Projekt der Versuch, diesem Problem mit der Nachbearbeitung der maschinell bearbeiteten Daten durch Crowd- oder eher Community-Sourcing zu begegnen. So werden Studenten gleichzeitig in die aktuelle Forschung ihres Instituts einbezogen und an den geohumanistischen Ansatz herangeführt.

Warum eigentlich nicht mehr Unschärfe in den GeoHumanities zulassen?

Viel Zeit für Diskussionen blieb nach diesem Marathon der Projektvorstellungen nicht mehr. Doch natürlich wurde am Ende noch einmal das allgegenwärtige Problem der uneindeutigen Daten angesprochen. Es wurde klar, dass Geisteswissenschaftler sich erst daran gewöhnen müssen, mit Daten zu arbeiten, die natürlicher Weise Fehlerquoten enthalten. Verwundert haben mich im Grunde genommen nur zwei Dinge.

Zunächst einmal wurde elegant die Big-Data-Argumentation vermieden, die darauf setzt, dass prozentual verteilte Fehler immer weniger ins Gewicht fallen je mehr Daten insgesamt vorhanden sind. Auch die Idee, dass absichtlich mehr Unschärfe verursacht wird, sodass Auffälligkeiten, die trotzdem noch hervortreten, als besonders hartnäckig interpretiert werden können – ebenfalls ein Big Data Argument – blieb unangesprochen.

Doch gerade aus der eigenen Position als Literaturwissenschaftlerin heraus frage ich mich im Nachhinein vor allem, wieso der Drang, die Unschärfe zu vermeiden so stark spürbar ist, wohingegen der umgekehrte Versuch, mehr Vieldeutigkeit in Geovisualisierungen zuzulassen, ausbleibt. Um bei einem Beispiel aus dem Workshopkontext zu bleiben, könnte dies auch als Frage formuliert werden. Was weiß ich eigentlich, wenn ich auf einer Karte sehe, dass Fontane möglicher Weise auf einem bestimmten Wege eine Reise gemacht hat? Komme ich der Wahrheit nicht vielleicht sogar näher, wenn ich auf der gleichen Karte sehe, dass es 9 verschiedene Wege in abhängigkeit von Transportmitteln und der zur Verfügung stehenden Zeit gegeben hat? Und habe ich die Wirklichkeit nicht vielleicht etwas genauer erfasst, wenn ich der Karte eine zweite Realitätsebene hinzufüge, die aufzeigt, dass Fontane während er in der Kutsche von A nach B saß über eine fiktive Stadt A‘ nachgedacht hat? Ja, ich gebe es zu, als Literaturwissenschaftlerin habe ich eine verstärkte Schwäche dafür, Mehrdeutigkeiten nicht nur zuzulassen, sondern als diejenigen Daten anzusehen, die besonders reizvoll erscheinen. Und so sehne ich mich schon beinahe ganz natürlicher Weise nach den durch Foucault in die Literaturtheorie so wohl eingeführte Borges’schen Klassifikationssystemen, in denen Fabelwesen sehr wohl neben Haushunden stehen können.

Du bist nicht allein

Die erste vom Verein für Digitale Geisteswissenschaften im deutschsprachigen Raum (DHd) ausgerichtete Konferenz zeigt deutlich, dass Geisteswissenschaftler und Informatiker sich zu einer Community entwickeln, die intensiv am Ausbau ihrer Forschungsinfrastruktur arbeitet und aktiv die interdisziplinäre Zusammenarbeit sucht. So stand auch die Einführung in den Pre-Konferenz-Workshop „GeoHumanities: Karten, Daten, Texte in den digitalen Geisteswissen“ durch Dr. Öywind Eide ganz im Zeichen der Vernetzung. Im Zentrum stand natürlich passend zum Workshopthema die ADHO Special Interest Group für GeoHumanities. Doch auch in die Zusammenhänge zwischen DHd, EADH (European Association for Dgital Humanities) und ADHO (Alliance of Digital Humanities Organizations), die in dieser Reihenfolge aufsteigend verknüpft sind, gab er kurz Einblick. Etwa 200 Geowissenschaftler aus diesen Reihen haben sich in der spezialisierten Interessengruppe zusammen getan und warten nun auf weiteren Zulauf.

3 Geohumanities Projekte

Als erstes Projekt stand ReDe auf dem Workshopplan. Recht charmant bezeichnete Prof. Erich Schmidt von der Universität Marburg die Arbeit mit dem Geoinformationssystem (GIS) bereits im Vortragstitel als „Testlabor“ für Sprachwandeltheorie. Tatsächlich zeigt sich, dass der Import teilweise bereits sehr alter Datenerhebungen in die neue Forschungsumgebung bereits als erprobt geltende Theorien in Frage stellt. Neue Erhebungen können jetzt  direkt mit den alten Datenwerten verglichen, alte und neue Sprachregegionen sogar aufeinander abgebildet werden. So zeigt sich plötzlich, dass Sprache sich nicht immer linear entwickelt, sondern Sprünge und Rückführungen zu alten Dialektformen möglich sind.

Dr. Armin Volkmann aus Heidelberg ist als Geologe zunhemend damit konfrontiert, dass Geisteswissenschaftler mehr oder weniger ahnungslos in die Forschungsumgebung hineinstapfen, in der er selbst sich alltäglich mühelos bewegt. So fängt er denn auch ganz basal damit an, die Unterschiede zwischen den lokal operierenden GIS, der reinen Webanwendung eines Geobrowsers und der kombinierten Funktionen eines WebGIS zu erklären. Anschließend zeigt er erste Spielereien mit Daten zu einer Reise Fontanes. Hier blitzt auch erstmals die Problematik des fehlenden Unschärfemanagements auf.  Die Möglichkeit, dass fiktive Orte in Texten neben realen Orten auftauchen, wird zwar theoretisch erwähnt, sie bleiben bei den Untersuchungsansätzen dann aber doch plötzlich unerwähnt und werden nicht mehr berücksichtigt werden.

Ebenfalls in Heidelberg arbeitet Lukas Loos mit seinen Kollegen daran, eine Plattform zur Analyse Archäologischer Daten aufzubauen. MayaArch3d bereitet komplexe Archäologische Daten auf und stellt sie zur collaborativen Forschung zur Verfügung. Hier werden unterschiedliche Schichten oder Level der Fokussierung angeboten, zwischen denen der Nutzer munter hin- und herwechseln kann. Unscharfe Datensätze werden so zwar auch nicht berücksichtigt, aber eine gewisse Vieldeutigkeit bleibt durchaus erkennbar.

A Tool for you?

Im zweiten Teil des Workshops stehen Kurzpräsentationen von Lösungsansätzen auf dem Plan, die alle diejenigen glücklich machen können, die erst noch ein GeoHumanities-Projekt planen – also auch mich. Doch nur zwei der Vortragenden präsentieren tatsächlich Patentlösungen; Thomas Kollatz aus Essen und Stefan Jänicke aus Leipzig. Mit dem DARIAH-Geobrowser und GeoTemCo stellen sie einander sehr ähnliche Tools vor, die eine interaktive Karte mit einer Zeitleiste und einer Tabelle zur Dokumenattion der Daten verbinden. Dank dem DARIAH Datasheet-Editor braucht der Geo-interessierte Geisteswissenschaftler jetzt nur noch Daten, die sowohl einen Ortsnamen als auch einen Zeitstempel aufweisen. Die Kompletierung durch exakte Georeferenzierung und das Mapping in das KML-Format können nun automatisch erfolgen.

Der Vortrag von Prof. Andreas Henrich aus Bamberg ist der erste, der ganz offen mehr Fragen aufwirft als beantwortet. Als Informatiker sieht Henrich sich tagtäglich mit Anfragen von Geisteswissenschaftlern konfrontiert, die möglichst viele Daten möglichst intelligent verknüpft haben und dabei möglichst wenig Ausschuss oder eben auch Unschärfe in Kauf nehmen wollen. Am Beispiel einer mit Geodaten arbeitenden Suchmaschine verdeutlicht er die Unmöglichkeit einer automatischen Abfrage, die mehrdeutige Daten auf eine ähnliche  Weise erfasst wie der Mensch. Technisch sei die Darstellung vieldeutiger Daten zwar möglich, aber nur auf Kosten der Usability umsetzbar. Implizit blitzt eine zentrale Problematik der gesamten digitalen Geisteswissenschaften auf: Geisteswissenschaftler denken noch immer zu selten klassifikatorisch und wollen noch immer zu viel auf einmal.

Am Beispiel der Immi- und Emigrationsströhme in Europa zeigen André Blessing und Prof. Jonas Kuhn aus Stuttgard die unterschiedlichen Visualisierungen, die unterschiedliche Datenquellen in ein umd demselben Tool hervorbringen können. Das Schöne daran ist, dass einer der Datensätze direkt aus Wikipedia als Quelle extrahiert werden. Dies ist im Falle der Migrationsströme nur mittels eines Verfahrens möglich, das grammatische Relationen einbezieht. Eine Methode, die vor allem für andere Textwissenschaftler Hoffnung verspricht, da sie bereits einen großen Schritt in Richtung semantischer Datenverarbeitung gemacht hat.

Wo die Geografie zur zweiten Natur geworden ist

Im letzten Teil dieses vielseitigen Workshops wurden noch einmal in Form von Kurzvorträgen Projekte vorgestellt, die auf unterschiedliche Art und Weise bereits erfolgreich mit Geodatenreferenzierung arbeiten. Aus Dokumenten mit historischen Daten werden in Heidelberg mittels einer Toolbox aus Geotools und Gazetteers Variablen so aufbereitet, dass ihre Visualisierung auf Kartenmaterial geradezu als ein natürlicher schritt erscheint. Evelyn Wandl-Vogt von der Österreichischen Akademie der Wissenschaften zeigt ebenfalls, dass eine Verknüpfung mit Geodaten ganz natürlich daherkommen kann, wenn man die eigene Disziplin, in diesem Falle Lexikografie, zumindest Teilweise als Geodisziplin begreift. Schließlich zeigt Rainer Simon vom Austrian Institute of Technology  das Großprojekt Pelagios, innerhalb dessen mehere Projektpartner an einer kartografischen Verortung antiker Städtenamen arbeiten. Auch hier gibt es viele Unschärfen. Unterschiedliche Schreibweisen, unterschiedliche Sprachen der Ursprungsquellen, uneindeutige räumliche Zuordnung einer Stadt und Ähnliches machen es schwer, einer Maschine allein die Rohdaten anzuvertrauen. Besonders schön ist in diesem Projekt der Versuch, diesem Problem mit der Nachbearbeitung der maschinell bearbeiteten Daten durch Crowd- oder eher Community-Sourcing zu begegnen. So werden Studenten gleichzeitig in die aktuelle Forschung ihres Instituts einbezogen und an den geohumanistischen Ansatz herangeführt.

Warum eigentlich nicht mehr Unschärfe in den GeoHumanities zulassen?

Viel Zeit für Diskussionen blieb nach diesem Marathon der Projektvorstellungen nicht mehr. Doch natürlich wurde am Ende noch einmal das allgegenwärtige Problem der uneindeutigen Daten angesprochen. Es wurde klar, dass Geisteswissenschaftler sich erst daran gewöhnen müssen, mit Daten zu arbeiten, die natürlicher Weise Fehlerquoten enthalten. Verwundert haben mich im Grunde genommen nur zwei Dinge.

Zunächst einmal wurde elegant die Big-Data-Argumentation vermieden, die darauf setzt, dass prozentual verteilte Fehler immer weniger ins Gewicht fallen je mehr Daten insgesamt vorhanden sind. Auch die Idee, dass absichtlich mehr Unschärfe verursacht wird, sodass Auffälligkeiten, die trotzdem noch hervortreten, als besonders hartnäckig interpretiert werden können – ebenfalls ein Big Data Argument – blieb unangesprochen.

Doch gerade aus der eigenen Position als Literaturwissenschaftlerin heraus frage ich mich im Nachhinein vor allem, wieso der Drang, die Unschärfe zu vermeiden so stark spürbar ist, wohingegen der umgekehrte Versuch, mehr Vieldeutigkeit in Geovisualisierungen zuzulassen, ausbleibt. Um bei einem Beispiel aus dem Workshopkontext zu bleiben, könnte dies auch als Frage formuliert werden. Was weiß ich eigentlich, wenn ich auf einer Karte sehe, dass Fontane möglicher Weise auf einem bestimmten Wege eine Reise gemacht hat? Komme ich der Wahrheit nicht vielleicht sogar näher, wenn ich auf der gleichen Karte sehe, dass es 9 verschiedene Wege in abhängigkeit von Transportmitteln und der zur Verfügung stehenden Zeit gegeben hat? Und habe ich die Wirklichkeit nicht vielleicht etwas genauer erfasst, wenn ich der Karte eine zweite Realitätsebene hinzufüge, die aufzeigt, dass Fontane während er in der Kutsche von A nach B saß über eine fiktive Stadt A‘ nachgedacht hat? Ja, ich gebe es zu, als Literaturwissenschaftlerin habe ich eine verstärkte Schwäche dafür, Mehrdeutigkeiten nicht nur zuzulassen, sondern als diejenigen Daten anzusehen, die besonders reizvoll erscheinen. Und so sehne ich mich schon beinahe ganz natürlicher Weise nach den durch Foucault in die Literaturtheorie so wohl eingeführte Borges’schen Klassifikationssystemen, in denen Fabelwesen sehr wohl neben Haushunden stehen können.

 

Kommentar verfassen