ARGUMENTUM K EDV-A EEAR DFKI G

Größe: px
Ab Seite anzeigen:

Download "ARGUMENTUM K EDV-A EEAR DFKI G"

Transkript

1 ARGUMENTUM A S A M B R D F U S I R L B R R R P D M H U A S D F K I DFKI GH I W IW P D P L U D S U S P I L T P P D U N U C S E EDV-A R EEAR RA A G M W T M D V R R W T P W D A B A F W D A A A F M R D A S A V B I I ) R H V R P A R B D A D P ARGUMENTUM E P G V A S A- B R ) P E P G I A S P A B R I F M I I A F A A D P W S-P

2 M I R P ARGUMENTUM M V A T E B- D V K T M B V T C-V I- D A S A R I- P- K-A V F A M A M R D V R P ARGUMENTUM - S-P A A A Rechtssprechungscorpus des Bundesverfassungsgerichts (elektronisch) Methodeninnovation Intellektuelle Aufbereitung der Argumentation Input für Analyse Automatische Synthese Parameter der Problemstellung Argumentationsstrukturen Urteils- DB ARGUMENTUM Software-System Präsentationskomponente Argumentationsmuster-DB Synthesekomponente Middleware Analysekomponente A Ü I ) P ARGUMENTUM G R DV D A V A S A- V R B D R I D V P I R IRI U S W R H P ARGUMENTUM C

3 A S T E B D D C E B E D T N E L V V I E V V T B N I POS-T N S U B E V W A A- R A R A E B T L A M S B A S ) U P G A T S V E B R A E A A T

4 E R D F S-P A - C B D P G V R P M D M G G A K B G K G S D K P V A I S E-M - T - P E EDV-A R EEAR E-M T R H C F P L P S I H M G A N U ARGUMENTUM T - I S W H KI- P D T G C A I KI- S S G - KIPDT A S S H A K I S S - M R M M-F A A I L S - S O L F P N ML B M C-S A A R S A I J C-S C L S - W D N A S P R L E A M NJ W A M-P R M M-F M D A T M A L C E F S M W P D T H S P L T LNCS S B S - E B

5 Postdemokratie und Neoliberalismus Zur Nutzung neoliberaler Argumentationen in der bundesdeutschen Politik Durchführende Forschungseinrichtungen Helmut-Schmidt-Universität / Universität der Bundeswehr Hamburg Fakultät für Wirtschafts- und Sozialwissenschaften Lehrstuhl für Politikwissenschaft, insbesondere Politische Theorie Prof. Dr. Gary S. Schaal Universität Leipzig Fakultät für Mathematik und Informatik Lehrstuhl für Automatische Sprachverarbeitung (ASV) Prof. Dr. Gerhard Heyer Disziplinäre Verortung Politikwissenschaft / Politische Theorie Wissenschaftlicher use case In der Politischen Theorie wird seit einigen Jahren unter S P über den Verfall zentraler demokratischer Werte und Prozesse diskutiert. Unser Forschungsprojekt hat es sich zum Ziel gesetzt, die theoretischen Diagnosen und exemplarischen Befunde der Postdemokratiedebatte für die Bundesrepublik erstmals umfassend empirisch zu analysieren. Hierzu wird auf die zentrale These des Diskurses zurückgegriffen, wonach der Prozess der Postdemokratisierung durch die zunehmende Bedeutung der Leitideen des Neoliberalismus in der politischen Sphäre (d.h. eine Ökonomisierung des Politischen) forciert wird. Untersucht wird deshalb die massenmediale Verbreitung ökonomischer Begründungsmuster von Politik im Zeitraum 1949 bis Die im Rahmen des Projekts entwickelten Methoden und Verfahren können allgemein zur Analyse von Bedeutungsverschiebungen und Diskursstrukturen in großen Textmengen für politikwissenschaftliche Fragestellungen genutzt werden. Methoden Im Forschungsdesign des Projekts kommen zur Aufarbeitung des umfangreichen Quellenmaterials Verfahren der automatischen Sprachverarbeitung zum Einsatz. Einerseits werden existierende Tools wie Term Extraction, Kookkurrenz- und Sentiment-Analysen sowie Topic Modelle für die sozialwissenschaftliche Analyse qualitativer Daten fruchtbar gemacht. Darüber hinaus werden für die spezifische Fragestellung neue (halb-)automatische Text Mining-Verfahren entwickelt, mit dem Ziel, Veränderungen politischer Argumentationsmuster und Begründungszusammenhänge in großen, zeitindizierten Korpora zu identifizieren und der politikwissenschaftlichen Analyse zugänglich zu machen.

6 Mockup epol Portal Genutzte Ressourcen Daten ca. 3,5 Millionen Zeitungstexte von FAZ, DIE ZEIT, Süddeutsche Zeitung und taz aus den Jahren ; jeweils bei den Verlagen direkt für das Forschungsprojekt kostenpflichtig lizensiert Verfahren Integration der Zeitungsdaten in gemeinsame Dokument-Datenbank (MongoDB) Metadaten- und Volltextindizierung mit Apache Lucene zum Datenzugriff / zur Selektion von Subkorpora (z.b. nach Zeiträumen, Ressorts) Weitere Annotationen mit UIMA-Prozessketten: o OpenNLP, Weblicht[1] zum Preprocessing (u.a. Satz-Tokenisierung, POS-Tagging) o ASV Toolbox [2], ASV Webservices [3] + eigene Implementierungen für Term Extraction, Berechnung von Kookkurrenzen, Topic Modellen und Sentiments o Integration neuer Verfahren zur Identifikation von übernommenen Argumentationen und Begründungen Webbasierter Dokument-Browser zum o einfachen Durchsuchen des Datenbestandes o Selektion von Subkorpora anhand gegebener und (semi-)automatisch annotierter Metadaten / Collaborative Filtering Mechanismen o Manuellen Hinzufügen weiterer Annotationen Integration verschiedener maschineller Lernverfahren zur (semi-)automatischen Annotation für die Inhaltsanalyse im Sinne des Projekts Kombination von musterbasierten und maschinellen Online-Lernverfahren zur Identifikation politischer / ökonomischer Begründungszusammenhänge Visualisierung Weiterentwicklung des ASV News Monitor [4] Entstehende Ressourcen Daten: Lizenzbedingungen der Verlage lassen derzeit keine Nachnutzung der annotierten Korpora zu (ggf. Nachverhandlung mit den Verlagen).

7 Verfahren / Visualisierung: o Integration entstehender Tools in CLARIN-D o ASV News Monitor zur Exploration / (semi-)automatischen Annotation großer, zeitindizierter Textmengen ASV News Monitor Kooperationen P PM Projekt für korpusunterstützte Politikforschung P A B VS-Verlag für Sozialwissenschaften: Publikationsreihe zum Projekt [5] Ggf. weitere sozialwissenschaftliche Projekte der aktuellen ehumanities-förderlinie des BMBF (derzeit im Abstimmungsprozess) Kontaktinformationen Projektwebseite: Projektkoordinator Politische Theorie: Dr. Matthias Lemke matthias.lemke@hsu-hh.de Telefon: (040) Projektkoordinator ASV: Gregor Wiedemann M.A. gregor.wiedemann@uni-leipzig.de Referenzen [1] [2] [3] [4] Andreas Niekler, Patrick Jähnichen, and Gerhard Heyer: ASV Monitor: Creating Comparability of Machine Learning Methods for Content Analysis. In: Proceedings of the ECML-PKDD 2012, Springer, [5] Schaal, Gary S. / Ritzi, Claudia / Lemke, Matthias (Hg.): Ökonomisierung des Politischen. Eine empirische Analyse verschiedener Politikfelder in Deutschland (Arbeitstitel), Wiesbaden: Springer VS, erscheint 2013.

8 3DJoins und Schriftmetrologie Rekonstruktion dreidimensionaler Schriftträger (Keilschrifttafeln) mit dreidimensionaler Schrift Durchführende Forschungseinrichtungen JuliusMaximiliansUniversität Würzburg Institut für Altertumswissenschaften, Lehrstuhl für Altorientalistik Prof. Dr. Gerfrid G.W. Müller Technische Universität Dortmund Lehrstuhl für Graphische Systeme Dr. Frank Weichert Akademie der Wissenschaften und der Literatur, Mainz Prof. Dr. Dr. h.c. Gernot Wilhelm Disziplinäre Verortung Altorientalistik / Hethitologie / Epigraphik, Informatik / Bild und Datenanalyse Wissenschaftlicher use case Aus Sicht der Altorientalistik besteht die Notwendigkeit zur zeitlichen und qualitativen Effektivierung der dreidimensionalen Rekonstruktion von zerbrochenen antiken Schriftträgern und Fragmenten sowie der Analyse entsprechender Texte, insbesondere wenn die textinternen Kriterien für eine Rekonstruktion insuffizient sind, da die Anzahl zu rekonstruierender Objekte groß ist und manuelle Rekonstruktionen sowie Analysen sehr zeitaufwendig sind [1, 2]. Beispielsweise wurden im Falle der altorientalischen Keilschrift bisher über Texte und Fragmente gefunden. Besonders in großen Bibliotheken wie der des Assurbanipal in Niniwe oder den Palast und Tempelbibliotheken der Hethiterhauptstadt Hattuscha [3] liegen sehr viele große Tafeln in Form von Fragmenten ohne Topologieinformation vor. Daher besteht die Notwendigkeit zur automatisierten Rekonstruktion sowie zur vorausgehenden Analyse der Schrift und Strukturmerkmale der Fragmente im Hinblick einer Vorsortierung. Die speziellen Anforderungen zur dreidimensionalen Rekonstruktion von fragmentierten Tontafeln und zur Analyse von Keilschriften unter den Anforderungen Robustheit, Skalierbarkeit, Automatisierbarkeit und Güte erfordert die Entwicklung grundsätzlich neuer Verfahren und Konzepte aufseiten der Informatik. Durch die generische Projektierung eröffnen die Methoden zur Rekonstruktion und statistischen Schriftanalyse darüber hinaus durch die Identifikation von Schreibern sowie Tätigkeits und Beziehungsclustern neue Forschungsfelder, erlauben die Adaption auf andere Inschriftengattungen und den Transfer auf Bereiche jenseits der Altertumswissenschaften.

9 (a) (b) (c) (d) Abbildung 1: Exemplarische Darstellung verschiedener Visualisierungs und Bearbeitungsoptionen der Prozesskette zur Extraktion salienter Merkmale, Identifikation ausgewählter Keileindrücke und Annotierung von Schriftzeichen: (a) Basisdarstellung, (b) Transkriptionsmodus, (c) Seletionsmodus und (d) Analysemodus mit annotierten Keilmerkmalen und realitätsnaher Schattierung) Methoden Gegenstand und Ziel des interdisziplinären Forschungs und Entwicklungsprojekts ist die Entwicklung nachhaltiger Konzepte und Methoden zur Erhebung von Schriftmerkmalen im weiteren Sinne auf fragmentierten Tontafeln mit Keilschrift, zu deren Sortierung nach quantifizierbaren Merkmalen und schließlich der dreidimensionalen Rekonstruktion der einzelnen Tontafeln über die Konturen der Fragmente mit größter Merkmalsübereinstimmung. Die Erarbeitung tragfähiger Methoden zur nachhaltigen (Schrift) Analyse setzt dabei suffiziente Extraktion salienter Merkmale für Schriftzeichen voraus (s. Abbildung 1). Dies beinhaltet Artefakte infolge verrauschter Daten, von Auflösungsdefiziten und Abtastlücken eventuell als Randeffekt einer Fusion von Datenquellen mittels geeigneter Filtertechniken der Netzglättung, Umvernetzung oder Netzreparatur zu kompensieren. Ergebnisse der direkten Musterverwendung, aus transformationsbasierten Verfahren und Sampling basierten MattingTechniken repräsentieren in Kombination mit statistischen Dekompositionsmethoden die Datenbasis für (un)überwachte Klassifikationsverfahren. Zur Erhöhung der Robustheit kommen (semi)automatische, parametrisierbare Methoden zum Tragen respektive zur Parametrisierung der Methoden (proaktive) Optimierungsverfahren, auch eine Selbstoptimierung des Gesamtklassifikators im Rahmen einer Klassifikatorkaskade. Die Entwicklung neuer Algorithmen zur dreidimensionalen Rekonstruktion fragmentierter Schriftdokumente (Keilschrifttafeln) beinhaltet Textur oder Merkmalsbasierte Registrierungsmethoden mit inhärenten rigiden und nichtrigiden (elastischen) Transformationen, insbesondere unter vereinheitlichter Nutzung von Merkmalen aus der Schriftausprägung und typisierung. Genutzte Ressourcen Daten allgemein: Streifenlicht(Laser)Scanner akquirierte, hochaufgelöste Punktwolken Keilschrifttexte aus der antiken Hethiterhauptstadt Hattuscha (ca ) Tontafeln aus Assur

10 Verfahren Identifikation philologisch relevanter Zeichenmerkmale und Zeichen o Kombination von Ansätzen direkter Musterverwendung (Multiresolutionstechniken) und interaktiven Graph Cut Techniken o Mathematische Modellierung von Zeichenmerkmalen o (semi)automatisierter Lernverfahren, parametrisierte und parameterfreie (Mehr und Einklassen) Klassifikationsverfahren und inter/proaktive Optimierungs methoden Dreidimensionale Rekonstruktion von Schrifttafeln und zeichen o Sensordatenfusion mittels Mutual Information Konzepten o ICPgestützte und statistische (globale) Registrierungsverfahren, Integration fehlertoleranter Procrustes Analysen o Erarbeitung neuartiger Rekonstruktionsalgorithmen unter vereinheitlichter Nutzung von Merkmalen aus der Schriftausprägung und typisierung Systematisierung paläographischer Kriterien o Identifikation zeit und ortsspezifischer Schreibstile o Typisierung und Bewertung von Schriftmerkmalen mittels forensischer Schriftanalyse o Ableitung deskriptiver und induktiver statistischer Schriftmerkmale Erstellung realdatenbasierter und synthetischer Lern und Validierungsdaten mittels Methoden der Wahrscheinlichkeits und Graphentheorie und physikalischen Modellierung Visualisierung Interaktive dreidimensionale GPUgestützte (Nach)Bearbeitung, Visualisierung von Fragmenten und (rekonstruierten) Schriftträgern Exploration statistischer Analysen (Datenvisualisierung) und Realdatenbasierte Annotierung Entstehende Ressourcen Daten 3DRekonstruktionen von Keilschrifttafeln Paläographische Datenbank zur komparativen Auswertung von Schriftmerkmalen OnlineInfrastruktureinbettung im Rahmen von DARIAH Interaktives Webportal zur Daten/Softwarebereitstellung Verfahren / Visualisierung: Graphischinteraktives Explorations, Analyse, Rekonstruktions und Visualisierungssystem Cuneiform Analyser (s. Abbildung 2) Technologien zur Extraktion salienter Schriftmerkmale und zur 3DRekonstruktion fragmentierter Schriftzeugnisse Methoden/Konzepte zur forensischen Schriftanalyse Kooperationen Prof. Dr. Massimiliano Marazzi, Universität Suor Orsola Benincasa, Neapel Dr. Mark Weeden, School of Oriental and African studies (SOAS), Universität London Dr. Willemijn Waal, Universität Leiden Prof. Dr. Stefan Maul, Universität Heidelberg

11 Abbildung 2: Bildschirmdarstellung des Analyse und Rekonstruktionssystems Cuneiform Analyser, welches innerhalb des Forschungsvorhabens entwickelt wird Kontaktinformationen Projektwebseite: Projektleitung Altertumswissenschaften: Projektleitung Informatik: Prof. Dr. Gerfrid G.W. Müller (Verbundkoordinator) Dr. Frank Weichert Telefon: (0931) Telefon: (0231) Referenzen [1] G.G.W. Müller. Tausend Teile: Technische Mittel zur Rekonstruktion der Festrituale. In Internationaler Workshop Die Kultrituale der Hethiter. Akademie der Wissenschaften und der Literatur, Dezember [Druck in Vorb.] [2] G.G.W. Müller. Forensik und Fragmente. In: 8th International Congress of Hittitology. Warsaw [im Druck] [3] Hethitologie Portal Mainz:

12 exchange - Exploring Concept Change and Transfer in Antiquity Durchführende Forschungseinrichtung Universität Leipzig Fakultät für Geschichte Kunst- und Orientwissenschaften Historisches Seminar Lehrstuhl für Alte Geschichte Beethovenstrasse Leipzig Prof. Dr. Charlotte Schubert Disziplinäre Verortung Alte Geschichte/Byzantinistik/Gräzistik/Latinistik Wissenschaftlicher use case Im Rahmen des Projektes soll das Verhältnis zwischen Wissenschaftssprache und alltäglichem Handeln insbesondere in der Politik von der Antike bis in die frühe Neuzeit untersucht werden. Die medizinische Literatur der Antike als Wissenschaftssprache verwendet Begriffe, Metaphern und Argumentationsstrategien, die in zentralen Bereichen aus der antiken Alltagsanschauung und - ethik, der Politik und der Philosophie stammen. Umgekehrt sind Begriffe und Metaphern aus der Medizin in den Sprachgebrauch von Politik, Poesie, Philosophie etc. eingegangen. Z.B.: metabole () politisch: Verfassungswechsel im Sinne der Revolution bzw. eines Umsturzes (Aristot. Ath. Pol. 13), medizinisch: Umschlag von Gesundheit in Krankheit (Hipp. Über die Umwelt 1), aber auch den therapeutisch induzierten Wechsel der Lebensweise (Hipp., Über die Umwelt 2) Es soll ein Recherchesystem aufgebaut werden, das Bedeutungsverschiebungen semantischer Räume nach Ort und Zeit visualisiert und durch das Begriffe, die sowohl in medizinischen Fachtexten als auch in politischen und alltäglichen Texten verwendet werden auf ihren Kontext in argumentativen Strategien hin analysiert werden können. Dies kann beispielgebend als neuer, methodischer Zugang für andere geistes- und sozialwissenschaftliche Disziplinen dienen, um diskursive Prozesse in ihrer Verzeitlichung zu repräsentieren. Methoden Dynamische Meta-Daten Da die statistischen Berechnungen und Visualisierungen immer auch auf den dahinterliegenden Metadaten (z.b. Lebenszeit; Orte; Spezifika) basieren, die fachwissenschaftliche Unsicherheiten enthalten (können), ist nicht auszuschließen, dass die Suchergebnisse einen z.t. falschen, aber visuell sehr überzeugenden Eindruck vermitteln. Im Rahmen von exchange soll daher die Metadatenauswahl dynamisch gestaltet werden, so dass jeder Forscher seine eigenen Hypothesen (z.b. mit Blick auf die Datierung eines bestimmten Textes oder die Autorschaft) testen kann. 1

13 Th. Efer Konzepte Neben einzelnen Wörtern und Phrasen, soll das Recherchefrontend Texte auch nach vordefinierten Konzepten durchsuchen können. Für die Benutzer wird ein Konzepteditierungswerkzeug zur Verfügung gestellt, mit dem Konzepte in Form von Diagrammen entworfen werden können. Dabei können verschiedene Knoten- und Kantentypen verwendet werden, die verschiedene Beziehungstypen zwischen Konzepten modellieren. Der Nutzer kann interaktiv Knoten erstellen und verschieben sowie die Knoten mit entsprechenden Kanten verbinden. Das Suchergebnis wird die Dokumente zeigen, die bestimmte Konzepte beinhalten bzw. nicht enthalten. Damit wäre es zum Beispiel möglich, alle Texte zu finden, die sowohl das Konzept Geburt als auch das Konzept Operationsutensil beinhalten. St. Jänicke Workflows Übertragung von geisteswissenschaftlichen Arbeitsabläufen bei Recherche und Hypothesenbildung auf digitale Workflows auf der Grundlage einer detaillierten Beschreibung von Fallstudien. => Entwicklung eines Recherchesystems, dass es Forschern erlaubt ihre (Hypo)thesen in einer strukturierten Forschungsumgebung zu testen und anzupassen. 2

14 Genutzte Ressourcen (existierende Daten/Verfahren) Daten: Perseus Digital Library (frei verfügbar): griechische und lateinische Literatur der Antike und nachklassische Literatur [1] Bibliotheca Teubneriana Latina (BTL): Werke lateinischer Autoren vom 3. Jh. v.chr. bis zur Spätantike beim Verlag direkt für das Forschungsprojekt kostenpflichtig lizensiert W. Pape: Griechisch-Deutsch. Altgriechisches Wörterbuch (frei verfügbar) [2] K.E. Georges: Lateinsch-Deutsch. Ausführliches Wörterbuch (über Zeno.org frei verfügbar) Verfahren Bereitstellen eines Metadateneditors: Werkzeug zur Eingabe von Metadaten sowie deren Verknüpfung; ggf. auch für Textannotationen Entwicklung realtimefähiger korpusstatistischer Verfahren Vorberechnung von statistischen Kenndaten der Korpora; Algorithmen für massive Parallelberechnungen auf Rechnercluster-Architekturen; effiziente Filtermethoden Visualisierung Adaption und fachspezifische Weiterentwicklung einer Sedimentdarstellung Volltextansicht: Darstellung von Textdokumenten für Visual-Analytics-Umgebung unter Berücksichtigung einer möglichst zitationstreuen Adressierung von Belegstellen; Hervorhebung und Selektion von Wörtern und Textabschnitten; Visualisierung einer korpusweiten Anordnung von Dokumenten Entwicklung des Recherchefrontends: Integration und Verknüpfen der Visualisierungsarten (Sedimente, Volltext, Karten, Histogramme, Graphen) je nach Erfordernissen Entstehende Ressourcen Die Software-Umgebung soll auf der Webseite der Universitätsbibliothek der Universität Leipzig, im Rahmen des Portals Perseus und des Portals eaqua zur freien Verfügung gestellt werden. Integration entstehender Tools in CLARIN-D Kooperationen Projekt eaqua: Portal und Methoden Dissemination (BMBF) [3] Perseus-Projekt (Prof. Gregory Crane) [1] Projekt epol: Postdemokratie und Neoliberalismus. Zur Nutzung neoliberaler Argumentationen in der bundesdeutschen Politik (BMBF) CLARIN-D; F-AG Alterumswissenschaften Verlag De Gruyter Kontaktinformationen Projektmanagement: Dr. Roxana Kath Telefon: (0341)

15 Referenzen [1] ww.perseus.tufts.edu [2] [3] 4

16 heurecléa. Digitale Heuristik zur Unterstützung geisteswissenschaftlicher MarkUps in multimodalen Dokumenten Durchführende Forschungseinrichtung(en) Universität Hamburg Fakultät für Geisteswissenschaften Interdisciplinary Center for Narratology (ICN)/Institut für Germanistik II Prof. Dr. Jan Christoph Meister Ruprecht Karls-Universität Heidelberg Fakultät für Mathematik und Informatik Institut für Informatik Lehrstuhl für Datenbanksysteme Prof. Dr. Michael Gertz Disziplinäre Verortung Literaturwissenschaft/Narratologie Wissenschaftlicher use case Im Zentrum geisteswissenschaftlicher Forschung steht die historische Analyse von sinnkonstituierenden Prozessen und deren Niederschlag in ästhetischen und sozialen Konstrukten. In paradigmatischer Form begegnen sich beide Phänomene in der narrativen Repräsentation von Ereignissen. Gegenstand des Vorhabens heurecléa ist vor diesem Hintergrund die Entwicklung einer digitalen Heuristik in Form von Modellen, Methoden und Techniken, mit denen das MarkUp komplexer semantischer Objektphänomene effektiv unterstützt werden kann. Exemplarische geisteswissenschaftliche Problemstellung ist dabei die Erschließung und das MarkUp von narrativen Referenzen im Feld der Grundkategorie Zeit. Dazu werden drei Funktionsaspekte abgedeckt: (1) Automatisierung niedrigkomplexer MarkUp-Aufgaben (2) Exploration und Analyse komplexerer, manuell und automatisch generierter MarkUps (3) computer-unterstützte Modellierung und Generierung von MarkUp-Varianten. Als Funktionskomplex stellt die so entwickelte digitale Heuristik automatische Prozeduren für die Textanalyse zur Verfügung. Bei komplexeren Problemlagen greift sie auf akkumulierte MarkUp-Daten zurück, um darüber hinaus plausible Deutungsangebote zur Auswahl und insbesondere zur Validierung anzubieten. Als konkrete Realisierung in einem System soll diese Funktionalität in eine webbasierte Plattform integriert werden, die Nutzern das non-deterministische, kollaborative MarkUp von Texten ermöglicht. Methode Erstellung einer Taxonomie von Zeit-Phänomenen in Erzähltexten unter Rückgriff auf narratologische Kategorien [1]

17 Tagging der Zeit-Repräsentationen und -Relationen in einem Korpus aus Erzählungen mithilfe von: o automatisierter Extraktion und Normalisierung der Zeitausdrücke durch HeidelTime [2] o kollaborativem, manuellem Tagging gemäß der narratologischen Taxonomie in CATMA [3]. Verwendung von Machine Learning-Verfahren zur Ermittlung von Regularitäten und Automatisierung einer Teilmenge der in CATMA manuell vorgenommenen MarkUp- Operationen, insbesondere die Verwendung von supervised Learning Methoden basierend auf manuell erstellten und verifizierten Zeit-MarkUps. Ableitung von Regeln und Umsetzung in HeidelTime gemäß Verfahren der Dependenzanalyse auf Textebene und der Korrelation von Zeitausdrücken in verschiedenen Satz- und Zeitkontexten. Implementierung des Programmmoduls heurecléa: den Nutzern wird in einer kollaborativen Arbeitsumgebung [4] eine digitale Heuristik zur partiell automatisierten, partiell interaktiven Generierung von Zeit-MarkUp bereitgestellt. Die Hauptkomponente des Moduls wird HeidelTime sein, das, basierend auf einer kontinuierlich erweiterten Regelbasis, zur automatischen Spezifikation von Zeit-MarkUps in Texten verwendet wird. Test und Evaluation des von heurecléa automatisch vorgenommenen Zeit-MarkUps durch (1) geisteswissenschaftliche Nutzer und (2) informationswissenschaftliche Evaluation der erzielten Funktionalität. Figure 1: Systemarchitektur und Verarbeitungsprozesse in HeidelTime

18 Genutzte Ressourcen Daten: nicht-literarische Korpora mit normalisierten Zeitausdrücken: WikiWarsDE, Time4SMS, Time4SCI (verfügbar auf Korpus von literarischen deutsch- und englischsprachigen Texten und multi-modalen Comic-Erzählungen (wird zurzeit im Projekt erstellt) Verfahren: Extraktion und Normalisierung von Zeitausdrücken mit HeidelTime [5] (Status von HeidelTime: in Entwicklung seit 2010) manuelle Annotation der Zeitphänomene im Korpus in CATMA (Status von CATMA: web-basierte Version in Entwicklung seit 2011, funktionale Erweiterung der Plattform CATMA um ein multimodales MarkUp-Modul noch ausstehend) Überprüfung von Visualisierungsmöglichkeiten durch Voyant-Tools (Status der Visualisierungsoption von Voyant-Tools [6]: z.t. implementiert seit mehreren Jahren, z.t. in Entwicklungsversion bzw. noch in Entwicklung) Linguistische Verfahren der Dependenzanalyse von Texten im Kontext von Zeit- MarkUps sowie Korrelationsverfahren von Zeitausdrücken und -MarkUps Entstehende Ressourcen Daten: in Bezug auf Zeitphänomene annotiertes Korpus von literarischen deutsch- und englischsprachigen Texten und multi-modalen Comic-Erzählungen Verfahren: Implementierung einer webbasierten Plattform für non-deterministisches, kollaboratives MarkUp Implementierung einer kollaborativen Arbeitsumgebung als digitale Heuristik zur partiell automatisierten, partiell interaktiven Generierung von Zeit-MarkUp Implementierung verschiedener Ansätze zur Visualisierung und Exploration von erkannten Zeitstrukturen in Dokumenten bzw. Mengen von MarkUps Kooperationen "Digital Commons Initiative", Prof. Stefán Sinclair, Prof. Jan Christoph Meister geplant: TextGrid, DARIAH CLARIN weitere Kooperationspartner mit Kompetenzen in der Extraktion und Normalisierung von Zeitausdrücken und Events werden noch gesucht Kontaktinformationen Projektwebseite: Projektkoordinatorin Narratologie Evelyn Gius, M.A. Projektkoordinator Temporal Tagging: Jannik Strötgen, M.A.

19 Figure 2: Geplante Systemarchitektur der heurecléa-plattform Referenzen [1] narratologische Grundlagen sind u.a.: Genette, Gérard: Discours du récit. In: ders, Figures III. Paris 1972, S , [dt.: Genette, Gérard: Die Erzählung. München: Fink, 1998.] Lahn, Silke & Meister, Jan Christoph: Einführung in die Erzähltextanalyse. Stuttgart: Metzler, Meister, Jan Christoph & Schernus, Wilhelm (Hrsg.): Time. From Concept to Narrative Construct. A Reader. Berlin, New York: de Gruyter, [2] HeidelTime: dbs.ifi.uni-heidelberg.de/heideltime [3] CATMA: [4] Gius, Evelyn; Meister, Jan Christoph; Petris, Marco & Schüch, Lena: Crowdsourcing meaning: a hands-on introduction to CLÉA, the Collaborative Literature Éxploration and Annotation Environment. In: Digital Humanities Conference Abstracts, 24, [5] Strötgen, Jannik & Gertz, Michael: Multilingual and Cross-domain Temporal Tagging. In Language Resources and Evaluation, Springer, Published Online: 8 May [6] Voyant:

20 SaDA: Semiautomatische Differenzanalyse von komplexen Textvarianten Durchführende Forschungseinrichtung Martin-Luther-Universität Halle-Wittenberg Institut für Informatik Prof. Dr. Paul Molitor / Dr. Jörg Ritter Institut für Germanistik Prof. Dr. Hans-Joachim Solms Institut für Romanistik Prof. Dr. Thomas Bremer Disziplinäre Verortung Informatik, Altgermanistik, Romanistik Wissenschaftlicher use case Eine der zentralen, von bisherigen Projekten zur informatikgestützten Editionsphilologie wegen ihrer komplexen Erfordernisse jedoch nahezu vollkommen unbearbeiteten Aufgaben ist die Feststellung der Abhängigkeit von zu unterschiedlichen Zeitpunkten entstandenen Textzeugnissen ( genetische Edition ). Für die Edition handschriftlicher Textzeugnisse bezieht sich dies vor allem auf die editionsphilologisch zentrale Frage des Zusammenhangs unterschiedlicher Handschriften und ihrer Filiation untereinander (Abschriften von unterschiedlichen Ausgangstexten, Identifikation eines, ggf. auch mehrerer Überlieferungs-,Grundtexte, Dokumentation regionaler Sprach-, ggf. auch Abschriftfehler-Varianten zur Erschließung einer Manuskript-Herkunft usw.). Die Problematik stellt sich bei gedruckten Texten aber grundsätzlich ähnlich, wenn der Text starke Überarbeitungsprozesse erfahren hat, also eine über kleinere Text- und Druckvarianten hinausgehende komplexe Textsituation aufweist, bei der zwischen unterschiedlichen Fassungen Textstreichungen, Textzufügungen in größerem Umfang, Umstellung von Textteilen an andere Orte usw. auftreten und diese Prozesse nachvollzogen und dargestellt werden müssen. Methode Im Rahmen des Projektes sollen Teilprozesse der philologischen Arbeit zur Filiation von Überlieferungsvarianten eines Textes und zur Rekonstruktion der Textgenese bei Existenz einer Vielzahl von Varianten herausgearbeitet werden, die mit informationstechnologischen Methoden und Werkzeugen unterstützt werden können. Entsprechende, an das jeweilige Textcorpus angepasste Methoden und Werkzeuge sollen entworfen, implementiert und evaluiert werden. Die für die unterschiedlichen Textcorpora erarbeiteten Problemstellungen und Methoden sind anschließend auf Gemeinsamkeiten zu prüfen und, wenn immer möglich wieder zu generischen Methoden zu verallgemeinern, sodass diese mit angepassten aktuellen Parametern versehen wieder effektiv auf die konkreten Textcorpora anwendbar sind.

21 Diverse Darstellungsformen von Varianten und Überlieferungen in Bezug auf Differenzen und Gemeinsamkeiten Im Mittelpunkt des Projektes steht die Differenzanalyse von Textvarianten. Hierfür sind generische Methoden notwendig bzw. sinnvoll, da sich die Merkmale, nach denen klassifiziert werden soll, von Fragestellung zu Fragestellung unterscheiden können. Neben den eigentlichen Methoden zur Unterstützung der Differenzierung von Texten spielt die Visualisierung der Varianten eines Textes zusammen mit deren eigentümlichen Gemeinsamkeiten und Differenzen eine zentrale Rolle im Rahmen der Interaktion des Philologen mit den Verfahren. Wichtig sind dabei aus philologischer Sicht insbesondere zwei Punkte, nämlich zum einen eine durch Philologen möglichst einfache (intuitive) Handhabung der Werkzeuge und zweitens eine möglichst so gestaltete Verallgemeinerung der Werkzeuge, dass für ein konkretes Vorhaben ein nur begrenzter und bei Arbeitsbeginn abschätzbarer Anpassungsbedarf der Werkzeuge erforderlich ist. Genutzte Ressourcen (existierende Daten/Verfahren) Für die geplante Differenzanalyse werden im Rahmen des Projektes eigene Werkzeuge entwickelt. Als Grundlage für Verfahren der Normalisierung und Lemmatisierung werden das manuell annotierte Bonner Frühneuhochdeutschkorpus ( sowie automatisch annotierte französische Texte, bereitgestellt von der Abteilung automatische Sprachverarbeitung, Prof. Dr. Gerhard Heyer ( genutzt.

22 Kooperationen Forschungsinfrastruktur DARIAH-DE (Dr. Heike Neuroth, Georg-August-Universität Göttingen, Niedersächsische Staats- und Universitätsbibliothek Göttingen) Lehrstuhl für Altgermanistik, Prof. Dr. Klaus-Peter Wegera, Germanistisches Institut an der Fakultät für Philologie der Ruhr-Universität Institut für Geschichte und Ethik der Medizin, Prof. Dr. Florian Steger, Medizinische Fakultät, MLU Halle-Wittenberg Trier Center for Digital Humanities/Kompetenzzentrum für elektronische Erschließungsund Publikationsverfahren in den Geisteswissenschaften an der Universität Trier, Prof. Dr. Claudine Moulin Kontaktinformationen Projektinformation: Ansprechpartner: Dr. Jörg Ritter Institut für Informatik MLU Halle-Wittenberg Telefon: (0345)

23 Vernetzte Korrespondenzen. Erschließung und Visualisierung sozialer, räumliche, zeitlicher und thematischer Netze in Briefkorpora Durchführende Forschungseinrichtungen Universität Trier Kompetenzzentrum für elektronische Erschließungs- und Publikationsverfahren in den Geisteswissenschaften Prof. Dr. Claudine Moulin Dr. Thomas Burch Dr. Vera Hildenbrandt Deutsches Literaturarchiv Marbach Dr. Roland S. Kamzelak Martin-Luther-Universität Halle-Wittenberg, Institut für Informatik Prof. Dr. Paul Molitor Dr. Jörg Ritter Disziplinäre Verortung Neuere deutsche Literaturwissenschaft/Literaturgeschichte/Informatik Wissenschaftlicher use case Die digitale Bereitstellung von Briefkorrespondenzen hat derzeit Konjunktur. Wie in gedruckten Publikationen wird auch in digitalen Veröffentlichungen in der Regel die Korrespondenz einer bzw. der Briefwechsel zweier Personen zur Verfügung gestellt. Ganze Korrespondenznetze aber, ihre soziale Zusammensetzung, ihre räumliche Ausdehnung, ihre zeitliche Entwicklung und die in diesen Netzen stattfindenden Austauschprozesse werden nicht in den Blick genommen und somit die dem Medium Brief eigenen vernetzenden Funktionen außer Acht gelassen. Dieser Forschungslücke nimmt sich das Verbundprojekt Vernetzte Korrespondenzen an. Ausgehend von der These, dass Social Networking ein altbekanntes Phänomen ist, untersucht das Vorhaben basierend auf einem Korpus deutschsprachiger Schriftsteller, die durch die Machtergreifung der Nationalsozialisten ins Exil gezwungen wurden, den Brief als netzwerkbildendes Medium. Damit leistet das Vorhaben einen Beitrag zur Entwicklung von informationstechnologischen Methoden und Werkzeugen, die speziell auf geisteswissenschaftliche Arbeitsweisen und Fragestellungen ausgerichtet sind, und eröffnet nicht nur der Brief- und Kommunikationsforschung (auch jenseits der fokussierten Epoche) neue Forschungsmöglichkeiten. Vielmehr schließt das Vorhaben zugleich eine Lücke im Bereich der Exilforschung, da die Analyse von Briefnetzen exilierter Schriftsteller der NS- Zeit erst in Ansätzen geleistet ist. Methode Methodische Basis bildet, neben der philologischen Verschlagwortung und Indexierung, die grundlegend ist für die thematische Aufbereitung des Korpus, die sozialwissenschaftliche Netzwerkforschung, deren Instrumentarium inzwischen auch transdisziplinär Anwendung findet. Mithilfe geeigneter Modellierung und interaktiven Visualsierungsmethoden sollen

24 Beziehungen, Akteure und Positionen innerhalb des Briefnetzwerkes sichtbar gemacht werden. Aus algorithmischer Sicht knüpft das Projekt dazu insbesondere an einschlägige Verfahren der semantischen Netzwerkanalyse und Visualisierung der Analyseergebnisse an. Eine Sicht auf das Briefnetzwerk (Auszug) um den Dichter und Verlagslektor Hermann Kesten auf Grundlage der Briefmetadaten Absender, Empfänger und Korrespondenzhäufigkeit Genutzte Ressourcen (existierende Daten/Verfahren) Für die Metadatenerfassung und semantische Analyse der Briefe wird die virtuelle Forschungsumgebung FuD (Forschungsnetzwerk und Datenbanksystem) genutzt und erweitert, die zwischen 2004 und 2012 zunächst für den SFB 600 Fremdheit und Armut an der Universität Trier entwickelt wurde, zwischenzeitlich aber gemeinsam mit der Bayerischen Staatsbibliothek München, der Stiftung Deutsche Geisteswissenschaftliche Institute im Ausland (DGIA), dem DHI in Paris, dem DHI in Moskau und dem Leibniz-Institut für Europäische Geschichte (IEG) in den Regelbetrieb überführt und von zahlreichen geisteswissenschaftlichen Vorhaben eingesetzt wird. FuD unterstützt die Zusammenarbeit in räumlich verteilten Arbeitsgruppen während der verschiedenen Phasen des Forschungsprozesses von der Inventarisierung und Erfassung der Primärdaten über ihre Erschließung und Analyse bis hin zur Ergebnispublikation und Datenarchivierung ( Zur Visualisierung der Analyseergebnisse werden diverse, interaktive Darstellungen entwickelt. Darüber hinaus knüpft das Vorhaben an aus dem Gebiet des Graph-Drawing bekannte Verfahren und an Ideen aus dem Bereich Motifs in Networks an. Die genannten Verfahren werden an die Bedürfnisse philologischen Arbeitens angepasst, wobei die Werkzeuge insbesondere dazu dienen, den Forscher auf besondere Konstellationen innerhalb des Netzwerkes hinzuweisen.

25 Entstehende Ressourcen Daten Im Rahmen des Vorhabens entsteht ein digitales, semantisch annotiertes Briefkorpus deutschsprachiger Autoren aus der Zeit des Exils zwischen 1933 und 1945; Ressourcen, die durch Rechte (Urheber-, Verwertungs- und Persönlichkeitsrechte) belastet sind, werden nicht einbezogen oder so einbezogen, dass sie erst sichtbar werden, wenn alle Rechte abgelaufen sind. Verfahren/Werkzeuge Gesamtziel des Vorhabens ist die Entwicklung einer modularen interaktiven internetbasierten Plattform zur Erschließung, Erforschung und Visualisierung von sozialen, räumlichen, zeitlichen und thematischen Netzen in Briefkorpora. Die für die Realisierung dieser Plattform entwickelten Konzepte werden generisch gehalten, so dass die entstehenden Algorithmen, Programmmodule und Visualisierungstools auch für andere Briefkorpora nachgenutzt werden können. Dies wird dadurch gewährleistet, dass sämtliche Komponenten mit offenen Schnittstellen versehen und als OpenSource zur Verfügung gestellt werden. Kooperationen Institut für Sprach- und Literaturwissenschaft der TU Darmstadt (Briefeditionen Georg Christoph Lichtenberg, Johann Heinrich Merck, Jacob Grimm Wilhelm Grimm Friedrich Carl von Savigny Heinrich Christian Bang) (Prof. Dr. Andrea Rapp) Institut für deutsche Philologie an der Universität Würzburg (Prof. Dr. Fotis Jannidis) Interdisziplinäres Zentrum für Editions- und Dokumentwissenschaft (IZED) an der Bergischen Universität Wuppertal (Prof. Dr. Wolfgang Lukas) Forschungsinfrastruktur DARIAH-DE (Dr. Stefan Schmunk, Georg-August-Universität Göttingen, Niedersächsische Staats- und Universitätsbibliothek Göttingen) Kontaktinformationen: Projektinformationen: Verbundkoordination: Dr. Vera Hildenbrandt Universität Trier Kompetenzzentrum für elektronische Erschließungs- und Publikationsverfahren in den Geisteswissenschaften Telefon: (0651) Referenzen Martin Andert/Jörg Ritter/Paul Molitor: Optimized platform for capturing metadata of historical correspondences. Will appear in: Proc. of Digital Humanities 2013 (DH2013), University of Nebraska-Lincoln, USA, July 2013.

26 Thomas Burch/Vera Hildenbrandt/Claudine Moulin: Kommunikationsstrukturen in Briefnetzen. Prototyp zeichnet die Verbindungen zwischen Exil-Schriftstellern in der NS-Zeit nach. In: Unijournal. Zeitschrift der Universität Trier, Jg. 37 (2011), H. 3, S

27 ecodicology Algorithmen zum automatischen Tagging mittelalterlicher Handschriften Durchführende Forschungseinrichtungen Verbundkoordination P D A R I S- L T U D H D T - - S E-M - - Verbundpartner P D C M C D H U T D R S I P E K I T Assoziierter Verbundpartner P D M E S T U T Disziplinäre Verortung M S- L G K I Wissenschaftlicher use case D P F M B H B S M T ) P E E O A - L H M A D D F S S H P Ä B B K

28 Methode D P M H B L H M S ) I H M P H B L-M M H A M H A P K D M M D M B M H I M M S ) M Ü R P M R G S S ) A B V T- B T S S D A M B H P S S K B ) H L G

29 Genutzte Ressourcen existierende DatenVerfahren D P V S S M - D K P D B TIFF JPG-D PDF D M SQL-D XML METS TEI V Entstehende Ressourcen D M M P M S M G F TG D D D V S S M F D S A P S H-G A L S D F S C-I V W R K C H P-E L S D M A I W Kooperationen C I E S D ESFRI-P DARIAH P DARIAH DARIAH-D D D B M DARIAH I W B A J W DARIAH P K C D C D R TG W V D D TG L E Kontaktinformationen P D A R I S- L T U D H D T - - S E-M -

30 Referenzen T DR JF S EG P A DARIAH B P S H R D P I E C P D N-B P V T DS RJ TH VP HR AV PN BS AG AK DK TR JB B S A F D ) A H P I E C P D N-B P R S M S Y C L A S - V PR AT D S I V S S M D H J C M H S -

31 epoetics Korpuserschließung und Visualisierung deutschsprachiger Poetiken ( ) für den Algorithmic Criticism Projektteam Thomas Ertl, Informatik / Institut für Visualisierung und Interaktive Systeme Jonas Kuhn, Computerlinguistik / Institut für Maschinelle Sprachverarbeitung Sandra Richter, Neuere deutsche Literatur / Institut für Literaturwissenschaft Andrea Rapp, Germanistische Computerphilologie / Institut für Sprachund Literaturwissenschaft Disziplinäre Verortung Literaturwissenschaft, Computerlinguistik, Computerphilologie, Visualisierung Wissenschaftliche Ziele epoetics will zeigen, wie sich hermeneutische und algorithmische Verfahren, auch solche der Visualisierung, für methodisch avancierte ehumanities im Sinne eines Algorithmic Criticism (Stephen Ramsay) wechselseitig anregen. Das Projekt zielt auf eine Weiterentwicklung der ehumanities durch die Erprobung aktueller informationstechnologischer Methoden (sprachtechnologische Korpusanalyse, statistische Verfahren, Textmining, Visualisierung Text- und Corpusviewing) am Beispiel eines für die Geisteswissenschaften zentralen Textkorpus: den Poetiken und Ästhetiken von 1770 bis Diese Texte stellen für die Literaturwissenschaft und die philosophische Ästhetik zum einen systematisches Basiswissen bereit, ohne das sich heute keine anspruchsvolle, d. h. kontextsensitive Fachtheorie und Literaturforschung betreiben lässt. Zum anderen enthalten sie selbst einen erheblichen Teil jener Metadaten (Begriffsexplikationen), derer ein ehumanities-projekt über dieses Korpus und vergleichbare Korpora bedürfte. Methode Das Projekt versteht sich als Pilotstudie, die Ergebnisse und Analysetools auch zur Untersuchung ähnlicher Korpora bereitstellt und damit methodisch innovativ auf weite Bereiche der Geisteswissenschaften und der Informatik ausgreift. Das skizzierte Vorhaben kann die Entwicklungen in den ehumanities methodisch vorantreiben, indem es das zentrale Textkorpus der Poetiken in durch umfangreiche Metadaten angereicherter und recherchierbarer Form digital aufbereitet,

32 Metadaten aus der hermeneutischen Untersuchung des Korpus in Kooperation mit Experten aus der Informatik erarbeitet sowie neue Werkzeuge für die Metadatenerfassung entwickelt, qualitative und quantitative Komplementaritäten, historische Zusammenhänge und Dynamiken des Korpus aus der Kombination traditionell hermeneutischer und algorithmischer Methoden erforschbar macht, interaktive visuelle Analysewerkzeuge konzipiert und entwickelt, die die Verifikation bzw. Falsifikation von hermeneutischen Hypothesen erlauben, über die Visualisierungen schnellen Zugriff auf die Textquellen erlaubt, um Fehler, die durch die algorithmische Aufbereitung induziert werden können, schnell zu erkennen und zu beseitigen und mittels interaktiver Feedback- und Trainingsmechanismen eine iterative Konkretisierung der wissenschaftlichen Fragestellung und die Anpassung der (computer-)linguistischen Analysemethoden gewährleistet. Vorarbeiten und genutzte Ressourcen Poetiken Literaturtheorien Die Abteilung Neuere Deutsche Literatur I der Universität Stuttgart unter der Leitung von Sandra Richter hat einen Schwerpunkt im Bereich der Ästhetik, Poetik und Literaturtheorie. Beförderung diese Schwerpunktsetzung seit der Noether-Nachwuchsgruppe Poetologische Reflexion ( ), aus der zahlreiche hermeneutisch und kontextualisierend angelegte Veröffentlichungen hervorgingen. Ein spezifisches Gewicht liegt auf der Entwicklung poetologischer Semantiken, die exemplarisch verdeutlicht wird. Grundlage des Projekts sind 20 repräsentative Poetiken aus der 1000 Werke umfassenden Bibliographie im Rahmen einer hermeneutischen Studie [1], die sowohl als Image-Digitalisate wie auch als durch double keying erfasste und korrigierte digitale Volltexte verfügbar sind. Digitalisierung / Korpusaufbau / Infrastruktur Das Institut für Sprach- und Literaturwissenschaft der TU Darmstadt unter Leitung von Andrea Rapp verfügt über langjährige Erfahrung mit computergestützter Analyse und Interpretation von Texten. Arbeiten auf dem Gebiet der Erstellung und Erschließung historischer Korpora und Entwicklung von Forschungsinfrastruktur für die Geisteswissenschaften [2]. Konkrete Vorarbeit für das Projekt ist die Koordination und Qualitätssicherung der Image- und Volltextdigitalisierung und der anschließenden Annotation durch bibliographische und inhaltlichstrukturelle Metadaten. Ontologiebasierte Erschließung heterogener Wörterbuchdaten und Entwicklung interaktiver Analysetools im Projekt Wechselwirkungen zwischen linguistischen und bioinformatischen Verfahren, Methoden und Algorithmen: Modellierung und Abbildung von Varianz in Sprache und Genomen [3].

33 Computerlinguistik Das Institut für Maschinelle Sprachverarbeitung (IMS) der Universität Stuttgart mit Jonas Kuhn hat Erfahrungen mit korpuslinguistischer Methodenbildung und Bereitstellung von Analysekomponenten. Vom IMS (mit-)entwickelt: Stuttgart-Tübingen Tagset, TIGER Baumbank, TreeTagger, BitParser, Mate-Dependenzparser, Stuttgarter Corpus Workbench cwb mit der Anfragekomponente cqp. Maschinelle Lernverfahren und semiautomatischer Einsatz von Analysewerkzeugen zur Korpusanalyse, z. B. Part-of-speech-Tagger und Parser, aber auch zur Informationsextraktion [4]. Sonderforschungsbereich 732 Inkrementelle Spezifikation im Kontext: Algorithmen für Analysewerkzeuge, Anwendung für linguistische Ressourcenaufbereitung, Sentimentanalyse [5]. Visualisierung Das Institut für Visualisierung und interaktive Systeme (VIS) unter der Leitung von Thomas Ertl gehören zu den international sichtbarsten europäischen Arbeitsgruppen im Bereich Visualisierung. Forschung im Bereich Visual Analytics, u. a. durch die Beteiligung am EU Coordination Action VisMaster (2007) und dem DFG-Schwerpunktprogramm Scalable Visual Analytics (2007) sowie durch Arbeiten zur visuellen Suche und Analyse von Patentdaten [6] (s. Grafik unten). Analyse wissenschaftlicher Literatur im Rahmen eines DFG-Projekts: Entwicklung eines Werkzeugs zur interaktiven, visuellen Erstellung von automatischen Klassifikationsverfahren, die u. a. komplexe Retrieval- und Extraktionsprobleme lösen und gleichzeitig für Laien im Bereich maschinelles Lernen leicht erlernbar sind. Erfahrungen mit der Erstellung komplexer visueller Suchanfragen für Dokumentkollektionen mit großen Mengen von Metadaten, der interaktiven Analyse von Suchergebnissen und deren Nutzung für nachfolgende Suchverbesserungen sowie der Erstellung semantischer Anfragesysteme [7].

34 Entstehende Ressourcen Ergebnisse wird das Projekt auf unterschiedlichen Ebenen zu Tage fördern: durch auch anderweitig einsetzbare Tools (Sprachanalysewerkzeuge, interaktiv trainierbare Explorationswerkzeuge), Daten und eine entsprechende, auch von außen nutzbare Infrastruktur in der Form einer auch nach Projektende erweiterbaren Datenbank mit Annotationsmöglichkeiten zum Projektgegenstand. Hinzu kommen neue Verfahren, Metadaten / Ontologien (bzw. die Metadaten strukturierende Überlegungen) und Forschungsfragen (vor allem im Bereich der Methoden), von denen andere Projekte im Bereich Digital Humanities (insbesondere zur Wissens- und Wissenschaftsgeschichte) profitieren können. Die erarbeiteten Korpora wie auch die entwickelten Tools stehen der Scientific Community für weitere Forschungen und Anwendungen über TextGrid bzw. das DARIAH- und das CLARIN-Framework zur Verfügung; so ist zugleich die Nachhaltigkeit des Projekts gewährleistet. Kooperationen Institutionalisierte Netzwerkstrukturen der ehumanities: TextGrid, DARIAH, CLARIN Computerphilologie: H. Neuroth (Göttingen), F. Jannidis (Würzburg), J. Veit (Paderborn und Detmold) Computerlinguistik: U. Heid (Hildesheim), M. Stede (Potsdam) Visualisierung: DFG Schwerpunktprogramm Scalable Visual Analytics, H. Schütze (Stuttgart), G. Heyer, G. Scheuermann (beide Leipzig), D. Keim (Konstanz), NLP-Forschergruppe L. Wanner (Barcelona), Human Language Technology und Data & Knowledge Management der Fondazione Bruno Kessler, BMBF-Projekt VASA Konstanz (Keim) und D. Ebert (Purdue) Kontaktinformationen (Projektkoordination) Sandra Richter, Universität Stuttgart, Neuere deutsche Literatur / Institut für Literaturwissenschaft (sandra.richter@ilw.uni-stuttgart.de) Referenzen [1] Richter, Sandra: A History of Poetics: German Scholarly Aesthetics and Poetics in International Context, With Bibliographies by Anja Zenk, Jasmin Azazmah, Eva Jost and Sandra Richter. Berlin, New York: de Gruyter [2] Rapp, Andrea: Das Projekt "TextGrid. Modulare Plattform für verteilte und kooperative wissenschaftliche Textdatenverarbeitung ein Community-Grid für die Geisteswissenschaften". Chancen und Perspektiven für eine neue Wissenschaftskultur in den Geisteswissenschaften. In: Jahrbuch der historischen Forschung in der Bundesrepublik Deutschland: Berichtsjahr 2006, hrsg. von der Arbeitsgemeinschaft historischer Forschungseinrichtungen in der Bundesrepublik Deutschland. München: Oldenbourg 2007, S [3] [4] Blessing, André / Schütze, Hinrich: Self-Annotation for fine-grained geospatial relation extraction. Beijing: Coling 2010, S [5] Scheible, Christian / Laws, Florian / Michelbacher, Lukas / Schütze, Hinrich: Sentiment Translation through Multi-Edge Graphs. Proceedings of the 23rd International Conference on Computational Linguistics. Beijing: Coling [6] Koch, S. / Bosch, H. / Giereth, M. / Ertl, T.: Iterative integration of visual insights during patent search and analysis, Visual Analytics Science and Technology, VAST IEEE Symposium on, 2009, S [7] Heim, P. / Ertl, T. / Ziegler, J. / Aroyo, L. / Antoniou, G. / Hyvönen, E. / ten Teije, A. / Stuckenschmidt, H. / Cabral, L. / Tudorache, T.(Eds.): Facet Graphs: Complex Semantic Querying Made Easy The Semantic Web: Research and Applications. Berlin, Heidelberg: Springer 2010, S ,

35 ABCDEBFBFAAFDBFDD ABCDEFCA ACAACAEFA DCFBFDBFDD BBDDBABCDEBFBF CABBBBBBDB AA ABCDEFC BDABBBDDDD DBDDB ABBBB DDFFFDFDD BDDDABD DBDDB BAD BDDDA BADBBBB DBDDB FAD BDDDABD BBDBADB DFBD DBDDB ABBBB BAB EECEE EECACE CCEEA ADFB BBB CAA DDDBADDBADDD DDBFABADBDB CAAA FDDABDDCFBBFDB FDDBFABBEBFBDBBCABBBB ABDBDBFBFDFFBBFFDBDBBD BDDAABDBAAABDFBADFB DBBFBBADDBBCDBFAB BDBFDFBABBDDBBBADBBCD ABCBBADBBCEDBBFDCBBBBDBDF C BDFB DF FF BB FAB DBCFDDCBDDBBCBFBFFB AFDB B FB DB FDB B DDDB DDDFBB

36 ABCDEBFBFAAFDBFDD Abbildung 1: Skizze des GeoBib-Workflow (Entrup et al., accepted) A ABDDCFBBFDFDDBBBD BDABBBFDFBFBBBEBFBFADFBDD BBBDBDBFBBBDDBDBDDDDAB FCDB D A BB CBBB BFDD BB F A BADBB C B AB BDDABCBBDDBBDBFDBEDDDD B DB BB B DBDF DF DB B B B EBFB DBBADBCBADBDCBBAAAFABDBBB DB BBD DBD FBB FD FD B BDF BF A B BFB FDD B DBADF BADFFBBABDDCBBBFB BFBFBD AA AB AAB B BFDF FB AB FDDD F CBDF F DDB B B DDBADFBBB B DBBBBDBDBDCBBBFFDB BABDAD BBBCBDBDBBADFDBDBA BBDDBDFFDBFFFBDFBBBBB B A B BDB B DBB EB D

epoetics Korpuserschließung und Visualisierung deutschsprachiger Poetiken ( ) für den Algorithmic Criticism

epoetics Korpuserschließung und Visualisierung deutschsprachiger Poetiken ( ) für den Algorithmic Criticism epoetics Korpuserschließung und Visualisierung deutschsprachiger Poetiken (1770-1960) für den Algorithmic Criticism Projektteam Thomas Ertl, Informatik / Institut für Visualisierung und Interaktive Systeme

Mehr

Die DARIAH-DE Demonstratoren

Die DARIAH-DE Demonstratoren Die DARIAH-DE Demonstratoren 1. Sitzung des Wissenschaftlichen Beirates von DARIAH-DE 14. September 2012, Göttingen de.dariah.eu Demonstratoren in DARIAH DARIAH Demonstratoren sind fachwissenschaftliche

Mehr

Digital Humanities in Forschung und Lehre

Digital Humanities in Forschung und Lehre Veranstaltungsreihe Digital Humanities in Forschung und Lehre Mit dem Begriff Digital Humanities verbinden sich in den Geistes- und Sozialwissenschaften viele Erwartungen. IT-unterstützte Forschung und

Mehr

Prozessbewertung und -verbesserung nach ITIL im Kontext des betrieblichen Informationsmanagements. von Stephanie Wilke am 14.08.08

Prozessbewertung und -verbesserung nach ITIL im Kontext des betrieblichen Informationsmanagements. von Stephanie Wilke am 14.08.08 Prozessbewertung und -verbesserung nach ITIL im Kontext des betrieblichen Informationsmanagements von Stephanie Wilke am 14.08.08 Überblick Einleitung Was ist ITIL? Gegenüberstellung der Prozesse Neuer

Mehr

SCHULUNG MIT SYSTEM: E-LEARNING VON RAUM21

SCHULUNG MIT SYSTEM: E-LEARNING VON RAUM21 SCHULUNG MIT SYSTEM: E-LEARNING VON RAUM21 - Schulungskonzept - Moodle Das E-Learning System - Die E-Learning-Plattform von raum21 - Ansprechpartner D A S S C H U L U N G S K O N Z E P T V O N R A U M

Mehr

OUTSOURCING ADVISOR. Analyse von SW-Anwendungen und IT-Dienstleistungen auf ihre Global Sourcing Eignung. Bewertung von Dienstleistern und Standorten

OUTSOURCING ADVISOR. Analyse von SW-Anwendungen und IT-Dienstleistungen auf ihre Global Sourcing Eignung. Bewertung von Dienstleistern und Standorten Outsourcing Advisor Bewerten Sie Ihre Unternehmensanwendungen auf Global Sourcing Eignung, Wirtschaftlichkeit und wählen Sie den idealen Dienstleister aus. OUTSOURCING ADVISOR Der Outsourcing Advisor ist

Mehr

Agile Vorgehensmodelle in der Softwareentwicklung: Scrum

Agile Vorgehensmodelle in der Softwareentwicklung: Scrum C A R L V O N O S S I E T Z K Y Agile Vorgehensmodelle in der Softwareentwicklung: Scrum Johannes Diemke Vortrag im Rahmen der Projektgruppe Oldenburger Robot Soccer Team im Wintersemester 2009/2010 Was

Mehr

Integration mit. Wie AristaFlow Sie in Ihrem Unternehmen unterstützen kann, zeigen wir Ihnen am nachfolgenden Beispiel einer Support-Anfrage.

Integration mit. Wie AristaFlow Sie in Ihrem Unternehmen unterstützen kann, zeigen wir Ihnen am nachfolgenden Beispiel einer Support-Anfrage. Integration mit Die Integration der AristaFlow Business Process Management Suite (BPM) mit dem Enterprise Information Management System FILERO (EIMS) bildet die optimale Basis für flexible Optimierung

Mehr

TextGrid: Eine modulare Plattform für kooperative Textdatenverarbeitung

TextGrid: Eine modulare Plattform für kooperative Textdatenverarbeitung workshop: Perspektiven der Digital Humanities - 12. Oktober 2011, Würzburg TextGrid: Eine modulare Plattform für kooperative Textdatenverarbeitung Thomas Kollatz - Salomon Ludwig Steinheim-Institut für

Mehr

SALSAH eine virtuelle Forschungsumgebung für die Geisteswissenschaften

SALSAH eine virtuelle Forschungsumgebung für die Geisteswissenschaften SALSAH eine virtuelle Forschungsumgebung für die Geisteswissenschaften Zusammenfassung: Abstract: Einführung genuin digital Virtuelle Forschungsumgebungen für die Geisteswissenschaften in Bezug auf die

Mehr

Profil der Wirtschaftsinformatik

Profil der Wirtschaftsinformatik Profil der Wirtschaftsinformatik WKWI und GI FB WI * Die folgenden Ausführungen formulieren das Profil der Wirtschaftsinformatik im deutschsprachigen Raum, wie es von der wissenschaftlichen Gemeinschaft,

Mehr

Microsoft SharePoint 2013 Designer

Microsoft SharePoint 2013 Designer Microsoft SharePoint 2013 Designer Was ist SharePoint? SharePoint Designer 2013 Vorteile SharePoint Designer Funktionen.Net 4.0 Workflow Infrastruktur Integration von Stages Visuelle Designer Copy & Paste

Mehr

Die "Digital Humanities" - und was sie NICHT sind.

Die Digital Humanities - und was sie NICHT sind. Die "Digital Humanities" - und was sie NICHT sind. Manfred Thaller Universität zu Köln AG CAA Workshop, Tübingen, 15. Februar 2014 Antwort I: Eine Modeerscheinung 1 v Digital Humanities 2012 Hamburg 200

Mehr

Webservices an der BBAW

Webservices an der BBAW Webservices an der BBAW Stefan Dumont, Martin Fechner, Bryan Jurish, Marco Jürgens, Kai Zimmer 1. Berliner DH-Rundgang 1. September 2014 Webservices Webservices sind Programme, die für die Kommunikation

Mehr

THE KNOWLEDGE PEOPLE. CompanyFlyer.indd 1 07.03.2016 11:48:05

THE KNOWLEDGE PEOPLE. CompanyFlyer.indd 1 07.03.2016 11:48:05 THE KNOWLEDGE PEOPLE CompanyFlyer.indd 1 07.03.2016 11:48:05 BE SMART IT-CONSULTING Smartes IT-Consulting für die Zukunft: Agilität, Dynamische IT, Komplexitätsreduzierung, Cloud, Industrie 4.0, Big Data

Mehr

FORGE2015 HDC Session 4. Nachhaltige Infrastruktur als technologische Herausforderung. Tibor Kálmán Tim Hasler Sven Bingert

FORGE2015 HDC Session 4. Nachhaltige Infrastruktur als technologische Herausforderung. Tibor Kálmán Tim Hasler Sven Bingert FORGE2015 HDC Session 4 Nachhaltige Infrastruktur als technologische Herausforderung Tibor Kálmán Tim Hasler Sven Bingert Diskussionsgrundlage: Liste der Infrastrukturprobleme Wir unterscheiden gute (leicht

Mehr

Anforderungen an die HIS

Anforderungen an die HIS Anforderungen an die HIS Zusammengefasst aus den auf IBM Software basierenden Identity Management Projekten in NRW Michael Uebel uebel@de.ibm.com Anforderung 1 IBM Software Group / Tivoli Ein Feld zum

Mehr

Institut für Computational Engineering ICE. N ä h e r d ra n a m S ys t e m d e r Te c h n i k d e r Z u ku n f t. w w w. n t b.

Institut für Computational Engineering ICE. N ä h e r d ra n a m S ys t e m d e r Te c h n i k d e r Z u ku n f t. w w w. n t b. Institut für Computational Engineering ICE N ä h e r d ra n a m S ys t e m d e r Te c h n i k d e r Z u ku n f t w w w. n t b. c h Rechnen Sie mit uns Foto: ESA Das Institut für Computational Engineering

Mehr

white sheep GmbH Unternehmensberatung Schnittstellen Framework

white sheep GmbH Unternehmensberatung Schnittstellen Framework Schnittstellen Framework Mit dem Schnittstellen Framework können Sie einerseits Ihre Schnittstellen automatisch überwachen. Eine manuelle Kontrolle wird überflüssig, da das Schnittstellen Framework ihre

Mehr

Wir beraten Sie. Wir unterstützen Sie. Wir schaffen Lösungen. Wir bringen Qualität. Wir beraten Sie. Wir unterstützen Sie. Wir schaffen Lösungen

Wir beraten Sie. Wir unterstützen Sie. Wir schaffen Lösungen. Wir bringen Qualität. Wir beraten Sie. Wir unterstützen Sie. Wir schaffen Lösungen Was bedeutet es, ein Redaktionssystem einzuführen? Vorgehensmodell für die Einführung eines Redaktionssystems Die Bedeutung Fast alle Arbeitsabläufe in der Abteilung werden sich verändern Die inhaltliche

Mehr

Supporting Consumers by Characterizing the Quality of Online Health Information: A Multidimensional Framework. Von Dominic Kipry

Supporting Consumers by Characterizing the Quality of Online Health Information: A Multidimensional Framework. Von Dominic Kipry Supporting Consumers by Characterizing the Quality of Online Health Information: Von Inhalt Einführung Methoden zur Bewertung der Qualität A Multidimensional Quality Framework Content Quality Dimension

Mehr

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis Unterrichtsmaterialien in digitaler und in gedruckter Form Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis Das komplette Material finden Sie hier: Download bei School-Scout.de

Mehr

Theorie qualitativen Denkens

Theorie qualitativen Denkens Theorie qualitativen Denkens Vorbetrachtungen - vor den 70er Jahren standen vor allem quantitative Forschungen im Mittelpunkt - qualitative Wende in den 70er Jahren in der BRD - seit dem setzt sich qualitatives

Mehr

Universität Zürich Informatikdienste. SpamAssassin. Spam Assassin. 25.04.06 Go Koordinatorenmeeting 27. April 2006 1

Universität Zürich Informatikdienste. SpamAssassin. Spam Assassin. 25.04.06 Go Koordinatorenmeeting 27. April 2006 1 Spam Assassin 25.04.06 Go Koordinatorenmeeting 27. April 2006 1 Ausgangslage Pro Tag empfangen die zentralen Mail-Gateways der Universität ca. 200 000 E-Mails Davon werden über 70% als SPAM erkannt 25.04.06

Mehr

Organisation des Qualitätsmanagements

Organisation des Qualitätsmanagements Organisation des Qualitätsmanagements Eine zentrale Frage für die einzelnen Funktionen ist die Organisation dieses Bereiches. Gerade bei größeren Organisationen Für seine Studie mit dem Titel Strukturen

Mehr

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Abi-Retter-Strategien: Texterörterung. Das komplette Material finden Sie hier:

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Abi-Retter-Strategien: Texterörterung. Das komplette Material finden Sie hier: Unterrichtsmaterialien in digitaler und in gedruckter Form Auszug aus: Das komplette Material finden Sie hier: Download bei School-Scout.de Thema: TMD: 47047 Kurzvorstellung des Materials: Teil der Abi-Retter-Strategie-Serie:

Mehr

(1) Mit dem Administrator Modul werden die Datenbank, Gruppen, Benutzer, Projekte und sonstige Aufgaben verwaltet.

(1) Mit dem Administrator Modul werden die Datenbank, Gruppen, Benutzer, Projekte und sonstige Aufgaben verwaltet. 1 TimeTrack! TimeTrack! Ist ein Softwareprodukt von The Project Group, welches der Erfassung von Ist- Aufwänden von Projekten dient. Voraussetzung hierfür ist allerdings, dass das Projekt vorher mit Microsoft

Mehr

Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken

Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken Dateiname: ecdl5_01_00_documentation_standard.doc Speicherdatum: 14.02.2005 ECDL 2003 Basic Modul 5 Datenbank - Grundlagen

Mehr

exchange: Exploring Concept Change and Transfer in Antiquity

exchange: Exploring Concept Change and Transfer in Antiquity exchange: Exploring Concept Change and Transfer in Antiquity Roxana Kath, Michaela Rücker, Charlotte Schubert Prof. Dr. Charlotte Schubert Lehrstuhl für Alte Geschichte Historisches Seminar Universität

Mehr

Konsolidierung und Neuimplementierung von VIT. Aufgabenbeschreibung für das Software Engineering Praktikum an der TU Darmstadt

Konsolidierung und Neuimplementierung von VIT. Aufgabenbeschreibung für das Software Engineering Praktikum an der TU Darmstadt Konsolidierung und Neuimplementierung von VIT Aufgabenbeschreibung für das Software Engineering Praktikum an der TU Darmstadt Inhaltsverzeichnis 1 Was ist der Kontext?... 1 2 VIT: Ein sehr erfolgreiches

Mehr

Beschreibung des MAP-Tools

Beschreibung des MAP-Tools 1. Funktionen des MAP-Tool 2. Aufbau des MAP-Tools 3. Arbeiten mit dem MAP-Tool Beschreibung MAP-Tool.doc Erstellt von Thomas Paral 1 Funktionen des MAP-Tool Die Hauptfunktion des MAP-Tools besteht darin,

Mehr

Auswertung qualitativer Interviews

Auswertung qualitativer Interviews Auswertung qualitativer Interviews Problem: umfangreiche Texte in eine Form zu bringen, die als Erzählung, als Leseangebot für den Leser dienen können Texte müssen eingedickt werden, sie müssen im Rahmen

Mehr

Suche schlecht beschriftete Bilder mit Eigenen Abfragen

Suche schlecht beschriftete Bilder mit Eigenen Abfragen Suche schlecht beschriftete Bilder mit Eigenen Abfragen Ist die Bilderdatenbank über einen längeren Zeitraum in Benutzung, so steigt die Wahrscheinlichkeit für schlecht beschriftete Bilder 1. Insbesondere

Mehr

Content Management System mit INTREXX 2002.

Content Management System mit INTREXX 2002. Content Management System mit INTREXX 2002. Welche Vorteile hat ein CM-System mit INTREXX? Sie haben bereits INTREXX im Einsatz? Dann liegt es auf der Hand, dass Sie ein CM-System zur Pflege Ihrer Webseite,

Mehr

Tender Manager. Sparen Sie Zeit und Kosten durch eine optimierte Erstellung Ihrer individuellen IT-Ausschreibungen

Tender Manager. Sparen Sie Zeit und Kosten durch eine optimierte Erstellung Ihrer individuellen IT-Ausschreibungen Tender Manager Sparen Sie Zeit und Kosten durch eine optimierte Erstellung Ihrer individuellen IT-Ausschreibungen Tender Manager Der plixos Tender Manager reduziert drastisch den Aufwand bei der Durchführung

Mehr

Task: Nmap Skripte ausführen

Task: Nmap Skripte ausführen Task: Nmap Skripte ausführen Inhalt Einfache Netzwerkscans mit NSE Ausführen des Scans Anpassung der Parameter Einleitung Copyright 2009-2015 Greenbone Networks GmbH Herkunft und aktuellste Version dieses

Mehr

Gesetzliche Aufbewahrungspflicht für E-Mails

Gesetzliche Aufbewahrungspflicht für E-Mails Gesetzliche Aufbewahrungspflicht für E-Mails sind Sie vorbereitet? Vortragsveranstaltung TOP AKTUELL Meins und Vogel GmbH, Plochingen Dipl.-Inf. Klaus Meins Dipl.-Inf. Oliver Vogel Meins & Vogel GmbH,

Mehr

Visuelles Programmieren. mit der neuen. Moskito Workbench

Visuelles Programmieren. mit der neuen. Moskito Workbench Visuelles Programmieren mit der neuen Moskito Workbench Was ist die Moskito-Workbench? Grafische Programmieroberfläche Kann auch ohne explizite Kenntnisse der Moskito-Programmiersprache genutzt werden.

Mehr

Semantic Web Technologies I! Lehrveranstaltung im WS10/11! Dr. Andreas Harth! Dr. Sebastian Rudolph!

Semantic Web Technologies I! Lehrveranstaltung im WS10/11! Dr. Andreas Harth! Dr. Sebastian Rudolph! Semantic Web Technologies I! Lehrveranstaltung im WS10/11! Dr. Andreas Harth! Dr. Sebastian Rudolph! www.semantic-web-grundlagen.de Ontology Engineering! Dr. Sebastian Rudolph! Semantic Web Architecture

Mehr

AMS Alarm Management System

AMS Alarm Management System AMS Alarm Management System AMS ist das Alarm Management System für Mobotix Kamerasysteme. AMS ist speziell für die Verwendung in Einsatzzentralen bei Sicherheitsdiensten oder Werkschutzzentralen vorgesehen.

Mehr

Multi-Agent Systems. Agentensysteme. Industry 4.0 Machine Learning. Energy and Smart Grids

Multi-Agent Systems. Agentensysteme. Industry 4.0 Machine Learning. Energy and Smart Grids Multi-Agent Systems VDI/VDE-Gesellschaft Mess- und Automatisierungstechnik (GMA) Fachausschuss 5.15 Agentensysteme Industry 4.0 Machine Learning Material Handling Energy Management Production Control Operations

Mehr

Virtual Roundtable: Business Intelligence - Trends

Virtual Roundtable: Business Intelligence - Trends Virtueller Roundtable Aktuelle Trends im Business Intelligence in Kooperation mit BARC und dem Institut für Business Intelligence (IBI) Teilnehmer: Prof. Dr. Rainer Bischoff Organisation: Fachbereich Wirtschaftsinformatik,

Mehr

Data Mining-Projekte

Data Mining-Projekte Data Mining-Projekte Data Mining-Projekte Data Mining stellt normalerweise kein ei nmaliges Projekt dar, welches Erkenntnisse liefert, die dann nur einmal verwendet werden, sondern es soll gewöhnlich ein

Mehr

MIT NEUEN FACHTHEMEN

MIT NEUEN FACHTHEMEN ZUM UMGANG MIT Version: 1.0 Datum: 15.10.2012 INHALTSVERZEICHNIS 1 EINLEITUNG... 3 1.1 Ziel und Zweck... 3 1.2 Anwendungsbereich... 3 1.3 Entwicklung und Fortführung... 3 2 DOKUMENTE... 4 2.1 Formular

Mehr

Worum geht es in diesem Projekt?

Worum geht es in diesem Projekt? Worum geht es in diesem Projekt? In dem Aktuellen SocialMedia Umfeld wird es immer schwieriger der Informationsflut und Schnittstellen Basis Herr zu werden und alle Schnittstellenprozesse im Überblick

Mehr

Wissensmanagement und Technische Dokumentation

Wissensmanagement und Technische Dokumentation Wissensmanagement und Technische Dokumentation requisimus AG Flandernstrasse 96 D-73732 Esslingen Christian Paul, requisimus AG, 05.06.2007 Inhalt Technische Dokumentation und Wissensmanagement... 3 Wissensmanagement...3

Mehr

Best Practice für Schulträger, Schulorganisationen und Schulzentren

Best Practice für Schulträger, Schulorganisationen und Schulzentren Best Practice für Schulträger, Schulorganisationen und Schulzentren 0 Verschlanken Sie das Schulmanagement mit innovativen, digitalen Werkzeugen Der Druck auf Schulorganisationen und Träger, die Arbeit

Mehr

UpToNet Workflow Workflow-Designer und WebClient Anwendung

UpToNet Workflow Workflow-Designer und WebClient Anwendung UpToNet Workflow Workflow-Designer und WebClient Anwendung Grafische Erstellung im Workflow-Designer 1 Grafische Erstellung im Workflow-Designer Bilden Sie Ihre Arbeitsvorgänge im Workflow-Designer von

Mehr

Nominari. Firmenportrait

Nominari. Firmenportrait Nominari Firmenportrait Wer wir sind... Nominari Als so genannte Crossmedia-Agentur versteht sich Nominari als Schnittstelle verschiedener Gewerke im Medienbereich. Da wir auf Grund unserer langjährigen

Mehr

.. für Ihre Business-Lösung

.. für Ihre Business-Lösung .. für Ihre Business-Lösung Ist Ihre Informatik fit für die Zukunft? Flexibilität Das wirtschaftliche Umfeld ist stärker den je im Umbruch (z.b. Stichwort: Globalisierung). Daraus resultierenden Anforderungen,

Mehr

Studienrichtung Computational Neuroscience/Neuroinformatik des Studienganges Angewandte Informatik

Studienrichtung Computational Neuroscience/Neuroinformatik des Studienganges Angewandte Informatik Studienrichtung Computational Neuroscience/Neuroinformatik des Studienganges Angewandte Informatik Table of Contents 1 Wichtige Informationen und Voraussetzungen...1 2 Zur Studienrichtung...2 3 Vorlesungen

Mehr

Welche Textklassifikationen gibt es und was sind ihre spezifischen Merkmale?

Welche Textklassifikationen gibt es und was sind ihre spezifischen Merkmale? Text Welche Textklassifikationen gibt es und was sind ihre spezifischen Merkmale? Textklassifikationen Natürliche bzw. unstrukturierte Texte Normale Texte ohne besondere Merkmale und Struktur Semistrukturierte

Mehr

Die virtuelle Forschungsumgebung WissKI Museumsdokumentation im Semantic Web. Georg Hohmann Germanisches Nationalmuseum g.hohmann@gnm.

Die virtuelle Forschungsumgebung WissKI Museumsdokumentation im Semantic Web. Georg Hohmann Germanisches Nationalmuseum g.hohmann@gnm. Die virtuelle Forschungsumgebung WissKI Museumsdokumentation im Semantic Web Georg Hohmann Germanisches Nationalmuseum g.hohmann@gnm.de WissKI Das Projekt WissKI = Abk. Wissenschaftliche KommunikationsInfrastruktur

Mehr

Überblick. Seite 2 von 5

Überblick. Seite 2 von 5 Überblick Der ESEMOS MediaMiner ist ein Stimmungsbarometer und Monitoring-Werkzeug für soziale Netzwerke. MediaMiner zeichnet sich insbesondere durch die Sentiment-Analyse, die Spracherkennung sowie anspruchsvolle

Mehr

«Eine Person ist funktional gesund, wenn sie möglichst kompetent mit einem möglichst gesunden Körper an möglichst normalisierten Lebensbereichen

«Eine Person ist funktional gesund, wenn sie möglichst kompetent mit einem möglichst gesunden Körper an möglichst normalisierten Lebensbereichen 18 «Eine Person ist funktional gesund, wenn sie möglichst kompetent mit einem möglichst gesunden Körper an möglichst normalisierten Lebensbereichen teilnimmt und teilhat.» 3Das Konzept der Funktionalen

Mehr

robotron*e count robotron*e sales robotron*e collect Anmeldung Webkomponente Anwenderdokumentation Version: 2.0 Stand: 28.05.2014

robotron*e count robotron*e sales robotron*e collect Anmeldung Webkomponente Anwenderdokumentation Version: 2.0 Stand: 28.05.2014 robotron*e count robotron*e sales robotron*e collect Anwenderdokumentation Version: 2.0 Stand: 28.05.2014 Seite 2 von 5 Alle Rechte dieser Dokumentation unterliegen dem deutschen Urheberrecht. Die Vervielfältigung,

Mehr

Universität Freiburg Philosophische Fakultät Departement für Sprachen und Literaturen Studienbereich Englisch

Universität Freiburg Philosophische Fakultät Departement für Sprachen und Literaturen Studienbereich Englisch Universität Freiburg Philosophische Fakultät Departement für Sprachen und Literaturen Studienbereich Englisch Master of Arts in Sprachen und Literaturen Vertiefungsprogramm (60 Kreditpunkte) Englische

Mehr

Anwendung der DIN EN ISO 9241 bei der Erstellung und Bewertung von Software

Anwendung der DIN EN ISO 9241 bei der Erstellung und Bewertung von Software Anwendung der DIN EN ISO 9241 bei der Erstellung und Bewertung von Software Abstract Die Norm DIN EN ISO 9241 "Ergonomische Anforderungen für Bürotätigkeiten mit Bildschirmgeräten" ist von zentraler Bedeutung

Mehr

Acht Gute Gründe für Integration und einen Content Backbone

Acht Gute Gründe für Integration und einen Content Backbone Acht Gute Gründe für Integration und einen Content Backbone COMYAN Whitepaper Autor Peter Resele Datum 9. März 2009 Status Public =GmbH Karolingerstrasse 34a 82205 Gilching Germany t + 49 810 5779390 peter.resele@comyan.com

Mehr

Die richtigen Partner finden, Ressourcen finden und zusammenführen

Die richtigen Partner finden, Ressourcen finden und zusammenführen Kongress Kinder.Stiften.Zukunft Workshop Willst Du mit mir gehen? Die richtigen Partner finden, Ressourcen finden und zusammenführen Dr. Christof Eichert Unsere Ziele: Ein gemeinsames Verständnis für die

Mehr

1 Einleitung. 1.1 Motivation und Zielsetzung der Untersuchung

1 Einleitung. 1.1 Motivation und Zielsetzung der Untersuchung 1 Einleitung 1.1 Motivation und Zielsetzung der Untersuchung Obgleich Tourenplanungsprobleme zu den am häufigsten untersuchten Problemstellungen des Operations Research zählen, konzentriert sich der Großteil

Mehr

Was ist PDF? Portable Document Format, von Adobe Systems entwickelt Multiplattformfähigkeit,

Was ist PDF? Portable Document Format, von Adobe Systems entwickelt Multiplattformfähigkeit, Was ist PDF? Portable Document Format, von Adobe Systems entwickelt Multiplattformfähigkeit, Wie kann ein PDF File angezeigt werden? kann mit Acrobat-Viewern angezeigt werden auf jeder Plattform!! (Unix,

Mehr

Die Quantitative und Qualitative Sozialforschung unterscheiden sich bei signifikanten Punkten wie das Forschungsverständnis, der Ausgangspunkt oder

Die Quantitative und Qualitative Sozialforschung unterscheiden sich bei signifikanten Punkten wie das Forschungsverständnis, der Ausgangspunkt oder 1 2 3 Die Quantitative und Qualitative Sozialforschung unterscheiden sich bei signifikanten Punkten wie das Forschungsverständnis, der Ausgangspunkt oder die Forschungsziele. Ein erstes Unterscheidungsmerkmal

Mehr

Visualisierung von Geodaten

Visualisierung von Geodaten Seminar: mobilegis Visualisierung von Geodaten Maria Selzer Agenda Einführung Datenformate Maps APIs Virtuelle Globen Zusammenfassung Einführung Visualisierung: graphische bzw. visuelle Darstellung von

Mehr

Softwaretechnische Anforderungen zu Opale bluepearl Version 1.0 vom 23.05.2013

Softwaretechnische Anforderungen zu Opale bluepearl Version 1.0 vom 23.05.2013 Sehr geehrte Kundin, Sehr geehrter Kunden. Sie werden demnächst die neue Version Opale bluepearl einsetzen. Damit Sie bestmöglich von der 3ten Generation der Opale-Lösungen profitieren können, ist es an

Mehr

Datenübernahme von HKO 5.9 zur. Advolux Kanzleisoftware

Datenübernahme von HKO 5.9 zur. Advolux Kanzleisoftware Datenübernahme von HKO 5.9 zur Advolux Kanzleisoftware Die Datenübernahme (DÜ) von HKO 5.9 zu Advolux Kanzleisoftware ist aufgrund der von Update zu Update veränderten Datenbank (DB)-Strukturen in HKO

Mehr

DARIAH-DE Digitale Forschungsinfrastruktur für die Geisteswissenschaften

DARIAH-DE Digitale Forschungsinfrastruktur für die Geisteswissenschaften DARIAH-DE Digitale Forschungsinfrastruktur für die Geisteswissenschaften Dr. Stefan Schmunk Abt. Forschung und Entwicklung SUB Göttingen September 2013 de.dariah.eu Überblick Eckdaten zu DARIAH-DE Wer

Mehr

Feedback in Echtzeit. Social Media Monitoring Services von Infopaq. SOCIAL MEDIA

Feedback in Echtzeit. Social Media Monitoring Services von Infopaq. SOCIAL MEDIA MEDIENBEOBACHTUNG MEDIENANALYSE PRESSESPIEGELLÖSUNGEN Feedback in Echtzeit. Social Media Monitoring Services von Infopaq. SOCIAL MEDIA Risiken kennen, Chancen nutzen. So profitiert Ihr Unternehmen von

Mehr

Das futureorg Institut Eine Innovationsfabrik stellt sich vor

Das futureorg Institut Eine Innovationsfabrik stellt sich vor Das futureorg Institut Eine Innovationsfabrik stellt sich vor futureorg Institut Im Defdahl 10c 44141 Dortmund T: 0 231 / 88 68 06-2 F: 0 231 / 88 68 06-9 info@futureorg.de Statt einer Gliederung lieber

Mehr

Leseprobe. Bruno Augustoni. Professionell präsentieren. ISBN (Buch): 978-3-446-44285-6. ISBN (E-Book): 978-3-446-44335-8

Leseprobe. Bruno Augustoni. Professionell präsentieren. ISBN (Buch): 978-3-446-44285-6. ISBN (E-Book): 978-3-446-44335-8 Leseprobe Bruno Augustoni Professionell präsentieren ISBN (Buch): 978-3-446-44285-6 ISBN (E-Book): 978-3-446-44335-8 Weitere Informationen oder Bestellungen unter http://wwwhanser-fachbuchde/978-3-446-44285-6

Mehr

Das Warenwirtschaftswunder

Das Warenwirtschaftswunder Das Warenwirtschaftswunder UNSERE HISTORIE Mit Individualität zum Produkterfolg. Die Geschichte der VARIO Software GmbH beginnt schon einige Jahre vor ihrer Gründung. Zunächst auf Projektbasis programmierte

Mehr

GIN WEAVER. Kontextsensitive Bereitstellung von Informationen: Relevante Inhalte zur richtigen Zeit

GIN WEAVER. Kontextsensitive Bereitstellung von Informationen: Relevante Inhalte zur richtigen Zeit GIN WEAVER Kontextsensitive Bereitstellung von Informationen: Relevante Inhalte zur richtigen Zeit GIN WEAVER Paradigmenwechsel von Suche, zur Bereitstellung von Informationen für Ihren Arbeitskontext

Mehr

Seminar. NoSQL Datenbank Technologien. Michaela Rindt - Christopher Pietsch. Richtlinien Ausarbeitung (15. November 2015)

Seminar. NoSQL Datenbank Technologien. Michaela Rindt - Christopher Pietsch. Richtlinien Ausarbeitung (15. November 2015) Seminar Datenbank Technologien Richtlinien Ausarbeitung (15. November 2015) Michaela Rindt - Christopher Pietsch Agenda 1 2 3 1 / 12 Richtlinien Ausarbeitung (15. November 2015) Teil 1 2 / 12 Richtlinien

Mehr

SMARTE LÖSUNGEN FÜR DIE VERNETZTE WELT

SMARTE LÖSUNGEN FÜR DIE VERNETZTE WELT SMARTE LÖSUNGEN FÜR DIE VERNETZTE WELT VERBINDEN SIE IHRE GERÄTE MIT DER VERNETZTEN WELT SMARTE LÖSUNGEN FÜR NEUE GESCHÄFTSMODELLE Die digitale Revolution hat das nächste Level erreicht, Vernetzung und

Mehr

Linked Samian Ware: Potentiale von Linked Data in der Archäologie. Florian Thiery M.Sc.

Linked Samian Ware: Potentiale von Linked Data in der Archäologie. Florian Thiery M.Sc. Linked Samian Ware: Potentiale von Linked Data in der Archäologie Florian Thiery M.Sc. Linked Samian Ware: Potentiale von Linked Data in der Archäologie Workshop der AG CAA Tübingen 15.02.2014 Als Grundlage

Mehr

Logo MIA. Ein cloud basierter Marktplatz für Informationen und Analysen auf dem deutschsprachigen Web

Logo MIA. Ein cloud basierter Marktplatz für Informationen und Analysen auf dem deutschsprachigen Web Logo MIA Ein cloud basierter Marktplatz für Informationen und Analysen auf dem deutschsprachigen Web MIA Konsortium Ausgangslage Das deutschsprachige Web mit derzeit mehr als sechs Milliarden Webseiten

Mehr

Renaissance trifft Medientechnologie

Renaissance trifft Medientechnologie Historisches Institut Fakultät für Kulturwissenschaften Doris Annette Hartmann M.A. UNESCO Kompetenzzentrum UNESCO Kompetenzzentrum, Bilddatenbank Paderborner Bildarchiv 2006 - Besetzung des Lehrstuhls

Mehr

Hinweise für das Schreiben einer Bachelor-Arbeit im Fachbereich Wirtschaftspsychologie

Hinweise für das Schreiben einer Bachelor-Arbeit im Fachbereich Wirtschaftspsychologie Universität Duisburg-Essen Fakultät für Ingenieurwissenschaften Informatik und angewandte Kognitionswissenschaft Wirtschaftspsychologie Hinweise für das Schreiben einer Bachelor-Arbeit im Fachbereich Wirtschaftspsychologie

Mehr

1 Mathematische Grundlagen

1 Mathematische Grundlagen Mathematische Grundlagen - 1-1 Mathematische Grundlagen Der Begriff der Menge ist einer der grundlegenden Begriffe in der Mathematik. Mengen dienen dazu, Dinge oder Objekte zu einer Einheit zusammenzufassen.

Mehr

Intelligent Traveller Early Situation Awareness itesa

Intelligent Traveller Early Situation Awareness itesa Intelligent Traveller Early Situation Awareness itesa Dr. Martin Skorsky, Senior Researcher 22. Juni 2015 1 1 Intelligent Traveller Early Situation Awareness Automatischen Alarmsystems, das Reisende in

Mehr

Die Makler System Club FlowFact Edition

Die Makler System Club FlowFact Edition Die Makler System Club FlowFact Edition Erfolgreiche Unternehmen setzen auf stabile Prozesse. Funktionierende Prozesse bringen höhere Erträge, zufriedene Kunden und sorgen dafür, dass Mitarbeiter zuverlässiger

Mehr

Die Lernumgebung des Projekts Informationskompetenz

Die Lernumgebung des Projekts Informationskompetenz Beitrag für Bibliothek aktuell Die Lernumgebung des Projekts Informationskompetenz Von Sandra Merten Im Rahmen des Projekts Informationskompetenz wurde ein Musterkurs entwickelt, der den Lehrenden als

Mehr

Innovation und Kooperation als Motor zukunftsfähiger Informationsdienste

Innovation und Kooperation als Motor zukunftsfähiger Informationsdienste Innovation und Kooperation als Motor zukunftsfähiger Informationsdienste Prof. Dr. Wolf-Tilo Balke Institut für Informationssysteme Technische Universität Braunschweig http://www.ifis.cs.tu-bs.de Herausforderung

Mehr

Ist Excel das richtige Tool für FMEA? Steve Murphy, Marc Schaeffers

Ist Excel das richtige Tool für FMEA? Steve Murphy, Marc Schaeffers Ist Excel das richtige Tool für FMEA? Steve Murphy, Marc Schaeffers Ist Excel das richtige Tool für FMEA? Einleitung Wenn in einem Unternehmen FMEA eingeführt wird, fangen die meisten sofort damit an,

Mehr

Corporate Smart Process Content. Wissensmanagement mittels Prozesskontext

Corporate Smart Process Content. Wissensmanagement mittels Prozesskontext Corporate Smart Process Content Wissensmanagement mittels Prozesskontext Agenda 1. Ziele des Teilvorhabens 2. Einführung in die Prozesswelt 3. SemTalk als Werkzeug für Prozessmodellierung und Wissensmanagement

Mehr

Prozessmodellierung mit Objektorientierten Ereignisgesteuerten. und der bflow* Toolbox

Prozessmodellierung mit Objektorientierten Ereignisgesteuerten. und der bflow* Toolbox Prozessmodellierung mit Objektorientierten Ereignisgesteuerten Prozessketten (oepk) und der bflow* Toolbox Prof. Dr. Frank Hogrebe Wiesbaden im Juli 2013 1 Agenda Einleitung oepk-grundansatz oepk-symbolik

Mehr

Die Entwicklung eines Glossars (oder eines kontrollierten Vokabulars) für ein Unternehmen geht üblicherweise in 3 Schritten vor sich:

Die Entwicklung eines Glossars (oder eines kontrollierten Vokabulars) für ein Unternehmen geht üblicherweise in 3 Schritten vor sich: Glossare 1 Inhalt 1 Inhalt... 1 2 Prozesse... 1 3 Eine kleine Zeittabelle...... 1 4 Die ersten Schritte... 2 5 Die nächsten Schritte...... 2 6 Die letzten Schritte... 3 7 Das Tool...... 4 8 Beispiele...

Mehr

StuPro-Seminar Dokumentation in der Software-Wartung. StuPro-Seminar Probleme und Schwierigkeiten in der Software-Wartung.

StuPro-Seminar Dokumentation in der Software-Wartung. StuPro-Seminar Probleme und Schwierigkeiten in der Software-Wartung. StuPro-Seminar Dokumentation in der Software-Wartung StuPro-Seminar Probleme und Schwierigkeiten in der Software-Wartung Folie 1/xx Software-Wartung: theoretisch Ausgangslage eigentlich simpel: fertige

Mehr

Wissen erarbeiten und analysieren

Wissen erarbeiten und analysieren Concept Map Ludger Brüning und Tobias Saum Ziel: Wissen erarbeiten und analysieren In komplexen Texten finden sich oft verschiedene logische Strukturen. Um solche Zusammenhänge darzustellen, eignet sich

Mehr

Was ist Analyse? Hannover, CeBIT 2014 Patrick Keller

Was ist Analyse? Hannover, CeBIT 2014 Patrick Keller Was ist? Hannover, CeBIT 2014 Patrick Keller Business Application Research Center Historie 1994: Beginn der Untersuchung von Business-Intelligence-Software am Lehrstuhl Wirtschaftsinformatik der Universität

Mehr

WELCOME TO SPHERE SECURITY SOLUTIONS

WELCOME TO SPHERE SECURITY SOLUTIONS Failing to plan, is planning to fail WELCOME TO SPHERE SECURITY SOLUTIONS your professional security partner INTRO Wie wertvoll Sicherheit ist wird besonders klar, wenn sie im entscheidenden Moment fehlt.

Mehr

Semantik Visualisierung

Semantik Visualisierung Semantik Visualisierung Seminar im Wintersemester 2010/2011 GRIS Technische Universität Darmstadt Kawa Nazemi Fraunhofer IGD Fraunhoferstraße 5 64283 Darmstadt kawa.nazemi@igd.fraunhofer.de kawa.nazemi@gris.informatik@tu-darmstadt.de

Mehr

2. Konfiguration der Adobe Software für die Überprüfung von digitalen Unterschriften

2. Konfiguration der Adobe Software für die Überprüfung von digitalen Unterschriften 1. Digital signierte Rechnungen Nach 11 Abs. 2 zweiter Unterabsatz UStG 1994 gilt eine auf elektronischem Weg übermittelte Rechnung nur dann als Rechnung im Sinne des 11 UStG 1994, wenn die Echtheit der

Mehr

Thematische Abfrage mit Computerlinguistik

Thematische Abfrage mit Computerlinguistik Thematische Abfrage mit Computerlinguistik Autor: Dr. Klaus Loth (ETH-Bibliothek Zürich) Zusammenfassung Der Beitrag befasst sich mit dem Einsatz der Computerlinguistik bei der thematischen Abfrage einer

Mehr

Das Social Semantic Web

Das Social Semantic Web Das Social Semantic Web Treffpunkt für soziale und künstliche Intelligenz IT Businesstalk Vom Breitband zum Web 3.0 Salzburg, 14. Juni 2007 Dr. Sebastian Schaffert Salzburg Research Forschungsgesellschaft

Mehr

Bildungsstandards konkret formulierte Lernergebnisse Kompetenzen innen bis zum Ende der 4. Schulstufe in Deutsch und Mathematik

Bildungsstandards konkret formulierte Lernergebnisse Kompetenzen innen bis zum Ende der 4. Schulstufe in Deutsch und Mathematik Bildungsstandards Da in den Medien das Thema "Bildungsstandards" sehr häufig diskutiert wird, möchten wir Ihnen einen kurzen Überblick zu diesem sehr umfangreichen Thema geben. Bildungsstandards sind konkret

Mehr

und der Helmut-Schmidt-Universität / Universität der Bundeswehr (HSU) Universitätsbibliothek (UB) Holstenhofweg 85 20043 Hamburg

und der Helmut-Schmidt-Universität / Universität der Bundeswehr (HSU) Universitätsbibliothek (UB) Holstenhofweg 85 20043 Hamburg OPUS-ID: Vertrag über die Erst-/Zweitveröffentlichung eines Werkes auf dem Volltextserver der Helmut-Schmidt-Universität / Universität der Bundeswehr zwischen Frau /Herrn Fakultät Privatadresse E-Mail

Mehr

Inhalt. 1. Einleitung. 2. Ausblick. Gegenstand und Motivation Problemstellung Zielsetzung Fragestellungen. Weiteres Vorgehen

Inhalt. 1. Einleitung. 2. Ausblick. Gegenstand und Motivation Problemstellung Zielsetzung Fragestellungen. Weiteres Vorgehen Auswahl und prototypische Entwicklung eines integrierten Berichtswerkzeugs für die Planung von Schulungen und Erstellung von Informationsmaterialen am Universitätsklinikum Leipzig Einführungsvortrag Martin

Mehr

WSO de. <work-system-organisation im Internet> Allgemeine Information

WSO de. <work-system-organisation im Internet> Allgemeine Information WSO de Allgemeine Information Inhaltsverzeichnis Seite 1. Vorwort 3 2. Mein Geschäftsfeld 4 3. Kompetent aus Erfahrung 5 4. Dienstleistung 5 5. Schulungsthemen 6

Mehr