Humboldt-Universität zu Berlin. Institut für Informatik. Jahresbericht 2009

Größe: px
Ab Seite anzeigen:

Download "Humboldt-Universität zu Berlin. Institut für Informatik. www.informatik.hu-berlin.de. Jahresbericht 2009"

Transkript

1 Humboldt-Universität zu Berlin Institut für Informatik Jahresbericht 2009

2 2 Jahresbericht 2009 Humboldt-Universität zu Berlin, 2008 Institut für Informatik Unter den Linden Berlin Besuchsanschrift: Rudower Chaussee 25, Berlin-Adlershof Redaktion: Prof. Dr. Martin Grohe, Christine Henze Redaktionsschluss:

3 Institut für Informatik 3 Vorwort Das Jahr 2009 war ein ereignisreiches und erfolgreiches, das für das Institut für Informatik auch eine Reihe wichtiger Veränderungen brachte. Die wichtigste Veränderung betrifft die Lehre. Hier hat unser Institut nun den Wechsel vom Diplomstudiengang zu den Bachelor- und Masterstudiengängen vollzogen. Lange und intensive Diskussionen auf allen Ebenen haben zu interessanten und modernen Studiengängen geführt, in denen sich sowohl die traditionellen Stärken des wissenschaftlichen Informatikstudiums an unserem Institut als auch die Anforderungen an einen höheren Praxisbezug im Bachelor widerspiegeln. Den Praxisbezug stärkt unser Programm insbesondere durch das neu eingeführte Semesterprojekt, in dem Studenten im Team abgeschlossene Projekte eigenständig durchführen werden. Selbstverständlich gibt die Studienordnung auch Raum für ein Auslandssemester. Die ersten 60 Studenten haben zum Wintersemester 2009/10 ihr Bachelorstudium aufgenommen, weitere Neuimmatrikulationen wird es auch im Sommersester 2010 geben. Drei Neuberufungen haben die Professorenschaft des Instituts erfreulich verstärkt. Mit der Berufung von Prof. Susanne Albers auf den Lehrstuhl für Algorithmen und Komplexitätstheorie ist eine Schlüsselprofessur des Instituts wieder besetzt. Prof. Albers gehört international zu den angesehensten Persönlichkeiten im Bereich der Algorithmik und wurde im Jahr 2008 mit dem Leibniz-Preis der Deutschen Forschungsgemeinschaft ausgezeichnet. Mit der Berufung von Prof. Peter Eisert auf eine Sonderprofessur für Visual Computing sind nun auch wichtige Gebiete wie Computergraphik und Bildverarbeitung in Forschung und Lehre am Institut adäquat vertreten. Prof. Eisert leitet den Bereich Computer Vision and Graphics am Heinrich Hertz Institut; seine Berufung ist daher ein weiterer wichtiger Schritt zum Ausbau der bereits sehr guten Vernetzung unseres Instituts mit den außeruniversitären Forschungseinrichtungen in Berlin. Auch mit der dritten Neuberufung, die Prof. Galina Ivanova für den Bereich Signal- und Informationsanalyse in den Neurowissenschaften angenommen hat, verstärkt das Institut seine Vernetzung im Adlershofer und Berliner Forschungsumfeld und schlägt insbesondere eine direkte Brücke zur Psychologie und zu den Neurowissenschaften. Die immer stärkere fachübergreifende Vernetzung des Instituts spiegelt sich nicht nur in den Neuberufungen wieder, sondern auch in der maßgeblichen Beteiligung des Instituts an inner- und außeruniversitären Projekten und Initiativen wie dem Integrative Research Institute for the Sciences (IRIS Adlershof), dem Zentrum für Computation in the Sciences, der GEO- X Initiative zur Stärkung der Geowissenschaften in Berlin und Brandenburg, der Beteiligung am Transregio 54 zur Erforschung von Lymphomen etc. Details dazu findet man jeweils in den Darstellungen der direkt involvierten Lehrstühle. Ein großer Erfolg des Instituts ist die Förderung eines weiteren Graduiertenkollegs durch die Deutsche Forschungsgemeinschaft, das neben dem bereits etablierten Graduiertenkolleg METRIK in den kommenden Jahren die Ausbildung von Doktoranden am Institut prägen wird. Thema des neuen Graduiertenkollegs SOAMED sind Serviceorientierte Architekturen, deren Grundlagen das Kolleg anhand des wichtigen Anwendungsfeldes Medizin erforschen wird. Neben Prof. Reisig als Sprecher sind drei weitere Professoren des Instituts sowie Professoren von der Charité, der Technischen Universität Berlin und dem Potsdamer Hasso-Plattner Institut beteiligt.

4 4 Jahresbericht 2009 Dies ist nur eine kleine Auswahl der Höhepunkte des letzten Jahres, vieles mehr findet sich auf den Seiten dieses Jahresberichts. Prof. Dr. Martin Grohe Geschäftsführender Direktor Berlin im Januar 2010

5 Institut für Informatik 5 Inhaltsverzeichnis I. Institutsorganisation 7 II. Lehrkörper am Institut 8 III. Graduiertenkolleg METRIK 17 IV. Lehr- und Forschungseinheiten 86 Theoretische Informatik Algorithmen und Komplexität Leiterin: Prof. Dr. Susanne Albers Komplexität und Kryptografie Leiter: Prof. Dr. Johannes Köbler Logik in der Informatik Leiter: Prof. Dr. Martin Grohe Praktische Informatik Datenbanken und Informationssysteme Leiter: Prof. Johann-Christoph Freytag, Ph. D. Informatik in Bildung & Gesellschaft Leiter: Prof. Dr. Wolfgang Coy Kognitive Robotik Leiterin: Prof. Dr. Verena V. Hafner Künstliche Intelligenz Leiter: Prof. Dr. Hans-Dieter Burkhard Parallele und Verteilte Systeme Leiter: Prof. Dr. Alexander Reinefeld Softwaretechnik Leiter: Prof. Dr. Klaus Bothe Spezifikation, Verifikation und Testtheorie Leiter: Prof. Dr. Bernd-Holger Schlingloff Systemanalyse, Modellierung und Computersimulation Leiter: Prof. Dr. Joachim Fischer Systemarchitektur Leiter: Prof. Dr. Jens-Peter Redlich Theorie der Programmierung Leiter: Prof. Dr. Wolfgang Reisig Wissensmanagement in der Bioinformatik Leiter: Prof. Dr. Ulf Leser

6 6 Jahresbericht 2009 Technische Informatik Computer Vision Leiter: Prof. Dr. Ralf Reulke Rechnerorganisation und Kommunikation Leiter: Prof. Dr. Miroslaw Malek Signalverarbeitung und Mustererkennung Leiterin: Prof. Dr. Beate Meffert Signal- und Informationsanalyse in den Neurowissenschaften Leiterin: Prof. Dr. Galina Ivanova Visual Computing Leiter: Prof. Dr. Peter Eisert V. Ideenwerkstatt und Studienberatung für Studentinnen und Schülerinnen Leiterin: Dr. Martà Gutsche VI. Informationstechnik des Instituts für Informatik 309 VII. Lehrveranstaltungen 316

7 Institut für Informatik 7 I. Institutsorganisation Postadresse: Humboldt-Universität zu Berlin, Institut für Informatik Unter den Linden 6, Berlin Sitz: Rudower Chaussee 25 / Ecke Magnusstraße Berlin-Adlershof Geschäftsführender Direktor: PROF. MARTIN GROHE Sekretariat: EVA SANDIG, Tel.: , Raum IV 402 Prüfungsausschuss Vorsitzender: PROF. KLAUS BOTHE, Tel.: , Raum IV 201 Sprechzeit: dienstags, 13:30 14:30 Uhr in Raum II 323 Mitarbeiterin für Studium, Lehre und Prüfung REGINE LINDNER, Tel.: , Raum II 323 Sprechzeiten: dienstags, 09:00 10:30 Uhr mittwochs, 13:00 15:00 Uhr donnerstags, 09:00 10:30 Uhr und nach Vereinbarung Studienfachberatung PROF. JOHANNES KÖBLER, Tel.: , Raum IV 001 Sprechzeit: dienstags, 15:00 17:00 Uhr Studentische Studienfachberatung Fachschaft: KNUT MÜLLER, ICQ: , Raum II 321 Sprechzeiten: mittwochs, 08:30 11:00 Uhr und nach Vereinbarung Studienberatung für Studentinnen und Schülerinnen DR. MÀRTA GUTSCHE, Tel.: , Raum IV 108 Sprechzeit: mittwochs, 10:00 17:00 Uhr und nach Vereinbarung Ideenwerkstatt Mehr Frauen in die Informatik Leiterin: DR. MÀRTA GUTSCHE, Tel.: , Raum IV 108 Verwaltung Haushalt und Personal: RITA FALCK, Tel.: , Raum II 316

8 8 Jahresbericht 2009 II. Lehrkörper am Institut für Informatik PROF. DR. SUSANNE ALBERS Susanne Albers studierte in ihrer Heimatstadt Osnabrück Mathematik, Informatik und Betriebswirtschaftslehre. Nach Abschluss ihres Diploms im Jahr 1990 wechselte sie für ein Promotionsstudium im Fach Informatik an die Universität des Saarlandes. Dort war sie Stipendiatin im ersten Graduiertenkolleg Informatik. Susanne Albers promovierte sich 1993 mit einer Dissertation im Bereich der effizienten Algorithmen; diese Arbeit wurde mit der Otto-Hahn-Medaille für den wissenschaftlichen Nachwuchs der Max-Planck-Gesellschaft ausgezeichnet. Von 1993 bis 1999 war Susanne Albers wissenschaftliche Mitarbeiterin in der Arbeitsgruppe "Algorithmen und Komplexität" am Max- Planck-Institut für Informatik in Saarbrücken. In dieser Zeit verbrachte sie auch mehrere Forschungsaufenthalte in den USA, Japan und dem europäischen Ausland. Nach ihrer Habilitation wurde sie 1999 auf eine Professur für Theoretische Informatik an die Universität Dortmund berufen. Im Jahr 2001 wechselte sie an die Albert-Ludwigs-Universität Freiburg, wo sie die Leitung des Lehrstuhls für Informations- und Kodierungstheorie inne hatte. Seit Juni 2009 arbeitet Susanne Albers im Institut für Informatik der Humboldt-Universität zu Berlin, wo sie die Lehr-und Forschungseinheit "Algorithmen und Komplexität I" leitet. Für ihre wissenschaftlichen Arbeiten im Bereich der Algorithmik wurde Susanne Albers im Jahr 2008 mit dem Gottfried Wilhelm Leibniz-Preis der Deutschen Forschungsgemeinschaft ausgezeichnet. PROF. DR. KLAUS BOTHE Absolvierte sein Mathematikstudium an der Humboldt-Universität zu Berlin und promovierte 1979 mit dem Thema Spezifikation und Verifikation abstrakter Datentypen zum Dr. rer. nat. an gleicher Stätte. Dort habilitierte er dann auch 1986 zum Dr. sc. nat mit dem Thema Ein algorithmisches Interface für Pascal-Compiler: Compiler-Portabilität durch Modularisierung. Vom September 1986 bis Juli 1987 arbeitete er am ungarischen Forschungszentrum SZKI in Budapest zu den Themen Logische Programmierung, Implementationstechniken von Prolog und Expertensystemen. Von September 1991 bis Februar 1992 erhielt er ein Sonderforschungsstipendium der Humboldt- Stiftung, das er zu einem Aufenthalt in Erlangen bei Prof. Stoyan nutzte. Seit Dezember 1993 ist er Professor für Softwaretechnik und Theorie der Programmierung an der Humboldt-Universität zu Berlin. Die bisherigen wissenschaftlichen Arbeitsgebiete waren: Theorie der Programmierung, Compilerbau (hier wurden Projekte zu Problemen der Quelltexttransformation, zu Portierungstechniken sowie zur Einbeziehung modularer Softwarearchitekturen in den Compilerbau realisiert), Logische Programmierung sowie Expertensysteme (in Zusammenarbeit mit der Charité wurde an einem Expertensystem zur Nierendiagnostik gearbeitet) erschien unter Mitwirkung von S. Stojanow das Buch Praktische Prolog- Programmierung im Verlag Technik Berlin, München.

9 Institut für Informatik 9 PROF. DR. HANS-DIETER BURKHARD Studierte von Mathematik in Jena und Berlin. Zwischenzeitlich arbeitete er 1965/66 als Programmierer im Rechenzentrum der Deutschen Reichsbahn in Berlin. Er erwarb 1974 die Promotion A (Gebiet Automatentheorie) und 1985 die Promotion B (Gebiet Verteilte Systeme). Seit 1972 war er Wissenschaftlicher Mitarbeiter an der Humboldt-Universität in den Bereichen Mathematik und Informationsverarbeitung. 1989/90 war er Mitglied des Runden Tisches an der Humboldt-Universität, und von war er Vorsitzender des Konzils. Im Herbst 1990 wurde er zum Dozenten berufen, 1992 erfolgte die Berufung zum Professor für Künstliche Intelligenz. In seiner wissenschaftlichen Tätigkeit entstanden theoretische und anwendungsorientierte Arbeiten auf den Gebieten Automatentheorie, Schaltkreis-Diagnose, Petrinetze, Verteilte Systeme und Künstliche Intelligenz. Die aktuellen Interessengebiete sind Verteilte Künstliche Intelligenz, Agentenorientierte Techniken, Fallbasiertes Schließen, Knowledge Management, Kognitive Robotik, Sozionik und Anwendungen der Künstlichen Intelligenz im Bereich der Medizin. Er ist Vizepräsident der internationalen RoboCup Federation und ECCAI Fellows. Seine Teams waren mehrmals Weltmeister und deutsche Meister im RoboCup. PROF. DR. WOLFGANG COY Studium der Elektrotechnik, Mathematik und Philosophie an der TH Darmstadt mit dem Abschluss Diplomingenieur der Mathematik im Jahr 1972 und einer anschließenden Promotion in Informatik Zur Komplexität von Hardwaretests im Jahr Es folgten wissenschaftliche Tätigkeiten an der TH Darmstadt, den Universitäten Dortmund, Kaiserslautern und Paris VI Professur für Informatik an der Universität Bremen. Seit 1996 vertritt er das Gebiet Informatik in Bildung und Gesellschaft an der Humboldt-Universität zu Berlin. Seine Interessen in Lehre und Forschung liegen in den Bereichen Digitale Medien, Theorie der Informatik, Informatik und Gesellschaft sowie Sozial- und Kulturgeschichte der Informatik. PROF. DR. PETER EISERT studierte Elektrotechnik an der Universität Karlsruhe (TH) und begann 1995 mit der Promotion am Lehrstuhl für Nachrichtentechnik der Universität Erlangen-Nürnberg. Er arbeitete dort im Graduiertenkolleg 3D Bildanalyse und synthese sowie als wissenschaftlicher Assistent und schloss im Jahre 2000 die Promotion mit dem Thema Very Low Bit-Rate Video Coding Using 3-D Models ab. Im Jahre 2001 arbeitete er als Postdoctoral Fellow am Information Systems Laboratory der Stanford Universität, USA, an Themen der 3D Gesichtsanalyse und Bild-basiertem Rendering. Seit 2002 ist er Gruppenleiter am Fraunhofer Institut für Nachrichtentechnik, Heinrich-Hertz Institut, Berlin, wo er im Bereich der Computer Graphik und Computer Vision in zahlreichen Projekten mit der Industrie und öffentlichen Einrichtungen involviert ist. Seit Oktober 2009 ist er Professor für Visual Computing am Institut für Informatik der Humboldt Universität. Gleichzeitig leitet er noch am Fraunhofer HHI, die Arbeitsgruppe Computer Vision & Graphik. Seine Forschungsinteressen liegen auf dem Gebiet der 3D Videoanalyse und -synthese, 3D

10 10 Jahresbericht 2009 Gesichtsverarbeitung, Computer Graphik, Computer Vision sowie Anwendungen der Erweiterten Realität. PROF. DR. JOACHIM FISCHER Studierte von 1973 bis 1978 Mathematik an der Humboldt-Universität zu Berlin. Nach dem Erwerb des Diploms absolvierte er 1979 ein Ergänzungsstudium am Institut für Informatik der Universität Warschau promovierte er an der Humboldt-Universität auf dem Gebiet der Simulation zeitdiskreter und zeitkontinuierlicher Prozesse. Sechs Jahre später habilitierte er auf dem Gebiet Mathematische Informatik mit einer Arbeit zum Rapid Prototyping verteilter Systeme wurde er zum Professor für Systemanalyse, Modellierung und Simulation an der Humboldt-Universität zu Berlin berufen. Im Mittelpunkt des aktuellen Forschungsinteresses von Prof. Fischer steht die Entwicklung werkzeuggestützter Modellierungs- und Simulationsmethoden verteilter Systeme und deren Anwendung im Telekommunikationsbereich bei Einsatz verteilter Objekttechnologien. Einen Schwerpunkt bildet dabei die konzeptionelle Weiterentwicklung der genormten Spezifikationstechnik Specification and Description Language (SDL) in ihrer Kombination mit weiteren praxisrelevanten Computational- und Engineering-Beschreibungs-techniken wie OMG-UML, ITU-ODL und OMG-Component IDL. Ein weiterer Schwerpunkt ist die Erforschung CORBA-basierter Plattformarchitekturen für Applikationen mit sowohl operationalen als auch Stream-basierten, multimedialen Interaktionen im Telekommunikationsbereich. Ein Großteil der an seinem Lehrstuhl betriebenen Forschungen wird aus Drittmitteln im Rahmen internationaler Projekte finanziert. Bedeutende industrielle Kooperationspartner der letzten Jahre waren T-Nova, Siemens-AG, NTT (Japan), EURESCOM GmbH und gecco.net AG. Seine Mitarbeiter sind in verschiedenen internationalen Standardisierungsgremien wie der OMG und der ITU. Prof. Fischer selbst leitete als Rapporteur in der Studiengruppe 17 der ITU-T (Sprachen und allgemeine Software-Aspekte für Telekommunikationssysteme) derzeitig zwei unterschiedliche Projekte. Er ist Mitglied des DIN-Ausschusses 21.1 und der Arbeitsgemeinschaft Simulation in der Gesellschaft für Informatik (ASIM). Prof. Fischer ist Mitautor mehrerer Fachbücher: Digitale Simulation: Konzepte- Werkzeuge-Anwendungen (Akademie-Verlag Berlin 1990), Objektorientierte Programmierung (Verlag Technik Berlin/München 1992) und Objektorientierte Prozesssimulation" (Addison-Wesley-Verlag 1996). Von 1997 bis 1998 leitete Prof. Fischer als Geschäftsführender Direktor die Verlagerung des Instituts von Berlin-Mitte nach Berlin-Adlershof. PROF. JOHANN-CHRISTOPH FREYTAG, PH.D. Begann sein Studium 1975 in Hamburg und setzte es an der Harvard Universität, MA, USA, fort, wo er 1985 seine universitäre Ausbildung mit dem Ph.D. in Applied Mathematics/ Computer Science abschloss. Danach arbeitete er zwei Jahre am IBM Almaden Research Center (ARC), CA, USA, am Starburst Datenbankprojekt mit, dessen Technologie im heutigen IBM-Datenbankprodukt DB2/UDB wiederzufinden ist kehrte er nach Europa zurück und war für 2 Jahre am ECRC (European Computer Industry Research Centre) im Bereich der Anfragebearbeitung und Transaktionsverwaltung in deduktiven Da-

11 Institut für Informatik 11 tenbanken und objektorientierten Datenbanksystemen tätig übernahm er den Aufbau der Database System Research Gruppe und des Database Technology Centers für Digital Equipment Inc., USA, in München, als deren Leiter er für fast vier Jahre Forschung und Technologietransfer im Bereich Datenbankoptimierung und Anwendung von Datenbanktechnologie im CIM-Bereich koordinierte und selbst forschend tätig war. Dabei entstanden innovative Arbeiten für DECs Datenbanksystem Rdb/VMS und für das Produkt Database Integrator (DBI) als Teil des Technologietransfers. Im Oktober 1993 wechselte Prof. Freytag an die TU München, ehe er im Februar 1994 seine Tätigkeit als Professor für Datenbanken und Informationssysteme an der Humboldt-Universität aufnahm. Parallel zu diesen Tätigkeiten war er von 1986 bis 1993 für die Firma Codd & Date Inc., CA, weltweit in Industrieseminaren tätig. Seine wesentlichen Arbeitsgebiete umfassen Anfragebearbeitung in Datenbanksystemen, Optimierungstechniken für zentrale und parallele Datenbanksysteme, aktive Datenbanken, Workflow und Datenbanken, die Entwicklung geeigneter Schnittstellen zu komplexen Anwendungen sowie alle Aspekte der Datenmodellierung. Seit mehr als drei Jahren widmet er sich im Besonderen dem Bereich Bioinformatik/Life Science. Für seine Arbeiten erhielt Prof. Freytag den IBM-Faculty-Award in den Jahren 1999, 2001, 2002 und 2003 sowie den IBM Shared University Research Grant (SUR-Grant) im Jahre Als Technical Program Chair organisierte er im Jahr 2003 die Very Large Database (VLDB-) Konferenz, die weltweit wichtigste Konferenz im Bereich Datenbanken, an der Humboldt-Universität zu Berlin. PROF. DR. MARTIN GROHE Studierte von 1987 bis 1992 Mathematik mit Nebenfach Informatik an der Albert-Ludwigs-Universität Freiburg und promovierte dort im Jahre 1994 bei Heinz-Dieter Ebbinghaus in der Mathematischen Logik. Die Jahre verbrachte er als Postdoktorand an der Stanford University und der University of California in Santa Cruz. Anschließend kehrte er nach Freiburg zurück und habilitierte dort im Jahre 1998 an der mathematischenfakultät. Im akademischen Jahr hatte er eine Assistenzprofessur an der University of Illinois in Chicago inne, von dort wechselte er 2001 als Reader an die University of Edinburgh. Seit August 2003 ist er Professor am Institut für Informatik der Humboldt-Universität zu Berlin. Die Forschungsinteressen von Professor Grohe liegen in den Bereichen Logik, Algorithmen, Komplexitätstheorie, Graphentheorie und Datenbanktheorie wurde er für seine Arbeiten mit dem Heinz Maier-Leibnitz-Preis der Deutschen Forschungsgemeinschaft und des Bundesministeriums für Bildung und Forschung ausgezeichnet, und im Jahre 2001 wurde er von der amerikanischen Sloan Foundation zum Alfred P. Sloan Fellow ausgewählt. Er ist Mitherausgeber der Zeitschriften Journal of Symbolic Logic und Journal of Discrete Algorithms. PROF. DR. VERENA V. HAFNER Studierte Mathematik und Informatik an den Universitäten Konstanz und Ulm, und gründete 1994 einen der ersten Internet-Service-Provider in Deutschland. Sie erlangte 1999 den Master of Research (M.Res.) in Computer Science and Artificial Intelligence with Distinction von der University of Sussex, und arbeitete bei Cyberlife Technologies in Cambridge pro-

12 12 Jahresbericht 2009 movierte sie am Artificial Intelligence Lab der Mathematisch-Naturwissenschaftlichen Fakultät der Universität Zürich über Adaptive Navigation Strategies in Biorobotics: Visual Homing and Cognitive Mapping in Animals and Machines zum Dr. sc. nat. Danach schloss sie sich der Developmental Robotics Group bei Sony CSL in Paris als Associate Researcher an. Im April 2007 erhielt sie den Ruf als Juniorprofessorin für Kognitive Robotik ans Institut für Informatik der Humboldt-Universität zu Berlin. Ihre Forschungsinteressen sind Verhaltenserkennung, Sensomotorisches Lernen, Affective Computing und Räumliche Kognition. PROF. DR. GALINA IVANOVA Galina Ivanova hat ihr Studium der Informatik und Automatisierungstechnik an der Technischen Universität in Varna, Bulgarien begonnen. Ein Jahr später wechselte sie mit einem Vollstipendium für ein Studium im Ausland zur Technischen Universität Ilmenau, studierte technische Kybernetik und diplomierte neun Semester später im Spezialfach Medizinische Kybernetik und Bionik. Sie promovierte auf dem Gebiet der Medizinischen Technik und Informatik an derselben Universität, wo sie als wissenschaftliche Mitarbeiterin und später als wissenschaftliche Assistentin arbeitete und jahrelang die Fächer Biosignalanalyse und medizinische Biometrie unterrichtete. Ebenfalls dort gründete und leitete sie die NeuroCybernetics Research Group, die mit dem Klee-Preis für Forschung an der Schnittstelle zwischen Technik und Medizin ausgezeichnet wurde. In den Jahren 2007 und 2008 war Frau Ivanova als Gastprofessorin für Biomedizinische Signalanalyse an der Humboldt-Universität zu Berlin tätig und forschte anschließend als Assistentin in den Neurowissenschaften an dem Martinos Center for Biomedical Imaging in Boston, wo sie auch Mitglied der Visiting Faculty war. Im Sommer 2009 schloss sie sich an die am Leibnitz-Institut für Primatenforschung situierten Sensorimotor Gruppe des Bernsteinzentrums in Göttingen an. Im Herbst 2009 übernahm Galina Ivanova die Professur für Signal- und Informationsanalyse in den Neurowissenschaften, die mit Beteiligung der Institute für Informatik, für Psychologie und für Physik an dem Institut für Informatik der Humboldt-Universität zu Berlin eingerichtet wurde. und Logik. PROF. DR. JOHANNES KÖBLER Studierte von 1978 bis 1985 Informatik mit Nebenfach Mathematik an der Universität Stuttgart. Nach seiner Promotion im Jahr 1989 wechselte er an die Universität Ulm und habilitierte dort 1995 im Fach Theoretische Informatik. Seit Oktober 1999 ist er Professor für Algorithmen und Komplexität an der Humboldt-Universität zu Berlin. Die Forschungsinteressen von Prof. Köbler liegen auf den Gebieten Komplexitätstheorie, Algorithmisches Lernen und Kryptografie. Sein Hauptinteresse gilt der Komplexität konkreter algorithmischer Problemstellungen wie etwa der des Graphisomorphieproblems und Fragestellungen wie Lässt sich die Effizienz von Algorithmen durch Zuhilfenahme von Zufallsentscheidungen oder von Interaktion steigern? Daneben vertritt Prof. Köbler die Lehrgebiete (probabilistische und approximative) Algorithmen, Automatentheorie und formale Sprachen, Berechenbarkeitstheorie und Logik.

13 Institut für Informatik 13 PROF. DR. ULF LESER Ulf Leser studierte Informatik an der Technischen Universität München und arbeitete danach am Max-Planck-Institut für molekulare Genetik in Berlin an der Entwicklung von integrierten Datenbanken im Rahmen des Human Genome Projekts. Von 1997 bis 2000 promovierte er am Graduiertenkolleg Verteilte Informationssysteme über Anfragealgorithmen in heterogenen Informationssystemen. Nach der Promotion ging er in die Industrie und leitete bei der UBIS AG Softwareentwicklungsprojekte im Bereich Data Warehousing, ecommerce und Wissensmanagement. Seit 2002 ist er Professor für Wissensmanagement in der Bioinformatik an der Humboldt-Universität. Die Forschungsarbeiten von Prof. Leser und seinen Mitarbeitern beschäftigen sich mit allen Aspekten der Integration heterogener, verteilter Datenbanken, der Modellierung, Implementierung und Optimierung komplexer Wissens- und Datenbanken sowie der automatischen Analyse von natürlichsprachlichen Fachpublikationen (Text Mining). Dies umfasst beispielsweise Graphdatenbanken und das Semantic Web, Verfahren des machinellen Lernens, Proteinfunktionsvorhersage, und Indexstrukturen für den skalierbaren Zugriff auf komplexe Daten. Die Gruppe entwickelt innovative Methoden auf diesem Gebieten vor allem für biomedizinische Daten, aber auch für die Geoinformatik (Informationsmanagement im Katastrophenmanagement) und die Computerlinguistik (Datenbanken für tief annotierte Korpora). PROF. DR. MIROSLAW MALEK Erhielt 1970 das Diplom für Elektronik und promovierte 1975 auf dem Gebiet der Technischen Informatik an der Technischen Universität Wroclaw (Breslau), Polen war er als Gastwissenschaftler der Universität zu Waterloo in Waterloo, Ontario, Canada. Danach folgten Assistent Professor, Associate Professor und Professor an der Universität zu Texas in Austin, wo er außerdem Inhaber der Bettie-Margaret-Smith- und Southwestern-Bell-Professur war. Im Juli 1994 wurde er zum Professor für Rechnerorganisation und Kommunikation an der Humboldt-Universität zu Berlin berufen. Prof. Maleks Interessen richten sich auf zuverlässiges, fehlertolerantes und echtzeitfähiges Rechnen für parallele und verteilte Rechnersysteme und Kommunikation. Er nahm an zwei Pionierprojekten zum Parallelrechnen teil, die entscheidend zu Theorie und Praxis des parallelen Netzwerkdesigns beitrugen. Er entwickelte die auf Vergleich basierende Methode für Systemdiagnose (MM-Modell) und hatte teil an der Entwicklung von WSI und Diagnosetechniken in Netzwerken, unterbreitete Vorschläge für den Entwurf konsensbasierter responsiver Rechnersysteme und veröffentlichte mehr als 200 Fachbeiträge und mit G. J. Lipovski das Buch Parallel Computing: Theory and Comparisons. Er war außerdem Herausgeber von fünf Büchern über responsives Rechnen und Dienstverfügbarkeit. Weiterhin führte er den Vorsitz, organisierte und war Programm-Komitee-Mitglied zahlreicher internationaler IEEE- und ACM-Konferenzen und Workshops. Er gehört zu den Herausgebergremien der Zeitschriften Journal of Interconnection Networks und Real-Time Systems Journal. Während der Sommer 1984 und 1985 arbeitete er am IBM T. J. Watson Research Center, Yorktown Heights, N.Y. Er war Wissenschaftler am Office of Naval Research in London, Inhaber des IBM - Lehrstuhls an der Keio Universität in Japan in der Zeit von Juni 1990 bis August 1992 und Gastprofessor an der Stanford Universität in Kalifornien (1997/98), an der New York University (2001) und an der CNR/Universita di Pisa (2002), City University of Hongkong (2005) und Univerita di Roma ( La Sapienza, 2006).

14 14 Jahresbericht 2009 PROF. DR. BEATE MEFFERT Studierte nach dem Abitur und einer gleichzeitigen Ausbildung als Funkmechanikerin Theoretische Elektrotechnik an der Technischen Hochschule Ilmenau. Während der anschließenden Tätigkeit als wissenschaftliche Assistentin an der Sektion Elektronik der Humboldt-Universität zu Berlin 1976 Promotion (A) über Walshfunktionen und Anwendungen der Walshtransformation, 1983 Promotion (B) zur Theorie und Applikation der Sequenztechnik Hochschuldozentin und fünf Jahre später ordentliche Professorin an der Sektion Elektronik der Humboldt-Universität. Seit 1993 Professorin für das Fachgebiet Signalverarbeitung und Mustererkennung am Institut für Informatik der Humboldt-Universität zu Berlin. Zu den bisherigen und gegenwärtigen Arbeitsgebieten gehören: Theorie und Applikation orthogonaler Transformationen; Grundlagen der Signalverarbeitung; Sequenztechnik; Erfassung, Verarbeitung und Klassifikation von Biosignalen zur Unterstützung der Diagnostik und zur Therapiekontrolle; Bildverarbeitung, speziell Datenreduktion im Spektralbereich, Klassifikationsverfahren; Lehrgebiete: Grundlagen der Signalverarbeitung, Mustererkennung, Bildverarbeitung. Prof. Meffert hat gemeinsam mit Olaf Hochmuth das Lehrbuch Werkzeuge der Signalverarbeitung geschrieben. PROF. DR. JENS-PETER REDLICH Begann 1988 ein Informatikstudium an der Humboldt-Universität zu Berlin, welches er 1992, nach einem Gastaufenthalt am City College New York, mit dem Diplom abschloss. Als wissenschaftlicher Mitarbeiter arbeitete er anschließend 5 Jahre am Lehrstuhl Systemarchitektur, wo er sich der Erforschung objektorientierter Telekommunikationssysteme widmete und 1995 zum Dr. rer. nat. promovierte schrieb er das erste deutschsprachige Buch über CORBA eine moderne objektorientierte Middleware-Plattform wechselte Herr Redlich zur Industrie, zunächst als Gastwissenschaftler am C&C Labor der Firma NEC in Princeton, NJ, USA. Ab 1998 arbeitete er dort als unbefristeter Mitarbeiter (Research Staff Member) bis er 2000 als Department Head die Leitung der Abteilung Mobile Internet übernahm. In dieser Zeit entstand Point-M, ein System für den sicheren drahtlosen Zugang zu Firmennetzwerken, für welches mehrere Patente in den USA, Europa und Japan angemeldet wurden. Im Sommer 2004 kehrte Herr Redlich nach Deutschland zurück, wo er nun an der Humboldt-Universität als Professor für Systemarchitektur (C4) und für NEC Europe als Senior Research Advisor tätig ist. Seine Forschungsinteressen umfassen Betriebssysteme und Middleware, Sicherheit und Mobilkommunikation. Derzeitiger Schwerpunkt sind selbstorganisierende Netzwerke und Dienstplattformen, wie z.b. Ad- Hoc-Netzwerke für basierte Community-Netzwerke. Als Gutachter für Zeitschriften sowie als Mitglied von Programm-Komitees ist Herr Redlich international seit vielen Jahren tätig.

15 Institut für Informatik 15 PROF. DR. ALEXANDER REINEFELD Studierte zunächst Physik an der TU Braunschweig und anschließend Informatik an der Universität Hamburg und an der University of Alberta (Edmonton, Kanada) schloss er das Studium mit dem Diplom in Informatik ab und im Jahr 1987 promovierte er zum Dr. rer nat., beides an der Universität Hamburg. Während seiner beiden einjährigen Forschungsaufenthalte in Edmonton als DAAD-Stipendiat bzw. als Sir Izaak Walton Killam Memorial Post-Doctoral Fellow widmete er sich in den Jahren 1984/ 85 und 1987/88 der Entwicklung effizienter Baum-Suchalgorithmen, die in der Künstlichen Intelligenz zum Fällen von Entscheidungen in komplexen Situationen eingesetzt werden. Von 1983 bis 1987 arbeitete Herr Reinefeld als wissenschaftlicher Mitarbeiter und von 1989 bis 1992 als Hochschulassistent an der Universität Hamburg. In den dazwischenliegenden Jahren sammelte er Industrie-Erfahrung als Unternehmensberater in den Bereichen Systemanalyse, Datenbanken und Compilerbau wechselte Herr Reinefeld als geschäftsführender Leiter an das Paderborn Center for Parallel Computing, das er maßgeblich als überregionales wissenschaftliches Institut der Universität Paderborn mit aufgebaut hat. Seit 1998 leitet Herr Reinefeld den Bereich Computer Science am Konrad-Zuse-Zentrum für Informationstechnik Berlin (ZIB). Diese Aufgabe ist verbunden mit einer Professur für Parallele und Verteilte Systeme am Institut für Informatik der Humboldt-Universität zu Berlin. PROF. DR. WOLFGANG REISIG Studierte in Karlsruhe und Bonn Physik und Informatik. Er war wissenschaftlicher Mitarbeiter und Assistent von 1974 bis 1983 an der Universität Bonn und der RWTH Aachen. Dort promovierte er 1979 zur Analyse kooperierender sequentieller Prozesse vertrat er eine Professur an der Universität Hamburg und leitete anschließend bei der Gesellschaft für Mathematik und Datenverarbeitung Projekte zur Systemanalyse und -modellierung habilitierte er an der Universität Bonn und wurde danach zum Professor für Theoretische Informatik an die TU München berufen. Seit 1993 ist er Professor für Softwaretechnik und Theorie der Programmierung am Institut für Informatik der Humboldt- Universität zu Berlin. Prof. Reisig war Geschäftsführender Direktor des Institutes für Informatik und sowie Dekan der Mathematisch-Naturwissenschaftlichen Fakultät II der HU Berlin Die Forschungsarbeiten von Prof. Reisig sind in zwei Bereiche gegliedert: In den Projekten des ersten Bereichs werden Methoden und Modellierungstechniken für den Systementwurf (weiter-) entwickelt, insbesondere Petrinetze, Abstract State Machines und die Temporal Logic of Actions. Sie sind Grundlage für den zweiten Bereich, in dem diese Methoden und Techniken praktisch eingesetzt werden. Prof. Reisig hat mehrmonatige Forschungsaufenthalte im ICSI, Berkeley, als Lady Davis Visiting Professor am Technion, Haifa, und bei Microsoft Research (Redmond) verbracht. Für seine grundlegenden Projekte zur Modellierung und Analyse von Geschäftsprozessen zusammen mit dem IBM-Labor in Böblingen hat Prof. Reisig 2003 und 2005 einen IBM Faculty Award erhalten.

16 16 Jahresbericht 2009 PROF. DR. RALF REULKE Studierte von 1975 bis 1980 Physik an der Humboldt-Universität zu Berlin, wo er auch 1984 promovierte. Seit 1983 arbeitete er am Institut für Kosmosforschung der Akademie der Wissenschaften der DDR in Berlin- Adlershof auf den Gebieten der multispektralen Fernerkundung, Signalund Bildverarbeitung, sowie der optischen Sensorik. Seit 1992 ist Ralf Reulke Mitarbeiter am Deutschen Zentrum für Luft- und Raumfahrt und arbeitete dort in verschiedenen Instituten und Einrichtungen. Er war an einer Vielzahl von Projekten beteiligt. Dazu gehörten Sensoren, die z.b. zur Erforschung des Mars und dem Saturn dienten, aber auch hochauflösende Kamerasysteme für die Erdfernerkundung, so zum Beispiel zusammen mit der Firma Leica, die Flugzeugkamera ADS40 und eine hochauflösende terrestrische Panoramakamera. Im Jahre 2002 erhielt er als Professor einen Ruf an die Universität Stuttgart. Seit August 2004 ist er Professor für Computer Vision am Institut für Informatik der Humboldt- Universität. Gleichzeitig leitet er am deutschen Zentrum für Luft- und Raumfahrt eine Abteilung für Bild- und Signalverarbeitung. Seine Forschungsinteressen liegen auf dem Gebiet der Signal- und Bildverarbeitung, der Sensor- und Datenfusion und der Visualisierung. PROF. DR. HOLGER SCHLINGLOFF Studierte von Informatik und Logik an der TU München und promovierte dort 1990 mit einer Arbeit zur temporalen Logik von Bäumen. Im Jahr 1991 war Prof. Schlingloff Gastwissenschaftler an der Carnegie-Mellon-Universität in Pittsburgh, PA. Von 1992 bis 1996 war er wissenschaftlicher Assistent am Institut für Informatik der TU München und danach bis 2001 Geschäftsführer des Bremer Instituts für Sichere Systeme (BISS) am Technologie-Zentrum Informatik (TZi) der Universität Bremen. In seiner Habilitation (2001) beschäftigte er sich mit partiellen Zustandsraumanalyseverfahren für sicherheitskritische Systeme. Seit 2002 ist Holger Schlingloff Professor für Spezifikation, Verifikation und Testtheorie am Institut für Informatik der Humboldt- Universität, und gleichzeitig wissenschaftlicher Leiter in der Abteilung eingebettete Systeme (EST) am Fraunhofer Institut für Rechnerarchitektur und Softwaretechnik FIRST. Seine Arbeitsgebiete sind die Software-Qualitätssicherung mit formalen Methoden, temporale Logik und Modellprüfung, sowie spezifikationsbasiertes Testen von eingebetteten Steuergeräten.

17 Graduiertenkolleg METRIK 17 III. Graduiertenkolleg METRIK DFG-Graduiertenkolleg 1324 MODELLBASIERTE ENTWICKLUNG VON TECHNOLOGIEN FÜR SELBSTORGANISIERENDE DEZENTRALE INFORMATIONSSYSTEME IM KATASTROPHENMANAGEMENT (METRIK) Sprecher PROF. DR. SC. NAT. JOACHIM FISCHER Tel.: (030) Sekretariat GABRIELE GRAICHEN Tel.: (030) Stipendiaten DIPL.-INF. MARKUS SCHEIDGEN DIPL.-INF. ARTIN AVANES DIPL.-INF. GUIDO WACHSMUTH DIPL.-INF. STEPHAN WEIßLEDER DIPL.-INF. DIRK FAHLAND DIPL.-ING. STEFAN BRÜNING DIPL.-INF. DANIEL SADILEK DIPL.-GEOGR. FALKO THEISSELMANN DIPL.-INF. SEBASTIAN HEGLMEIER DIPL.-INF. SIAMAK HASCHEMI MGR. JAN CALTA M. SC. ENG. JOANNA GEIBIG M.SC. JARUNGJIT PARNJAI DIPL.-GEOGR. ANDREAS REIMER DIPL. INF. CHRISTOPH WAGNER DIPL.-INF. ANDREAS DITTRICH DIPL. INF. HENRYK PLÖTZ M.SC. JENS NACHTIGALL DIPL.-INF. ARIF WIDER Assoziierte DIPL.-INF. FRANK KÜHNLENZ M.SC. KATHRIN POSER DIPL.-INF. TIMO MIKA GLÄßER DIPL.-INF. PETER MASSUTHE DIPL.-INF. CHRISTIAN STAHL DIPL.-INF. NIELS LOHMANN DIPL.-INF. MICHAEL SODEN DIPL.-INF. HAJO EICHLER

18 18 Jahresbericht 2009 Betreuende Hochschullehrer PROF. DR. DORIS DRANSCH, Geo-Informationsmanagement und Visualisierung PROF. DR. JOACHIM FISCHER, Systemanalyse, Modellierung und Computersimulation PROF. JOHANN-CHRISTOPH FREYTAG, PHD., Datenbanken und Informationssysteme DR. ECKHARDT HOLZ, Softwaretechnik PROF. DR. ULF LESER, Wissensmanagement in der Bioinformatik PROF. DR. MIROSLAW MALEK, Rechnerorganisation und Kommunikation PROF. DR. JENS-PETER REDLICH, Systemarchitektur PROF. DR. ALEXANDER REINEFELD, Parallele und Verteilte Systeme PROF. DR. WOLFGANG REISIG, Theorie der Programmierung PROF. DR. HOLGER SCHLINGLOFF, Spezifikation, Verifikation und Testtheorie Da Naturkatastrophen die Menschheitsentwicklung kontinuierlich begleitet haben, sind immer wieder Anstrengungen unternommen worden, den durch diese Katastrophen verursachten Zerstörungen und dem Verlust an Menschenleben entgegenzuwirken. Dabei gewinnen die zuverlässige Vorhersage bzw. schnelle Erfassung von extremen Umweltsituationen (Erdbeben, Stürme und Überschwemmungen) und die zielgerichtete Reaktion darauf immer mehr an Bedeutung. Mit den heutigen Entwicklungen in Hardware und Software stehen neue Möglichkeiten zur Verfügung, Katastrophen wirkungsvoll zu begegnen. Das interdisziplinär ausgerichtete Graduiertenkolleg METRIK Modellbasierte Entwicklung von Technologien für selbstorganisierende, dezentrale Informationssysteme im Katastrophenmanagement (GRK 1324/1) widmet sich der Erschließung dieser Möglichkeiten bei Einsatz drahtlos vermaschter Sensornetze. In enger Kooperation entwickeln Informatiker und Geo-Wissenschafler IT-basierte Methoden und Basistechnologien, um den komplexen Prozess des Katastrophenmanagements in ausgewählten Aspekten zu verbessern. Seitens des Katastrophenmanagements kann das Graduiertenkolleg auf der umfassenden Kompetenz und internationalen Reputation des Deutschen GeoForschungsZentrums (GFZ) am Helmholtz-Zentrum Potsdam als Partnereinrichtung aufbauen. Neben dem dort eingerichteten Center for Disaster Management and Risk Reduction Technology unterhält das GFZ eine TaskForce Erdbeben, die sich insbesondere mit der Erforschung geophysikalischer Prozesse beschäftigt, welche während und nach einem schweren Erdbeben ablaufen. Zusätzlich zu den weltweit durchgeführten seismischen Permanentmessungen entsendet sie im akuten Erdbebenfall auch Wissenschaftlergruppen zur Messung und Bewertung der seismischen Aktivitäten in die betroffenen Gebiete vor Ort. Diese Einsatzgruppen benötigen neben einer geeigneten katastrophentauglichen Mess- und Kommunikationsinfrastruktur auch echtzeitfähige IT-basierte Methoden und Technologien zur Datenintegration und Datenauswertung - einerseits für die Vorbereitungsphase und zum anderen für die akute Notfallphase eines Katastrophenmanagements (siehe Abb. 1).

19 Graduiertenkolleg METRIK 19 Abb. 1: Potenzieller Anwendungsbereich von METRIK-Basistechnologien im Katastrophenmanagement Der Berichtszeitraum zeichnet sich durch erste Promotionsabschlüsse in METRIK aus. Dazu gehören die Arbeiten von Thomas Röblitz (bereits Ende 2008), Markus Scheidgen, Peter Massuthe und Christian Stahl. Weitere Höhepunkte der Arbeit waren die Organisation und Durchführung eines Workshops der DFG-Graduiertenkollegs Deutschlands auf dem Gebiet der Informatik in Schloss Dagstuhl im Frühjahr, die Vorbereitung und Durchführung zweier Klausur- Evaluierungsworkshops und die Ausarbeitung eines METRIK-Gesamtberichtes, inklusive der Vorbereitung eines Fortsetzungsantrages des Graduiertenkollegs bei der DFG für die zweite Förderperiode.

20 20 Jahresbericht 2009 Forschungsthemen Selbstorganisation als Herausforderung und Leitmotiv für das Graduiertenkolleg Entscheidend für die zuverlässige Funktion von Infrastrukturen als verteilte Systeme ist die Verwirklichung des Prinzips der Selbstorganisation als Ausprägung unterschiedlicher Adaptionsformen bezüglich sich ändernder Umgebungen. Um einen optimalen Betrieb zu gestatten, muss dieses Prinzip auf unterschiedlichen Hierarchieebenen eines verteilten Systems angewandt werden, so z.b. auf der Link-Ebene (Frequenzwahl, Modulationsadaption), der Netzwerkebene (Topologiebildung, Adressvergabe, Routing), der Peer-to-Peer-Middleware-Ebene (Ressourcenzuordnung für P2P- Komponentendienste) und der Datenverwaltungsebene (dezentrale Informationsspeicherung, dynamische Datenkonvertierung bei unterschiedlichen Darstellungsformaten, dezentrale Informationsintegration). Erst in der Anwendungsebene kann man sich von der Spezifik der Netzarchitektur befreien; insbesondere dann, wenn sich diese Anwendungen nicht nur über selbstorganisierende, sondern auch zentral verwaltete Netzstrukturen einschließen. Die Auseinandersetzung mit der Frage der Selbstorganisation im Sinne steuerbarer Adaptionen wurde vom Graduiertenkolleg als zentrales Leitmotiv aufgenommen. Vernetzung durch Interdisziplinarität und modellbasierte Herangehensweisen Neben dem Leitmotiv der Selbstorganisation haben zwei weitere Merkmale von METRIK eine wesentliche Bedeutung für eine erfolgreiche integrative Forschungsarbeit innerhalb des Graduiertenkollegs und bei Kooperationen mit externen Forschungsverbünden. Zum einen trug der interdisziplinäre Charakter des Graduiertenkollegs, geprägt durch das Anwendungsfeld des Katastrophenmanagements, zur verstärkten Zusammenarbeit sowohl der Doktoranden als auch ihrer Betreuer aus Informatik und geo-wissenschaftlichem Kontext bei. Zum anderen hat die Fokussierung auf modellbasierte Herangehensweisen im Graduiertenkolleg das fachübergreifende Verständnis in einem sehr hohen Maße gefördert. Die Komplexität der Zusammenhänge und Wechselwirkungen in selbstorganisierenden Systemen einschließlich ihrer Anwendungen, verlangte nicht nur schlechthin einen verstärkten Einsatz von Modellierungstechniken, Bewertungen von Entwurfsentscheidungen und prinzipiellen Machbarkeitsstudien, sie forderte darüber hinaus kombinierte Aussagen zur Funktionalität und zur Bewertung erreichter Quality-of-Service-(QoS)- Eigenschaften. Des Weiteren werden Informationsmodelle als Annahmen über den globalen Zustand der Selbstorganisation auf den unterschiedlichen Abstraktionsstufen benötigt, die diesen Zustand iterativ konkretisieren. Schließlich konnten durch die Adaption klassischer modellgetriebener Softwareentwicklungsverfahren wichtige Impulse für eine rationelle Softwareentwicklung konkret auch für den neuartigen Anwendungsbereich selbstorganisierender drahtloser Sensorsysteme gesetzt werden. Sowohl bereits verfügbare als auch im Graduiertenkolleg neu entwickelte Werkzeuge trugen zur Unterstützung des gesamten Software-Lebenszyklus (Entwurf-Implementierung-Deployment-Betrieb) bei. Eine besonders intensive Zusammenarbeit von Doktoranden des Graduiertenkollegs kam im Bereich der Entwicklung von Technologien zur Konstruktion domänenspezifischer Sprachen, insbesondere spezifischer Modellierungssprachen, zustande. Neben der Bereitstellung von Werkzeugen (Editoren, Semantik-Checker, Interpreter für operationelle Semantiken, Debugger), die nunmehr automatisch aus metamodellbasierten Sprachdefinitionen generiert

21 Graduiertenkolleg METRIK 21 werden können, stand auch die gemeinsame Anwendung dieser sprachorientierten Technologien im Fokus des Graduiertenkollegs. Neben überzeugenden Anwendungen von METRIK-Technologien aus dem Bereich des Katastrophenmanagements sollen zwei weitere Kooperationsfelder des Graduiertenkollegs aufgezeigt werden. Die Entwicklung von domänenspezifischen Sprachen blieb nicht auf das Katastrophenmanagement beschränkt. METRIK-Technologien zur Entwicklung von Modellierungssprachen und zur automatisierten Werkzeugbereitstellung wurden auch erfolgreich im Rahmen eines METRIK-Kooperationsprojekts mit dem Institut für Physik der HU Berlin auf dem Gebiet der Nano-Optik angewandt. Im Bereich der Workflow-Modellierung konnte METRIK eine Kooperation mit der Technischen Universität Eindhoven (Niederlande) aufbauen, die sich über gemeinsame Publikationen, Workshops und Doppelpromotionen (Cotutelle-Verfahren) im Bereich der Modellierung von Services und Geschäftsprozessen etabliert hat. Anwendung von METRIK-Basistechnologien im Katastrophenmanagement Im Folgenden werden drei Beispiele beschrieben, die den den gelungenen Transfer von METRIK-Basistechnologien im Geo- bzw. Katastrophenmanagementumfeld exemplarisch belegen. a) Einsatzvorbereitung der TaskForce Erdbeben In Form einer Fallstudie mit der TaskForce Erdbeben des Deutschen GeoForschungs- Zentrums Potsdam wurde ein adaptives Prozessmodell für Geschäftsprozesse zur Beschreibung der Vorbereitung und Durchführung eines Einsatzes der Task-force nach schweren Erdbeben für die jeweils spezifische Region in der Welt entwickelt. Beim Auftreten eines Erdbebens muss zunächst innerhalb der Taskforce entschieden werden, ob man dieses Beben vor Ort untersuchen möchte, um in diesem Fall die entsprechenden logistischen Maßnahmen zu treffen. Dies sollte in einem Zeitrahmen von 10 bis 14 Stunden nach einem Beben geschehen, da sonst eine zweckdienliche Untersuchung nicht mehr möglich ist. Dieser Entscheidungsfindungsprozess besteht aus einer komplexen Kette hunderter verwobener Einzelaktivitäten, die beispielsweise der Informationsge-winnung und bewertung, der Kommunikation und Abstimmung mit anderen Gruppen, oder der gestuften Eskalation von Nachrichten dienen. Ausgangspunkt für die durch METRIK vorgenommene Modellierung waren methodische Untersuchungen in METRIK zur Konstruktion eines formalen Verhaltensmodells, das sich adaptiv (in diesem Sinne selbstorganisierend) aus einer Menge einzelner Szenarien systematisch konstruieren lässt. Das entwickelte Modell wurde von der TaskForce Erdbeben sehr gut aufgenommen und dient dort bereits im praktischen Einsatz zur Strukturierung und Organisation einzelner Tätigkeiten. Darüber hinaus waren die bei seiner Erstellung gewonnenen Erfahrungen unmittelbarer Anlass für die Entwicklung des Equator-Systems, das im folgenden Absatz beschrieben wird. b) Das Informationssystem Equator Das in METRIK entwickelte Equator-System (siehe Abb. 2) automatisiert den Prozess des Sammelns erfasster Daten über ein stattgefundenes Erdbeben und trägt damit erheblich zur einer Beschleunigung und Qualitätssicherung derartiger Aktivitäten bei.

22 22 Jahresbericht 2009 Abb. 2: Integrierte Darstellung der von drei Quellen berechneten Epizentren zum Erdbeben vom in Honshu, Japan Dies ist insbesondere deshalb sinnvoll, weil fast alle Informationsquellen bereits elektronisch im Web verfügbar sind. Equator ist deshalb im Kern ein System, das verschiedene andere Systeme zur Messung von Erderschütterungen integriert. Auf Anfrage wird zu einem Erdbeben ein komplexer Bericht erstellt, der alle verfügbaren Informationen integriert und strukturiert darstellt. Insbesondere unterstützt Equator damit die TaskForce Erdbeben am Deutschen GeoForschungsZentrum Potsdam, da dem Team damit eine integrierte und ständig aktualisierte Sicht auf weltweit verteilte Erdbebeninformationen ermöglicht wird. Zusätzlich zu dieser Analyse ist es notwendig, vor Ort entsprechende Untersuchungen anzustellen. Der Prozess der Entscheidungsfindung basiert wesentlich auf Informationen, die im Falle eines Erdbebens so schnell wie möglich gesammelt werden müssen, wie Informationen über das Beben, die Region, die Bebenhistorie usw. Dazu werden die Meldungen verschiedener Erdbebeninformationsagenturen ausgewertet (GEOFON, USGS, EMSC, WAPMER etc.). Das Ergebnis dieses Sammlungsprozesses wäre ohne Equator nur ein Stapel von Ausdrucken/Blättern. Equator fußt auf einem spezifizierten Workflow zur Einsatzvorbereitung der TaskForce Erdbeben und kann als eine partielle Implementierung der dort festgehaltenen Tätigkeiten verstanden werden. Equator wird seit seiner Inbetriebnahme im Sommer 2008 von der TaskForce Erdbeben regelmäßig benutzt. c) SOSEWIN als Prototyp eines drahtlos vermaschten Sensornetzwerkes In Kooperation mit dem Deutschen GeoForschungsZentrum wurde im Rahmen des europäischen Projektes SAFER (Seismic Early Warning for Europe) der Prototyp eines Erdbebenfrühwarn- und Rapid-Response-Systems für die Stadt Istanbul entwickelt (siehe Abb. 3), dessen Netzwerkinfrastruktur mit von METRIK entwickelten Technologien betrieben wird. Das installierte System SOSEWIN (Self-Organizing Seismic Early Warning Information Network) ist dabei nicht nur das weltweit erste drahtlose seismische Maschennetzwerk,

23 Graduiertenkolleg METRIK 23 sondern kann bei weiterem Ausbau das weltweit erste Erdbeben-Rapid-Response-System werden, das zudem in einer dicht besiedelten Metropole mit Messtechnik vor Ort zum Einsatz kommt. Grundlage der Erdbebenfrühwarnung ist die Ausnutzung der unterschiedlichen Ausbreitungsgeschwindigkeiten seismischer Wellen in Abhängigkeit der von ihnen transportierbaren Energien. Man unterscheidet insbesondere zwischen Primär- und Sekundärwellen (Pund S-Wellen), wobei P-Wellen mit Spitzengeschwindigkeit von 5 km/s (in Granit) nahezu eine doppelte Ausbreitungsgeschwindigkeit gegenüber S-Wellen haben. Da Primärwellen nicht in der Lage sind, Zerstörungen hervorzurufen, sind sie als Ankündigungen der gefährlichen S-Wellen bestens geeignet. Sie zu erkennen, um herannahende S-Wellen auch quantitativ zu prognostizieren, ist die zentrale Aufgabe eines Frühwarnsystems. Die Aufgabe eines Rapid-Response-Systems besteht dagegen darin, so schnell wie möglich bei einem Ereignis die Intensität des Bebens in der Fläche in einem Raster von mindestens 1 km anzugeben, um in einer ersten Schadensbewertung im Abgleich mit weiteren verfügbaren Daten wie Bebauung, Bevölkerungsdichte usw. Zerstörungen, Tote und Verletzte abschätzen zu können. Abb. 3: Erdbebenfrühwarn- und Rapid-Response-System für Istanbul Mit SOSEWIN als Prototyp ist es insbesondere gelungen, den zentralen Anspruch zu untermauern, dass selbstorganisierende Systeme in Gestalt drahtlos vermaschter Sensornetzwerke durch Miniaturisierung, autonome Adaptionsfähigkeit und niedrige Kosten völlig neue Möglichkeiten eröffnen, komplexe Umweltprozesse zu messen und in Echtzeit zu analysieren. Mehrere Aspekte kamen hier gleichzeitig vorteilhaft zum Tragen. Der geringe Knotenpreis (im Wesentlichen durch die Güte der verwendeten Seismometer bestimmt) erlaubt eine wesentlich höhere Knotendichte eines Seismometernetzes, die sich in der Qualität einer flächendeckenden Beobachtung von Erschütterungsspitzen niederschlägt. Selbstorganisation hilft den eventuellen Ausfall von Knoten (zumindest in gewissen Grenzen) durch das Netz zu kompensieren. Die Kooperation der Knoten bei der Analyse seismischer Wellen

24 24 Jahresbericht 2009 ermöglicht die Kompensation von Fehlinterpretationen einzelner Knoten bei der punktuellen Analyse des Umweltphänomens. Seit August 2008 läuft das System SOSEWIN in einer Konfiguration von 20 Knoten stabil und steht METRIK für verschiedene Studien zur Verfügung. Das Netz, im Stadtbezirk Ataköy auf Dächern 10-stöckiger Häuser mit Sichtkontakt installiert, ist per Internet mit dem Kandilli Observatorium in Istanbul, mit dem GeoForschungsZentrum Potsdam und dem Institut für Informatik in Berlin verbunden. Seismometerbeobachtungen, inklusive permanent erfasste Seismometerrohdaten sowie beliebige Statusinformationen der einzelnen Knoten und ihrer Verbindungen lassen sich von den entfernten Standorten abfragen. Ebenso wird (zumindest im bestimmten Rahmen) ein entfernter Softwarekomponentenaustausch unterstützt. Die Einbindung des Systems in die bestehende Frühwarninfrastruktur steht jedoch noch aus. Nach Bereitstellung eines Synthesizers für synthetische Erdbebendaten wurde jetzt damit begonnen, die Reaktion des Systems szenarienorientiert systematisch zu untersuchen. Weitere Erfahrungen mit der SOSEWIN-Technologie konnten durch die Anwendung unserer Netztechnik zur Gebäudeüberwachung im Zuge der intensiven Serie von Nachbeben des L Aquila-Erdbebens in Italien (April 2009) auch durch die TaskForce Erdbeben gesammelt werden. Strukturelle Aufstellung des Graduiertenkollegs Das Forschungsprogramm des Graduiertenkollegs wurde entsprechend seiner ursprünglich beantragten Form so organisiert, dass die verschiedenen Fragestellungen bei der Erforschung dezentral verwalteter Informationssysteme zum einen mit spezifischen Fragestellungen der Selbstorganisation einer drahtlosen Netzwerkstruktur und zum anderen mit Aufgabenstellungen aus einem interdisziplinären Anwendungsgebiet, dem IT-gestützten Katastrophenmanagement, in Zusammenhang gebracht werden konnten. Unser Anwendungsgebiet des Katastrophenmanagements, das derartige Infrastrukturen als Basis voraussetzt, betont den Aspekt dynamischer Topologieänderungen in den dezentralen Netzstrukturen und erfordert zudem auch die Einbeziehung zentral verwalteter Informationssysteme. Letztendlich soll damit die Grundlage zur Integration von Geo- Informationsdiensten gelegt werden, die ihre Daten jeweils sowohl aus selbstorganisierenden Sensornetzen als auch aus zentral verwalteten Geo-Informationssystemen beziehen. Diese Geo-Dienste bilden wiederum eine Informationsbasis zum Aufbau von Katastrophenmanagementsystemen, wobei das Graduiertenkolleg Workflow-basierte Modellierungen ins Zentrum seiner Untersuchungen stellt. Eine besondere Bedeutung kommt im Graduiertenkolleg der Systemmodellierung zu, deren Beiträge in unterschiedlichen Forschungsbereichen die Verzahnung einzelner Aufgabenstellungen aus den unterschiedlichen Teilbereichen verstärken und zudem die Qualität der angestrebten Systemlösungen hinsichtlich unterschiedlicher Kriterien untermauern und verbessern sollen. Besondere Impulse erhofften wir uns von der Bereitstellung adäquater Modellierungssprachen, die über metamodellbasierte Sprachbeschreibungen rationell zu prototypischen Werkzeuglösungen führen sollten. Sämtliche Dissertationsthemen wurden fünf Forschungsbereichen (siehe Abb. 4) zugeordnet: Selbstorganisation (A), Modellgetriebene Softwareentwicklung (B), Dezentrale Informationssysteme (C), Workflow-Management (D) und Katastrophenmanagement (E).

25 Graduiertenkolleg METRIK 25 Modellgetriebene Softwareentwicklung (B) Katastrophenmanagement (E) Dezentrale Informationssysteme (C) Selbstorganisation (A) Workflow-Management (D) Abb. 4: Die Verzahnung der Forschungsbereiche Damit ist es dem Graduiertenkolleg über Prof. Doris Dransch als beteiligte Hochschullehrerin auch gelungen, in enger Kooperation mit ihrem Institut, dem Deutschen GeoForschungsZentrum, überzeugende interdisziplinäre Anwendungen von METRIK-Basistechnologien zu platzieren. Eine weitere Ergänzung erfuhr die METRIK-Forschungsausrichtung über die Integration des B.E.S.T-Projektes innerhalb des Forschungsclusters D als Kooperationsvorhaben mit der TU Eindhoven. Durch Aufnahme dreier weiterer METRIK-Assoziierter mit bereits vorangeschrittenen Promotionsprojekten auf dem Gebiet der Modellierung und Analyse Service-orientierter Systeme konnte der Workflow-Forschungsbereich von METRIK weiter gestärkt werden. B.E.S.T.-Projekt Die langjährige Kooperation zwischen dem Graduiertenkolleg METRIK (Forschungscluster D) und der TU Eindhoven wurde mit Beginn der bewilligten Zusatzfinanzierung durch die DFG im Herbst 2007 intensiviert. Insgesamt ist daraufhin eine Vielzahl gemeinsamer Publikationen entstanden, an denen B.E.S.T.-Autoren beider Partner beteiligt sind und die ohne die Finanzierung durch METRIK nicht zustande gekommen wären. Besonders hilfreich waren die Reisen für die gemeinsame Entwicklung leistungsstarker Softwarewerkzeuge, insbesondere des "FIONA"-Werkzeugs, das die erzielten theoretischen Ergebnisse eindrucksvoll validiert und in der Praxis hilft, Services und Service-orientierte Architekturen zu analysieren. Insbesondere sollten diese Werkzeuge auch für den Einsatz für Service-Architekturen auf der Basis selbstorganisierender Infrastrukturen untersucht werden. Um diese Erfolge zu erreichen, waren METRIK-Assoziierte zu mehreren, teils mehrwöchigen Aufenthalten in Eindhoven. Im März 2009 hat B.E.S.T. in Eindhoven sein drittes großes Kolloquium veranstaltet. Neben der Präsentation der aktuellen Forschungsergebnisse der einzelnen Gruppen wurden die Fortschritte in den Werkzeugen (FIONA, LOLA, PROM) gezeigt. Außerdem bot sich die Gelegenheit, in kleinen Gruppen intensive Diskussionen über zukünftige Forschungsthemen zu führen.

26 26 Jahresbericht 2009 Ein besonders erfreuliches Ereignis im Rahmen des B.E.S.T.-Projektes war die erfolgreiche Verteidigung der ersten von vier geplanten Promotionen im Cotutelle-de-thèse-Verfahren (Doppelpromotion), die Herr Peter Massuthe am in Eindhoven verteidigt hat. Die zweite Doppelpromotion wurde am von Herrn Christian Stahl im Rahmen des vierten B.E.S.T.-Kolloquiums in Eindhoven verteidigt. Die dritte Doppelpromotion, von Herrn Dirk Fahland (METRIK-Stipendiat), ist für Mai 2010 geplant. Vernetzung Abbildung 5 zeigt die Kooperationsbeziehungen zwischen den verschiedenen Forschungsbereichen innerhalb des Graduiertenkollegs sowie die (meist interdisziplinären) Kooperationsbeziehungen zu externen Forschungsverbünden. In der Spalte Forschungsgruppe sind die Heimatlehrstühle der Projekt- bzw. Technologieentwicklungen aufgeführt. Abb. 5: Interne und externe Kooperationsbeziehungen

27 Graduiertenkolleg METRIK 27 Legende Nr. Forschungsgruppe Charakterisierung Projektname In METRIK gemeinsam entstandene Publikationen 1 Höchstens zwei Autoren aus METRIK: 26 mehr als zwei Autoren aus METRIK: 14 In METRIK gemeinsam entwickelte Technologien 2 Fischer, Reisig TEF Textual Editing Framework 3 Fischer, Reisig GRETA Eclipse-basiertes Werkzeug zum Erstellen adaptiver Prozesse 4 Fischer, Eclipse-basiertes Framework zur Beschreibung operationaler Semantik von domänenspezifischen Sprachen EProvide Holz/Schlingloff 5 Fischer, Werkzeug zur Adaption von Metamodellen bei gleichzeitiger ECoral Holz/Schlingloff Co-Adaption der Metamodell-Instanzen 6 Schlingloff, Werkzeug zum Testen von Metamodellen MMUnit Fischer 7 Fischer, Environmental Cellular Automaton-Experiment Management ECA-EMS Dransch System 8 Fischer, Eclipse-Plugin, das die Beschreibung von Modelltransformationen mit Prolog erlaubt EPromote Holz/Schlingloff 9 Fischer, Agile Language Engineering auf die Entwicklung von Sprachen Anwendung der Prinzipien der agilen Softwareentwicklung Holz/Schlingloff 10 Schlingloff ParTeG modellbasierter Testgenerator, der auf die kombinierte Erfüllung verschiedener Qualitätskriterien ausgerichtet ist Anwendungen von METRIK-Technologien im Katastrophenmanagement 11 Leser Huodini Katastrophenrelevante Informationsintegration aus heterogenen Webdatenquellen 12 Fischer, Redlich, Dransch SOSEWIN Self-Organizing Seismic Early Warning Information Network 13 Reisig, Leser, Dransch TaskForce Erdbeben / Equator Anwendungen außerhalb des Katastrophenmanagements 14 Fischer C-TTCN 15 Fischer CIMON 16 Malek DADSN Einsatzvorbereitung der TaskForce Erdbeben Fallstudie: Verwendung der Technologien EProvide und MMUnit zur prototypischen Entwicklung einer Erweiterung der bestehenden Testspezifikationssprache TTCN-3 Computing-Infrastruktur zur modellbasierten Entwicklung optischer Nanostrukturen Verlässlichkeitsanalyse verteilter, heterogener Dienstumgebungen Hat ein Teilnehmer des Graduiertenkollegs aus einem der Forschungsbereiche A bis E mit einem Teilnehmer aus einem anderen Bereich bzw. mit externen Personen kooperiert oder an einem externen Projekt mitgearbeitet, so wird dies in der Abbildung durch eine Linienverbindung repräsentiert. Eine Verbindung eines Bereichs mit sich selbst weist Kooperationen von mindestens zwei Doktoranden innerhalb dieses Forschungsbereichs aus. Die Zahlenangaben an den Verbindungen konkretisieren, von welcher Art bzw. im Rahmen welchen Projektes diese Kooperation stattgefunden hat. Zusammengefasste bisherige Forschungsresultate Forschungsbereich A Auf dem Gebiet der selbstorganisierenden drahtlosen Kommunikationsnetze wurden im Forschungsbereich A wesentliche Etappenziele erreicht. Durch Kooperation im Rahmen gemeinsamer Projekte mit der Deutschen Telekom konnten die METRIK-Stipendiaten einen wesentlichen Beitrag zum grundlegenden Verständnis opportunistischer Routingprotokolle

28 28 Jahresbericht 2009 erarbeiten. Aus diesem Verständnis heraus wurden neue Protokolle entwickelt (z.b. MCExOR - Multi Channel Extremly Opportunistic Routing), die besonders in schwierigen Einsatzsituationen den bis dahin etablierten Routingprotokollen in den Kenngrößen Datendurchsatz und Latenz deutlich überlegen sind. Der für die wissenschaftliche Arbeit auf diesem Gebiet notwendige "Werkzeugkasten" von Simulationswerkzeugen, Simulationsmodellen für spezielle MAC-Protokolle und Einsatzszenarien, sowie die Methodik zur Analyse von Interferenz zwischen Ad-Hoc-Netzwerkknoten, wurden, basierend auf den etablierten Werkzeugen ns2/ns3 und JiST/SWANS, substantiell weiterentwickelt und über das Internet der internationalen Forschungsgemeinde zur Verfügung gestellt. Ferner wurden selbstorganisierende Service-orientierte Netzwerke hinsichtlich ihrer Verfügbarkeit und Zuverlässigkeit analysiert. Schließlich wurden, basierend auf den oben genannten wissenschaftlichen Erkenntnissen, Hardware-Prototypen für Netzwerkknoten entwickelt, die derzeit im Rahmen von EU- Projekten (SAFER) bzw. BMBF-Projekten (EDIM) in realen Einsatzgebieten erprobt werden. Bei diesen Feldtests soll ein tieferes Verständnis von Interferenz-Situationen gefunden werden, mit dem Ziel, Kooperationsverfahren zu entwickeln, die Interferenz nicht nur als zu vermeidendes Übel ansehen, sondern Interferenz sogar zur Steigerung der Leistungsfähigkeit nutzen (z.b. indem mehrere Knoten ein Signal gemeinsam wiederholen, um durch die höhere Gesamtsendeleistung dessen Reichweite zu erhöhen). Dieses Thema ist eines der Forschungsziele für die nächste Förderperiode. Forschungsbereich B Auch im Forschungsbereich B wurden die für die erste Förderperiode gesetzten Ziele alle erreicht, wobei die entwickelten Methoden weiter zu konsolidieren sind. Zur Sicherung von sowohl funktionalen als auch nichtfunktionalen Qualitätseigenschaften der im Bereich A entstehenden neuen Protokolle und Dienste konnten in diesem Bereich durch Adaption etablierter Compiler-, Simulations-, Codierungs- und GIS-Technologien Grundlagen geschaffen werden, die die automatische Erzeugung anwendungsspezifischer Software-Komponenten für selbstorganisierende Sensorsysteme aus abstrakten Struktur- und Verhaltensmodellen (UML/SDL/ASN.1) erlauben. Zudem wurde die Transformation von SDL/UML/ASN.1- Spezfikationen in Netzwerksimulatoren (auf Basis von ns-3) erschlossen. Testgenerierungswerkzeuge für diese Sprachen wurden entwickelt. Darüber hinaus wurde deutlich, dass es neben spezifischen Netzwerk- und Softwarebeschreibungssprachen einen enormen Bedarf an domänenspezifischen Modellierungssprachen für die Darstellung von Umgebungsprozessen in Raum und Zeit gibt, deren Modelle mit denen des Netzwerks zu integrieren sind, um beispielsweise Echtzeiteffekte während der Systementwicklung rechtzeitig berücksichtigen und am Modell überprüfen zu können. Die Entscheidung in METRIK, gerade für die Entwicklung von spezifischen Modellierungssprachen Konzepte und Technologien zu entwickeln, die in der Lage sind, aus Sprachbeschreibungen typische Werkzeuge (wie Editoren, Semantik-Checker, Interpreter, Debugger) automatisch abzuleiten, sollte im Hinblick auf die Entwicklung geeigneter Workflow- Beschreibungssprachen einerseits und Sensornetzbeschreibungssprachen andererseits weiter konsolidiert werden. Forschungsbereich C Im Forschungsbereich C wurde zunächst die Entwicklung entsprechender Techniken vorangebracht, mit denen die Komplexität der Informationsverarbeitung in einem selbstorganisierenden Netz vor höheren Anwendungsschichten verborgen werden kann. Die zentrale Idee

29 Graduiertenkolleg METRIK 29 bestand darin, dass Netze als Ganzes nach außen bestimmte Dienste anbieten können, deren Realisierung transparent bleibt. Beispielhafte Dienste sind Knotenlokalisation, Benutzung des Netzes als hochverteiltes Speichermedium oder Sammlung von Messwerten. Potentielle Schwierigkeiten, die bei der Bearbeitung entsprechender Anfragen an das Netz auftreten und so weit wie möglich transparent behandelt werden sollten, sind Knotenausfälle, Überlastung von Knoten in Engpässen und die wechselnde Qualität der einzelnen (drahtlosen) Verbindungen. Zu diesen Problemstellungen hat das Kolleg eine Reihe von Lösungen entwickelt, die auf Techniken der deklarativen Anfragespezifikation, -optimierung und - verteilung beruhen, wie sie aus der klassischen Datenbanktechnik bekannt sind. Die Anwendung in den physikalisch hochverteilten Sensornetzen, bei denen die konkrete Position eines Sensors darüber hinaus eine herausragende Rolle in allen Anfragen spielt, erfordert aber eine weitgehene Erweiterung der bekannten Verfahren. In den von METRIK bearbeiteten Szenarien bilden hochverteilte, sensorbasierte Informationssysteme auch wichtige Entscheidungsgrundlagen für die Koordinierung von Einsatzund Rettungskräften. Dazu muss die adaptive Informationsgewinnung mit einer verteilten Workflow-Planungskomponente verknüpft werden, was in einer Doktorarbeit auch erfolgreich gelungen ist. Des Weiteren wurden in diesem Forschungsbereich Modelle zur Erhöhung der Datenverfügbarkeit durch Platzierung von Replikaten auf geeigneten Knoten entwickelt. Dabei wurden nicht nur einfache Zufallsgraphen betrachtet, sondern praxisrelevante Netzwerke mit Artikulationspunkten, deren Fortfall den Graphen in disjunkte Teile trennen würde. Schließlich wurde auch das Problem der semantischen Integration relevanter Daten im HOUDINI- Projekt erfolgreich bearbeitet. Grundlage ist die Tatsache, dass bei allen Katastrophen in entwickelten Ländern heute die aktuellsten Informationen aus user-generated content im Web zu finden ist, also auf Portalen wie myspace.com, flickr.com oder blogger.com. HOUDINI ist nun in der Lage, die in unterschiedlichen Portalen zu einem Ereignis vermeldeten Neuigkeiten zu entdecken, semantisch zu taggen, gezielt zu aggregieren und schließlich in einem geopgraphischen Kontext zu visualisieren. Dazu enwickelte METRIK neue Methoden zur Informationsextraktion und -aggregation basierend auf Techniken des Semantik Webs und des Maschinellen Lernens. Forschungsbereich D Workflows kommen in ganz unterschiedlichen Zusammenhängen im Forschungsbereich D von METRIK vor, die in vier laufenden Dissertationsvorhaben untersucht und verwendet werden. Zur Selbstorganisation und spontanen Adaption an neue Umgebungen haben sich Workflow-Strukturen insbesondere als gut geeignet erwiesen; sie sind zudem mit vernünftigem Aufwand implementierbar; ihre Struktur unterstützt den Nachweis wichtiger Eigenschaften sowie den systematischen, semantikerhaltenden Austausch von Workflow- Komponenten. In der Fortsetzung des Kollegs erscheint es angemessen, weitere Dissertationsvorhaben zu diesem Themenbereich zu empfehlen. Forschungsbereich E Die Forschungen auf ausgewählten Feldern des Katastrophenmanagements im Forschungsbereich E sind interdisziplinär angelegt. Hier wurden Grundlagenuntersuchungen zum Einsatz von Workflow-Managementsystemen im Katastrophenfall in erdbebenbedrohten Gebieten durchgeführt, die sich der im Graduiertenkolleg entwickelten Netz- und Informationsdienststrukturen bedienen. Zudem wurden Methoden zur Gefahren- und Umweltmodellierung untersucht und verbessert. Dabei konnten Technologien zur modellbasierten Softwareentwicklung aus dem For-

30 30 Jahresbericht 2009 schungsbereich B hinsichtlich gestellter Anforderungen aus der Umweltmodellierung adaptiert und ein exemplarischer Ansatz zur Modellierung und Simulation Hybrider Zellulärer Automaten entwickelt werden. Mit letzterem wurden sowohl Feuerausbreitungen modelliert als auch erste Versuche zur Ausbreitung von Erdbebenwellen abgeleitet. Mit diesen entwickelten Methoden ließen sich sowohl Wiederverwendbarkeit und Kopplung von Umweltsimulationsmodellen erheblich verbessern als auch Agentenmodellierungen von Katastrophenmanagementszenarien in Form von Workflows realisieren. Ein sehr erfolgreiches Projekt dieses Forschungsbereichs ist auch das bereits vorgestellte Equator-System. Des Weiteren wurde zur schnellen Schadensabschätzung bei Flutereignissen die generelle Eignung von Daten überprüft, die von der betroffenen Bevölkerung im Ereignisfall zur Verfügung gestellt werden. Dazu wurde ein automatisiertes Verfahren zur Qualitätsbewertung dieser Daten entwickelt. Ein wesentlicher Aspekt der Risikokommunikation ist die Informationsvisualisierung. Nur eine adäquate Visualisierungsform kann entscheidungs- und handlungswirksam sein; vor allem im zeitkritischen Katastrophenfall mit heterogenen, unsicheren und z.t. widersprüchlichen Informationen ist dies von außerordentlicher Wichtigkeit. Daher wurde untersucht, wie hochaggregierte Informationsdarstellungen, sogenannte chorematische Darstellungen, automatisiert erzeugt werden können. Einzelberichte der Doktorandinnen und Doktoranden des Graduiertenkollegs DR. MARKUS SCHEIDGEN (Betreuer: Prof. Dr. Joachim Fischer) Description of Computer Languages Based on Object-Oriented Meta-Modelling Problemstellung In meiner Dissertation beschäftige ich mich mit objekt-orientierter Metamodellierung und deren Verwendung bei der Beschreibung von Computersprachen. Dabei betrachte ich nicht nur die Beschreibung von Sprachen an sich, sondern auch die Verwendung von Sprachbeschreibungen zur automatischen Erzeugung von Sprachwerkzeugen. Ich nutze die Idee von Metasprachen und Metawerkzeugen. Metasprachen werden verwendet, um bestimmte Sprachaspekte, wie Notationen und Semantiken, zu beschreiben; Metawerkzeuge werden verwendet, um Sprachwerkzeuge wie Editoren und Interpreter aus entsprechenden Beschreibungen zu erzeugen. Diese Kombination von Beschreibung und automatischer Entwicklung von Werkzeugen ist als domänenspezifische Modellierung (DSM) bekannt. Ansatz und Ergebnisse Ich verwende DSM basierend auf objekt-orientierter Metamodellierung zur Beschreibung der wichtigen Aspekte ausführbarer Computersprachen. Ich untersuche existierende Metasprachen und Metawerkzeuge für die Beschreibung von Sprachvorkommen, ihrer konkreten Repräsentation und Semantik. Weiterhin entwickle ich eine neue Plattform zur Beschreibung von Sprachen, basierend auf dem CMOF-Modell der OMG MOF 2.x- Empfehlungen. Ich entwickle eine Metasprache und ein Metawerkzeug für textuelle Notationen. Schlussendlich entwickle ich eine graphische Metasprache und ein Metawerkzeug zur Beschreibung von operationaler Semantik von Computersprachen. Um die Anwendbarkeit der vorgestellten Techniken zu prüfen, betrachte ich SDL, die Specification and Description Language, als ein Beispiel für textuell notierte Sprachen mit ausführbaren Instanzen. An Hand dieses Beispiels zeige ich, dass die präsentierten Metaspra-

31 Graduiertenkolleg METRIK 31 chen und Metawerkzeuge es erlauben, ausführbare Computersprachen zu beschreiben und automatisch Werkzeuge für diese Sprachen zu erzeugen. Als Ergebnis konnte ich zeigen, dass die Beschreibung auch komplexer Sprachen auf der Basis von objekt-orientierter Metamodellierung möglich ist und dass mit Hilfe der von mir entwickelten Meta-Werkzeuge aus diesen Beschreibungen sich zumindest prototypische Sprachwerkzeuge automatisch erzeugen lassen. Zusammenarbeit innerhalb des Kollegs Die Dissertationsprojekte von Daniel Sadilek, Falko Theisselmann, Dirk Fahland, Arif Wider und Siamak Haschemi enthalten Softwareteile, die mit Hilfe der von mir entwickelten Meta-Sprachen und Meta-Werkzeuge beschrieben und entwickelt worden sind. Teile der Inhalte der Dissertationsprojekte von Daniel Sadilek und Guido Wachsmuth stellen Weiterentwicklungen meiner Technologie zur Semantikbeschreibung dar. Dabei wurden meine Ideen weiterentwickelt, woraus neue Meta-Sprachen und Meta-Werkzeugen resultierten. Die METRIK-Assoziierten Hajo Eichler und Michael Soden nutzen ebenfalls eine Weiterentwicklung der vorgestellten Semantikbeschreibungsmethode. Aktivitäten Teilnahme am 5. METRIK Evaluierungsworkshop, Groß Dölln, Mai ARTIN AVANES (Betreuer: Prof. Johann-Christoph Freytag, PhD, Prof. Dr. Wolfgang Reisig) Robuste Steuerung und Ausführung von Kooperativen Prozessen in Verteilten Systemen Problemstellung In dieser Arbeit untersuchen wir Methoden und Konzepte zur effizienten Steuerung und Ausführung kooperativer Prozesse in unsicheren und dynamischen Systemen. Das technische Umfeld bilden selbstorganisierende, dezentrale Informationssysteme, die auf Basis von drahtlosen Netzwerken, wie u.a. Sensornetzwerke oder über Funk kommunizierende Einsatzkräfte, im Katastrophenmanagement eingesetzt werden. Über dieses dezentrale System soll eine Menge von Prozessaktivitäten als Teil komplexerer Notfall-Pläne möglichst robust und effizient ausgeführt werden. Dabei ergeben sich eine Reihe neuer Herausforderungen bezüglich einer robusten und effizienten Prozessausführung: [I] [II] Limitierte Kapazitäten: Anders als bei größeren Servern mit ausreichend Prozessor- und Stromleistung, sind die in dem Katastrophenszenario eingesetzten Ressourcen in ihrer Kapazität limitiert. Dynamische Topologie: Des Weiteren muss man zu jeder Zeit mit dem Ausfall von eingesetzten Ressourcen oder mit neu hinzu kommenden Ressourcen rechnen. [III] Skalierbarkeit: Gerade im Katastrophenfall, ist eine effiziente Koordination und Ausführung der einzelnen Aktivitäten wie auch die effiziente Beschaffung und Bearbeitung von Dokumenten unerlässlich, um Zeitverlust und Verzögerungen zu vermeiden.

32 32 Jahresbericht 2009 Ansatz Um diese Herausforderungen bewältigen zu können, haben wir ein Framework für kooperative Prozesse entwickelt (siehe Abbildung 6), bei welchem wir uns auf folgende Komponenten konzentriert haben: Abb. 6: Komponenten unseres Prozess-Frameworks I. Scheduling-Komponente (Distributed Process Scheduler): Als Teil einer präventive Strategie, haben wir einen verteilten, heuristischen Verteilungsalgorithmus entwickelt, der sowohl Datenfluss-Abhängigkeiten zwischen verschiedenen Prozessinstanzen als auch komplexere Beschränkungen (Constraints) bzgl. des Kontroll-/Datenfluss (Control Constraints) und begrenzter Ressourcenkapazität (Cost Constraints) berücksichtigt. Der Algorithmus besteht aus zwei Schritten: (a) einem Partitionierungsschritt, bei dem zunächst verschiedene Prozesspartitionen gebildet werden und (b) einem Allokationsschritt, bei dem diese Partitionen parallel mittels Constraint-Programming Techniken auf die vorhanden Ressourcen verteilt werden. Prozess-Partitionierung: Zunächst wurde ein Partitionierungsalgorithmus entwickelt, der hinsichtlich der gegebenen Control Constraints geeignete Partitionierungen generiert. Ziel war es, Partitionen mit möglichst wenig Datenfluss-Abhängigkeiten untereinander zu bilden. Erweiterungen unseres Algorithmus berücksichtigen auch die Menge an Daten, die ausgetauscht werden (mittels Gewichtung) wie auch die Einbeziehung von Kontrolfluss-Abhängigkeiten (Control Links). Parallele Allokation: Der lokale Allokationsschritt wurde übersetzt in ein Constraint- Satisfaction Problem (CSP). Da mehrere lokale Cluster von Ressourcen existieren, denen die Partitionen zugewiesen werden, werden entsprechend mehrere kleinere CSPs gebildet, die durch entsprechende Constraint-Systeme gelöst werden. Das Verwenden von Constraint-Programming Techniken führt in der Regel zu einem exponentiellen Laufzeitverhalten (NP-hart). Um eine polynomielle Laufzeit zu erreichen, untersuchten wir die entstehenden Hypergraphen. Hypergraphen können verwendet werden, um die Struktur entsprechender CSPs zu untersuchen. Ein CSP gehört dann zu der Klasse der tractable classes, d.h. es gibt einen Algorithmus, der dieses CSP in polynomieller Zeit löst, wenn es entsprechende strukturelle Eigenschaften besitzt, wie z.b. keine Zyklen enthält. Daraus ergab sich die Notwendigkeit, unseren Partitionierungsalgorithmus insofern zu modifizieren, dass die nachfolgend entstehenden CSPs keine oder nur wenige Zyklen besitzen. Es wurde deutlich, dass Partitionierung und Allokation nicht komplett getrennt voneinander zu entwickeln sind.

33 Graduiertenkolleg METRIK 33 Prototype-Implementierung: Neben der theoretischen Komplexitätsanalyse, konnten wir auch mittels einer ersten prototypischen Implementierung zeigen, dass unser verteilter Algorithmus in der Praxis wesentlich besser skaliert als zentralistische Verfahren. Dieses liegt vor allem daran, dass durch die Partitionierung das ursprüngliche komplexere CSP in kleinere CSPs zerlegt wird, d.h. mit kleinerem Suchraum und weniger Constraints, die dann parallel gelöst werden. II. Ausführungs-Komponente (Process Execution Engine): Während der Ausführung können Ressourcen Ausfallen oder Nachrichten, die zwischen den beteiligten Ressourcen ausgetauscht werden, gehen verloren. Daher bedarf es auch einer reaktiven Strategie während der Ausführungszeit als Ergänzung zu der unter I.) beschriebene präventive Strategie (zur Entwurfszeit). Hierarchisches Prozessmodell & Korrektheitskriterien Diesbezüglich haben wir ausgehend von einem hierarchischen Ausführungsmodell dem sogenannten Ausführungsbaum - definiert, wann eine korrekte Prozessausführung vorliegt. Prozesse auf höheren Systemlevel triggern neue Subprozesse, die von Entitäten auf unteren Systemebenen ausgeführt werden. Somit wird ein Baum von Subprozessen erzeugt, in dem jeder Knoten einen komplexeren Subprozess darstellt. Unsere Korrektheitsdefinition wird insbesondere durch die Sicht auf die involvierten Prozessdaten motiviert, die nebenläufig von verschiedenen Aktivitäten gleichzeitig zugegriffen und verarbeitet werden können. Dabei erlauben wir einen nebenläufigen Zugriff auf dieselben Daten von Aktivitäten auf der gleichen Baumhierarchie. In diesem Kontext, entwickelten wir ein einheitliches Modell zur Serialisierbarkeit (Serializability) und Wiederherstellbarkeit (Recoverability) von nebenläufigen Subprozessen (Knoten im Ausführungsbaum). Fehlererholungsverfahren Ausgehend von diesen Korrektheitskriterien, haben wir ein flexibles Fehlererholungsverfahren entwickelt. Es ermöglicht uns, abhängig von dem Fehlerfall zu entscheiden, ob nur Teile des Ausführungsbaums oder alle von dem Ausfall betroffene Bereiche (z.b. innerhalb des Ausführungsbaums oder über verschiedene Ausführungsbäume hinweg) für die Fehlererholung mit einbezogen werden sollen. Der Fehlererholungsalgorithmus besteht aus drei Schritten: (a) Zunächst wird der sogenannte Failure Scope Graph gebildet, d.h. diejenigen Aktivitäten werden identifiziert, die hinsichtlich unserer Korrektheitskriterien (Serialisierbarkeit und Wiederherstellbarkeit) relevant sind. In einem zweiten Schritt (b) werden dann mögliche Alternativen evaluiert, um ausgefallene oder in Konflikt stehende Aktivitäten zu kompensieren bzw. neu auszuführen. Auch hierbei wird bezüglich anfallenden Ressourcenkosten optimiert, d.h. zunächst der Failure Scope Graph in entsprechende (alternative) Constraint Graphen transformiert. Es kann nämlich durchaus vorkommen, dass mehrere alternative Kompensationen bzw. Neuausführungen von Aktivitäten des Failure Scope Graphen existieren. In dem dritten Schritt (c) verwenden wir unseren verteilten Scheduling-Algorithmus, um diese Constraint Graphen zu initialisieren und dann denjenigen auszuwählen, der hinsichtlich einer gegebenen Kostenfunktion, z.b. bezogen auf den Energieverbrauch, den optimalsten darstellt. III. Anfrage-Komponente (Distributed Query Engine): Während der Prozessausführung bzw. als Ergebnis der einzelnen Prozessaktivitäten fallen viele Daten an. Insbesondere in einem Katastrophenszenario gilt es diese verteilten Daten möglichst schnell und effizient auszuwerten. Dabei begrenzen wir nicht nur uns auf Daten, die während der konkreten Prozessausführung entstehen. Wir betrachten auch nutzergenerierte Web-Daten, d.h. nützliche Informationen, die von Nutzern kurz nach der Katastrophe im Web veröffent-

34 34 Jahresbericht 2009 licht wurden. Um große Mengen an Daten effizient analysieren zu können, hat sich das Map-Reduce Framework als gutes Verarbeitungsparadigma herausgestellt. Wir nutzen die in I. and II. entwickelten Konzepte, um insbesondere Lastenausgleich (Load- Balancing) während der Anfrageausführung zu garantieren. Nun sind die Aktivitäten konkrete Anfragen (queries), die intern in map-reduce jobs (MR-Jobs) umgewandelt werden. Auch hierbei spielen Control und Cost Constraints eine wichtige Rolle. Ein Server oder ein Cluster von Maschinen könnte schon mit anderen Jobs ausgelastet sein. Daher ist eine entsprechende Verteilung von Anfragen/MR-Jobs wie die damit verbundenden Daten sinnvoll. Zusammenarbeit innerhalb des Kollegs Während Dirk Fahland sich mit Analyse-Techniken adaptiver Prozesse beschäftigt, habe ich Konzepte zur robusten Steuerung und Ausführung von Prozessen in verteilen (unsicheren) Systemen untersucht. Aktivitäten Teilnahme an der Vorstellung der METRIK-Lehrstühle im Wintersemester Teilnahme am 5. METRIK Evaluierungsworkshop, Groß Dölln, Mai Mit-Organisation des Gemeinsamen Workshops der Informatik-Graduiertenkollegs, Dagstuhl, Juni Teilnahme an der EDBT Summer School on Data and Resource Management in Ambient Computing, Presqu'île de Giens, Frankreich, September Teilnahme und Vortrag bei der VLDB th International Conference on Very Large Data Bases, Lyon, Frankreich, August Teilnahme an der BTW GI-Fachtagung Datenbanksysteme für Business, Technologie und Web, Münster, März 2009 Teilnahme am 6. METRIK Evaluierungsworkshop, Groß Dölln, Nov GUIDO WACHSMUTH (Betreuer: Dr. habil. Eckhardt Holz, Prof. Dr. Holger Schlingloff) Model Transformation in Model-Driven Language Engineering Problemstellung In der modellgetriebenen Softwareentwicklung werden systematisch Modelle zur Entwicklung eines Softwaresystems eingesetzt. Diese Modelle werden in Modellierungssprachen verfasst. Besondere Modellierungssprachen, die speziell auf eine Anwendungs- oder Problemdomäne zugeschnitten sind, ermöglichen es Experten dieser Domäne an der Softwareentwicklung zu partizipieren auch wenn sie keine oder nur wenig Programmiererfahrung haben. Hierzu werden entsprechende Sprachwerkzeuge, wie etwa Editoren oder Übersetzer, benötigt. Diese Werkzeuge lassen sich wiederum modellgetrieben entwickeln, wobei spezielle Sprachen zur Modellierung von Sprachen und deren Werkzeugen zum Einsatz kommen. Diese sogenannten Metasprachen sind Gegenstand der aktuellen Forschung auf dem Gebiet der modellgetriebenen Softwareentwicklung. Modelltransformationen bilden einen weiteren wesentlichen Bestandteil der modellgetriebenen Softwareentwicklung. Hierbei werden Modelle aus bereits existierenden Modellen abgeleitet. Ein klassischer Anwendungsfall ist die Kombination eines abstrakten Modells mit zusätzlichen Informationen (z.b. ein weiteres Modell) zu einem konkreteren Modell. Aber

35 Graduiertenkolleg METRIK 35 auch die Bildung abstrakterer Modelle aus konkreten Modellen sowie die Umwandlung von Modellen auf einem Abstraktionsniveau sind typische Anwendungen. Modelltransformationen können entweder manuell oder automatisiert durch Transformationswerkzeuge erfolgen. Transformationswerkzeuge lassen sich ebenfalls modellgetrieben entwickeln, wobei spezielle Sprachen zur Modellierung von Modelltransformationen verwendet werden. Diese Transformationssprachen sind ebenfalls Gegenstand der aktuellen Forschung auf dem Gebiet der modellgetriebenen Softwareentwicklung. Sprach- und Transformationswerkzeuge sind eng miteinander verbunden. Nahezu jedes Sprachwerkzeug realisiert automatisierte Modelltransformationen. So setzt beispielsweise ein Texteditor die textuelle Darstellung eines Modells in eine abstrakte Repräsentation des Modells um und erstellt Übersichtsmodelle zum Inhalt oder zu Fehlern des Modells. Umgekehrt beinhalten Transformationswerkzeuge typischerweise Wissen über die Quell- und Zielsprache. Aus dieser Verbindung von Sprach- und Transformationswerkzeugen ergibt sich eine entsprechende Verbindung zwischen Meta- und Transformationssprachen. Viele Metasprachen bieten Mittel zur Modellierung von Transformationen in einem Sprachwerkzeug und sind somit auch Transformationssprachen. Andererseits lassen sich Transformationssprachen zur Modellierung von Sprachwerkzeugen verwenden und sind somit auch Metasprachen. Des Weiteren referenzieren oder beinhalten Transformationssprachen typischerweise eine Metasprache, um Quell- und Zielsprache beschreiben zu können. Diese Zusammenhänge existieren auch im Bereich der Programmiersprachen und Programmtransformationen. Darüber hinaus gibt es eine jahrzehntelange Tradition und entsprechende wissenschaftliche Erfahrung in der Beschreibung von Programmiersprachen und Programmtransformationen, sowie daraus ableitbaren Sprach- und Transformationswerkzeugen. Ziel meiner Arbeit ist es, Erkenntnisse aus diesem Forschungsgebiet auf die modellgetriebene Softwareentwicklung zu übertragen und zur Entwicklung geeigneter Metasprachen sowie Modelltransformationssprachen zu nutzen. Ansatz und Ergebnisse Im ersten Teil meiner Arbeit widme ich mich Text-zu-Modell-Transformationen. Ich stelle eine Transformationssprache vor, welche auf Attributgrammatiken basiert. Dabei wird die Quellsprache der Transformation durch eine kontextfreie Grammatik und die Zielsprache durch ein objektorientiertes Metamodell beschrieben. Die Transformation selbst lässt sich dann durch Regeln zur Dekoration von Syntaxbäumen beschreiben. Im Gegensatz zu gewöhnlichen Attributgrammatiken werden hierzu aber keine Terme sondern Modellelemente verwendet. Die von mir entwickelte Transformationssprache bietet Vorteile gegenüber existierenden Ansätzen für Text-zu-Modell-Transformationen. Beispielsweise schränken existierende Ansätze für gewöhnlich die Klasse kontextfreier Grammatiken ein. Dies erschwert die Wiederverwendung von Grammatikteilen sowie die Kopplung existierender Grammatiken zu einer neuen Grammatik. Mein Ansatz kommt hingegen ohne eine solche Einschränkung aus. Des Weiteren setzen existierende Ansätze eine gewisse Ähnlichkeit in der Struktur der Grammatik der Quell- und des Metamodells der Zielsprache voraus. Dies ist unproblematisch, wenn Grammatik oder Metamodell eigens für die Transformation entwickelt werden, verhindert aber oftmals die Verwendung existierender Sprachbeschreibungen. Die von mir vorgeschlagene Transformationssprache lässt sich auch zur Modellierung von Sprachwerkzeugen verwenden. So lässt sich beispielsweise mit Hilfe einer Text-zu-Modell- Transformation der Zusammenhang zwischen der konkreten und abstrakten Syntax einer rein textuellen Modellierungssprache beschreiben. Aus dieser Beschreibung kann dann ein

36 36 Jahresbericht 2009 Parser generiert werden. Im Gegensatz zu existierenden Ansätzen ist es darüber hinaus möglich, Parser für Sprachen mit einer Mischung aus textuellen und graphischen Repräsentationen zu spezifizieren. Eine weitere Möglichkeit, die von bisherigen Ansätzen zur Textzu-Modell-Transformation nicht unterstützt wird, ist die Modellierung von Reengineeringwerkzeugen, welche aus vorhandenem Code Modellabstraktionen bilden. Im zweiten Teil meiner Arbeit befasse ich mich mit Modell-zu-Text-Transformationen. Diese spielen in der modellgetriebenen Softwareentwicklung eine zentrale Rolle bei der Generierung von Code. Besonders beliebt sind dabei Templatesprachen zur Spezifikation von Modell-zu-Text-Transformationen mit Hilfe von Codeschablonen. Trotz ihrer Beliebtheit haben diese Sprachen zwei entscheidende Nachteile: Ihnen fehlt eine formale Semantik und sie bieten darüber hinaus keine Möglichkeit, die syntaktische Korrektheit einer Codeschablone in Bezug auf die Zielsprache der Transformation zu überprüfen. In meiner Arbeit überwinde ich beide Defizite. Zunächst definiere ich die formale Semantik der wesentlichen Konzepte in Templatesprachen. In einem zweiten Schritt leite ich dann eine generische Methode her, die es gestattet, für beliebige Zielsprachen korrespondierende Templatesprachen zu definieren, welche die Prüfung von Codeschablonen auf syntaktische Korrektheit ermöglichen. Beim Einsatz von domänspezifischen Modellierungssprachen zur Einbindung von Domänexperten in die Softwareentwicklung stellt Codegenerierung oft ein Problem dar, da die Domänexperten mit den Konzepten der Zielsprache oft nur unzureichend vertraut sind. Verschiedene aktuelle Forschungen schlagen daher eine operationale Beschreibung der Semantik domänspezifischer Sprachen als Ausweg vor. Grundidee hierbei ist, die Bedeutung von domänspezifischen Sprachkonstrukten durch Zustandsübergänge in einem Zustandsraum zu modellieren. Typischerweise sind Domänexperten in der Lage, einem Softwareentwickler einen solchen Zustandsraum und dazugehörige Zustandsübergänge zu vermitteln. Die aktuelle Forschung schlägt verschiedene Modellierungssprachen zur Beschreibung der Zustandsübergänge vor. Im dritten Teil meiner Arbeit zeige ich, dass dafür auch herkömmliche Modell-zu-Modell-Transformationssprachen genutzt werden können. Dies erlaubt es Softwareentwicklern, welche bereits Modell-zu-Modell-Transformationssprachen in modellgetriebenen Softwareentwicklungsprojekten einsetzen, die operationale Semantik domänspezifischer Sprachen zu implementieren, ohne dafür eine neue Modellierungssprache erlernen zu müssen. Vielmehr können sie von bereits vorhandenem Wissen profitieren. Operationale Semantikbeschreibungen dienen auch der Modellierung von Sprachwerkzeugen wie Interpretern und Debuggern. Gewöhnlich bietet hierfür jede Beschreibungssprache ein eigenes Framework an. Diese Frameworks bieten ähnliche Funktionalität, erfordern aber sowohl vom Entwickler als auch vom Nutzer einer domänspezifischen Sprache eine Einarbeitung in das jeweilige Framework. Daher haben Daniel Sadilek und ich das Framework EProvide entwickelt, welches die Modellierung von Interpretern und Debuggern mit Hilfe verschiedener Beschreibungssprachen ermöglicht. Aus Nutzersicht hat dies den Vorteil, dass die Interpreter und Debugger unabhängig von der gewählten Beschreibungssprache die gleiche Funktionalität und Benutzerschnittstelle bieten. Aus Entwicklersicht ist es nun möglich, verschiedene Beschreibungssprachen zu verwenden, ohne das Framework wechseln zu müssen. Im vierten und letzten Teil meiner Arbeit beschäftige ich mich mit der Veränderung von Modellierungssprachen und dazugehörigen Sprachmodellen. Sprachen unterliegen wie jede andere Software auch der Veränderung. Dies schlägt sich in der Änderung der Sprachbeschreibungen, in unserem Fall der Sprachmodelle, nieder. Für gewöhnlich werden diese Änderungen manuell vollzogen. Die Änderung einer Sprache hat aber schwerwiegende

37 Graduiertenkolleg METRIK 37 Konsequenzen für Modelle, die in dieser Sprache verfasst sind. Für gewöhnlich müssen diese an die neue Sprachversion angepasst werden. Allerdings haben Sprachentwickler meist keinen Zugriff auf diese Modelle, da sie beim Sprachnutzer vorliegen. Für die Sprachnutzer stellen die Modelle oft einen erheblichen Wert da. Daher sind sie an einer automatischen Migration ihrer Modelle von alter zu neuer Sprachversion interessiert. Solche automatisierten Modellmigrationen sind spezielle Modell-zu-Modell-Transformationen und aktueller Forschungsgegenstand. In meiner Arbeit schlage ich vor, Sprachmodelle nicht mehr manuell sondern mit Hilfe wohldefinierter Operatoren durchzuführen. Diese Operatoren ermöglichen es, alte Sprachmodelle in neue Sprachmodelle zu transformieren. Jeder Operator weist dabei spezielle Eigenschaften auf, die es dem Sprachentwickler erlauben, die Auswirkungen der Änderung auf die Sprache zu klassifizieren, beispielsweise ob sich die Ausdruckskraft der Sprache erhöht und ob bestehende in der Sprache verfasste Modelle migriert werden müssen. In einem weiteren Schritt lässt sich dann aus einer Sequenz von Operatoren, welche eine Änderung von Sprachmodellen beschreibt, eine Modell-zu-Modell- Transformation ableiten, welche bestehende Modelle aus der alten Sprache in die neue Sprache migriert. Bezug zu andren Projekten des Kollegs Während meiner Arbeit an den vorgestellten Themen gab es verschiedene Berührungspunkte mit anderen Arbeiten im Graduiertenkolleg. Diese konzentrierten sich hauptsächlich in einem Cluster Agile Sprachmodellierung, in dem ein reger Austausch zu Themen der Beschreibung von Modellierungssprachen und einer generischen Werkzeugunterstützung stattfand. Hauptbeteiligte an diesem Cluster waren Markus Scheidgen, Daniel Sadilek, Stephan Weißleder und meine Person. Die Arbeiten von Markus Scheidgen inspirierten mich zu alternativen Ansätzen zur Beschreibung textueller Modellierungssprachen welche letztlich in meiner Arbeit zu Text-zu-Modell-Transformationen mündeten. Durch die Arbeiten von Markus Scheidgen, Daniel Sadilek und mir entstanden im Cluster verschiedene Methoden zur Beschreibung der operationalen Semantik von Modellierungssprachen. Im Rahmen dieser Arbeiten entstand gemeinsam mit Daniel Sadilek das Werkzeug EProvide, welches die generische Spezifikation von Interpretern und Debuggern für Modellierungssprachen ermöglicht. Aktivitäten Teilnahme am 5. METRIK Evaluierungsworkshop, Groß Dölln, Mai Mit-Organisation des Gemeinsamen Workshops der Informatik-Graduiertenkollegs, Dagstuhl, Juni Forschungsaufenthalt am Lehrstuhl Software and Systems Engineering an der Technischen Universität München, Januar Forschungsaufenthalt bei Language Research Group an der Universität Koblenz-Landau, September Teilnahme und Vortrag bei der SLE nd International Conference on Software Language Engineering, Denver, Colorado, USA, Oktober 2009 Teilnahme und Vortrag bei der ETAPS European Joint Conferences on Theory and Practice of Software, York, Vereinigtes Königreich, März Teilnahme am 6. METRIK Evaluierungsworkshop, Groß Dölln, Nov

38 38 Jahresbericht 2009 TIMO MIKA GLÄßER (Betreuer: Prof. Dr. Ulf Leser, Prof. Dr. Miroslaw Malek) Query Processing for Wireless Sensor Networks Problemstellung Die Informationsgewinnung und Verarbeitung ist in vielen Szenarien des Katastrophenmanagements der Entscheidende Faktor für den Schutz von Menschenleben und Eigentum. Daher kommt der informationstechnologischen Infrastruktur eine entscheidende Rolle in diesem Prozess zu. Während bis vor wenigen Jahren fast ausschließlich drahtgebundene oder Satelliten-gestützte und damit verhältnismäßig teure Technologien zum Einsatz kamen, zeichnet sich eine Alternative ab: drahtlose Sensornetzwerke (WSN). Diese Netzwerke bestehende aus vielen einzelnen kleinen drahtlosen Geräten (Knoten). Der einzelne Knoten ist dabei mit verhältnismäßig wenig Ressourcen ausgestattet. Speicher, Prozessor, Kommunikationsbandbreite und Reichweite sowie auch die zur Verfügung stehende Energie stellen starke Einschränkungen des bekannten Rechnermodells im Katastrophenmanagement dar. Durch Kooperation zwischen den Knoten lassen sich jedoch komplexe Aufgaben umsetzen. Dazu kommt, dass der Preis pro Knoten bereits weit unter einhundert Euro liegt und abzusehen ist, dass dieser weiter fallen wird. Aus der Ressourcenbeschränktheit ergeben sich jedoch auch neue Probleme wie a) Energieknappheit im Batteriebetrieb, b) weit geringe Speicherungs- und Verarbeitungsmöglichkeit pro Knoten. Die Technologien und Anwendungen, die für das Katastrophenmanagement auf solchen Netzwerken aufsetzen sollen, müssen dies berücksichtigen. Ansatz und Ergebnisse Meine Forschung konzentriert sich auf den Bereich des effizienten Sammelns und Verarbeitens von Daten sowie der kooperativen Erkennung von Ereignissen in WSN. Diese Ereignisse werden vom Anwender mit Hilfe einer deklarativen Sprache definiert und im Netzwerk verteilt ausgeführt. Die Ausführung wird von der Sensornetzwerkdatenbank derart gesteuert, dass der Ressourcenverbrauch und dabei vor allem der Energieverbrauch im gesamten Netzwerk möglichst minimiert werden. Als sekundäres Optimierungskriterium wird noch versucht den Verbrauch möglichst über viele Knoten gleichmäßig zu streuen. Daraus resultiert eine verlängerte Laufzeit des Netzes was für das Katastrophenmanagement von großer Wichtigkeit ist. STEPHAN WEIßLEDER (Betreuer: Prof. Dr. Holger Schlingloff) Test models and coverage criteria for automatic model-based test generation from UML state machines Problemstellung Testen ist ein wichtiges und weit verbreitetes Mittel des Qualitätsmanagements. Funktionales, modellbasiertes Testen vergleicht das zu testende System mit einem Testmodell. Dazu werden Testsuiten auf Basis des Testmodells generiert und gegen das zu testende System ausgeführt. Wesentliche Vorteile der automatisierten, modellbasierten Testfallerzeugung sind die Nähe der Testmodelle zu den Anforderungen, die Nachverfolgbarkeit von Anforderungen, sowie die Automatisierung der Testerzeugung und damit auch die Verringerung der Testkosten. Testen ist oft nicht vollständig: Für viele Testmodelle ist es möglich, eine beliebig hohe Anzahl beliebig langer Testfälle zu generieren. Abdeckungskriterien sind populäre

39 Graduiertenkolleg METRIK 39 Mittel, um das Fehleraufdeckungspotential von Testsuiten zu messen, sowie um die Testerzeugung zu steuern und bei Erreichen eines gewissen Abdeckungsgrades zu stoppen. Viele Fragen zu Testmodellen und Abdeckungskriterien sind offen. Zum Beispiel definiert die UML 2.1 insgesamt 13 Diagrammtypen, die oftmals in Isolation verwendet obwohl eine kombinierte Verwendung durchaus Vorteile verspricht. Weiterhin gibt es eine hohe Anzahl verschiedener Arten von Abdeckungskriterien, deren Nutzen in isolierter Verwendung bereits gezeigt wurde. Es stellt sich jedoch auch hier die Frage, wie man deren Vorteile kombinieren kann. Darüber hinaus wurden die Beziehungen zwischen Testmodellen und Abdeckungskriterien bisher noch nicht sehr tiefgründig erforscht und die Frage nach gegenseitigen Abhängigkeiten ist offen. Ansatz und Ergebnisse Diese Dissertation befasst sich mit der automatisierten Testerzeugung basierend auf UML Zustandsmaschinen. Der Fokus liegt auf Testmodellen, Abdeckungskriterien und deren Beziehungen. Ich präsentiere verschiedene Ansätze, Abdeckungskriterien zu kombinieren, sowie Testmodelle zu kombinieren und zu transformieren: Ich präsentiere einen Testgenerierungsalgorithmus, der kontrollflussbasierte Abdeckungskriterien mit grenzwertbasierten Abdeckungskriterien kombiniert. Ich kombiniere Zustandsmaschinen mit Klassendiagrammen und mit Interaktionsdiagrammen. Die zugehörigen Abdeckungskriterien können somit ebenfalls kombiniert werden. Die Transformation von Zustandsmaschinen wird genutzt, um Abdeckungskriterien austauschbar zu machen und zu kombinieren. Weiterhin kann damit das Fehleraufdeckungspotential von Testmengen unabhängig von Abdeckungskriterien verbessert werden. Darüber hinaus wird die Beeinflussung der Testeffizienz durch Eingriffe in die Testerzeugung untersucht. Zu den genannten Beiträgen gibt es prototypische Implementierungen, die bereits für Standardbeispiele, akademische Anwendungen und industrielle Fallstudien genutzt wurden. Aktueller Stand der Arbeit Die fachlichen Problemstellungen sind weitestgehend gelöst und veröffentlicht. Besonders hervorzuheben sind die Akzeptanz meiner Arbeit in der Test-Community : Auf dem renommierten MoDeVVa-Workshop in 2007 wurde meine Einreichung als best paper ausgezeichnet. Auf der Testkonferenz ICST in 2008 wurde mein Beitrag mit dem best student paper award ausgezeichnet. Darüber hinaus wurde ich eingeladen, Mitglied im Programmkomitee von Workshops/ Konferenzen zu sein. Ich organisiere zudem den Workshop Mo- DeVVa in Dieser findet zusammen mit der Konferenz Models statt ebenfalls eine sehr renommierte Konferenz. Bezug zu anderen Projekten des Kollegs Neben diversen Kooperationen mit der Industrie, die größtenteils über das Fraunhofer FIRST zustande gekommen sind, habe ich an zahlreichen Kooperationen innerhalb des Graduiertenkollegs teilgehabt: 1) Das Cluster ALE Agile Language Engineering (zusammen mit Guido Wachsmuth, Daniel Sadilek und Markus Scheidgen). Hierbei geht es um die Definition und Unterstützung eines agilen Entwicklungsprozesses für die Entwicklung von domänenspezifischen Sprachen. Domänenspezifische Sprachen sind insbesondere für die Einbindung von Domänenexperten von essentieller Bedeutung. 2) Kooperation mit Daniel Sadilek zum Thema Testen von Metamodellen. Domänenspezifische Sprachen können durch Metamodelle ausgedrückt werden. Entsprechend gilt

40 40 Jahresbericht 2009 für diese Kooperation eine ähnliche Motivation wie für die zuvor beschriebene Kooperation. Aus der Zusammenarbeit sind mehrere Publikationen hervorgegangen. Teile davon werden auch in Daniel Sadilek s Dissertation verwendet. 3) Kooperation mit mehreren Mitgliedern des GK s zur Projektsteuerung für das Huodini- Projekt, einem Projekt, um unterschiedlichste Informationsquellen mit Katastrophenbezug schnell, übersichtlich und thematisch passend darzustellen. 4) Kooperation mit Stefan Brüning zur Erstellung einer Fehlertaxonomie im Bereich der service-orientierten Anwendungen. Aktivitäten Teilnahme an der Vorstellung der an METRIK beteiligten Lehrstühle im Wintersemester 2008/2009. Teilnahme am 5. METRIK Evaluierungsworkshop, Groß Dölln, Mai Organisation und Teilnahme am Gemeinsamen Workshop der Informatik-Graduiertenkollegs, Dagstuhl, Juni Teilnahme und Vortrag bei der MODELS th International Conference Model Driven Engineering Languages and Systems Organisation des MoDeVVA th Workshop Model-Driven Engineering, Verification, and Validation: Integrating Verification and Validation in MDE, Denver, Colorado, USA, Oktober Teilnahme und Beitrag bei der MBEES Modellbasierte Entwicklung eingebetteter Systeme, Dagstuhl, April Teilnahme am 6. METRIK Evaluierungsworkshop, Groß Dölln, Nov DANIEL SADILEK (Betreuer: Prof. Dr. Joachim Fischer, Prof. Dr. Jens-Peter Redlich) Test-Driven Language Modeling Problemstellung Das Forschungsgebiet meiner Dissertation ist die Entwicklung domänenspezifischer Sprachen (DSLs). DSLs sind Computersprachen, die auf eine spezielle Anwendungsdomäne zugeschnitten sind. Ihr Zweck ist es, qualitativ hochwertige Software kostengünstig zu erstellen. Dazu kann eine DSL von Programmierern anstatt oder in Ergänzung normaler Programmiersprachen verwendet werden. Eine DSL kann auch von sogenannten Domänenexperten, die eigentlich keine Programmierer sind, verwendet werden, da sie die domänenspezifischen Konzepte der DSL verstehen. Die Entwicklung von DSLs erfolgt durch Sprachingenieure, die dafür entsprechende Werkzeuge und Methoden benötigen. Ich betrachte DSLs, deren Konzepte nicht von Beginn ihrer Entwicklung an feststehen. Solche DSLs müssen iterativ entwickelt werden: Domänenexperte und Sprachingenieur diskutieren einige Beispielverwendungen der DSL und erstellen auf dieser Basis einen informellen Sprachentwurf. Der Sprachingenieur implementiert einen Prototyp bestehend aus Werkzeugen für die DSL, bspw. einem Editor und einem Interpreter. Domänenexperte und Sprachingenieur verwenden den Prototyp zum Experimentieren mit der neuen DSL-Version. Dabei können sie notwendige Änderungen identifizieren, die in der nächsten Iteration umgesetzt werden.

41 Graduiertenkolleg METRIK 41 Da sich die Entwicklung einer DSL nur auszahlen kann, wenn die Entwicklungskosten geringer sind als die mit der DSL erzielten Einsparungen, ist es das Ziel meiner Arbeit, eine kostengünstige Entwicklung von DSLs zu ermöglichen. Ansatz und Ergebnisse In meiner Dissertation entwickle ich Technologien, die es einem Sprachingenieur erlauben, Werkzeugprototypen für eine DSL mit einer modellbasierten und testgetriebenen Methodik zu entwickeln. Durch die Verwendung einer modellbasierten Methodik muss ein Sprachingenieur Werkzeuge nicht mehr manuell programmieren. Stattdessen beschreibt er die verschiedenen Aspekte einer DSL mit Modellen, aus denen die Werkzeuge automatisch abgeleitet werden können. Die Idee testgetriebener Entwicklung ist es, Tests für neuen Code zu erstellen bevor der Code selbst geschrieben wird (test-first). Diese Vorgehensweise hat sich etabliert, um die Produktivität von Programmierern und die Qualität des Codes zu verbessern. Die Hauptthese meiner Arbeit ist, dass sich testgetriebene Entwicklung nicht nur auf die Programmierung von Code sondern auch auf die DSL-Entwicklung anwenden lässt. Ich setze in meiner Arbeit auf etablierten Ansätzen der modellbasierten DSL-Entwicklung auf: Beschreibung der abstrakten Syntax einer DSL mit einem Metamodell; Beschreibung der Semantik einer DSL metamodellbasiert auf operationale Art, d.h. Erweiterung des Metamodells zur Modellierung möglicher Laufzeitzustände und Implementieren einer Transitionsrelation als Modell-zu-Modell-Transformation, die einen Laufzeitzustand in seinen Folgezustand transformiert. Auf dieser Basis entwickle ich folgende Beiträge: einen Ansatz zum Testen von Metamodellen, in Bezug auf Abdeckungskriterien für Metamodelltests o einen Ansatz zur Modellierung und Ausführung von Abdeckungskriterien, sowie o fünf beispielhafte Abdeckungskriterien, in Bezug auf die metamodellbasierte Beschreibung operationaler Semantik o einen Ansatz, der es einem Sprachingenieur erlaubt, zur Formulierung der Modellzu-Modell-Transformation eine Beschreibungssprache flexibel zu wählen, o Ansätze zur animierten Ausführung von DSLs, zur Modellierung von Debuggern, sowie zur Unterstützung des rückwärts Laufenlassens von DSL-Programmen, Ansätze zum Testen von Beschreibungen operationaler Semantik durch o Test auf gegenseitige Äquivalenz, o Regressionstests, sowie o Test gegen von einem Benutzer vorab (test-first) formulierte Ausführungstraces. Des Weiteren stelle ich Werkzeugimplementierungen all dieser Ansätze und eine Fallstudie vor, die die Umsetzbarkeit der Ansätze und die Nutzbarkeit der implementierten Werkzeuge demonstriert. Durch diese neuen Ansätze kann der oben beschriebene, iterative Entwicklungsprozess um eine modellbasierte, testgetriebene Methodik erweitert werden: Nach Erstellen des informalen Sprachentwurfs implementiert der Sprachingenieur die DSL-Werkzeuge nicht mehr di-

42 42 Jahresbericht 2009 rekt. Stattdessen leitet er zunächst formale, automatisch ausführbare Tests für die abstrakte Syntax und die operationale Semantik der Sprache ab (testgetriebene Methodik). Danach modelliert er abstrakte Syntax und operationale Semantik, testet diese und leitet aus den Modellen automatisiert einen Interpreter ab (modellbasierte Methodik). Zusammenarbeit innerhalb des Kollegs Aufbau auf Markus Scheidgens und Guido Wachsmuths Arbeiten zu operationaler Semantik. Verwendung von Markus Scheidgens Textual Editing Framework (TEF) zur Erzeugung textueller Editoren zwecks Umsetzung von Fallstudien. Zusammenarbeit mit Stephan Weißleder bei der Entwicklung eines Ansatzes zum Metamodell-Testen. Zusammenarbeit mit Guido Wachsmuth bei der Entwicklung eines integrierten Ansatzes zur Beschreibung operationaler Semantik mit verschiedenen Beschreibungssprachen. Aktivitäten Teilnahme an der Vorstellung der METRIK-Lehrstühle im Wintersemester Teilnahme am 5. METRIK Evaluierungsworkshop, Groß Dölln, Mai Mit-Organisation des Gemeinsamen Workshops der Informatik-Graduiertenkollegs, Dagstuhl, Juni Teilnahme und Vortrag bei der TOOLS-EUROPE th International Conference Objects, Models, Components, Patterns, Zürich, Schweiz, Juli Teilnahme am 6. METRIK Evaluierungsworkshop, Groß Dölln, Nov DIRK FAHLAND (Betreuer: Prof. Dr. Wolfgang Reisig und Prof. Dr. Holger Schlingloff) Modellierung und Analyse Adaptiver Prozesse Ausgangsfragen und Zielsetzung des Projekts Das Promotionsprojekt ist in den Bereich der Modellierung und Analyse des Verhaltens von Prozessen und verteilten Systemen eingeordnet. Zentrale Frage des Projektes ist, wie sich der Entwurf von Prozessen, z.b. Arbeitsabläufen, und verteilten Systemen, z.b. einem drahtlosen Sensornetzwerk, mit komplexer Dynamik, wie sie typischerweise im Katastrophenmanagement auftritt, mit einer geeigneten Modellierungs- und Analysetechnik unterstützten lässt. Die entscheidende Schwierigkeit bei der Modellierung und Analyse ist die Komplexität der betrachteten Systeme, die aus der Interaktion verschiedener Nutzer und Systemkomponenten entsteht. Eine geeignete Modellierungstechnik erfordert daher ein geeignetes Strukturierungsmittel zur Beschreibung des Verhaltens der einzelnen Teilnehmer und Komponenten sowie ihrer Verzahnung im Gesamtsystem. Als ein mögliches Strukturierungsmittel zur Beschreibung derartigen Systemverhaltens sind wiederholt szenario-basierte Techniken vorgeschlagen worden: Ein Szenario eines Systems ist eine sinnvolle Folge möglicher Interaktionsschritte mit seiner (technischen, organisatorischen oder menschlichen) Umgebung, ggf. zusammen mit Alternativen und expliziten Verboten. Es ist im Allgemeinen nicht leicht, für eine gegebene Menge von Szenarien ein entsprechendes System zu konstruieren: Beispielsweise kann eine Aktivität des Systems in mehreren Szenarien oder in einem Szenario mehrfach vorkommen. Auch hängt der Fortgang

43 Graduiertenkolleg METRIK 43 eines Szenarios im Allgemeinen nicht nur vom aktuellen Systemzustand ab, sondern auch von der Vorgeschichte des Szenarios. Ziel des Dissertationsprojektes war es daher, ein formales Modell zu entwickeln, mit dem aus einer gegebenen Menge von Szenarien das zugehörige Systemverhalten systematisch konstruiert werden kann. Ansatz und Ergebnisse Im Dissertationsprojekt haben wir ein formales Modell für Szenarien entwickelt, mit dem aus einer gegebenen Menge von Szenarien, das dazugehörige Systemverhalten systematisch konstruieren werden kann. Die formale Grundlage des Modells sind sogenannte verteilte Abläufe, wie sie in der Petrinetz-Theorie verwendet werden. Ein verteilter Ablauf eines Systems ordnet das Eintreten von Systemaktionen nicht zeitlich linear, sondern aufgrund ihrer kausalen Ursache-Wirkungs-Beziehungen; ein verteilter Ablauf wird mathematisch über eine Halbordnung beschrieben. Das entwickelte Modell formalisiert ein Szenario als ein sog. Oclet, einem endlichen Teilstück eines verteilten Ablaufs: Er besteht aus einer halbgeordneten Menge von Systemaktionen (und ggf. daran beteiligten Ressourcen) was sich in Form eines kleinen und einfach zu verstehenden Petrinetzes notieren lässt. Zusätzlich wird ein Anfangsstück eines Oclets als seine Vorbedingung (oder Vorgeschichte) ausgewiesen. Die intuitive Interpretation ist, dass ein Oclet dann eintreten kann, wenn seine Vorbedingung in einem Ablauf des Systems eingetreten ist. Diese Konzepte wurden mathematisch unterlegt; das daraus abgeleitete formale Modell erlaubt die systematische Konstruktion (halbgeordneter) Abläufe aus einer gegebenen Menge von Oclets: Endet ein Ablauf mit der Vorbedingung eines Oclets, so kann er mit dem gesamten Oclet fortgesetzt werden. Die Menge aller so konstruierbarer Abläufe bildet das Verhalten eines derartig szenario-basiert beschriebenen Systems. Aus diesem grundlegenden formalen Modell leiten sich eine Reihe von Varianten von Oclets und weitergehender Fragestellungen ab. Erweiterungen des formalen Modells Die zuvor beschriebene intuitive Konstruktion von Systemabläufen aus einer Menge von Oclets haben wir in eine operationelle Semantik für szenario-basierte Modelle übersetzt, die Systemabläufe Schritt für Schritt aus aktivierten Aktionen konstruiert. Hierzu erweiterten wir die Schaltregel von Petrinetzen: Die Aktivierung einer Aktion hängt nicht mehr nur vom aktuellen Zustand ab, sondern auch von einer endlichen Vorgeschichte des Ablaufs, über den der aktuelle Zustand erreicht wurde. Mit sog. Anti-Oclets kann ein Szenario spezifiziert werden, das nicht im System auftreten darf. Das formale Modell haben wir dahingehend erweitert, dass nur solche Abläufe konstruiert werden, die kein Anti-Oclet verletzen. Da ein Oclet ein eigenständiges Modellierungsartefakt ist, kann es prinzipiell in verschiedensten szenario-basierten Modellen wiederverwendet werden. Daher stellt sich die Frage, welche Mengen von Abläufen durch ein einzelnes Oclet o charakterisiert werden, in dem Sinne, dass o an der Konstruktion der Abläufe beteiligt ist. Hierfür wurde eine entsprechende Charakterisierung gefunden, die einer deklarativen Semantik für Oclets entspricht: Eine Menge von Abläufen R ist ein Modell von o, wenn zu jedem Ablauf in R, der die Vorbedingung von o erfüllt, auch seine Fortsetzung mit o ein Ablauf in R ist, die Abläufe in R sich aber sonst beliebig verhalten. Dieser Begriff lässt sich kanonisch auf Mengen von Oclets erweitern. Auf Basis dieser Charakterisierung kann gezeigt werden, dass Oclets kompositional sind: Ein Menge von Abläufen R ist Modell der Vereinigung zweier Oclet- Mengen O1 O2 genau dann, wenn R Modell von O1 und von O2 ist.

44 44 Jahresbericht 2009 Analyse szenario-basierter Modelle Die zuvor genannten Resultate begründen einen Kalkül auf Oclets, der es erlaubt Oclets systematisch zu komponieren, zu dekomponieren und zu verfeinern. Zu jeder Operation können wir allgemein nachweisen, wie sich die Menge der konstruierbaren Abläufe bzw. Modelle verändert. Aus einer Menge von Oclets lassen sich im Allgemeinen unendlich viele (ggf. auch unendlich lange) Abläufe konstruieren. Eine Analyse des Systemverhaltens verlangt jedoch eine endliche Repräsentation aller Abläufe. Falls in den konstruierten Abläufen nur endlich viele verschiedene Systemzustände erreicht werden, kann eine endliche Repräsentation des Zustandsraums algorithmisch konstruiert werden, aus der sich alle Abläufe des Systems ableiten lassen. Die hierbei verwendete Technik sind die sogenannten Unfoldings aus der Petrinetz-Theorie. Die Berechnung des Zustandsraumes bildet die Basis für eine systematische Verifikation szenario-basierter Modelle, beispielsweise mit Modelchecking- Techniken. Verhältnis von Oclets zu zustandsbasierten Modellen Da eine Menge von Oclets das Verhalten eines Systems in Form von Szenarien beschreibt, stellt sich die Frage, welches klassische zustandsbasierte Systemmodell genau dasselbe Verhalten erzeugt. Es kann zunächst gezeigt werden, dass Oclets echt ausdrucksstärker sind als klassische Petrinetze: Einerseits kann jedes Petrinetz N kanonisch in eine Menge von Oclets O(N) übersetzt werden, die genau dasselbe Verhalten beschreiben. Andererseits kann durch Reduktion auf das Post sche Korrespondenzproblem gezeigt werden, dass Erreichbarkeit eines bestimmten Zustandes für eine beliebige Menge von Oclets im Gegensatz zu Petrinetzen nicht entscheidbar ist. Oclets entsprechen vielmehr der Klasse gelabelter Petrinetze, in der z.b. zwei verschiedene Transitionen eines Netzes dasselbe Label tragen können. Gegeben eine Menge von Oclets O und ein gelabeltes Netz N können wir durch einen Vergleich der Strukturen von N und O entschieden werden, ob N und O die gleichen Mengen von Abläufen konstruieren. Daran anschließend stellt sich die Frage, ob sich aus jeder Menge von Oclets ein Netz mit demselben Verhalten konstruieren lässt. Für diese Frage haben wir für eine eingeschränkte Teilklasse von Oclets einen Algorithmus gefunden. Eine Verallgemeinerung auf beliebige Mengen von Oclets bzw. eine Klassifikation von Oclets, für die dies nicht möglich ist, ist ein noch offenes Ziel des Dissertationsprojektes. Validierung des Modells und Bezug zu anderen Projekten des Kollegs Das entwickelte Oclet-Modell für Szenarien und die zuvor beschriebenen operationelle Semantik sind im Rahmen einer Diplomarbeit ein einem graphischen Editor und Simulationswerkzeug prototypisch implementiert worden. Wir haben hierfür modellbasierte Entwicklungstechniken eingesetzt und auch auf in diesem Umfeld in METRIK gewonnene Ergebnisse zurückgegriffen. Zur Validierung der entwickelten Konzepte hinsichtlich ihrer Tauglichkeit in der Praxis führen wir eine Fallstudie mit der Taskforce Erdbeben des GeoForschungsZentrums Potsdam durch. Wir haben ein Prozessmodell erstellt, das die Vorbereitung und die Durchführung eines Einsatzes der Taskforce in einem Erdbebengebiet nach einem schweren Erdbeben beschreibt. Das Prozessmodell ist in einer modellbasiert entwickelten domänenspezifischen Modellierungssprache notiert. Die Arbeit gab Anstoß zur Entwicklung des Erdbeben-Informationssystem EQUATOR, das jetzt am GFZ eingesetzt wird; sie bildet darüber hinaus die Grundlage für weitere automatisierte Unterstützung der Prozesse der

45 Graduiertenkolleg METRIK 45 Taskforce, wie z.b. die automatische Generierung von Karten. Die Modellierung der Prozessteile im Katastrophengebiet selbst verwendet szenario-basierte Konzepte, die wir mit Hilfe von Oclets formal ausdrücken können. In einer derzeit laufenden Diplomarbeit soll gezeigt werden, inwiefern die Prozessmodelle geeignet sind, die Planung eines Einsatzes durch Simulation und Verhaltensanalyse zu unterstützen. In einer gemeinsam mit Niels Lohmann durchgeführten Fallstudie konnten wir zeigen, dass industrielle Geschäftsprozessmodelle sich mit etablierten Verifikationstechniken innerhalb von wenigen Millisekunden auf fundamentale Korrektheitskriterien wie z.b. Deadlock- Freiheit prüfen lassen. Gemeinsam mit Bastian Quilitz, Timo Mika Gläßer und Stephan Weißleder haben wir gezeigt, dass sich mit modernen Techniken der Informationsintegration durch Kombination von im Internet verfügbaren Sensordaten, z.b. den Erdbebendaten des GFZ, klassischen Nachrichtenartikeln, sog. nutzergenerierten Inhalten, wie beispielsweise Blog-Einträgen oder Fotos auf Fotoseiten wie FlickR, ein aktuelles Bild von der Lage in Katastrophengebieten automatisiert generieren lässt. Aktivitäten Teilnahme an der Vorstellung der METRIK-Lehrstühle im Wintersemester Teilnahme am 5. METRIK Evaluierungsworkshop, Groß Dölln, Mai Organisation und Teilnahme am Gemeinsamen Workshop der Informatik-Graduiertenkollegs, Dagstuhl, Juni Teilnahme und Vortrag bei der BPM th International Conference on Business Process Management, Ulm, September Teilnahme und Vortrag bei der PETRI NETS th international conference on application and theory of petri nets and other models of concurrency, Paris, Juni Teilnahme und Vortrag bei ZEUS Erster zentral-europäischer Workshop über Services und ihre Komposition, Stuttgart, März Teilnahme am 6. METRIK Evaluierungsworkshop, Groß Dölln, Nov FALKO THEISSELMANN (Betreuer: Prof. Dr. Doris Dransch, Prof. Dr. Joachim Fischer) Modellbasierte Entwicklung von Zellulären Automaten in der Umweltmodellierung Problemstellung Simulationsmodelle dienen der Generierung, Darstellung, sowie der Kommunikation von Daten, Informationen und Wissen über Prozesse, die für das Katastrophenmanagement relevant sind. Deshalb sollten Simulationsmodelle und deren Beschreibung nachvollziehbar und wiederverwendbar sein. Dies ist häufig nicht der Fall. Eine Ursache hierfür ist in der Form der Modellbeschreibungen zu sehen. So sind Modellbeschreibungen oft schwer nachvollziehbar, weil diese, etwa im Falle natürlichsprachiger Beschreibungen, unvollständig und nicht eindeutig sind. Formale Beschreibungen, häufig in Form von Quelltext, sind vor allem für Domänenexperten oft schwer nachvollziehbar, insbesondere für Domänenexperten ohne besondere technische Ausbildung, denn die verwendeten Modellbeschreibungssprachen sind i.d.r. vielmehr für allgemeine Programmierung, als für die Beschreibung von Simulationsmodellen konzipiert. Die Probleme der Nachvollziehbarkeit und der Wiederverwendung stellen insbesondere für interdisziplinäre Modellierung ein Hindernis dar, wo verschiedene Teilmodelle ursprünglich mit Hilfe verschiedener Modellierungssprachen und Werkzeuge in

46 46 Jahresbericht 2009 unterschiedlichen Nutzungskontexten erstellt werden und zusammengeführt werden müssen. Ansatz und Ergebnisse In diesem Dissertationsprojekt wird der Einsatz modellgetriebener Entwicklung in der Umweltmodellierung am Beispiel Zellulärer Automaten im Hinblick auf Nachvollziehbarkeit und Wiederverwendbarkeit der Modellbeschreibungen untersucht. Zelluläre Automaten werden u.a. für die Modellierung von Umweltprozessen eingesetzt, die für Katastrophenmanagement relevant sind. Solche Prozesse sind zum Beispiel Feuerausbreitung, Seismizität und Evakuierungen. Im Gegensatz zu den weithin bekannten einfachen Zellulären Automaten (ZA) sind die ZA in der Umweltmodellierung (ZAU) i.d.r. komplex, das heißt sie haben eine relativ hohe Anzahl möglicher Zustände, komplizierte Übergangsfunktionen und eine explizite geo-räumliche Referenz. Obwohl es eine große Anzahl von Werkzeugen für die Modellierung von ZA und ZAU gibt, existieren die oben genannten Probleme der Nachvollziehbarkeit und Wiederverwendbarkeit von Modellbeschreibungen. Im Rahmen dieser Arbeit wird eine domänenspezifische Modellbeschreibungssprache (DSL) für die Modellierung mit ZAU entwickelt. Die Sprache soll es Domänenexperten ermöglichen nachvollziehbare und wiederverwendbare Modellbeschreibungen zu erstellen. Außerdem soll die Sprache ausdrucksstark genug sein, um es den Modellierern zu ermöglichen, neue Ideen im Rahmen des Formalismus ZAU zu formulieren und zu testen. Im Kontext interdisziplinärer Modellierung ist es darüber hinaus wichtig sicherzustellen, dass diese DSL mit anderen DSLs gekoppelt werden kann. Der untersuchte metamodellbasierte modellgetriebene Ansatz zur Realisierung von DSLs unterstützt technische Wiederverwendbarkeit von Modellbeschreibungen. Ein Metamodell definiert hierbei die abstrakte Syntax der DSL. Diese DSL kann dazu verwendet werden Modellbeschreibungen zu erstellen, die unabhängig von bestimmten Implementierungstechnologien sind. Technologiespezifischer Quelltext wird automatisch daraus erzeugt. Vorhandene metamodellbasierte Sprachentwicklungswerkzeuge ermöglichen eine effiziente automatisierte Erstellung der notwendigen Sprachwerkzeuge (z.b. Editoren, Modelltransformatoren und Codegenereratoren). Um angemessene Sprachelemente für die ZAU-DSL auszuwählen und so Nachvollziehbarkeit zu unterstützen werden vorhandene Werkzeuge und veröffentlichte Modelle untersucht und geeignete Ausdrucksmittel hieraus extrahiert. Dieses Vorgehen soll einen engen Zusammenhang von Modellierungs- und Sprachkonzepten sicherstellen. Objektorientierte Metamodellierung und die Formalisierung gemeinsamer Sprachkonzepte in einem Metamodell ermöglichen die syntaktische Kopplung verschiedener metamodellierter DSLs. In dem hier verfolgten Ansatz basiert die Semantik gekoppelter Modelle auf den Konzepten der weit verbreiteten ereignisgetriebenen Modellierung, gängigen primitiven Datentypen und etablierten Standards aus dem Bereich der Geodatenverarbeitung. Im beschriebenen Dissertationsprojekt wurde eine DSL zur Beschreibung von Zellulären Automaten für die Umweltmodellierung entwickelt. Diese Sprache erlaubt es, komplexe ZAU mit relativ einfachen Mitteln zu beschreiben. Zusätzlich wurde eine einfache Sprache zur agentenbasierten Modellierung implementiert und exemplarisch mit der Sprache für ZAU gekoppelt. Zielplattformunabhängige Modelle in diesen Sprachen werden mit Hilfe des implementierten Rahmenwerkes in zielplattformspezifische Modelle transformiert, die existierende Java-Bibliotheken mit Simulations- und Geodatenverabeitungsfunktionalität verwenden. Diese Bibliotheken stehen exemplarisch für viele bereits verfügbare Technologien aus den

47 Graduiertenkolleg METRIK 47 Bereichen Modellierung und Simulation (jdisco), sowie der Geodatenverarbeitung (Geotools), die trotz der Unterschiede bezüglich der Implementierungssprachen, Modellierungsparadigmen und Leistungsmerkmale auf gleichen generischen Grundprinzipien und Konzepten beruhen. Um die Anwendbarkeit der entwickelten Sprache zu zeigen, wurden einige repräsentative veröffentlichte ZAU-Modelle reimplementiert. Konzeptuell und technisch ist es möglich den Leistungsumfang der Sprache dahingehend zu vergrößern, dass kontinuierliche Zustandsänderungen von Zellen, z.b. mit Hilfe von Differentialgleichungen, beschrieben werden können. Diese Erweiterung wurde bereits begonnen und wird im Rahmen dieser Dissertation weiterentwickelt. Das beschriebene Dissertationsprojekt bietet zahlreiche Anknüpfungspunkte zu anderen Projekten des Graduiertenkollegs und kooperierender Projekte. Die Erstellung der Sprachwerkzeuge für die DSL erfolgte mit metamodellbasierten Sprachwerkzeugen, die zum Teil im Graduiertenkolleg entwickelt wurden (Textual Editing Framework von Markus Scheidgen). Weiterhin wurde die Kombination dieser Sprache mit dem Experiment Management System von Frank Kühnlenz konzipiert und bis dato teilweise realisiert (Kühnlenz et al. 2009). Bezüge zu weiteren Projekten sind vorhanden, resultierten jedoch nicht direkt in konkreten Ergebnissen. Zu nennen sind hier zunächst die Projekte derjenigen Doktoranden, die im Themenbereich der modellbasierten Sprachentwicklung forschen. Weiterhin zu nennen sind die Arbeiten aus den mit METRIK kooperierenden Erdbebenfrühwarnprojekten SAFER und EDIM. Als Geograph bietet mir die Interdisziplinarität des Graduiertenkollegs mit dem ständigen Gedanken- und Ideenaustausch die Möglichkeit, die mir nahe liegenden Problemstellungen aus dem geowissenschaftlichen Bereich mit aktuellen Problemstellungen und Lösungsansätzen aus der Informatik, v.a. modellbasierte Sprachentwicklung und Modellierung & Simulation, zu kombinieren und meine Arbeit in der vorliegenden Form zu formulieren und zu bearbeiten. Aktivitäten Teilnahme an der Vorstellung der METRIK-Lehrstühle im Wintersemester Teilnahme und Vortrag bei der EnviroInfo rd International Conference on Informatics for Environmental Protection, Berlin, September Teilnahme an der IMACS-MODSIM - 18 th World Congress on Modelling and Simulation, Cairns, Australien July 13-17, Juli Teilnahme am 6. METRIK Evaluierungsworkshop, Groß Dölln, Nov SEBASTIAN HEGLMEIER (Betreuer: Prof. Dr. Jens-Peter Redlich, Prof. Dr. Alexander Reinefeld) Utilizing Beamforming Antennas in Heterogeneous Wireless Mesh Networks Problemstellung In drahtlosen IEEE Multi-hop Maschennetzwerken (WMN), wie z.b. Communityoder Sensor-Netzwerke, sind die einzelnen Knoten üblicherweise mit omnidirektionalen Antennen ausgestattet. Zwei Phänomene beschränken die Kapazität dieser WMNs. Zum einen müssen Knoten in vermaschten Netzwerken fremde Pakete weiterleiten und haben nur einen kleinen Teil der Zeit, um eigene Pakete ins Netz zu initiieren. Zum anderen konkurrieren beim üblichen CSMA Medienzugriffsverfahren alle Knoten um das Medium - Interferenz und Vermeidungsstrategien vermindern die Kapazität zusätzlich. Aufgrund der bisherigen schnellen Verbreitung kompatibler Hardware ist eine Verdichtung zu-

48 48 Jahresbericht 2009 künftiger Netzwerke zu erwarten, Interferenz zwischen räumlich nahe zusammenliegenden Knoten wird dann verstärkt auftreten. Eine Technologie, die die Kapazitätsbeschränkungen drahtloser Netzwerke in verstärktem Maße verbessern kann, sind Smart Antenna Systems (SASs). Anstatt nur einer, übertragen und empfangen mehrere (n) meist kreisförmig angeordnete omnidirektionale Antennen eines Knotens ein Signal phasen- und amplitudenmoduliert. Aus der Überlagerung der Einzelsignale wird in einem Signalprozessor das tatsächliche Signal berechnet. Dieses komplexe Polynom n-ten Grades bestimmt das für solche Beamforming-Antennen-Systeme (BFAs) charakteristische Signalausbreitungsverhalten. Diese fokussieren die Signalenergie auf eine sektorähnliche Region relativ schmalen Winkels. Verglichen mit omnidirektionalen Antennen können sie somit das Medium räumlich besser ausnutzen, längere Reichweiten erzielen, aufgrund besserer Signalqualität höhere Datenraten erzielen oder Störsignale außerhalb der Hauptkeule effektiv dämpfen. In Theorie und Praxis wurde bereits gezeigt, dass Beamforming in Netzwerken, die ausschließlich aus SASs bestehen, in ausgewählten Szenarien den Durchsatz steigert (verglichen mit pur omnidirektionalen Netzwerken). Auch GSM- Anbieter verwenden in dicht besiedelten Zellen Sektorantennen, in Systemen (Wi- MAX) ist Beamforming unter dem Namen Closed-Loop Mimo (TX-AA) bekannt. In heutigen drahtlosen Maschennetzwerken verwendet ein Großteil der Knoten simple omnidirektionale Antennen. In solchen Netzwerken stellen Knoten mit speziellen Funktionen (Hotspots und sonstige Datensenken wie z.b. Internet Gateways) oder Positionen (Brücken, Artikulationspunkte) mit erhöhter Wahrscheinlichkeit Flaschenhälse bezüglich der Kommunikation dar. Die zunehmende Netzwerkdichte sowie günstige MIMO-Technologie werden dazu führen, dass sich Antennentechnologien in künftigen WMNs durchmischen werden. Im Folgenden werden diese als heterogene drahtlose Maschennetzwerke (HWMNs) bezeichnet. HWMNs sind erst seit Kurzem im Fokus der Wissenschaft, erste Versuche haben bereits große Performanzgewinne aufgezeigt. Es gibt jedoch kein Wissen über die Art und Weise, wie BFAs am effizientesten einsetzbar sind. Grundlegende Designentscheidungen wie Kanalzugriffsverfahren (TDMA, CSMA) oder die optimale Wahl von Anteil und Positionierung der BFAs sind ebenso unbekannt wie praktische obere Grenzen für Population und Ausdehnung der Netzwerke mit zugehöriger Netzwerklast. Daraus ergibt sich die folgende Fragestellung: Wie müssen BFAs in WMNs eingesetzt werden, um ihr technisches Potential effizient in konkrete Performancegewinne umzusetzen (verglichen mit aus omnidirektionalen Antennen bestehenden Netzwerken). Diese Frage will ich vorrangig für eine Netzwerkklasse mit zwei zugehörigen praxisrelevanten Anwendungsszenarien beantworten. Dabei handelt es sich um ein Netzwerk, wie es für die Erdbebenfrühwarnung in Kooperation von METRIK mit den Projekten SAFER/ EDIM ausgearbeitet und praktisch bereits im Test ist: viele mit Beschleunigungssensoren ausgestattete Knoten sind in einer städtischen Umgebung verteilt, sie erkennen und melden Erdbeben kooperativ. Die erste Anwendung - die Erdbebenfrühwarnung - findet unter schwierigen Bedingungen statt: noch während der Alarmierungsphase selbst ist bereits mit Knotenausfällen und Netzwerkpartitionierung zu rechnen. Mehrere Faktoren spielen für den Einsatz des Systems eine wichtige Rolle: Verzögerung und Geschwindigkeit der Alarmnachrichten, Zuverlässigkeit der Übertragungen, die Erreichbarkeit anderer Knoten im Netzwerk. Die zweite Anwendung bezieht sich auf Erdbebenfrühwarnnetzwerke im Friedensfall. Während der Zeit, in der keine Erdbeben stattfinden, könnte ein solches Netzwerk als Community Netzwerk verwendet werden, um z.b. verteilten Internetzugang zu realisieren. Innerhalb solcher Netzwerke kommen neben HTTP verstärkt auch VoIP oder FTP-Datenströme vor, jede Klasse stellt eine andere Herausforderung für den Einsatz von BFAs dar. Der Parameterraum, innerhalb dessen die Effizienz von BFAs untersucht werden soll, ist somit abge-

49 Graduiertenkolleg METRIK 49 steckt. Die Parameter selbst sind: der Anteil und die Positionierung der Beamformingantennen, Netzwerkgröße und -topologie, eine Auswahl von MAC-Protokollen sowie Repräsentanten der Netzwerkverkehrsklassen TCP/IP, FTP und UDP. Ansatz und Ergebnisse Während eine Analyse Aufschluss über die Performancegewinne von BFAs für bestimmte Parameterkonstellationen gibt, werden gleichzeitig die Grenzen bestehender Ansätze offensichtlich werden. Es gilt anschließend zu untersuchen, inwieweit die bisherigen Ansätze bzgl. des Einsatzszenarios verbessert werden können - durch Ausnutzung noch nicht realisierter BF-Potentiale oder von Synergien zwischen der physikalischen-, MAC- und Routing-Schicht (Cross-Layer Strategie). Die Analyse wird simulativ mit einem Netzwerksimulator durchgeführt. Obwohl Netzwerksimulatoren die Realität nur statistisch modellieren und daher nicht 1:1 abzubilden vermögen, sind sie im Vergleich zu einem echten Testbett günstiger und weniger zeitaufwändig bei Bereitstellung und Durchführung der Experimente. In meinen Simulationen lege ich deswegen speziell Wert auf eine möglichst realitätsgetreue Simulation der Netzwerke, auf physikalischer Schicht vor allem bei Umgebungs- und Antennenmodellen, oberhalb davon bei Netzwerktopologien und schließlich typischem Benutzerverhalten. Dieser Ansatz bietet eine solide Basis zum Vergleich aktueller Ansätze bei Routing- und MAC-Strategien. Bisherige Vorschläge in diese Richtung schöpfen die Vorteile von BFAs noch nicht aus und sind darüber hinaus allgemein gehalten und nicht auf spezielle Szenarien zugeschnitten. So haben bisher weder die potentiell längeren Reichweiten von SASs, die Dämpfung interferrierender Signale noch eine Regelung der Sendeenergie Einzug in gegenwärtige Protokolle für HWMNs gefunden. Ziel beim Design eines für die oben vorgestellten Szenarien optimierten MAC- und Routingprotokolls ist zum einen die effiziente Ausnutzung eben dieser Potentiale, zum anderen Cross-Layer Kommunikation zwischen den verschiedenen Netzwerkschichten. Cross-Layer Strategien sind zwar aus Implementierungssicht komplex und weniger modular als die herkömmliche Trennung zwischen Protokollen für einzelne Schichten, man vermeidet allerdings Informationsverlust an deren Schnittstellen. Speziell bei der mit BFAs verbundenen Direktionalität der Verbindungen wird bessere Koordination entscheidenden Einfluss auf die Performanz des Netzwerks haben. Aktivitäten Teilnahme an der Vorstellung der METRIK-Lehrstühle im Wintersemester Teilnahme am 5. METRIK Evaluierungsworkshop, Groß Dölln, Mai Poster am Tag der Informatik, Mai Mit- Organisation des Gemeinsamen Workshop der Informatik-Graduiertenkollegs, Organisation, Dagstuhl, Juni Teilnahme am 6. METRIK Evaluierungsworkshop, Groß Dölln, Nov SIAMAK HASCHEMI (Betreuer: Prof. Dr. Joachim Fischer, Prof. Dr. Jens-Peter Redlich) Model-Based Testing of Dynamic Component Systems Problemstellung Moderne Softwaresysteme werden nicht monolithisch und isoliert erstellt. Stattdessen werden sie aus einer Sammlung von wieder verwendbaren Komponenten modular aufgebaut. Software-Systeme müssen im Laufe der Betriebszeit an neue Anforderungen angepasst bzw. feh-

50 50 Jahresbericht 2009 lerhaftes Verhalten korrigiert werden. Dies erreicht man durch Austausch von einzelnen Komponenten. Dabei gibt es eine Familie von Systemen, die für den Austausch von Komponenten nicht gestoppt werden können. Dazu gehören sicherheits- und funktionskritische Systeme, deren Ausfall ein erhöhtes Risiko für Menschen oder enorme finanzielle Folgen hätte. In diesen Systemen müssen Komponenten zur Laufzeit ausgetauscht werden, während andere Komponenten weiter ausgeführt werden. Diese Komponenten müssen daher darauf vorbereitet werden, dass Teile des Systems für eine unbestimmte Zeit unverfügbar sein werden. Die Eigenschaft einer Komponente, die dynamische Verfügbarkeit der von ihr benötigten Komponenten zu dulden, ist die zentrale Problemstellung meiner Dissertation. In meiner Dissertation befasse ich mich mit dem modelbasiertem Test von Komponenten in einem komponentenbasiertem Softwaresystem. Der Fokus liegt auf dem Testen der Komponenten in Hinblick auf die dynamische Verfügbarkeit der von ihr benötigten Komponenten. Das erwartete Verhalten der Komponenten wird in Form einer UML Zustandsmaschine zur Verfügung gestellt. Diese Zustandsmaschine wird anschließend genutzt um Testfälle zu generieren. Eine Komponenten kann anschließend mit Hilfe dieser Test auf die erwartete Eigenschaft hin überprüft werden. Aktueller Stand der Arbeit: Die Literaturrecherche ist weitestgehend abgeschlossen. Erste fachliche Problemstellungen, die sich mit modellbasierten Sprachen allgemein beschäftigen, wurden veröffentlicht. Jedoch hat die Problemfindungsphase in meinem Fall lange gedauert (über ein Jahr). Dies hat sowohl mit dem querschnittlichen Thema Testen, als auch mit der schlecht überschaubaren Komponenten-Community zu tun gehabt. Die Problemstellung ist jedoch identifiziert und ich befinde mich zurzeit in der Kernphase, in der ich wesentliche fachliche Fragestellungen löse und veröffentliche. Zusammenarbeit innerhalb des Kollegs Es fand eine Kooperation mit Herrn Daniel A. Sadilek zur Erstellung eines mathematischen Modells für dynamische Komponentensysteme und der damit verbundenen Veröffentlichung in Form eines Posters statt. Mit Herrn Arif Wider fand eine Kooperation im Bereich Erweiterbare domänenspezifische Sprachen statt. Diese Arbeit wurde als Beitrag bei einer Konferenz veröffentlicht. Aktivitäten Teilnahme an der Vorstellung der METRIK-Lehrstühle im Wintersemester Teilnahme am 5. METRIK Evaluierungsworkshop, Groß Dölln, Mai Organisation, Teilnahme und Vortrag beim Gemeinsamen Workshop der Informatik- Graduiertenkollegs, Dagstuhl, Juni Teilnahme und Vortrag bei der MoDeVVA Model-Driven Engineering, Verification, and Validation, Denver, Colorado, USA, Oktober Teilnahme und Vortrag bei der SEAA th Euromicro Conference on Software Engineering and Advanced Applications, Patras, Griechenland, August Teilnahme und Vortrag bei FutureSOC Symposium des HPI-Forschungskollegs Future Trends in Service-Oriented Computing, HPI Potsdam, Juni Teilnahme und Poster bei der FSEN rd International Conference on Fundamentals of Software Engineering, Kish Island, Iran, April 2009.

51 Graduiertenkolleg METRIK 51 Teilnahme am 6. METRIK Evaluierungsworkshop, Groß Dölln, Nov JAN CALTA (Betreuer: Prof. Dr. Holger Schlingloff und Prof. Dr. Miroslaw Malek) Verification of Self-Organizing Networks Problemstellung Selbstorganisierende Systeme sind verteilte Systeme, die sich an verschiedene externe Veränderungen anpassen. Abhängig von den Einflüssen ihrer Umgebung verändern diese Systeme automatisch und dynamisch ihre Topologie, Konfiguration und Funktion. Kann für ein System garantiert werden, dass es selbstorganisierend ist, gewährleistet dies eine erhöhte Stabilität und eine minimale Koordination. Dies ist insbesondere erforderlich für Systeme, die für den Ablauf bestimmter Prozesse von entscheidender Bedeutung sind und während der gesamten Laufzeit bis zu einem gewissen Grad funktionsfähig bleiben müssen. In Anbetracht der Notwendigkeit solcher Systeme ist es erforderlich, formal zu verifizieren ob ein System die Eigenschaft hat, selbstorganisierend zu sein. Der klassische Verifikationsansatz gängiger Modelchecking-Werkzeuge gestaltet sich problematisch, wenn man ihn auf selbstorganisierende Systeme anwendet. Meine Arbeit behandelt die folgenden Problemfälle: Da eine formale Definition von Selbstorganisation noch nicht präzise formuliert ist, habe ich eine Definition vorgeschlagen, die für die formale Verifikation nutzbar ist. Die Eigenschaft eines spezifischen Systems, sich selbst zu organisieren, ist komplex und mit verfügbaren formalen Sprachen schwer zu beschreiben: Temporale Logiken, die von gängigen Modelchecking-Werkzeugen unterstützt werden, sind für diesen Zweck nicht ausdrucksstark genug. Um die Selbstorganisation eines Systems adäquat als Eigenschaft beschreiben zu können, ist es notwendig, Semantiken für eine entsprechende Logik zu optimieren und Algorithmen bereitzustellen, die diese Sprache berechnen. Ansatz und Ergebnisse Bisher habe ich mich mit existierenden Fallstudien selbstorganisierender Systeme auseinander gesetzt wie z.b. Routing-Netzwerkprotokolle für Routing- und Desynchronisationsmechanismen und multirobot Systeme. Anhand dieser Fallstudien konnte ich eine geeignete formale Definitionen der zu untersuchenden selbstorganisierenden Eigenschaft vorgeschlagen. Des Weiteren habe ich ein Verfahren entwickelt, das die formale Analyse der selbstorganisierenden Eigenschaft eines Systems ermöglicht. Anhand dieses Verfahrens ist es nun nicht nur möglich zu verifizieren, ob die selbstorganisierende Eigenschaft in einem System gilt oder nicht. Vielmehr erlaubt dieses Verfahren die exakte Analyse der einzelnen Schritte, die ein System in der Phase der Selbstorganisation (bzw. der Regenerierung) vornimmt. Für eine solche Analyse muss das abstrakte Modell des zu untersuchenden Systems als Transitionssystem vorliegen. Ein Transitionssystem ist ein bekannter Formalismus. Modelle von Systemen, die in gängigen Modellierungssprachen formuliert sind (wie z.b. Automaten, Petrinetze, etc.) können mit verfügbaren Werkzeugen in ein solches Transitionssystem überführt werden. Dieser Ansatz erlaubt eine verbreitete Anwendung und Akzeptanz des vorgeschlagenen Verfahrens. Um ein Framework zu Verfügung zu stellen, das das genannte Verfahren realisiert, müssen folgende Punkte erfüllt sein: Um die jeweilige selbstorganisierende Eigenschaft eines spezifischen Systems geeignet formulieren zu können, muss eine entsprechende Logik bereitgestellt werden.

52 52 Jahresbericht 2009 Um die High-Level-Spezifikation eines Systems auf ein geeignetes abstraktes Modell abzubilden, müssen entsprechende Methoden zur Verfügung gestellt werden. Die vorgeschlagenen Algorithmen, die das Transitionssystem schließlich analysieren, müssen implementiert werden. Das Ergebnis meiner Arbeit werden Methoden und Techniken sein, die eine effizientere Verifikation selbstorganisierender Systeme gewährleisten. Verglichen mit herkömmlichen Modelchecking-Ansätzen stellen diese Methoden eine gründlichere Analyse während der Entwicklungsphase zur Verfügung. Bezug zu anderen Projekten des Kollegs Mehrere Projekte des Graduiertenkollegs zielen darauf ab, Systeme mit selbstorganisierenden Eigenschaften zu entwickeln. Die folgenden Themen werden daher als potentielle Fallstudien betrachtet: Replica Management for Self-Organizing Networks in the Context of Wireless Ad-Hoc Networks (Joanna Geibig), Routing in wireless mesh-networks (Sebastian Heglmeier) und Component Development and Deployment in Self-Organizing Networks (Siamak Haschemi). Aktivitäten Teilnahme an der Vorstellung der METRIK-Lehrstühle im Wintersemester Teilnahme am 5. METRIK Evaluierungsworkshop, Groß Dölln, Mai Poster beim Tag der Informatik, Mai Forschungsaufenthalt an der University of the Witwatersrand, Johannesburg, South Africa, September Teilnahme am Workshop EUMAS 2009, Ayia Napa, Zypern, Dez Teilnahme und Vortrag bei der DASC th International Conference on Dependable Autonomic and Secure Computing, Chengdu, China, Dez Teilnahme an der VSTA - Summer School, Nancy, Lyon, Oktober Teilnahme und Vortrag bei der VINO Ahornach, Italy, Juli Teilnahme am 6. METRIK Evaluierungsworkshop, Groß Dölln, Nov JOANNA GEIBIG (Betreuer: Prof. Dr. Alexander Reinefeld, Prof. Dr. Miroslaw Malek) Replica Management for Self-Organizing Networks in the Context of Wireless Ad-Hoc Networks Problemstellung Drahtlose Multihop- und Sensornetze (WMNs, WSNs), die zum Abfragen und Übertragen von Daten fähig sind, stellen eine nahe liegende Wahl zur IT Unterstützung für die Kommunikation im Katastrophenmanagement dar. Anwendungen wie zum Beispiel Erdbebenforschung (Sammlung von Erdbebendaten) oder Unterstützung bei schnellem Eingriff (eng. Immediate Response: Kommunikation zwischen Katastrophenopfern und Rettungsteams) verlangen, dass ausgewählte Daten in dem gewünschten Zeitraum verfügbar sind. Es besteht jedoch die Gefahr, dass einzelne Knoten des Netzwerks ausfallen. Im Katastrophenfall ist es sogar sehr wahrscheinlich, dass ganze Gruppen nebeneinander liegender Knoten ausfallen (z.b. als Folge eines Brandes). Fällt ein Knoten aus, so sind die dort abgelegten Daten nicht mehr erreichbar. Weiterhin kann der Ausfall eines Knotens eine

53 Graduiertenkolleg METRIK 53 Netzwerkpartitionierung verursachen. Zwischen den Partitionen kann kein Datenaustausch erfolgen, was die Verfügbarkeit von Daten weiter mindert. Die Replikation von Daten ist eine bewährte Lösung, die Verfügbarkeit von Daten in verteilten Systemen zu vergrößern. Existierende Lösungen wurden allerdings für drahtgebundene Netze wie das Internet entwickelt, in denen sowohl Zeit als auch Kosten für die Kommunikation für alle Knotenpaare nahezu identisch sind und deswegen in der Regel vernachlässigt werden können. Anders jedoch in drahtlosen Netzwerken: Kommunikationskosten (z.b. Energieverbrauch) und Zugriffszeit sind bedeutend und wachsen mindestens linear mit der Distanz zwischen kommunizierenden Knoten. Eine effektive Replikation in WMN muss Beschränkungen des Netzes wie Energie, Bandbreite und Speicher einbeziehen und muss diese schonen, um die Systemlaufzeit zu verlängern und eine akzeptable Performanz zu erreichen. Um die Kosten für ein WMN zu senken, muss die Menge der weiterleiteten Daten reduziert werden. Zum Beispiel, muss die Entscheidung über Zielknoten für eine Replikation ohne vollständiges Wissen über die Netztopologie gefällt werden. Welche Datenverfügbarkeit ist in solchen unzuverlässigen und beschränkten Netzen überhaupt zu erreichen? Wie viele Daten könnten zuverlässig gespeichert werden? Wie funktioniert eine geeignete Replikation die Datenverfügbarkeit garantieren kann? Diese wissenschaftlichen Herausforderungen motivieren meine Dissertation, in der ich mich mit der Modellierung und der Analyse der Replikation von unveränderlichen Daten (eng. write-once) in unzuverlässigen und eingeschränkten Netzen beschäftige. Weiterhin, werden die Resultate meiner Arbeit auch zur Replikation von Services benutzt werden können. Die Schlüsselfaktoren zur Replikation von Daten in dem betrachteten Szenario sind Methoden für das effiziente Verteilen und die effiziente Suche nach Replikaten. Diese Aktionen können viel Kommunikation verursachen und Kommunikation greift die limitierten Ressourcen des Netzes an. Anzahl von Kopien (Replikationsfaktor) und ihre Positionierung im Netz würden in Zusammenhang mit entsprechende Replikation und Suche Mechanismen bestimmt. Optimale Replikationsfaktoren und Positionierung von Replika sollen das beste Verhältnis von Datenverfügbarkeit nach Knotenausfall zu Kosten der Verteilung und der Suche erreichen. Ein neues, nicht in existierenden Arbeiten über Replikation betrachtetes Szenario stellt die Gefahr massiver, räumlich korrelierter Knotenausfälle dar. Hierbei ist die Charakteristik von Knotenausfall zu betrachten: zum Beispiel kann die maximale Größe des Brands auf Modellen für Feuerausbreitung und der erforderlichen Verfügbarkeitszeit der Daten basieren. Diese Größe bestimmt weiterhin die minimale notwendige Distanz zwischen zwei Replikas bei der garantiert ist, dass beide Replikas nicht gleichzeitig wegen eines Brandes ausfallen. Ansatz und Ergebnisse Wichtige Herausforderungen in meiner Arbeit sind die Robustheit und Skalierbarkeit der Lösung. Replikation soll die Datenverfügbarkeit für verschiedene Netzkonfigurationen und Größen garantieren, auch wenn diese sich zur Systemlaufzeit ändern. Es fördert somit die Anpassung des Systems an neue Umgebungsbedingungen. Diese Anpassung erfolgt ohne externe, menschliche Unterstützung und kann somit als Selbstorganisation und Skalierbarkeit des Replikationsystems verstanden werden. Die beschränkten Ressourcen der drahtlosen Netze sollen dabei nicht ausgeschöpft werden. Eine Lösung sollte zum Beispiel mit limitiertem Wissen über die Topologie des Netzes umgehen können. Dadurch wird der Speicherund Kommunikationsaufwand limitiert, was zur besseren Performanz und zu einer längeren Lebenszeit des Systems führt.

54 54 Jahresbericht 2009 Peer-to-peer (P2P) Netze scheinen interessant als potenzielle Lösung des vorgestellten Problems. Sie bieten Skalierbarkeit und Selbstorganisation. Darüber hinaus implementieren P2Ps Replikation von Daten. Jeder Knoten im P2P System spielt die Rolle eines Servers und eines Clients. Es genügt, dass ein Knoten nur einen anderen Knoten im Netz kennt, um seine Position in der logischen Topologie des P2P-Netzes zu finden und die Daten im System zu speichern und abzufragen. Im unstrukturierten P2P-System (z.b. Gnutella) kennt jeder Knoten zufällig ein paar andere Knoten aus dem Netzwerk. Die Suche nach Daten im unstrukturierten Overlay verursacht leider viel Kommunikation und ist nicht immer erfolgreich. Im strukturierten P2P- System (z.b. CHORD) ist der Erfolg der Suche nach Daten garantiert. Die Speicherkosten und der Kommunikationsaufwand sind dabei limitiert. Jeder Knoten kennt nur eine logarithmische Anzahl von Knoten im System, wobei diese bekannten Knoten (Nachbarn) nicht zufällig sind. Die gleiche logarithmische Grenze gilt für Kommunikationskosten für das Einfügen und die Suche nach Daten. Jede Suche im SON verursacht Kosten von O(log n) overlay hops, wobei n die Anzahl der Knoten ist. Ein overlay hop entspricht einer logischen Verbindung im P2P-Netz und gleichzeitig einem Pfad der Knotenverbindungen im darunterliegenden Netz. Die physikalische Distanz zwischen den Nachbarn im P2P-System implementiert im drahtlosen Netz kann jedoch sehr groß sein, was zu einer uneffektiven Benutzung der Ressourcen führt. Es gibt Lösungen um Distanz zwischen die Nachbarn zu verkleinern, aber keine um die konkrete physikalische Distanz zwischen beliebigen Knoten im SON zu garantieren. Bisher habe ich: die Problemstellung formuliert, ein formales Modell des Systems hergestellt, das die Analyse mit Berücksichtigung der Beschränkungen des Netzes und räumlich korrelierter Knotenausfälle ermöglicht, sowie die Verwendbarkeit von Replikation in SONs wie CHORD oder Pastry analysiert. Die durchgeführte Analyse bezieht sich auf alle bekannten Replikationsformen in SONs. Leider kann durch diese Lösung Datenverfügbarkeit nicht garantiert werden, wenn eine große Gruppe von nahe beieinander liegenden Knoten ausfällt. In dem Fall eines solchen Ausfalles bieten SONs gar keine Überlebensgarantie für Daten (eng. data survivability). Da die existierenden Replikationsmechanismen nicht befriedigend sind, habe ich einen verteilten Algorithmus vorgeschlagen, der effektive (hohe Datenverfügbarkeit) und effiziente (niedrigen Kosten) Datenreplikation und -suche implementiert. In diesem Algorithmus: hängt die Positionierung der Replikas von der vermuteten Katastrophengröße und Netzwerktopologie ab, sind die Positionen der Replikas beliebiger ortsbezogener Daten für jeden Knoten im Netz einfach zu bestimmen, sind die maximalen Kosten für die Suche nach Replikas begrenzt. Als Kosten könnte der Energieverbrauch verstanden werden, oder auch die Anzahl des hops zwischen Client und dem gefundenen Replika. Der Algorithmus berücksichtigt die Position der Knoten im Netz so weit, dass er z.b. aufgrund der limitierten lokalen Energieressourcen Artikulationspunkte schont oder Replikas dieselben Daten auf verschiedene potenzielle Netzwerkpartitionen verteilt. Besonders eignet sich der Algorithmus für realistische drahtlose Netzwerktopologien, wo eine Netzpartitionierung sehr wahrscheinlich ist. Solche realistischen

55 Graduiertenkolleg METRIK 55 Topologien werden seit Kurzem am Lehrstuhl meiner Betreuer erforscht. Als Forschungsobjekt dienten echte, benutzerinitiierte, drahtlose Netzwerke mit hunderten von Knoten. Durch Optimierung meines Algorithmus auf solche Netze werden die Resultate meiner Arbeit für reale Einsätze (z.b. im Katastrophenmanagement) in denen das Netz durch die Benutzer ausgebaut ist, besser einsetzbar. Als nächstes werde ich diesen Algorithmus für verschiedene Netzwerktopologien und Knotenausfälle simulieren. Zuerst wird eine festgelegte Menge von Daten repliziert und die Kosten für Verteilung und Suche wird analysiert. Danach werden die Knotenausfälle simuliert und die erreichte Datenverfügbarkeit wird überprüft. Weiterführende Arbeiten werden sich auf die Optimierung des Algorithmus für dynamisch entstehende Daten und die Erhöhung der Adaptivität des Algorithmus für unerwartete Änderungen beziehen. Aktivitäten Teilnahme an der Vorstellung der METRIK-Lehrstühle im Wintersemester Teilnahme am 5. METRIK Evaluierungsworkshop, Groß Dölln, Mai Poster beim Tag der Informatik, Mai Mit-Organisation des Gemeinsamen Workshops der Informatik-Graduiertenkollegs, Dagstuhl, Juni Teilnahme und Vortrag bei der MESH nd International Conference on Advances in Mesh Networks, Athen, Griechenland Juni Teilnahme am 6. METRIK Evaluierungsworkshop, Groß Dölln, Nov JARUNGJIT PARNJAI (Betreuer: Prof. Dr. Wolfgang Reisig) Analyse der verhaltensbasierten Austauschbarkeit von Diensten Problemstellung In meiner Doktorarbeit entwickle ich formale Verfahren zur Modellierung und Analyse verhaltensbasierter Austauschbarkeit von Diensten in dezentralisierten Informationssystemen. Das Hauptziel sind systematische Verfahren die Dienstedesigner, z.b. Experten in einem anwendungsbezogenen Arbeitsgebiet, benötigen um rasch und effektiv gut geeignete Aktualisierungen eines Dienstes in der Entwurfsphase zu erstellen. Wir betrachten ein selbstorganisierendes dezentrales Informationssystem, z.b. ein Katastrophenmanagementsystem, bei dem jede Einheit des Systems Änderungen aufgrund von unvorhergesehenen Ereignissen oder zusätzlichen Anforderungen unterlegen ist. Es ist in diesem Zusammenhang wichtig, dass eine Anpassung jeder einzelnen Einheit sowohl die Interaktion mit jeder anderen Einheit des Systems nicht unterbrechen darf als auch keine globalen Auswirkungen auf das gesamte System haben darf. Das Paradigma der Service-Orientierung unterstützt die Entwicklung anpassungsfähiger dezentralisierter Informationssysteme. Daher modellieren wir in unserem Kontext ein dezentralisiertes Informationssystem als eine Komposition von mehreren Diensten, wobei jeder Dienst eine individuelle Einheit im sich selbst organisierenden System repräsentiert. Um rasch auf sich ändernde Entwicklungen zu reagieren leitet der Dienstdesigner eine neue Version eines Dienstes ab und ersetzt daraufhin den Originaldienst mit der neuen Version. Um den Austausch eines Dienstes durchzuführen benötigt der Dienstdesigner ein systematisches Verfahren welches sicherstellt dass eine Aktualisierung eines Dienstes welldesigned ist, d.h., das es keinen nachteiligen Effekt wie z.b. eine Verklemmung in der In-

56 56 Jahresbericht 2009 teraktion mit anderen Diensten einführt. Die wesentlichen Fragestellungen mit denen ein Dienstdesigner konfrontiert ist sind daher: 1. Wie entscheidet man ob eine Aktualisierung eines Dienstes well-designed ist? 2. Wie korrigiert man eine ill-designed Aktualisierung eines Dienstes mit optimalen Kosten? 3. Wie erstellt man eine well-designed Aktualisierung eines Dienstes welches eine vorgegebene Menge an Anforderungen erfüllt? Gleichwohl kann die Eigenschaft einer well-designed Aktualisierung aus verschiedenen Sichtweisen auf Austauschbarkeit betrachtet werden. In dieser Arbeit betrachte ich den wichtigen Aspekt der verhaltensbasierten Austauschbarkeit von Diensten. Dieser Aspekt fokussiert die Einhaltung der Kompatibilität der Kontrollflüsse und der Reihenfolge des Nachrichtenaustauschs zwischen Diensten. Ein fundamentales Korrektheitskriterium in diesem Zusammenhang ist die Abwesenheit von Verklemmungen welche garantiert, dass kein Dienst unendlich lange warten darf um von einem anderen Dienst eine Nachricht zu erhalten. Alle Dienste die an einer verklemmungsfreien Komposition teilnehmen werden als Partner bezeichnet. Für einen Dienst S in einer solchen Komposition wird die Menge aller anderen Dienste in dieser Komposition mit Partners(S) bezeichnet. Partners(S) hat möglicherweise eine unendliche Kardinalität, hauptsächlich weil ein Dienst unendlich viele interne und nicht-deterministische Verhalten beinhalten kann. Dementsprechend ist eine Aktualisierung eines Dienstes genau dann well-designed, wenn es mit allen Partnern des Originaldienstes verklemmungsfrei interagieren kann. Wir definieren zwei verschiedene Notationen, wobei aber beide den verhaltensbasierten Aspekt einer well-designed Aktualisierung erhalten: 1. Verhaltensbasierte Äquivalenz zwei Dienste S und S haben exakt die gleiche Menge von Partnern, d.h. eine äquivalente Aktualisierung hat exakt die gleiche Menge von Partnern von S. 2. Verhaltensbasierte Übereinstimmung jeder Partner von S ist auch ein Partner von S, d.h. eine übereinstimmende Aktualisierung hat mindestens die gleiche Menge von Partnern von S. Eine well-designed Aktualisierung ist eine Aktualisierung die eine dieser Notationen erfüllt, andernfalls heißt die Aktualisierung ill-designed. Ansatz und Ergebnisse Meine Arbeit befasst sich mit mindestens zwei wesentlichen Herausforderungen. Zunächst die Entscheidung ob eine Aktualisierung well-designed ist. Dazu müssen zwei (möglicherweise unendliche) Mengen von Partner die des Dienstes und von dessen Aktualisierung verglichen werden. Weiterhin die Korrektur einer ill-designed Aktualisierung und die Synthetisierung einer well-designed Aktualisierung. Dies erfordert die Charakterisierung der (möglicherweise unendlichen) Menge aller well-designed Aktualisierungen eines gegebenen Dienstes. Die Charakterisierung der Menge der Partner eines Dienstes wurde in der Doktorarbeit von Peter Massuthe (METRIK-assoziiert) entwickelt. In Bezug auf verhaltensbasierte Übereinstimmung habe ich mit meinen Kollegen Christian Stahl (METRIK-assoziiert) und Karsten Wolf eine auf der Arbeit von Peter Massuthe basierende endliche Darstellung aller welldesigned Aktualisierungen eines gegebenen Dienstes, einen Entscheidungs- und einen Kor-

57 Graduiertenkolleg METRIK 57 rekturalgorithmus entwickelt. Ein Synthetisierungsalgorithmus befindet sich zurzeit in Entwicklung. In Bezug auf verhaltensbasierte Äquivalenz soll eine endliche Darstellung aller welldesigned Aktualisierungen sowie Entscheidungs-, Korrektur- und Synthetisierungsalgorithmen entwickelt werden. Allerdings haben mehrere Beispiele gezeigt dass die Charakterisierung aller äquivalenten Aktualisierungen eine große Herausforderung darstellt, da Standard-Begriffe für Äquivalenz wie z.b. trace equivalence und bisimulation zu restriktiv sind und daher nicht mit unserem Begriff der verhaltensbasierten Äquivalenz übereinstimmen. Im Anschluss möchte ich die entwickelten Verfahren an praxisrelevanten Problemen u.a. im Katastrophenmanagement anwenden. Aktivitäten Teilnahme an der Vorstellung der METRIK-Lehrstühle im Wintersemester Teilnahme am 3. B.E.S.T Colloquium, Eindhoven, Niederlande, März Teilnahme am 5. METRIK Evaluierungsworkshop, Groß Dölln, Mai Kurzvortrag und Poster am Tag der Informatik, Mai Teilnahme und Vortrag beim Gemeinsamen Workshop der Informatik-Graduiertenkollegs, Dagstuhl, Juni Teilnahme und Vortrag bei ZEUS Erster zentral-europäischer Workshop über Services und ihre Komposition, Stuttgart, März Teilnahme am 6. METRIK Evaluierungsworkshop, Groß Dölln, Nov ANDREAS REIMER (Betreuer: Prof. Dr. Doris Dransch; Prof. Dr. Joachim Fischer) Visuelle Informationsaggregation: Analyse, Modellierung und automatische Konstruktion von chorematischen Darstellungen. Problemstellung Kartographische Darstellungen und Geovisualisierungslösungen werden in allen Phasen des Katastrophenmanagements benötigt und eingesetzt. Ein wiederkehrendes Problem ist das Auftreten von in Raumbezug, Inhalt, Auflösung und Zuverlässigkeit heterogenen Geodaten, die dennoch schnell visuell & konzeptionell zueinander in Beziehung gesetzt werden müssen. Als eine für diese Probleme angemessene Visualisierungsmethode werden chorematische Darstellungen angesehen. Choreme sind Werkzeuge zur strukturellen und ikonischen Abbildung komplexer räumlicher Sachverhalte durch Begriffe und Graphik, die vom konkreten Zeichenmuster in der Karte weitgehend abstrahieren. Graphische Darstellungen, die diese auf den Arbeiten des französischen Geographen und Kartographen R. Brunet basierenden Werkzeuge nutzen, sind chorematische Darstellungen. Diese wurden bislang manuell hergestellt. Um sie in zeitkritischen Situationen und in explorativen Interaktionen mit großen Datenmengen anwenden zu können, muss ihre Erstellung beschleunigt, im besten Falle automatisiert werden. Diese Automatisierung ist das Ziel des Dissertationsprojektes. Die existierenden Konstruktionsleitlinien für chorematische Darstellungen sind bisher nicht formalisiert. Somit sind sie unzureichend für eine automatisierte Erstellung aus Geodatenbeständen. Durch eine eingehende Analyse existierender chorematischer Darstellungen, sollen

58 58 Jahresbericht 2009 die Gestaltungs- und Konstruktionsregeln abgeleitet werden. Dazu wird eine Methodik entwickelt, die die rechnergestützte, quantitative Analyse einer Vielzahl an Graphiken ermöglicht. Diese Methodik baut auf einzelne Methoden der Kartographie, Geoinformatik und Geovisualisierung auf. Aus den Ergebnissen der Analyse werden Konstruktionsregeln für Chorematische Darstellungen entwickelt und anhand von Fallbeispiele aus dem Katastrophenmanagement überprüft. Ziel ist, chorematische Darstellungen aus heterogenen Geodaten automatisch zu generieren, die den Informationsbedürfnissen der Nutzer im Katastrophenmanagement entsprechen. Die Informationsbedürfnisse werden exemplarisch aus dem Workflow der Task- Force-Erdbeben (Fahland/Woith 2008) und den METRIK-nahen Projekten SAFER und EDIM abgeleitet. Für die Beschreibung der chorematischen Darstellungen soll mit Hilfe der in METRIK entwickelten Werkzeuge eine DSL entwickelt werden. Noch ist zu untersuchen, ob die DSL bereits für die Analyse und Formulierung von Konstruktionsregeln oder erst für die eigentliche Konstruktion eingesetzt werden soll. Als Teilergebnisse der bisherigen Arbeit wurden erste Analysen von existierenden Choremen durchgeführt auf deren Basis eine Taxonomie von Choremen entwickelt wurde. Im nächsten Schritt sollen Konstruktionsregeln definiert werden. Aktivitäten Teilnahme an der Vorstellung der METRIK-Lehrstühle im Wintersemester Teilnahme am 5. METRIK Evaluierungsworkshop, Groß Dölln, Mai Poster beim Tag der Informatik, Mai Teilnahme und Vortrag beim Gemeinsamen Workshop der Informatik-Graduiertenkollegs, Dagstuhl, Juni Teilnahme und Vortrag beim Workshop GeoViz & The Digital City 2009, Hamburg, März Teilnahme am 6. METRIK Evaluierungsworkshop, Groß Dölln, Nov CHRISTOPH WAGNER (Betreuer: Prof. Dr. Wolfgang Reisig) Verifikation datenverarbeitender Services Problemstellung Service Oriented Computing (SOA) ist ein Paradigma zum Aufbau verteilter Systeme. Ein solches verteiltes System setzt sich aus zwei oder mehreren miteinander kommunizierenden Services zusammen. Diese sind lose miteinander gekoppelt, das heißt, sie können leicht ausgetauscht oder neu zusammengestellt werden. Die Services werden in der Regel von unterschiedlichen Anbietern bereitgestellt. Jeder Partei, die einen an einem System beteiligten Service bereitstellt, ist in der Regel nur der innere Aufbau des eigenen Service bekannt, nicht aber der innere Aufbau der anderen Services. Die konkrete Implementation eines Service wird im Allgemeinen vom Anbieter aus nachvollziehbaren Gründen nicht veröffentlicht. Zum einen ist die hinter einem Service stehende Ausführungslogik stark mit den internen Geschäftsabläufen des Anbieters verwoben, welche z. B. vor Mitbewerbern geheim gehalten werden sollen. Zum anderen unterliegt die Implementation eines Service häufigen Änderungen, meist im Rahmen eines kontinuierlichen Entwicklungsprozesses. Die lose Koppelung der Services erlaubt, den Service jeder-

59 Graduiertenkolleg METRIK 59 zeit durch eine aktualisierte Version auszutauschen. Die anderen Serviceanbieter und - nutzer erlangen dabei keine Kenntnis vom veränderten Verhalten des Service. Ungeachtet dieser Unkenntnis muss gewährleistet sein, dass die am System beteiligten Services reibungslos miteinander zusammenarbeiten. Ziel der Arbeit ist die Entwicklung einer sogenannten Bedienungsanleitung für Services. Eine Bedienungsanleitung ist eine Beschreibung des zulässigen Verhaltens für mögliche Nutzer eines Service. Ein Nutzer eines Service ist selbst wieder ein Service. Verhält sich der Nutzer eines Service konform zu dessen Bedienungsanleitung, ist damit sichergestellt, dass die Services korrekt miteinander zusammenarbeiten. Dem Entwickler eines Service wird damit ein Hilfsmittel gegeben, welches ihm nicht nur erlaubt, effizient zu entscheiden, ob sein Service mit einem gegebenen anderen Service zusammen genutzt werden kann. Der Entwickler kann außerdem seinen Service gezielt so entwerfen, dass dieser mit einem bestimmten Service oder auch einer Menge alternativer Services, deren Bedienungsanleitungen ihm bekannt sind, zusammenarbeiten kann. Ansatz und Ergebnisse Im Mittelpunkt der Arbeit stehen die Repräsentation von Daten in der Bedienungsanleitung und der Einfluss von Daten auf das Verhalten des Service. Jeder Service verarbeitet in unterschiedlichem Umfang Werte von Daten. Je nach Art und Aufgabe des Service haben diese Datenwerte einen großen oder geringen Einfluss auf das Verhalten des Service und seine Kommunikation mit anderen Services. Die Aufgabe einiger einfacher Services geringer Komplexität besteht etwa lediglich darin, eingehende Nachrichten weiterzuleiten. Ein solcher Service reagiert auf den Erhalt einer Nachricht z.b. stets mit dem Senden einer Empfangsbestätigung. Der tatsächliche Inhalt der empfangenen Nachricht wird vom Service dabei nicht betrachtet und hat keinen Einfluss auf die weitere Behandlung der Nachricht durch den Service. Die Bedienungsanleitung kann in diesem Falle einfach gehalten und Datenbehandlungsaspekte weitgehend ausgeklammert werden. Ausdrücklich in der Bedienungsanleitung spezifiziert werden muss nur das Verhalten für den Fall, das falsche oder gar keine Nachrichten an den Service gesendet werden. In komplexeren Services hat der konkrete Wert eines in einer Nachricht enthaltenen Datums in der Regel einen maßgeblichen Einfluss auf das Verhalten des Service. Betrachten wir zum Beispiel einen Service, dessen Aufgabe darin besteht, nach dem unmittelbaren Eintreten eines Katastrophenfalles (etwa ein Erdbeben oder eine Überschwemmung) Anfragen aus der betroffenen Region nach dringend benötigten Gütern entgegen zu nehmen und deren Transport ins Krisengebiet und deren Verteilung zu veranlassen. Der Datenwert einer Anfrage ist hier z.b. die Art des angefragten Gutes. Hierbei kann es sich etwa um Sandsäcke, Decken, Zelte oder sonstige technische Ausrüstung handeln. Jedes Gut ist nur in begrenzter Zahl vorrätig. Der Service kann also nicht unabhängig von der Art des angefragten Gutes dessen Transport in das Krisengebiet veranlassen, sondern muss gegebenenfalls nicht vorrätige Güter seinerseits bei anderen staatlichen und nichtstaatlichen Stellen anfordern. Die Art der Kontaktaufnahme und Zusammenarbeit mit den beteiligten Partnern kann im Einzelfall sehr unterschiedlich sein und ein differenziertes Verhalten des Service gegenüber jedem Partner notwendig machen. Alle diese Abhängigkeiten des Verhaltens des Service von den verschiedenen Datenwerten müssen in seiner Bedienungsanleitung berücksichtigt werden. Es ist klar, dass die Bedienungsanleitung umfangreicher wird, je mehr Fälle und Datenwerte unterschieden werden müssen. Da die Größe der Darstellung in der Bedienungsanleitung einen maßgeblichen Einfluss auf die Effizienz der auf der Bedienungsanleitung aufbauenden Algorithmen hat, ist es notwendig, eine möglichst kompakte Datenstruktur zur Darstellung der Datenabhängig-

60 60 Jahresbericht 2009 keiten in der Bedienungsanleitung zu verwenden. Die Entwicklung einer solchen Datenstruktur ist Gegenstand dieser Arbeit. Formal werden Services als offene Netze, das heißt Petrinetze mit speziell ausgezeichneten Eingabe- und Ausgabeplätzen beschrieben. Die Verwendung eines High-Level Petrinetzkalküls erlaubt die Darstellung von Datenwerten beispielsweise in der Form farbiger Token. Die Bedienungsanleitung eines Service ist formal eine endliche Charakterisierung der Menge all jener Services, die mit dem Service so kommunizieren, dass eine bestimmte Eigenschaft gewährleistet oder ein Ziel erreicht wird (zum Beispiel deadlock-freiheit oder das Erreichen eines ausgezeichneten Endzustandes). Diese Charakterisierung kann in Form eines Automaten repräsentiert werden. Dieser Automat wird jedoch insbesondere bei jenen Services sehr groß, die eine große Menge an möglichen Datenwerten unterscheiden müssen. Da viele Datenwerte jedoch ähnlich behandelt werden und teilweise nur punktuellen Einfluss auf das Verhalten des Service haben, existieren große Redundanzen in der Darstellung der Charakterisierung. Durch Trennung von Kontrollfluss und Daten soll eine bessere Darstellung der Charakterisierung gefunden werden. Einen Ansatzpunkt hierfür bildet etwa das Ausnutzen von Symmetrien in der Automatenstruktur, die aus einer ähnlichen Verarbeitung der Datenwerte resultieren. An die konzeptionelle Ausarbeitung und Definition der Bedienungsanleitung für datenverarbeitende Services schließt sich die Entwicklung von auf ihr aufbauenden Algorithmen an. Dies schließt primär ein effizientes Verfahren ein, um die Deadlockfreiheit zweier kommunizierender Services zu entscheiden. Weiterhin sollen mit Hilfe der Bedienungsanleitung Probleme wie die Austauschbarkeit, Synthese oder Korrektur von Services lösbar sein. Hierbei kann auf Vorarbeiten des Lehrstuhls Theorie der Programmierung, insbesondere des METRIK-Assoziierten Peter Massuthe zurückgegriffen werden. Ebenso starke Verbindungen bestehen zu der Arbeit Austauschbarkeit von Services von Jarungjit Parnjai, welcher dieselben formalen Grundlagen zugrunde liegen. Aktivitäten Teilnahme an der Vorstellung der METRIK-Lehrstühle im Wintersemester Teilnahme am 5. METRIK Evaluierungsworkshop, Groß Dölln, Mai Kurzvortrag und Poster beim Tag der Informatik, Mai Teilnahme am 6. METRIK Evaluierungsworkshop, Groß Dölln, Nov ANDREAS DITTRICH (Betreuer: Prof. Dr. Miroslaw Malek, Prof. Dr. Alexander Reinefeld) Self-Aware Adaptive Service Networks with Dependability Guarantees Motivation In bewohnten Gebieten auftretende Katastrophen bergen ein großes Risiko für die dort lebenden Menschen und sind eine Gefahr für die Entwicklung und das Wachstum unserer modernen Gesellschaft. Die Auswirkung jeglicher Katastrophen ob natürlichen oder terroristischen Ursprungs wären schwerwiegend. Tritt ein Katastrophenfall ein, ist es wichtig, schnell und sicher Hilfsmaßnahmen einzuleiten und durchführen zu können. Dabei kommt Informations- und Kommunikationstechnologie zum Einsatz, die die Aufklärungsteams und Hilfsmannschaften entscheidend bei ihrer Arbeit in Katastrophengebieten unterstützt. Heutzutage bringen die meisten Hilfsmannschaften eine eigene Netzwerkausstattung mit, um verschiedene IT-Dienste wie zum Beispiel zur Navigation oder Kommunikation zu nut-

61 Graduiertenkolleg METRIK 61 zen. Obwohl viele dieser Dienste von mehreren Teams gemeinsam genutzt werden könnten, ist dies in der Realität meist nicht der Fall. Die Zuordnung der Teams in unterschiedliche administrative Domains macht eine Kooperation schwierig, die Koordination der Teams ist in Teilen nicht IT-gestützt. Ein einziges Netzwerk, in dem alle teilnehmenden Mannschaften gemeinsam Dienste veröffentlichen, finden und nutzen zu können, wäre von großem Vorteil. Auch wenn die teilnehmenden Teams und der Ablauf der Arbeiten in jedem Katastrophengebiet unterschiedlich sind und somit auch die Ausprägungen der jeweiligen Dienstnetzwerke, lassen sich folgende Gemeinsamkeiten feststellen: Sie entstehen spontan. Es existiert keine globale, administrative Konfiguration. Die Anzahl der Knoten und ihre Fähigkeiten fluktuieren stark. Die Anzahl und Art der bereitgestellten Dienste variieren ebenfalls stark. Aufgrund dieser Eigenschaften müssten für eine sinnvolle Nutzung alle Ebenen des Netzwerks automatisch konfiguriert werden. Der einzig etablierte Standard sind Netzwerke auf Basis des Internet Protokolls (IP). Aufbauend auf IP gibt es einige Technologien, die eine automatische Konfiguration von Dienstnetzwerken versprechen. Ein prominentes Beispiel stellt die Zeroconf-Protokollfamilie dar, welche insbesondere im Bereich der Heimautomation erfolgreich ist. Auch in Katastrophenszenarien könnte die Einsatzleitung von Zeroconf profitieren, dessen Technologien ihr eine jederzeit aktuelle Ansicht aller aktiven Dienste und ihrer Zustände bieten könnten. Dafür muss aber die korrekte Funktion verschiedener Dienste, die kritisch für den Erfolg der Mission sind, gewährleistet sein. Hier muss untersucht werden, ob und wie Zeroconfs Technologien anwendbar sind. Problemstellung Gegeben sei eines der beschriebenen, spontan entstehenden und automatisch konfigurierten Netzwerken. Wie und in welchem Maße können wir Verlässlichkeitseigenschaften kritischer Dienste zur Laufzeit garantieren? Die Eigenschaften umfassen die Verfügbarkeit (Availability), die Fähigkeit, bei auftretenden Fehlern Leistung entsprechend der Erwartungen des Nutzers zu erbringen (Leistungsbereitschaft oder Performability), sowie die Fähigkeit, bei Annahme eines bestimmten Ausfallmodells Grade der Verfügbarkeit oder Leistungsbereitschaft aufrechtzuerhalten (Überlebensfähigkeit oder Survivability). Ziel dieser Forschungsarbeit ist es, eine umfassende Untersuchung der Verlässlichkeit solcher heterogenen und dynamischen Dienstnetzwerke durchzuführen. Vergleichbares existiert zurzeit noch nicht. Ansatz Der Ansatz dieser Dissertation ist es, einen Zyklus ins Netzwerk zu integrieren, welcher die Verlässlichkeitseigenschaften zur Laufzeit überprüft und Garantien bezüglich ihrer Werte angeben kann. Innerhalb dieses Zyklus wird das Netzwerk zur Laufzeit permanent überwacht und es werden, basierend auf den Daten der Überwachung, die Verlässlichkeitseigenschaften ausgewertet. Wenn nötig werden adaptive Maßnahmen zur Verbesserung der Eigenschaften angestoßen. Dieser Zyklus ist die Basis eines selbstgewahren (self-aware), adaptiven Dienstnetzwerks. Aus Sicht des Netzwerkes bietet die Ebene, auf der verteilt Dienste veröffentlicht und gefunden werden können (Service Discovery), eine netzwerkweite Dienstregistrierung, welche benutzt werden kann, um die Präsenz oder sogar die Verfügbarkeit der Dienste zu überwachen. Diese Eigenschaft der Technologien der Ebene wird benutzt und erweitert werden, um

62 62 Jahresbericht 2009 beliebige Dienstparameter zu überwachen und aus diesen Rückschlüsse über die Leistungsbereitschaft abzuleiten. Es ist geplant, einen verteilten Überwachungsdienst zu entwickeln. In der Evaluierungsphase kann außerdem die Überlebensfähigkeit kritischer Dienste abgeschätzt werden, in dem die zu erwartende Verfügbarkeit beziehungsweise Leistungsbereitschaft bei definiertem Ausfallmodell berechnet wird. Diese Berechnung ist die Basis jeder Entscheidung für oder gegen adaptive Maßnahmen. Selbst, wenn bei nachteiligen Umgebungsänderungen keine Möglichkeit besteht, die Eigenschaften durch adaptive Maßnahmen zu verbessern, wäre schon das Wissen um diesen kritischen Zustand und damit die Möglichkeit, administrative Warnungen auszugeben, eine deutliche Verbesserung. Es ist geplant, die existierenden, verbreiteten Zeroconf-Netzwerke im Rahmen der Möglichkeiten des Standards um die beschriebenen Fähigkeiten zu erweitern. Aktuelle und zukünftige Arbeiten Zurzeit arbeite ich an zwei Hauptproblembereichen: Zum einen der theoretischen Modellierung der autokonfigurierenden Dienstnetzwerke auf Basis von Zeroconf, zum anderen an der experimentellen Untersuchung derselben. Es werden momentan theoretische Modelle für jedes Protokoll des Zeroconf Netzwerkstacks entwickelt. Die Modelle werden dann evaluiert, um den Zusammenhang ihrer Zuverlässigkeit und Effizienz quantisieren zu können. Die einzelnen Protokolle werden als Familien zeitdiskreter Markov-Belohnungsmodelle (DRMs) ausgedrückt. Außerdem wird ein hierarchisches, stochastisches Modell entwickelt werden, welches die unterschiedlichen Ebenen zusammenführt, da jede Aktion innerhalb des Netzwerkes auf der Funktionalität aller Ebenen beruht. Die Validität der theoretischen Modelle wird in Experimenten überprüft. Hierfür werden verschiedene Eigenschaften gemessen und mit den zuvor berechneten Werten verglichen. Zu den Eigenschaften gehört zum Beispiel die Reaktionsfähigkeit (Responsiveness) der von Zeroconf bereitgestellten Technologien: Gegeben es sollen alle Instanzen einer bestimmten Dienstklasse im Netzwerk gefunden werden. Wie viele von allen Instanzen werden mit welcher Wahrscheinlichkeit in einer bestimmten Zeit gefunden? Wie verhält sich diese Eigenschaft der Anfrage bei steigendem Paketverlust, wie er in den oben beschriebenen Szenarien zu erwarten ist? Zurzeit werden die Untersuchungen in zwei experimentellen Umgebungen durchgeführt. Zum einen in einer auf virtuellen Maschinen basierenden Simulationsumgebung, welche Zeroconf-Implementierungen testet, die auch in wirklichen Systemen benutzt werden. Zum anderen wird in einer Umgebung gemessen, welche aus drahtlos verbundenen, eingebetteten Controllern besteht, nicht nur um Systeme zu untersuchen, welche über limitierte Fähigkeiten verfügen, sondern auch, um die Eigenschaften echter, unzuverlässiger Netzwerke zu simulieren. Es ist zur Zeit noch unklar, wie genau verteilte, dienstbasierte Anwendungen zur Laufzeit bezüglich ihrer Verfügbarkeit, Leistungsbereitschaft oder Überlebensfähigkeit evaluiert können. Diese Methoden werden in nächsten Schritten entwickelt werden. Es ist zu erwarten, dass die Erkenntnisse der Untersuchungen in Verbesserungen des Zeroconf-Standards münden. Wo möglich wird eine Erweiterung auf andere Technologie- Familien wie UPnP, SLP oder Jini angestrebt. Ob und wie die Erkenntnisse zu verallgemeinern sind, wird sich im Zuge der laufenden Arbeiten herausstellen.

63 Graduiertenkolleg METRIK 63 Aktivitäten Teilnahme an der Vorstellung der METRIK-Lehrstühle im Wintersemester Teilnahme am 5. METRIK Evaluierungsworkshop, Groß Dölln, Mai Poster beim Tag der Informatik, Mai Teilnahme und Vortrag bei der PRDC th Pacific Rim International Symposium on Dependable Computing, Shang-Hai, China, November Teilnahme am 6. METRIK Evaluierungsworkshop, Groß Dölln, Nov HENRYK PLÖTZ (Betreuer: Prof. Dr. Jens-Peter Redlich) Sicherheit in selbstorganisierenden Systemen Problemstellung Selbstorganisierende drahtlose Maschennetzwerke, wie sie in anderen METRIK- Teilprojekten zum Einsatz kommen, werfen eine große Reihe von Frage- und Problemstellungen im Sicherheitsbereich auf. Ein Erdbebenfrühwarnsystem, zum Beispiel, muss um seiner Aufgabe nachzukommen, nicht nur korrekt Frühwarnsituationen erkennen und Alarme auslösen können, sondern es muss darüber hinaus auch gegen mutwillige Auslösung von Fehlarmen (und, weniger wichtig, gegen böswillige Unterdrückung von echten Alarmen) geschützt sein. Dem zugrunde liegt der allgemeinere Bereich von Sicherheit in selbstorganisierenden Systemen, der sich mit Techniken zur Nachrichtenauthentisierung, Integritätsschutz und Sicherstellung von Vertraulichkeit befasst unter der Voraussetzung verschiedener Grade von Selbstorganisation und Unabhängigkeit von zentralen Autoritäten oder, soweit erforderlich und möglich, der verteilten Implementierung dieser Autoritäten. Von herausragender Bedeutung sind hier vor allem zwei Ansätze: (verteiltes) Schlüsselmanagement und (sichere) verteilte Berechnung. Der Ansatz des Schlüsselmanagement untersucht die Frage, wie kryptographisches Schlüsselmaterial in selbstorganisierenden Systemen auf die einzelnen teilnehmenden Knoten in sichererer Art verteilt oder erzeugt werden kann, um dann mit diesen Schlüsseln (mehr o- der weniger) normale Protokolle für Authentizität und Vertraulichkeit ausführen zu können. Alternativ kann es für einige Problemstellungen aber auch möglich und besser sein, die gesamte Berechnung auf mehreren Knoten verteilt auszuführen was ggf. auch ohne explizites Schlüsselmanagement möglich ist in einer Art und Weise die keinem einzelnen Knoten, oder keiner begrenzten Teilmenge von Knoten die Manipulation des Ergebnisses ermöglicht. Ziel soll es dann sein, die EEWS-Ansätze des Graduiertenkollegs METRIK so um Sicherheitsaspekte zu erweitern, dass eine Manipulation des Erdbebenfrüherkennungssystems von außen nicht möglich ist, unter Vermeidung einer zentral gesteuerten Komponente. Es gibt in der Literatur bereits einige Protokolle und Mechanismen für die verteilte Schlüsselverwaltung und sichere Berechnung. Zu prüfen ist, inwiefern sich welche davon für Anwendung im METRIK-Umfeld eignen, wo noch Schwachstellen vorhanden sind, und wo Erweiterungen nötig sind. Ein mögliches Ergebnis wäre eine Lösung für ein selbstorganisierendes Erdbebenfrühwarnsystem welches lediglich mit Standardknoten ohne spezielle vorherige Sicherheits-

64 64 Jahresbericht 2009 beziehungen zueinander auskommt und welches dann die Ermittlung eines Alarms in einer verteilten Berechnung ausführt die von einzelnen Angreifern nicht manipuliert werden kann. Eingeschränkt wird ein solcher Ansatz in der Regel durch Sybil-Attacken in denen ein Angreifer vorgibt, eine große Menge von Knoten zu repräsentieren und damit eventuelle Quorum-Regeln innerhalb des Netzes zu umgehen. Als Antwort darauf könnten verschiedene Ansätze evaluiert werden: Zum einen ist es eventuell möglich oder sogar erwünscht, die Forderung nach vollständiger Selbstorganisation aufzugeben und die Knoten stattdessen bereits bei der Herstellung mit initialem Schlüsselmaterial auszustatten. Zum anderen wäre es denkbar, Reputationssysteme zu verwenden die einem Knoten erst nach längerer Zeit ohne Betrugsversuch Zugang zum Netz gewähren. Aktivitäten Teilnahme an der Vorstellung der METRIK-Lehrstühle im Wintersemester Teilnahme am 5. METRIK Evaluierungsworkshop, Groß Dölln, Mai Poster beim Tag der Informatik, Mai Teilnahme am 6. METRIK Evaluierungsworkshop, Groß Dölln, Nov JENS NACHTIGALL (Betreuer: Prof. Dr. Jens-Peter Redlich, Prof. Dr. Joachim Fischer) Wireless Routing Protocols for Earthquake Early Warning Systems Problemstellung Erdbeben gehören zu den zerstörerischsten Naturkatastrophen. Neben der ökonomischen Entwicklung eines Landes bedrohen sie auch Menschenleben. Zurzeit besitzen nur einige wenige Länder wie die USA oder Japan ein Erdbebenfrühwarnsystem (Earthquake Early Warning System), wobei eine einzelne seismologische Station bereits mehrere Tausend bis Zehntausend Euro kostet. Deshalb sind Erdbebenfrühwarnsysteme mit guter Qualität noch außerhalb der finanziellen Möglichkeiten etlicher Schwellen- und Entwicklungsländer, obgleich diese solch ein System mit am nötigsten bräuchten. Drahtlose Maschennetzwerke (Wireless Mesh Networks) könnten eine Möglichkeit darstellen, um alle gefährdeten Gebiete dieser Welt mit Erdbebenfrühwarnsystemen auszustatten. Die Kosten eines Erdbebeninformationssystems können durch ein solches drahtloses Maschennetzwerk stark reduziert werden. Die Knoten eines solchen Netzwerkes sind preiswert (~200 Euro), können leicht aufgebaut werden und kommunizieren selbstorganisiert über lizenzfreie Frequenzbänder. Ein Erdbebenfrühwarnsystem nutzt die Eigenschaft von Erdbeben aus, zwei unterschiedliche Arten von seismischen Wellen zu verursachen: P- und S-Wellen. Die ungefährlichen P- Wellen (Primärwellen, aus dem Lateinischen prima unda) besitzen eine etwa doppelt so schnelle Ausbreitungsgeschwindigkeit wie die S-Wellen (Sekundärwellen, aus dem Lateinischen secunda unda), welche wesentlich verantwortlich zeichnen für die Zerstörungen eines Erdbebens. Die Zeitdifferenz zwischen dem Eintreffen der P- und S-Wellen (warning time) ist abhängig von der Entfernung eines Ortes vom Hypozentrum. In der Regel beträgt sie nur wenige Sekunden. Diese können jedoch genutzt werden, um Sekundärschäden zu minimieren, indem man beispielsweise den Strom oder die Gaszufuhr einer Stadt abschaltet. Der Anwendungsfall eines Erdbebenfrühwarnsystems ist einzigartig. Obgleich die P-Wellen nicht sonderlich gefährlich sind, so können sie doch ein leichtes Wackeln von wenigen Zentimeter auslösen, wenn das Erdbeben eine große Magnitude als 6 besitzt und die Distanz zum Erdbebenherd geringer als 40 km ist. Offensichtlich sind diese geringmächtigen Bewe-

65 Graduiertenkolleg METRIK 65 gungen umso größer, je stärker das Erdbeben bzw. je geringer die Distanz zum Epizentrum sind, sprich umso dringender ein funktionierendes Frühwarnsystem benötigt würde. Diese Bewegungen treten zudem just in dem Moment auf, in dem ein Erdbeben unmittelbar bevor steht, und das System in Aktion treten soll. Diese Art der Bewegung kann aufgrund von Multipfadeffekten (multi-path effects) oder Abschattung (shadowing) zu starken Schwankungen der Linkqualität führen. Aktuelle Routingprotolle für drahtlose Maschennetze sind für diese Änderungen der Linkqualitäten nur begrenzt geeignet. In der Regel nutzen diese Protokolle Informationen aus der Vergangenheit, sprich die zurückliegenden Verbindungsqualitäten, um Aussagen über die Gegenwart und Zukunft in der Form von Routingentscheidungen zu treffen. Diese Grundannahme liegt für diesen Anwendungsfall jedoch nicht vor, da die in der Vergangenheit gemessene Linkqualität zur Zeit einer neuerlichen Routingentscheidung bereits stark verändert ist. Hinzu kommt, dass die Linkqualitäten nicht nur für das Routing verwendet werden, sondern im Falle der Erdbebenfrühwarnprojekte wie SAFER und EDIM auch für die Clusterbildung und für die Wahl des Clusterheads. Findet ein Erdbeben statt, so kann es passieren, dass ein Link für welchen eine ausgesprochen gute Qualität gemessen wurde, in dem Moment, in welchem die P-Welle eintrifft, plötzlich stark degradiert, und dadurch ein zuvor ausgewählter Routingpfad unbrauchbar wird. Ansatz und Ergebnisse Die Ergebnisse mehrerer von mir durchgeführter Experimente offenbarten, dass die Qualitätsschwankungen eines Links in kleinem Maßstab vermindert werden können, wenn ein Knoten mit zwei Antennen ausgestattet und Antennendiversität aktiviert wird. Dadurch empfängt der Knoten das gleiche Signal auf zwei unterschiedlich positionierten Antennen und kann das jeweils bessere von beiden Signalen verwenden. Während der leichten Bewegungen eines Knotens ist es dadurch statistisch weniger wahrscheinlich, dass beide Antennen sich gleichzeitig an Orten schlechten Empfangs positioniert sind. Es wird angenommen, dass was im Kleinen funktioniert, auch im großen Maßstab Anwendung finden kann. Die Eigenschaft eines Maschennetzwerkes soll ausgenutzt werden, dass dieses mehrere Knoten an unterschiedlichen Orten besitzt, welche aufgrund des Broadcast-Mediums dazu in der Lage sind ein Paket zu empfangen (multi-user diversity). Es soll einem grundsätzlich anderem Routingansatz, Anycast-Routing, als den etablierten gefolgt werden, welcher diese Mehrbenutzerdiversität ausnutzt. Die grundlegenden Eigenschaften der drahtlosen Kommunikation, sprich von allen empfangbare Broadcast-Kommunikation mit möglichen Kollisionen und Konkurrenz um das Medium bei gleichzeitig relativ hohen Paketverlustraten, sollen hier nicht als Nach- sondern Vorteil begriffen werden. Die wesentliche Idee von Anycast- Routing ist, dass aufgrund der Mehrbenutzerdiversität während der leichten Bewegungen der Knoten zwar die Linkqualität zu einem bestimmten Nachbarknoten sich verschlechtern mag, gleichzeitig jedoch sich die Verbindung zu einem oder mehreren anderen Nachbarn jedoch verbessert. Während die Idee des Anycast-Routings für drahtlose Maschennetzwerke generell von Vorteil sein mag, so sollte diese Annahme für den Anwendungsfall eines Erdbebenfrühwarnsystems mit seinen stark schwankenden Linkqualitäten umso mehr zutreffen. Man unterscheidet im Wesentlichen zwischen drei Arten des Anycast-Routings: geographisches Routing, opportunistisches Routing und einfaches Fluten des Netzwerkes, wobei jeder dieser Ansätze für sich genommen etliche Unzulänglichkeiten aufweist. Nachdem ich das Mobilitätsverhalten wie weiter oben beschrieben in einen Netzwerksimulator implementiert habe, werde ich diese einzelnen Ansätze hinsichtlich ihrer Eignung für Erdbebenfrühwarnung untersuchen. Indem die inhärenten Eigenschaften des Anwendungsfalls der Erdbebenfrühwarnsysteme berücksichtigt werden, können die Unzulänglichkeiten der einzelnen Ansätze aufgefangen werden: Die Primärwellenfront ist gerichtet und breitet sich mit bekannter

66 66 Jahresbericht 2009 Geschwindigkeit aus, und auf gleiche Weise sollten die Pakete eines Erdbebenfrühwarnsystems im drahtlosen Maschennetzwerk propagiert werden. Solch ein Alarmierungsalgorithmus für ein Netzwerk mit unbeständiger Topologie und sich ständig ändernden Pfaden existiert jedoch noch nicht und muss entwickelt werden. Die Entwicklung geschieht in enger Kooperation mit der Infrastruktur des Lehrstuhls für Systemarchitektur (SAR), des Lehrstuhls für Systemanalyse (SAM) hier insbesondere dem am Lehrstuhl entwickelten Erdbebensimulator und dem GeoForschungsZentrum Potsdam. Ideen, Rückmeldungen und Unterstützung für mein Promotionsvorhaben erhalte ich insbesondere auch durch die weiter oben aufgeführten Drittmittelprojekte SAFER und EDIM, an denen ich bereits vor meinem Stipendium als Student beteiligt war und nach wie vor aktiv mitarbeite. Aktivitäten Teilnahme an der Vorstellung der METRIK-Lehrstühle im Wintersemester Teilnahme am 5. METRIK Evaluierungsworkshop, Groß Dölln, Mai Poster beim Tag der Informatik, Mai Teilnahme und Vortrag beim Gemeinsamen Workshop der Informatik-Graduiertenkollegs, Dagstuhl, Juni Teilnahme und Vortrag bei der MESH nd International Conference on Advances in Mesh Networks, Athen, Griechenland, Juni Teilnahme am SAFER Final Meeting, GeoForschungsZentrum Potsdam, Juni Teilnahme am 6. METRIK Evaluierungsworkshop, Groß Dölln, Nov ARIF WIDER (Betreuer: Prof. Dr. Joachim Fischer, Prof. Dr. Holger Schlingloff) Metamodel-based Technologies for Computing-Infrastructures for the Development of Optical Nanostructures Problemstellung Optische Nanostrukturen sind Objekte, deren Strukturen kleiner als die Wellenlänge von Licht sind. Daher können sie die Bewegung von Photonen in einer ähnlichen Weise beeinflussen, wie Halbleiterkristalle die Bewegung von Elektronen beeinflussen. Das langfristige Ziel in diesem Bereich ist die Produktion von optischen Bauteilen, die ähnliche Fähigkeiten wie elektronische Bauteile besitzen. Letztendlich ist dies auch ein Schritt in Richtung optischer Computer und Quantencomputer. Informationen über die Eigenschaften von Nanostrukturen können durch Simulation gewonnen werden. Typischerweise wird hierbei die Ausbreitung eines elektromagnetischen Pulses innerhalb einer beliebigen dreidimensionalen, optischen Nanostruktur simuliert. Dabei kommen unterschiedliche Simulationsverfahren zum Einsatz, unter anderem die Finite Elemente Methode und die Finite Differenzen Methode. Die Verfahren unterscheiden sich dabei sowohl bzgl. Genauigkeit als auch bzgl. Ressourcenverbrauchs. Derzeit werden bei der Erforschung von optischen Nanostrukturen häufig proprietäre Simulationswerkzeuge verwendet. Diese Werkzeuge sind häufig an ein bestimmtes Simulationsverfahren gebunden, weitgehend inkompatibel in Bezug auf die Syntax der Modellbeschreibung und bieten unterschiedlich mächtige Benutzeroberflächen. Dies führt dazu, dass die gleiche Nanostruktur in jedem Werkzeug erneut modelliert werden muss, wenn verschiedene Simulationsverfahren zum Einsatz kommen sollen. Darüber hinaus bieten die meisten dieser Werkzeuge keine Unterstützung für eine Verwaltung der Ergebnisse, sondern speichern diese lediglich als einzelne Dateien ab.

67 Graduiertenkolleg METRIK 67 Ansatz Das Problem von Simulationswerkzeugen, die an ein bestimmtes Simulationsverfahren gebunden sind, kann in vielen Bereichen der Forschung wieder gefunden werden. Im Rahmen meiner Dissertation möchte ich zeigen, dass die Anwendung eines modellgetriebenen Ansatzes eine Entkopplung der Strukturmodellierung optischer Nanostrukturen und der Experimentbeschreibung von einzelnen Werkzeugen (und somit von Simulationsverfahren) ermöglicht. Dementsprechend entwickle ich Metamodell-basierte Technologien für die Entwicklung optischer Nanostrukturen oder wende existierende Technologien für diesen Zweck an. Im Rahmen dieses umfangreichen Beispielszenarios kann darüber hinaus untersucht werden, wie ein modellgetriebenes Experiment-Daten-Management in einen solchen Ansatz integriert werden kann. Ein Teil meiner Arbeit ist daher die Konzeption einer Computing-Infrastruktur zur modellbasierten Entwicklung optischer Nanostrukturen (CIMON). Diese Infrastruktur integriert domänenspezifische Sprachen, etwa zur Beschreibung von Nanostrukturen und zur Spezifikation von Simulationsparametern. Für diese Sprachen bietet die Infrastruktur automatisch generierte Editier- und Transformationswerkzeuge. Die Anwendung adäquater Transformationen ermöglicht so die Verwendung verschiedener Simulationsverfahren. Darüber hinaus bietet die Infrastruktur Unterstützung bei der Visualisierung von Modellen und Ergebnissen sowie bei der Verwaltung der Ergebnisse. Letzteres bedeutet, dass Modelle von Nanostrukturen und Simulationsspezifikationen zusammen mit den entsprechenden Ergebnissen konsistent in einem zentralen Repository abgelegt werden. Das Ziel dieser interdisziplinären Kooperation zwischen der Physik und der Informatik ist es, zu zeigen, dass die Metamodell-basierten Ansätze und Technologien, die im Graduiertenkolleg METRIK entwickelt werden, auch auf Anwendungsbereiche außerhalb des Katastrophenmanagements anwendbar sind. Im Mittelpunkt meiner Arbeit steht daher eine Konsolidierung und Generalisierung, sowie eine Weiterentwicklung dieser Ansätze und Technologien. Zusammenarbeit innerhalb des Kollegs Aufbau auf den Arbeiten von Markus Scheidgen, Guido Wachsmuth und Daniel Sadilek bzgl. Metamodell-basierter Sprachentwicklung und der automatischen Werkzeug- Generierung für diese Sprachen. Orientierung an der Arbeit von Falko Theisselmann bzgl. der Extraktion domänenspezifischer Konzepte zur Entwicklung von Sprachen für Domänenexperten. Verwendung von Markus Scheidgens Textual Editing Framework zur Implementierung von frühen Prototypen. Zusammenarbeit mit Frank Kühnlenz bei der Entwicklung eines Ansatzes zum modellbasierten Management von Experimenten (Konsistenz und Transparenz in Planung, Ausführung und Auswertung). Kooperation im Bereich Erweiterbare domänenspezifische Sprachen mit Siamak Haschemi. Diese Arbeit wurde als Beitrag bei einer Konferenz publiziert. Aktivitäten Teilnahme an der Vorstellung der METRIK-Lehrstühle im Wintersemester Teilnahme am 5. METRIK Evaluierungsworkshop, Groß Dölln, Mai Poster und Kurzvortrag beim Tag der Informatik, Mai 2009.

68 68 Jahresbericht 2009 Teilnahme am Jubiläumssymposium Licht Materialien Modelle im Rahmen des Jubiläumsjahres 100 Jahre Innovation aus Adlershof, Berlin, September Teilnahme an der GTTSE Summer School on Generative and Transformational Techniques in Software Engineering, Braga, Portugal, Juli Teilnahme am 6. METRIK Evaluierungsworkshop, Groß Dölln, Nov FRANK KÜHNLENZ (Betreuer: Prof. Dr. Joachim Fischer, Prof. Dr. Jens-Peter Redlich) Modellbasierte Entwicklung verteilter, dezentraler Sensorsysteme (mit Schwerpunkt Experiment Management) Problemstellung Die Entwicklung von dezentralen Sensorsystemen, die zudem oft drahtlos, ad-hoc und selbst-organisierend sein sollen, stellt eine Herausforderung für die Informatik dar. Die benötigte Größe bzw. hohe Anzahl an Sensorknoten macht gewöhnlich Experimente an einem physisch existierenden System unmöglich aufgrund zu hohen Aufwandes (Kosten), so dass man Experimente mit Modellen des Systems durchführt (Computersimulationen). Dabei spielt neben der reinen Strukturbeschreibung insbesondere die Modellierung des dynamischen Verhaltens solcher Systeme in Kombination mit Umgebungsmodellen eine große Rolle. Ein Modellexperiment ist eine Methode zur Erkenntnisgewinnung über das Originalsystem mittels des Systemmodells, das mit geeigneten Eingaben versorgt, beobachtbare Modellergebnisse liefert. Dabei wird das Modellexperiment in einer bestimmten Umgebung ausgeführt, die abhängig vom Abstraktionslevel und den Fragestellungen verschiedenartig sein kann: Somit kann ein Modellexperiment als Computersimulation unter Verwendung eines Simulationsmodells von einem Simulationskern ausgeführt aufgefasst werden oder als Experiment mittels eines Prototyp-Software-Modells. Das Experimentieren umfasst somit Planung, Ausführung und Auswertung von (Modell-) Experimenten, wobei die im Detail notwendigen Schritte für ein konkretes Experiment oft implizites Wissen des Experimentators erfordern. Solch implizites Wissen umfasst z.b., warum bestimmte Abstraktionen im Modell getroffen wurden und welche Fragen überhaupt mit diesem Modell, in einem konkreten Experiment ausgeführt, beantwortet werden können. Solche Meta-Informationen werden selten erfasst, so dass, selbst wenn alle notwendigen Artefakte, wie Eingabedaten, Parameter, Modell- und Ausführungsumgebungsbeschreibungen verfügbar sind, ein konkretes Experiment schwer nachvollzogen werden kann. In einem solchen Fall sind wiederum die davon direkt abhängigen, erzielten Resultate schwer nachvollziehbar. Der Fokus meiner Arbeit ist es, das Experimentieren transparenter (und komfortabler) zu gestalten, was bedeutet, die Reproduzierbarkeit des Prozesses des Experimentierens sicherzustellen und insbesondere die Konsistenz und Dauerhaftigkeit aller für das Experiment notwendigen Artefakte zu garantieren. Dies beinhaltet auch, das implizite Wissen des Experimentators explizit verfügbar zu machen. Ansatz und Ergebnisse Ein Ziel meiner Arbeit ist es, eine Experiment Management Infrastructure Technology (EMIT) anzubieten, die es ermöglicht, eine bestimmte Experimentier-Domäne so zu beschreiben, das mittels EMIT aus diesem Beschreibungsmodell automatisch ein für diese Domäne spezifisches Werkzeug, das Experiment Management System (EMS), generiert werden kann. Ein solches EMS sichert die Umsetzung der identifizierten Anforderungen an

69 Graduiertenkolleg METRIK 69 ein Experiment Management. Exemplarisch wurde ein solches EMS händisch von mir für das EU-Projekt SAFER und den darin in Work-Package 4 durchgeführten Experimenten zur modellbasierten Entwicklung eines neuartigen Sensornetzwerk-Prototyps zur Erdbebenfrühwarnung umgesetzt. Mittels EMIT soll es zukünftig möglich sein, Domänen-spezifische EMS schnell zu entwickeln, so dass transparentes Experimentieren in Software-Entwicklungsprozessen frühzeitig ermöglicht wird (insbesondere in Modellierung & Simulation und prototypischer Softwareentwicklung). Ein Experimentator, der EMIT verwendet, modelliert die typischen Merkmale seiner Experimente unter Verwendung einer Domänen-spezifischen Sprache (DSL), der Experiment Management DSL. Diese Sprache bietet Ausdrucksmittel zur Beschreibung der Daten (Konfiguration, Resultate) und des Ausführungsprozesses in einer konkreten Ausführungsumgebung (Framework), die dem Experimentator bereits wohl vertraut aus seiner bisherigen Arbeit ohne EMIT bzw. EMS ist. Die Verwendung eines EMS erleichtert zudem die Vorbereitungsarbeit, indem Mengen von Experimenten planbar werden, so dass bestimmte Parameter nach einer definierten Methode automatisch variiert werden (z.b. schrittweise, zufällig oder nach Monte Carlo). Verschiedene Anwendungsfälle für EMIT sind aktuell in Betrachtung, wobei zwei aus dem METRIK-Kontext stammen: Unterstützung des Experimentierens eines Landnutzungsmodells in Kooperation mit Falko Theisselmann (s. gemeinsame Publikation) und beim Aufbau eines Modellierungs- und Simulationsframeworks für optische Nanostrukturen in Kooperation mit Arif Wider und Physikern der HU-Berlin. Diese Anwendungsfälle zeigen bereits weitere, wünschenswerte Funktionalität für EMS hinsichtlich Modellkopplung und z.b. Feedback zwischen Experimenten. Inwieweit dies umgesetzt werden kann, ist Gegenstand meiner zukünftigen Arbeiten. Insbesondere hat die Umsetzung von EMIT gerade begonnen; eine technologische Basis ist identifiziert, doch die Entwicklung der Meta-Modelle für die beiden DSLs sowie die eigentliche Implementierung muss zukünftig umgesetzt werden. Aktivitäten Teilnahme an der Vorstellung der METRIK-Lehrstühle im Wintersemester Teilnahme am 5. METRIK Evaluierungsworkshop, Groß Dölln, Mai Teilnahme und Poster beim Abschlusstreffen des EU-Projektes SAFER, Potsdam, Juni Teilnahme und Vortrag bei der EGU European Geosciences Union General Assembly, Wien, Österreich, April 2009 (Talk). Teilnahme und Vortrag bei der MATHMOD th Vienna International Conference on Mathematical Modelling, Wien, Österreich, Februar 2009 (Talk). Teilnahme am 6. METRIK Evaluierungsworkshop, Groß Dölln, Nov

70 70 Jahresbericht 2009 KATHRIN POSER (Betreuer: Prof. Dr. Doris Dransch, Prof. Dr. Ulf Leser) Integration und Bewertung von Informationen der betroffenen Bevölkerung für das Hochwasser-Risikomanagement Hintergrund Für das Katastrophenmanagement und die schnelle Schadensabschätzung nach (Natur-)Katastrophen ist es wichtig, möglichst schnell einen möglichst umfassenden Überblick über die entstandenen Schäden und die daraus resultierenden Beeinträchtigungen zu erhalten. Die benötigten Informationen kommen aus unterschiedlichen Quellen (Beobachtungen von Einsatzkräften, verschiedene Sensoren, Luft- und Satellitenbilder) und müssen zusammengeführt und gemeinsam ausgewertet werden, um für Entscheidungen im Katastrophenmanagement und die Auswertung von Ereignissen nützlich zu sein. Menschen beobachten ihre Umgebung und können als intelligente Sensoren Information über ihre Beobachtungen zur Verfügung stellen. Bei Hochwasserereignissen können sie beispielsweise den Wasserstand in überfluteten Gebieten oder mögliche Verschmutzungen des Flutwassers beobachten. Bis vor kurzem war es zeit- und kostenaufwändig, Informationen der betroffenen Bevölkerung in persönlichen Befragungen, per Telefon oder Brief zu erheben. Neue Internettechnologien und die zunehmende Verbreitung von Breitbandanschlüssen haben die Möglichkeit eröffnet, schneller und einfacher Informationen von der betroffenen Bevölkerung zu erheben. Bisher werden Beobachtungen von Augenzeugen und Menschen vor Ort selten (ausgenommen Einsatzkräfte und andere Mitarbeiter im Katastrophenschutz) systematisch in das Katastrophenmanagement und die schnelle Schadensabschätzung einbezogen. Einige Ausnahmen, allen voran die Initiative Did you feel it? des US Geological Survey, bei der zehntausende Freiwillige web-basierte Fragebögen zu Erdbebenereignissen ausfüllen, haben gezeigt, dass die Bevölkerung einen wertvollen Beitrag zum Desastermanagement leisten kann. Die Nutzung von Beobachtungen der betroffenen Bevölkerung für das Desastermanagement ist jedoch auch mit einigen Schwierigkeiten verbunden. Insbesondere unbekannte Verfügbarkeit und unsichere Qualität der Daten stellen Hindernisse für ihre Nutzung dar. Im Gegensatz zu Sensoren und Messeinrichtungen können Beobachtungen der Bevölkerung nicht geplant werden und es ist unbekannt, wie viele Daten woher zur Verfügung gestellt werden. Ebenso ist die Zuverlässigkeit von Beobachtungen der Bevölkerung, die für diese Aufgabe nicht geschult ist, bisher wenig untersucht. Problemstellung Das Ziel der Arbeit ist, Informationen der betroffenen Bevölkerung für das Risikomanagement nutzbar zu machen. Am Beispiel der schnellen Schadensabschätzung nach Hochwasser-Ereignissen werden Methoden zur Bewertung der Qualität solcher Daten entwickelt. Die konkreten Forschungsfragen sind: Welche der benötigten Informationen können in ausreichender Qualität von der Bevölkerung beobachtet werden? Wie können diese Informationen erfasst werden? Wie kann die Qualität dieser Informationen bewertet und kontrolliert werden? Vorgehensweise Die Vorgehensweise besteht aus zwei Teilen: Im ersten Teil wird die Qualität der Beobachtungen der betroffenen Bevölkerung anhand von existierenden Daten aus Telefoninterviews

71 Graduiertenkolleg METRIK 71 untersucht. Die Ergebnisse dieser Untersuchung werden im zweiten Teil der Arbeit genutzt, um eine automatisierte Vorgehensweise für die Qualitätsbewertung für eine web-basierte Hochwassererhebung zu entwickeln und prototypisch umzusetzen. Der erste Teil der Arbeit basiert auf Telefoninterviews, die mit Betroffenen der Hochwasserereignisse im Elbe- und Donaueinzugsgebiet im Jahr 2002 sowie im Elbeeinzugsgebiet im Jahr 2006 durchgeführt wurden. In insgesamt über 2000 Interviews wurden Betroffene zu Überflutungsparametern, privaten Vorsorgemaßnahmen sowie durch das Hochwasser verursachten Schäden gefragt. In dieser Arbeit werden Daten zum Wasserstand und zur Fließgeschwindigkeit betrachtet, wobei dem Wasserstand besondere Bedeutung zukommt, da dieser Parameter für die Schadensabschätzung am wichtigsten ist. Die Daten aus den Telefoninterviews werden auf Konsistenz innerhalb des Datensatzes, auf Konsistenz mit gemessenen Wasserständen und mit Ergebnissen hydraulischer Modelle überprüft. Anschließend wird eine Fitness-for-Use Analyse durchgeführt, um zu überprüfen, ob die Beobachtungen der Bevölkerung geeignet sind, um damit ein empirisches Schadensmodell anzutreiben, um so zu einer schnellen Schadensabschätzung nach einem Hochwasserereignis zu kommen. Im zweiten Teil der Arbeit wird dann eine automatisierte Vorgehensweise entwickelt, die es erlaubt, von der betroffenen Bevölkerung zur Verfügung gestellte Daten in einem prototypisch umgesetzten, web-basierten System zu bewerten und zur Abschätzung von Schäden zu nutzen Ergebnisse Bisher wurden die Daten aus den Telefoninterviews auf Konsistenz innerhalb des Datensatzes, Konsistenz mit Modellergebnissen und Konsistenz mit eingemessenen Wasserständen untersucht. Die Ergebnisse der internen Konsistenzprüfung und der Vergleich mit Ergebnissen hydraulischer Modelle zeigen, dass die Schätzungen des Wasserstands zwar erheblich von den modellierten Ergebnissen abweichen, allerdings im gleichen Rahmen, in dem die modellierten Daten von gemessenen Wasserständen abweichen. Die Einschätzungen der Fließgeschwindigkeiten mittels verbaler Beschreibung und Indikatoren weichen von den gemessenen Daten sehr stark ab, allerdings gibt es hier keinerlei gemessene Daten, so dass auch die Zuverlässigkeit der modellierten Daten nicht beurteilt werden kann. Der Vergleich der Daten aus den Telefoninterviews mit eingemessenen Wasserständen wurde mittels geostatistischer Methoden durchgeführt. Die Ergebnisse zeigen, dass die geschätzten Wasserstände eine ähnliche Abweichung zu den eingemessenen aufweisen wie die modellierten. Beispielhaft wurde für die Gemeinde Eilenburg an der Mulde, die beim Hochwasser 2002 schwer betroffen war, die Nutzbarkeit der Beobachtungen der Bevölkerung für die Schadensschätzung mittels empirischer Modelle untersucht. Die Untersuchung ergab, dass die Schadensschätzung mit diesen Daten nur sehr gering von der mit Daten aus hydraulischen Modellen abweicht. Die Abweichung von Referenzdaten ist zwar deutlich größer, aber in Anbetracht der allgemein hohen Unsicherheiten bei der empirischen Schadensmodellierung sind die Ergebnisse als nutzbar für diese Abschätzungen einzustufen. Aktivitäten Teilnahme am 5. METRIK Evaluierungsworkshop, Groß Dölln, Mai Teilnahme und Vortrag beim EEA (European Environmental Agency) workshop on Vulnerability and disaster risks mapping, Kopenhagen, Juli Teilnahme und Vortrag bei der AGILE (Association Geographic Information Laboratories Europe) International Conference on Geographic Information Science Advances in GIScience, Hannover, Juni 2009.

72 72 Jahresbericht 2009 Teilnahme und Poster beim Joint Symposium of ICA Working Group on Cartography in Early Warning and Crises Management (CEWaCM) and JBGIS Geo-information for Disaster Management (Gi4DM) Cartography and Geoinformatics for Early Warning and Emergency Management: Towards Better Solutions, Prag, Januar Teilnahme am 6. METRIK Evaluierungsworkshop, Groß Dölln, Nov DR. PETER MASSUTHE (Betreuer: Prof. Dr. Kees van Hee (TU Eindhoven), Prof. Dr. W. Reisig) Operating Guidelines for Services Die (Verhaltens-)Kompatibilität von Services spielt eine zentrale Rolle in vielen Bereichen des Umfelds Service-orientierter Architekturen (SOA). Operating Guidelines (Bedienungsanleitungen) von Services ermöglichen ein effizientes Entscheidungsverfahren, ob zwei gegebene Services verhaltenskompatibel sind. Dies wird erreicht durch eine endliche Charakterisierung, die Operating Guideline, aller verhaltenskompatiblen Services für einen gegebenen Service. Aktivitäten Teilnahme an der Vorstellung der METRIK-Lehrstühle im Wintersemester Teilnahme an der ATPN th International Conference on Application and Theory of Petri Nets and other Models of Concurrency, Paris, Frankreich, Juni CHRISTIAN STAHL (Betreuer: Prof. Kees van Hee (TU Eindhoven), Prof. Wolfgang Reisig) Service Substitutability A Behavioral Approach Based on Petri Nets Problemstellung Die Arbeit bettet sich ein in das Gebiet Service-Oriented Computing (SOC). Im Zentrum des Projektes stand die Frage, wann ein Service P durch einen anderen Service P ausgetauscht werden kann. Dafür waren drei Teilziele vorgesehen: 1. Charakterisieren und klassifizieren verschiedene Austauschbarkeitsbegriffe 2. Austauschbarkeitsbegriffe auf der Modellebene formulieren und algorithmisch unterlegen sowie Entscheidungsalgorithmen herleiten 3. Erarbeiten von Algorithmen zur Konstruktion austauschender Services Ansatz und Ergebnisse Teilziel 1: Charakterisierung von Austauschbarkeitsbegriffen In der Literatur gibt es vielfältige Kriterien zur Definition von der Austauschbarkeit eines Services durch anderen, abhängig von den Eigenschaften, die beim Austausch bewahrt oder gewonnen werden sollen. Wir haben uns auf Eigenschaften des Verhaltens eines Services eingeschränkt. Ein erstes Kriterium betrifft die Terminierung (Deadlockfreiheit, und/oder Livelockfreiheit). In der Praxis sind zudem strikte Varianten wichtig: In einem Endzustand kann ein Service keine Nachrichten empfangen oder senden. Ein zweites Kriterium betrifft einzelne Szenarien, also Teilabläufe eines Service P. Interessant sind Services R, deren Komposition P + R mit P ein Szenario erzwingt (enforce), ausschließt (exclude) oder ermöglicht (cover). Solche Anforderungen können für verschiedene Szenarien aussagenlogisch kombiniert werden.

73 Graduiertenkolleg METRIK 73 Für eine Kombination X solcher Eigenschaften ist ein Service R eine X-Strategie für P, wenn die Komposition P + R die Eigenschaft X hat. Den Begriff der Austauschbarkeit eines Service P durch einen Service R haben wir in Bezug auf die Menge Strat X (P) der X- Strategien von P definiert. P kann auf folgende zwei Arten durch P ausgetaucht werden: - unter conformance, wenn Strat X (P) Strat X (P ) - unter Bewahrung einer Menge S Strat X (P) von Services, mit S Strat X (P ) Teilziel 2: Austauschbarkeitsbegriffe entscheiden Um Austauschbarkeit zu entscheiden müssen zwei im Allgemeinen unendliche Mengen von X-Strategien miteinander verglichen werden. Für eine Menge von Deadlockfreiheit- Strategien gab es bereits eine endliche Repräsentation, die Bedienungsanleitung (operating guideline). Im Rahmen der Arbeit wurde das Konzept der Bedienungsanleitung erweitert, um eine Repräsentation für jede Teilmenge von X-Strategien zu konstruieren. Für folgende vier Mengen X1,, X4 von Eigenschaften haben wir algorithmische Lösungen entwickelt: - X1 = {Deadlockfreiheit, strict, enforce, exclude} - X2 = X1 ( {cover} - X3 = X1 ( {Livelockfreiheit} - X4 = X3 ( {cover} Für jede der Repräsentation von X-Strategien, nachfolgend X-OG genannt, haben wir eine Konstruktionsvorschrift angegeben sowie ein Kriterium (Matching), um zu entscheiden, ob ein Service in einer X-OG enthalten ist. Für X1-OGs und X2-OGs konnte ein Entscheidungsalgorithmus angegeben werden, um Inklusion zu entscheiden. Des Weiteren haben wir bewiesen, dass der Durchschnitt zweier Mengen von X-Strategien durch das Produkt ihrer X-OGs charakterisiert wird. Mit Hilfe dieser Rechenoperationen auf Repräsentationen von X-Strategien haben wir nachfolgende Entscheidungsalgorithmen erarbeitet. Conformance kann entschieden werden, indem die Inklusion der Mengen Strat X (P) und Strat X (P ) auf den entsprechenden Repräsentionen X-OG(P) und X-OG(P ) entschieden wird. Für X1 und X2 haben wir Lösungen. Im Falle von Austauschbarkeit von P durch P unter Bewahrung einer Menge S von X- Strategien, unterscheiden wir drei Fälle. Ist S endlich, reduziert sich der Entscheidungstest auf Matching aller S i S in Strat X (P ). Ist S unendlich und ist als X-OG repräsentiert, dann reduziert sich das Problem darauf, conformance von S und Strat X (P ) auf den entsprechenden X-OGs zu entscheiden. Im dritten Fall konstruieren wir die Menge S. Wir schränken die Menge Strat X (P) auf alle X-Strategien ein, die bestimmte Szenarien bewahrt. Zu diesem Zweck konstruieren wir eine X1-OG, die alle Services repräsentiert, die diese Szenarien bewahren. Das Produkt dieser X1-OG mit X-OG(P) repräsentiert den Durchschnitt der Mengen, d.h. alle X-Strategien aus Strat X (P), die die Szenarien bewahren. P tauscht P unter Bewahrung von S aus, falls conformance des Produktes und X-OG(P ) gilt. Teilziel 3: Austauschende Services konstruieren Für Austauschbarkeit unter Bewahrung kann im Falle einer endlichen Menge S eine Repräsentation aller austauchenden Services angegeben werden. Dazu wird das Produkt aller X- OG(S i ) konstruiert, mit S i S. Im Falle von X1-Strategien kann auch eine Repräsentation aller Services P konstruiert werden, die P unter conformance austauschen. Zu diesem Zweck konstruieren wir eine spezielle X1-Strategie, deren X1-OG alle P repräsentiert.

74 74 Jahresbericht 2009 Zur Konstruktion austauschender Services haben wir eine Menge von Transformationsregeln erarbeitet. Diese Regeln identifizieren ein Muster M in einem Service und geben an, durch welches Muster M das Muster M ersetzt werden kann. Die Regeln ermöglichen das Einfügen, Löschen, Umordnen interner Aktionen sowie Sende- und Empfangsereignissen. Weitere Resultate Conformance charakterisiert die Inklusion zweier Mengen von X-Strategien und ist eine Preorder. Im Falle von X = {Deadlock- und Livelockfreiheit} konnten wir zeigen, dass die Preorder fair testing von Vogler und Rensink conformance impliziert. Conformance impliziert allerdings im Allgemeinen nicht fair testing. Wir haben Kriterien erarbeitet wann diese beiden Preorder äquivalent sind. Unsere Resultate zu conformance und Transformationsregeln haben auf die Servicebeschreibungssprache WS-BPEL übertragen. Wir konnten den Kompatibilitätsbegriff in WS-BPEL (wann kann ein abstrakter WS-BPEL Prozess durch einen ausführbaren ersetzt werden) formalisieren verallgemeinern. Zusammenarbeit innerhalb des Graduiertenkollegs Es besteht eine enge Kooperation mit Niels Lohmann und Peter Massuthe in Themen zu Bedienungsanleitungen, Conformance, Transformationsregeln und Übertragung der Resultate in die Servicebeschreibungssprache WS-BPEL. Mehrere Publikationen sind im Rahmen dieser Kooperation entstanden. Es besteht weiterhin Zusammenarbeit mit Jarungjit Parnjai in deren Rahmen eine gemeinsame Publikation entstand. Aktivitäten Teilnahme an ZEUS Erster zentral-europäischer Workshop über Services und ihre Komposition, Stuttgart, März NIELS LOHMANN (Betreuer: Prof. Dr. Wolfgang Reisig, Prof. Dr. Karsten Wolf (Uni Rostock)) Correctness of services and their composition Problemstellung Fokus der Arbeit ist die Korrektheit von Services sowie die Korrektheit von Kompositionen mehrerer Services. Dabei gibt es in der Literatur verschiedene Ansätze, Korrektheit eines Systems sicherzustellen: Korrektheit durch Beweis die Korrektheit eines Systems wird durch einen mathematischen Beweis anhand eines formalen Modells gezeigt Korrektheit durch Konstruktion ein System wird durch mathematisch bewiesene Konstruktionsschritte oder Algorithmen erzeugt; die Korrektheit des Systems folgt dann direkt aus der Korrektheit der Schritte Korrektur eines Systems ein bzgl. eines Kriteriums inkorrektes System wird durch Anwendung eines Korrekturalgorithmus verändert, sodass das Korrektheitskriterium erfüllt wird. Ziel der Arbeit soll es sein, diese Ansätze auf Services und Servicekompositionen anzuwenden. Dabei gibt es weiterhin verschiedene Szenarien, in denen über Korrektheit gesprochen werden kann: Korrektheit eines Services bzgl. einer beliebigen Umgebung Korrektheit eines Services bzgl. einer bestimmten Umgebung

75 Graduiertenkolleg METRIK 75 Korrektheit einer Komposition bzgl. einer Spezifikation Ansatz und Ergebnisse Ein grundlegendes Korrektheitskriterium für Services ist die Bedienbarkeit. Ein Service ist bedienbar, falls es eine Umgebung gibt, in der der Service verklemmungsfrei kommuniziert. Neben der Existenz einer beliebigen Umgebung ist weiterhin die Frage nach einer bestimmten Umgebung interessant, um das Verhalten eines Service zu validieren bzw. solche bestimmten Umgebungen als Dokumentations- oder Testszenarien abzuleiten. Ergebnisse zur Korrektheit eines Services bzgl. einer beliebigen Umgebung: Es wurde ein Algorithmus erarbeitet, mit dem die Gründe für Nicht-Bedienbarkeit analysiert werden können. Der Algorithmus gibt weiterhin Korrekturvorschläge an, mit denen Bedienbarkeit sichergestellt werden kann. Es wurde ein Verfahren entwickelt, mit dem die Bedienbarkeit bzgl. bestimmter Umgebungen überprüft werden kann. Die Umgebungen werden dabei als endliche Automaten spezifiziert. Im Falle der Nichtbedienbarkeit bzgl. dieser Umgebung kann der oben genannte Diagnosealgorithmus verwendet werden. Oft werden Services in bekannten Umgebungen, bspw. in unternehmensübergreifenden Geschäftsprozessen eingesetzt. In diesem Fall sind konkrete Fragen, bspw. die An- oder Abwesenheit bestimmter Kommunikationssequenzen interessant. Durch die gegebene Umgebung sind in diesem Szenario die Korrekturmöglichkeiten eingeschränkt. Ergebnisse zur Korrektheit eines Services bzgl. einer gegebenen Umgebung: Es wurden bestehende Resultate aus dem Bereich der computergestützten Verifikation sowie der Partnersynthese auf Servicekompositionen angewendet. So ist Korrektheit durch Beweis sowie Korrektheit durch Konstruktion auf Servicekompositionen anwendbar. Es wurde ein Algorithmus entwickelt, mit dem ein Service bzgl. einer gegebenen Umgebung korrigiert werden kann. Dabei wird versucht, durch minimale Eingriffe in der Kontrollfluss des inkorrekten Services Korrektheit sicherzustellen. Bei der Entwicklung unternehmensübergreifender Geschäftsprozesse stehen zunächst weniger die einzelnen Services als vielmehr die Kommunikation zwischen ihnen im Mittelpunkt. In diesem Kontext ist in den letzten Jahren der Modellierungsstil der Interaktionsmodelle entstanden. Solch ein Modell spezifiziert Kommunikationssequenzen zwischen den zu entwickelten Services. Ergebnisse zur Korrektheit von Interaktionsmodellen: Nicht jede von einem Interaktionsmodell spezifizierte Kommunikationssequenz ist letztlich in einer Servicekomposition realisierbar. Wir konnten zeigen, dass sich dieses Problem der Realisierbarkeit auf das Problem der Bedienbarkeit reduzieren lässt. Somit sind alle bisherigen Ergebnisse auf Interaktionsmodelle anwendbar. Oft wird in Interaktionsmodellen synchrone Kommunikation angenommen. Beim Übergang zur in der Praxis eher verwendeten asynchronen Kommunikation können dabei Verklemmungen entstehen. Wir haben einen Algorithmus entwickelt, der diese neuen Verklemmungen erkennen und korrigieren kann. Zusammenarbeit innerhalb des Graduiertenkollegs Es besteht eine enge Kooperation mit Christian Stahl in Themen zu Bedienungsanleitungen, Austauschbarkeit und Übertragung der Resultate in die Servicebeschreibungssprache WS- BPEL. Mehrere Publikationen sind im Rahmen dieser Kooperation entstanden.

76 76 Jahresbericht 2009 Aktivitäten Teilnahme und Vortrag bei ZEUS Erster zentral-europäischer Workshop über Services und ihre Komposition, Stuttgart, März MICHAEL SODEN (Betreuer: Prof. Dr. Joachim Fischer, Prof. Dr. Holger Schlingloff) Dynamische Analyse von ausführbaren Modellen Problemstellung Neue Techniken zur Sprach- und Modelldefinition zogen in den letzten Jahren unter dem Begriff der (objekt-orientierten) Metamodellierung das Interesse von Forschung und Wirtschaft auf sich. Metamodelle dienen als Beschreibungsmittel zur präzisen Definition verschiedenster Entwicklungsartefakte, wie z.b. Spezifikationsmodelle oder die abstrakte Syntax von Modellierungs- und Programmiersprachen. Die Meta Object Facility (MOF) Spezifikation der Object Management Group zur strukturellen Beschreibung von Modellen hat sich dabei weitestgehend als Standard durchgesetzt. Neben der Definition von strukturellen Eigenschaften existieren in dieser Metadatenarchitektur jedoch keine Beschreibungsmittel, um dynamische Aspekte der Ausführungssemantik zu formalisieren oder weitergehend zu analysieren. Aus dieser Ausgangslage heraus leiteten sich mehrere Fragestellungen für das hier dargestellte Promotionsprojekt ab. Zunächst galt es zu untersuchen, inwieweit sich etablierte Techniken zur Beschreibung der dynamischen Semantik von Sprachen auf die Metamodellierung übertragen bzw. integrieren lassen. Da der schnellen Entwicklung von Werkzeugen zu neuen und angepassten Sprachen eine immer größere Bedeutung zukommt, sollte untersucht werden, inwieweit sich Simulatoren aus der Definition der dynamischen Semantik einer Sprache automatisch ableiten lassen. Eine auf diese Problematik aufbauende Fragestellung bezieht sich auf die Analysemöglichkeiten der um dynamische Semantik angereicherten Metamodelle, d.h. ob und ggf. wie sich einzelne dynamische Abläufe dieser Simulatoren formalisieren und anschließend überprüfen lassen (z.b. Verifikation von Szenarien durch Simulationsaufzeichnung). Analog zu der Ableitung von Simulatoren soll auch hier die Möglichkeit einer Generierung von Werkzeugen zur dynamischen Sprachanalyse untersucht werden, die automatisiert die Korrektheit dieser Szenarien nachweisen. Ziele der Arbeit, Lösungsansatz Ziel dieser Promotion ist die Konzeption und Evaluierung eines Metamodellierungsframeworks zur Definition der dynamischen Sprachsemantik und der dynamischen Modellanalyse. Dies bedeutet zunächst das Bereitstellen geeigneter Modellierungstechniken zur präzisen Definition des Sprachverhaltens in Metamodellen, welche eine Ausführung (Simulation) ermöglichen. Hierzu wurde eine operationale Aktionssemantik für MOF entwickelt, die eine Weiterentwicklung bewährter Konzepte aus der Unified Modelling Language (UML), der Object Constraint Language (OCL) und Abstract State Machines (ASM) vereint. Die daraus resultierende erweiterte Metamodellierungsarchitektur dient als Basis für weitergehende methodische Untersuchungen zur dynamischen Semantik von Sprachen. Es wurde gezeigt, dass dynamische Eigenschaften von Ausführungsläufen (Traces) generisch beschrieben werden können und diese sich während bzw. nach der Modellausführung automatisch verifizieren lassen.

77 Graduiertenkolleg METRIK 77 Ergebnisse Die aus der Analyse heraus notwendigen Erweiterungen der MOF Metamodellierungsarchitektur wurden identifiziert, konzipiert und mit bestehenden Methoden verglichen. Basierend auf den oben genannten Zielsetzungen ergaben sich zwei Teilbereiche einer gemeinsamen Promotion mit Herrn Eichler (ebenfalls Assoziierter von METRIK), bei der das gemeinsam entwickelte Model Execution Framework (MXF) als Basis für unsere Forschungen entstand. MXF ist mittlerweile ein offizielles Open Source Projekt im Rahmen der eclipse Gemeinschaft und bietet ein flexibles Metamodellierungsframework mit Verhaltensbeschreibung (Aktionssemantik), das auf eine schnelle Entwicklung von neuen Simulationsumgebungen abzielt. Für die Bewertung des Ansatzes wurden im Rahmen dieser Arbeit mittels Konzeptstudien eine Reihe von Modellierungs- und Programmiersprachen untersucht, so zum Beispiel Aspekte von C#, UML, Zeitautomaten und ASMs. Es konnte gezeigt werden, dass sich verschiedenste dynamische Sprachaspekte formalisieren und unmittelbar in einer Art Metamodellinterpreter ausführen lassen. Die Konzepte und Techniken dieser erweiterten MOF Architektur wurden mehrfach publiziert (vgl. Publikationen). In einem zweiten Schritt konnten einzelne Szenarien durch aufzeichnen von Simulationsläufen als sog. Traces analysiert werden. Zielstellung war es, dynamische Eigenschaften zu formalisieren und beispielhaft automatisiert zu verifizieren. Zu diesem Zweck wurde OCL um temporale Operatoren zur Linear Temporal OCL (LT-OCL) ergänzt. Mittels der daraus resultierenden objektorientierten Zeitlogik konnten dynamische Eigenschaften der Zustandsänderungen bei aufgezeichneten Szenarien automatisch überprüft werden. Zudem ermöglicht der entwickelte Algorithmus es entweder offline (unter Rückgriff auf Traces) oder online (d.h. während der Simulation) diese Nachweise zu führen. Die Sprache und Konzeption der LT-OCL wurde dieser Jahr erstmals publiziert. Derzeit werden weitergehende Aspekte wie Parallelität und Komplexität der Algorithmen erforscht, um die Arbeit inhaltlich abzurunden. Zusammenarbeit innerhalb des Graduiertenkollegs Bereits vor Beginn des Graduiertenkollegs herrschte intensiver Austausch zwischen Promovenden am Lehrstuhl von Prof. Fischer über das Thema Sprachmodellierung durch Metamodellierung. Dieser Austausch wurde seit Beginn von METRIK an durch zahlreiche Anwendungen aus dem Bereich des Katastrophenmanagements und der Erdbebenfrühwarnsysteme erheblich bereichert. Die hier zum Einsatz kommenden Domänensprachen bieten wertvolle, weil praxisnahe, Beispiele und Problemstellungen anhand derer sich die theoretischen Konzepte anwenden lassen. Auf dieser Grundlage entstanden zudem verwandte Arbeiten zu angrenzenden Themen, unter anderem die von Markus Scheidgen, Guido Wachsmuth oder Daniel Sadilek. Darüber hinaus bietet das Graduiertenkolleg einen exzellenten wissenschaftlichen Rahmen um Ideen vorzustellen und mit Hilfe der interdisziplinären Blickwinkel weiterzuentwickeln. Der Autor erhofft sich für die hier vorgestellte Promotion in Zukunft weitere Unterstützung durch Austausch bei Vorträgen und Diskussionen sowie Anwendungsfällen aus der Praxis. Aktivitäten Teilnahme am 5. METRIK Evaluierungsworkshop, Groß Dölln, Mai Teilnahme und Vortrag bei der EclipseCon 2009, Santa Clara, CA, USA, März Teilnahme am 6. METRIK Evaluierungsworkshop, Groß Dölln, Nov

78 78 Jahresbericht 2009 HAJO EICHLER (Betreuer: Prof. Dr. Joachim Fischer, Prof. Dr. Holger Schlingloff) Ausführbare Modelle und deren Anwendung zum Softwaretesten Problemstellung Modelle sind in den letzten Jahren ein wichtiger Bestandteil der Softwareentwicklung geworden. Dabei gibt es eine Vielzahl von Modellen, die jeweils spezielle Aspekte eines Entwicklungsschrittes festhalten. Modellierungstechniken und Inhalte sind dabei aber meist nur in natürlicher Sprache definiert. Geprägt durch den Standard MOF (Meta Object Facility) der Object Management Group erhielten diese Modelle eine einheitliche formale Definition und wurden so maschinell verwertbar. Allen voran spielen vor allem Modelle zur Definition von strukturellen Daten eine Hauptrolle. In der Praxis jedoch zeigt sich, dass diese sogenannten Metamodelle (Modelle, die Modelle beschreiben) rein zur Codegenerierung von Strukturen und zur Dokumentation und Kommunikation verwendet werden, obwohl ihr Potential größer ist. Anfangsfragen Da die Metamodellierung sich bisher auf den Aspekt der strukturellen Informationen beschränkt, stellte sich die Frage, ob man auf diesem Abstraktionsniveau auch Verhaltensaspekte definieren kann? Wenn ja, welches Verhalten wird dadurch ausgedrückt und welchen Mehrwert bringt eine Verhaltensbeschreibung zu diesem Zeitpunkt im Softwareentwicklungszyklus? Welche der existierenden Verhaltensbeschreibungen ist hierfür am besten geeignet und welche Anwendungen für das Softwaretesten können aus diesem Verhalten abgeleitet werden? Zielsetzung Ausgehend von diesen grundlegenden Fragestellungen ergab sich nach ersten Recherchen und Analyseschritten, dass eine Erweiterung des MOF Standards um eine imperative Sprache zur Definition der operationalen Semantik von Modellen zielführend ist. Daraus entwickelten sich die konkreten Ziele zur Definition der Verhaltensbeschreibung in MOF, die Umsetzung einer Ausführungsumgebung für diese Modelle und die Anwendung dieser Technologie in Hinblick auf die Verbesserung während der Softwareentwicklung - zum einen durch die dynamische Analyse des Verhaltens (Thema von Michael Soden, ebenfalls Assoziierter im METRIK Graduiertenkolleg) und zum anderen durch die Verwendung der Verhaltensbeschreibung zum Testen der zu entwickelten Software, was Ziel dieser Promotion ist. Ansatz und Ergebnisse Eine erste Umsetzung der neuen Metamodellierungssprache und eines Frameworks zur Ausführung von Modellen ist vollbracht. Um eine breitere Öffentlichkeit für die Sprache zu erhalten und in Kontakt mit internationalen Wissenschaftlern zu treten, wurde das Framework als Open Source Projekt in der Eclipse community veröffentlicht. Eine Vielzahl von Reaktionen zeigt, dass ein gesteigertes Interesse an diesem Thema vorhanden ist. Erste Seiten der Promotionsschrift über den gemeinsamen Teil sind bereits entstanden und mit dem Betreuer Prof. Joachim Fischer diskutiert.

79 Graduiertenkolleg METRIK 79 Weiteres Vorgehen Eine tief greifende Analyse über bestehende Testtechniken muss als Grundlage für den Hauptteil dieser Arbeit erfolgen, um herauszuarbeiten, wie die neu geschaffene Sprache und deren Werkzeuge zur Verbesserung des Softwaretestens beitragen können. Durch die Integration weiterer Sprachmittel zum Definieren von Testfällen (Bedingungen, Präund Postampel, Erwartungen, etc.) wird eine allgemeine Grundlage geschaffen, für sämtliche Sprachen adhoc Testfälle zu definieren. Dabei wird untersucht, in wie weit die klassische Schnittstelle zwischen dem zu testenden System (auch Produkt genannt) und dem Modell transparenter werden kann, indem Softwarekomponenten fließend zwischen der Modell- und der Produktwelt ausgetauscht werden können. Weiterführend muss bei zyklischer Entwicklung der Aufwand zum Anpassen von Testfällen reduziert werden, was durch eine Verhaltensbeschreibung in Modellen erst ermöglicht wird. Diese Art von Tests sind dem Integrations- bzw. Systemtest zuzuordnen. Es ist noch genau herauszuarbeiten, welche Fehlerarten mit den so gewonnenen Testfällen erkannt werden können. Zusammenarbeit nnerhalb des Graduiertenkollegs Durch das gegenseitige Vorstellen von Themen und Neuerungen im wöchentlichen Forschungsseminar zwischen den Teilnehmern des Graduiertenkollegs und den Mitarbeitern des Lehrstuhls von Prof. Fischer findet ein reger Austausch statt. Dieser führt dazu, Anregungen aus anderen Projekten und Arbeiten aufzunehmen und in die Arbeit mit einfließen zu lassen. Aktivitäten Teilnahme am 5. METRIK Evaluierungsworkshop, Groß Dölln, Mai Teilnahme und Vortrag bei der ECMDA-FA th European Conference on Model- Driven Architecture Foundations and Applications, Enschede, Niederlande, Juni Teilnahme am 6. METRIK Evaluierungsworkshop, Groß Dölln, Nov Gastwissenschaftler PROF. JANNYS IOANNIDES, University of Athens, Gastvortrag bei 100 Jahre Innovation aus Adlershof, Februar PROF. DR. ANNIKA HINZE, University of Waikato, externe Gutachterin, Vortrag: The ins and outs of context-aware systems, Evaluierungs-Workshop, Mai PROF. DR. INA SCHIEFERDECKER, Technische Universität Berlin, externe Gutachterin, Vortrag: Model-Based Quality Engineering, Evaluierungs-Workshop, Mai 2009 PROF. DR.-ING. HABIL. ANDREAS MITSCHELE-THIEL, Technische Universität Ilmenau, externer Gutachter, Vortrag: International Graduate School on Mobile Communications at Ilmenau University of Technology - Research Focus and Selected Projects, Evaluierungs- Workshop, November DR. FLORIAN PROBST, Researcher SAP Research CEC Darmstadt, externer Gutachter, Vortrag: SoKNOS - Service-oriented Architectures Supporting Networks of Public Securit, Evaluierungs-Workshop, November 2009.

80 80 Jahresbericht 2009 Veröffentlichungen A. DITTRICH, F. SALFNER: Experimental Dependability Evaluation of Decentralized Service Discovery in Unreliable Networks, 15th IEEE Workshop on Dependable Parallel, Distributed and Network-Centric Systems (DPDNS2010), Atlanta, Georgia, USA, 04/2010. S. WEIßLEDER: Simulated Satisfaction of Coverage Criteria on UML State Machines, Third International Conference on Software Testing, Verification and Validation (ICST), Paris, France, 04/2010. S. WEIßLEDER: Static and Dynamic Boundary Value Analysis. MBEES'10: Model-Based Development of Embedded Systems, Schloss Dagstuhl, Germany, 02/2010. D. SOKENOU, S. WEIßLEDER: ParTeG - Integrating Model-Based Testing and Model Transformations, Software Engineering 2010, Paderborn, Germany, 02/2010. J. CALTA: A Taxonomy of Adaptive Systems, 7th European Workshop on Multi-Agent Systems (EUMAS 2009), Ayia Napa, Zypern, Dezember J. CALTA, M. MALEK: Formal Analysis of Fault Recovery in Self-Organizing Systems. In Proceedings of the 8th International Conference on Dependable, Autonomic and Secure Computing (DASC 2009), Chengdu, China, December (akzeptiert) S. WEIßLEDER, D. SOKENOU: ParTeG - A Model-Based Testing Tool, Gesellschaft für Informatik - Group Test And Verification (TAV), 29. Treffen: Testmanagement Meets MBT, Stralsund, Germany, 11/2009. D. FAHLAND, J. MENDLING, H. A. REIJERS, B. WEBER, M. WEIDLICH, S. ZUGAL: Imperative versus Declarative Process Modeling Languages-An Empirical Research Agenda, 11/2009. K. FLEMING, M. PICOZZI, C. MILKEREIT, F. KÜHNLENZ, B. LICHTBLAU, J. FISCHER, C. ZULFIKAR, O. OZEL: The Self-Organising Seismic Early Warning Information System (SOSEWIN). Seismological Research Letters, Volume 80, , September/Oktober 2009, doi: /gssrl (akzeptiert) A. AVANES, J.-C. FREYTAG: Flexible Failure Handling for Cooperative Processes in Distributed Systems. The 5 th IEEE Conference on Collaborative Computing: Networking, Applications and Worksharing, (CollaborateCom), November (To appear) T. GOLDSCHMIDT, A. DITTRICH, M. MALEK: Quantifying Criticality of Dependability-Related IT Organization Processes in CobiT. In Proceedings of the IEEE 15 th Pacific Rim International Symposium on Dependable Computing (PRDC 09), Shang-Hai, China, November (akzeptiert) S. WEIßLEDER: Influencing Factors in Model-Based Testing with UML State Machines: Report on an Industrial Cooperation. Models (12th International Conference on Model Driven Engineering Languages and Systems), Denver, Colorado, 10/2009. S. HASCHEMI: Model Transformations to Satisfy All-Configurations-Transitions on Statecharts (10 Seiten), Model-Driven Engineering, Verification and Validation (MoDeVVA 2009), Denver, Colorado, USA, 10/2009. M. HERRMANNSDÖRFER, D. RATIU, G. WACHSMUTH: Language Evolution in Practice: The History of GMF. SLE 2009, Denver, Colorado, USA. K. AHRENS, I EVESLAGE, J. FISCHER, F. KÜHNLENZ, D. WEBER: The challenges of using SDL for the development of wireless sensor networks, In: 14th System Design Languages Forum, Springer Berlin/Heidelberg, Bochum, Germany, (akzeptiert)

81 Graduiertenkolleg METRIK 81 A. BLUNK, J. FISCHER, D. A. SADILEK: Modelling a Debugger for an Imperative Voice Control Language (16 Seiten), SDL '09: 14th System Design Languages Forum, F. THEISSELMANN, D. DRANSCH, J. FISCHER: Model-driven Development of Environmental Modeling Languages: Language and Model Coupling. Proceedings of the 23rd International Conference on Informatics for Environmental Protection, Berlin, D. FAHLAND, C. FAVRE, B. JOBSTMANN, J. KOEHLER, N. LOHMANN, H. VÖLZER, K. WOLF: Instantaneous Soundness Checking of Industrial Business Process Models. In Umeshwar Dayal, Johann Eder, Jana Koehler, Hajo Reijers, editors, Business Process Management, 7th International Conference, BPM 2009, Ulm, Germany, September 8-10, 2009, Proceedings, volume 5701 of Lecture Notes in Computer Science, Springer-Verlag, September D. FAHLAND, J. MENDLING, H. A. REIJERS, B. WEBER, M. WEIDLICH, S. ZUGAL: Declarative versus Imperative Process Modeling Languages: The Issue of Maintainability. Int'l. Workshop on Empirical Research in Business Process Management (ER-BPM '09) in conjunction with BPM 2009, Ulm, Germany, September 8-10, S. HASCHEMI, A. WIDER: An Extensible Language for Service Dependency Management (4 Seiten). SEAA 2009: 35 th Euromicro Conference on Software Engineering and Advanced Applications, F. THEISSELMANN, D. DRANSCH, S. HAUBROCK: Service-oriented Architecture for Environmental Modelling - The Case of a Distributed Dike Breach Information System. IMACS- MODSIM 18th World Congress on Modelling and Simulation, Cairns, July 13-17, S. HAUBROCK, F. THEISSELMANN, H. ROTZOLL, D. DRANSCH: Web-based management of simulation models - concepts, technologies and the users' needs. IMACS-MODSIM 18th World Congress on Modelling and Simulation, Cairns, July 13-17, D. A. SADILEK, G. WACHSMUTH: Using Grammarware Languages To Define Operational Semantics of Modelled Languages (9 Seiten), TOOLS '09: 47th International Conference Objects, Models, Components, Patterns, D. SOKENOU, S. WEIßLEDER: Combining Sequences and State Machines to Build Complex Test Cases. MoTiP: Workshop on Model-Based Testing in Practice, co-located with the 5th ECMDA, Enschede, The Netherlands, 06/2009. D. FAHLAND: Oclets - scenario-based modeling with Petri nets. In Giuliana Franceschinis, Karsten Wolf, editors, Proceedings of the 30th International Conference on Petri Nets and Other Models Of Concurrency, May 2009, volume 5606 of Lecture Notes in Computer Science, Paris, France, pages , Springer-Verlag, June D. FAHLAND, D. LÜBKE, J. MENDLING, H. REIJERS, B. WEBER, M. WEIDLICH, S. ZUGAL: Declarative versus Imperative Process Modeling Languages: The Issue of Understandability. In John Krogstie, Terry Halpin, Erik Proper, editors, Proceedings of the 14th International Conference on Exploring Modeling Methods in Systems Analysis and Design (EMMSAD'09), volume 31 of Lecture Notes in Business Information Processing, Amsterdam, The Netherlands, Springer-Verlag, June J. GEIBIG: Availability of Data in Locality-Aware Unreliable Networks. In Proceedings of Second International Conference on Advances in Mesh Networks MESH2009, Athens, Greece, June J. NACHTIGALL, A. ZUBOW, R. SOMBRUTZKI, M. PICOZZI: The Challenges of using Wireless Mesh Networks for Earthquake Early Warning Systems. In: MESH '09: Proceedings of the Second International Conference on Advances in Mesh Networks June 2009, Athens, Greece, 2009.

82 82 Jahresbericht 2009 S. HASCHEMI, D. A. SADILEK: Modelling Dynamic Component Dependencies (4 Seiten + Poster). 3rd International Conference on Fundamentals of Software Engineering (FSEN), Kish Island, Iran, 04/2009. S. WEIßLEDER: Semantic-Preserving Test Model Transformations for Interchangeable Coverage Criteria. MBEES'09: Model-Based Development of Embedded Systems, Schloss Dagstuhl, Germany, 04/2009. G. WACHSMUTH: A Formal Way from Text to Code Templates. FASE 2009, York, Vereinigtes Königreich. A. REIMER, D. DRANSCH: Information Aggregation: Automatized Construction of Chorematic Diagrams. workshop (GeoViz & The Digital City) 2009, March, Hamburg, Germany, J. PARNJAI, C. STAHL, K. WOLF: A finite representation of all substitutable services and its applications. In Kopp, O., Lohmann, N., eds.: Proceedings of the 1st Central-European Workshop on Services and their Composition, ZEUS 2009, Stuttgart, Germany, March 2 3, Volume 438 of CEUR Workshop Proceedings, CEURWS.org, 29 34, J. FISCHER, F. KÜHNLENZ, K. AHRENS, I. EVESLAGE: Model-based Development of Selforganizing Earthquake Early Warning Systems. In: I. Troch, F. Breitenecker, eds., Proceedings MathMod Vienna 2009, Vienna University of Technology, pp. CD F. KÜHNLENZ, F. THEISSELMANN, J. FISCHER: Model-driven Engineering for Transparent Environmental Modeling and Simulation. Proceedings MATHMOD 09 Vienna, I. Troch, F. Breitenecker (eds.), J. FISCHER, F. KÜHNLENZ, I. EVESLAGE, K. AHRENS, B. LICHTBLAU, J. NACHTIGALL, C. MILKEREIT, K. FLEMING, M. PICOZZI: Deliverable D4.26 Network Optimisation simulation for combined standard and low cost seismic network integration. Proposal for network optimisation. Technical report, Department of Computer Science, Humboldt-Universität zu Berlin and Section 2.1, GFZ Potsdam, J. FISCHER, F. KÜHNLENZ, I. EVESLAGE, K. AHRENS, B. LICHTBLAU, J. NACHTIGALL, C. MILKEREIT, K. FLEMING, M. PICOZZI: Deliverable D4.23 Installation and Operation Guidelines. Technical report, Department of Computer Science, Humboldt-Universität zu Berlin and Section 2.1, GFZ Potsdam, J. FISCHER, F. KÜHNLENZ, I. EVESLAGE, K. AHRENS, J. NACHTIGALL, B. LICHTBLAU, C. MILKEREIT, K. FLEMING, M. PICOZZI: Deliverable D4.22 Middleware for Geographical Applications. Technical report, Department of Computer Science, Humboldt-Universität zu Berlin and Section 2.1, GFZ Potsdam, A. AVANES, D. FAHLAND, J. GEIBIG, S. HASCHEMI, S. HEGLMEIER, D. A. SADILEK, F. THEISSELMANN, G. WACHSMUTH, S. WEIßLEDER, (HRSG.): Dagstuhl Proceedings des gemeinsamen Workshops der Informatik-Graduiertenkollegs und Forschungskollegs. Gito-Verlag, A. AVANES: Scalable and Robust Process Execution in Self-Organizing Information Systems. In: Dagstuhl Proceedings des gemeinsamen Workshops der Informatik- Graduiertenkollegs und Forschungskollegs, Gito-Verlag, S. WEIßLEDER: Test Models and Coverage Criteria for Automatic Model-Based Test Generation from UML State Machines. In: Dagstuhl Proceedings des gemeinsamen Workshops der Informatik-Graduiertenkollegs und Forschungskollegs, Gito-Verlag, 2009.

83 Graduiertenkolleg METRIK 83 S. HASCHEMI: Component Development and Deployment in Self-Organizing Wireless Networks (1 Seite), In: Dagstuhl Proceedings des gemeinsamen Workshops der Informatik- Graduiertenkollegs und Forschungskollegs, Gito-Verlag, J. CALTA: Formal Analysis of Fault Tolerance in Self-Organizing Systems. In: Dagstuhl Proceedings des gemeinsamen Workshops der Informatik-Graduiertenkollegs und Forschungskollegs, Gito-Verlag, A. REIMER: Analysis & Construction of Chorematic Diagrams. In: Dagstuhl Proceedings des gemeinsamen Workshops der Informatik-Graduiertenkollegs und Forschungskollegs, Gito-Verlag, A. WIDER: Applying Model-Driven Technologies in the Development of Optical Nanostructures (2 Seiten). In: Dagstuhl Proceedings des gemeinsamen Workshops der Informatik- Graduiertenkollegs und Forschungskollegs, Gito-Verlag, J. PARNJAI: Exchangeability of Services in Self-Organizing Systems. In: Dagstuhl Proceedings des gemeinsamen Workshops der Informatik-Graduiertenkollegs und Forschungskollegs, Gito-Verlag, J. GEIBIG: Availability of Data in Locality-Aware Unreliable Networks. In: Dagstuhl Proceedings des gemeinsamen Workshops der Informatik-Graduiertenkollegs und Forschungskollegs, Gito-Verlag, D. FAHLAND: Modeling and Analyzing adaptive Processes with Scenarios. In: Dagstuhl Proceedings des gemeinsamen Workshops der Informatik-Graduiertenkollegs und Forschungskollegs, Gito-Verlag, J. FISCHER, F. KÜHNLENZ, I. EVESLAGE, K. AHRENS, J. NACHTIGALL, B. LICHTBLAU, S. HEGLMEIER, C. MILKEREIT, K. FLEMING, M. PICOZZI: Deliverable D4.20 Network Optimisation simulation for combined standard and low cost seismic network integration. Proposal for network optimization. Technical report, Department of Computer Science, Humboldt-Universität zu Berlin and Section 2.1, GFZ Potsdam, D. FAHLAND: A scenario is a behavioral view - Orchestrating services by scenario integration. In Oliver Kopp, Niels Lohmann, editors, Services and their Composition, 1st Central- European Workshop on, ZEUS 2009, Stuttgart, Germany, March 2-3, 2009, volume 438 of CEUR Workshop Proceedings, pages 8-14, CEUR-WS.org, March W. M. P. VAN DER AALST, N. LOHMANN, P. MASSUTHE, C. STAHL, K. WOLF: Multiparty Contracts: Agreeing and Implementing Interorganizational Processes. The Computer Journal, C. STAHL, K. WOLF: Deciding Service Composition and Substitutability Using Extended Operating Guidelines. Data Knowl. Eng., Note: Accepted for publication. C. STAHL, P. MASSUTHE, J. BRETSCHNEIDER: Deciding Substitutability of Services with Operating Guidelines. Transactions on Petri Nets and Other Models of Concurrency II, Special Issue on Concurrency in Process-Aware Information Systems, 2(5460): , March K. VAN HEE, E. VERBEEK, C. STAHL, N. SIDOROVA: A Framework for Linking and Pricing No- Cure-No-Pay Services. Transactions on Petri Nets and Other Models of Concurrency II, Special Issue on Concurrency in Process-Aware Information Systems, 2: , March N. LOHMANN, H.M.W. VERBEEK, R. DIJKMAN: Petri Net transformations for business processes A Survey. LNCS ToPNoC, I I(5460):46-63, March Special Issue on Concurrency in Process-Aware Information Systems.

84 84 Jahresbericht 2009 D. FAHLAND, C. FAVRE, B. JOBSTMANN, J. KOEHLER, N. LOHMANN, H. VÖLZER, K. WOLF: Instantaneous soundness checking of industrial business process models. In Umeshwar Dayal, Johann Eder, Jana Koehler, Hajo Reijers, editors, Business Process Management, 7th International Conference, BPM 2009, Ulm, Germany, September 8-10, 2009, Proceedings, volume 5701 of Lecture Notes in Computer Science, Springer-Verlag, September K. WOLF, C. STAHL, J. OTT, R. DANITZ: Verifying Livelock Freedom in an SOA Scenario. In Stephen Edwards, Walter Vogler, editors, Proceedings of the Nineth International Conference on Application of Concurrency to System Design (ACSD'09), Augsburg, Germany, IEEE Computer Society, July N. LOHMANN, K. WOLF: Petrifying operating guidelines for services. In Stephen Edwards, Walter Vogler, editors, Ninth International Conference on Application of Concurrency to System Design (ACSD 2009), 1 3 July 2009, Augsburg, Germany, IEEE Computer Society, July M. SODEN, H. EICHLER: Temporal Extensions of OCL Revisited. In: Proceedings of ECMDA 09, Twente, Netherlands M. SODEN, H. EICHLER: Towards a Model Execution Framework for Eclipse. To appear in: Proceedings of The First Workshop on Behavioural Modelling in Model-Driven Architecture, Twente, Netherlands K. POSER, H. KREIBICH, D. DRANSCH: Assessing volunteered geographic information for rapid flood damage estimation. In: Proceedings of the 12th AGILE International Conference on Geographic Information Science: Advances in GIScience, K. KASCHNER, N. LOHMANN: Automatic test case generation for interacting services. In George Feuerlicht, Winfried Lamersdorf, editors, Service-Oriented Computing ICSOC 2008, 6th International Conference, Sydney, Australia, December 1 5, 2008, Workshops Proceedings, volume 5472 of Lecture Notes in Computer Science, pages 66 78, Springer-Verlag, A. J. MOOIJ, C. STAHL, M. VOORHOEVE: Relating fair testing and accordance for service substitutability. Journal of Logic and Algebraic Programming. Submitted: K. POSER, D. DRANSCH: Volunteered Geographic Information for Disaster Management with Application to Rapid Flood Damage Estimation. Geomatica. Eingereicht am W. M. P. VAN DER AALST, A. J. MOOIJ, C. STAHL, K. WOLF: Service Interaction: Patterns, Formalization, and Analysis. In Marco Bernardo, Luca Padovani, Gianluigi Zavattaro, editors, Formal Methods for Web Services (SFM 2009), volume 5569, pages 42 88, Springer- Verlag, April A. AWAD, G. DECKER, N. LOHMANN: Diagnosing and repairing data anomalies in process models. BPT Technical Report , Hasso-Plattner-Institute, Potsdam, Germany, March K. KASCHNER, N. LOHMANN: Does my service have unspecified behavior?. In Oliver Kopp, Niels Lohmann, editors, 1st Central-European Workshop on Services and their Composition, ZEUS 2009, Stuttgart, Germany, March 2 3, 2009, Proceedings, volume 438 of CEUR Workshop Proceedings, pages 22 28, CEUR-WS.org, March N. LOHMANN, K. WOLF: Realizability is controllability. In Oliver Kopp, Niels Lohmann, editors, 1st Central-European Workshop on Services and their Composition, ZEUS 2009, Stuttgart, Germany, March 2 3, 2009, Proceedings, volume 438 of CEUR Workshop Proceedings, pages 61 67, CEUR-WS.org, March 2009.

85 Graduiertenkolleg METRIK 85 O. KOPP, N. LOHMANN, EDITORS: Proceedings of the 1st Central-European Workshop on Services and their Composition, ZEUS 2009, Stuttgart, Germany, March 2 3, 2009, volume 438 of CEUR Workshop Proceedings, CEUR-WS.org, March 2009.

86 86 Jahresbericht 2009 IV. Lehr- und Forschungseinheiten Lehr- und Forschungseinheit Algorithmen und Komplexität Leiter PROF. DR. SUSANNE ALBERS (seit Juni 2009) Tel.: (030) und DR. MATHIAS SCHACHT (bis August 2009) (Lehrstuhlvertretung) Tel.: (030) Sekretariat EVA SANDIG Tel.: (030) Fax: (030) Wissenschaftliche Mitarbeiter ANTONIOS ANTONIADIS (M.SC.) DIPL.-INF. MATTHIAS HELLWIG DR. FALK HÜFFNER PD DR. MIHYUN KANG DIPL.-INF. PASCAL LENZNER DR. ALEXANDER SOUZA DIPL.-INF. MARIANO ZELKE DIPL.-INF. VALENTIN ZIEGLER Stipendiaten DIPL.-INF. HIÊP HÀN DIPL.-MATH. YURY PERSON Techniker DIPL.-MATH. RALF OELSCHLÄGEL Tutorinnen und Tutoren ALEXANDER BOLL ZENO ENDEMANN GENEVIÈVE GRUNERT Die Arbeiten der Lehr- und Forschungseinheit liegen im Bereich der Entwicklung und Analyse von effizienten Algorithmen. Dabei wird ein breites Spektrum von Themen der modernen

87 Algorithmen und Komplexität 87 Algorithmik abgedeckt. Effiziente Algorithmen bilden ein Grundlagenfach der Informatik, das sich damit befasst, Berechnungsverfahren für zentrale und aktuelle Probleme der Disziplin zu entwickeln. Entscheidend ist, dass der Algorithmenentwurf einhergeht mit einer streng mathematischen Analyse, die nachweist, dass ein vorgestelltes Verfahren bestimmte Garantien hinsichtlich Rechenressourcen oder eines anderen gewünschten Gütemaßes erzielt. Die entsprechenden Ergebnisse geben Einblick in die Komplexität eines Problems. Konkret arbeitet der Lehrstuhl an den folgenden Themen. Online- und Approximationsalgorithmen: Viele in praktischen Anwendungen auftretende Probleme können nicht exakt gelöst werden. Eine typische Ursache ist, dass ein gegebenes Problem in seiner Struktur online ist, d.h. relevante Inputdaten nach und nach im Laufe der Zeit eintreffen. Aufgrund des Handicaps, die Zukunft nicht zu kennen, kann ein Algorithmus keine optimalen Lösungen berechnen. Weiterhin sind viele Optimierungsprobleme NP-hart. Geht man davon aus, dass die Komplexitätsklassen P und NP nicht gleich sind, können für diese Probleme keine optimalen Lösungen in Polynomialzeit berechnet werden. Sowohl bei Onlineproblemen als auch bei NP-harten Optimierungsproblemen ist es das Ziel, möglichst gute Näherungslösungen zu berechnen. Die Arbeitsgruppe untersucht in diesem Zusammenhang klassische Probleme in der Datenstrukturierung, aber auch aktuelle Probleme, die in großen Netzwerken entstehen. Energieeffiziente Algorithmen: Diese relativ neue Forschungsrichtung beschäftigt sich damit, den Stromverbrauch in Computersystemen mit Hilfe algorithmischer Techniken zu minimieren. Die Arbeitsgruppe studiert Abschaltmechanismen in komplexen Systemen, die über mehrere Energiesparmodi verfügen. Ferner wird die Technik des Dynamic Speed Scalings untersucht, die ausnutzt, dass moderne Mikroprozessoren auf unterschiedlichen Frequenzen/Geschwindigkeiten betrieben werden können. Ziel ist es, das Frequenzspektrum so auszunutzen, dass bei möglichst gleichbleibendem Service der Energieverbrauch minimiert wird. Scheduling: Prozessorscheduling ist ein grundlegendes Forschungsthema, das seit vielen Jahrzehnten international studiert wird. Ziel ist es, eine Sequenz von Jobs so auf einer Menge von Prozessoren einzuplanen, dass eine gegebene Zielfunktion minimiert wird. In der Arbeitsgruppe werden Probleme untersucht, die zu den grundlegendsten der Schedulingtheorie gehören. Dies schließt die Makespan-Minimierung auf parallelen Prozessoren, aber auch die Minimierung der totalen Flusszeit von Jobs ein. Algorithmische Spieltheorie: Algorithmische Probleme in großen und komplexen Systemen werden oftmals nicht von einer zentralen Autorität gelöst. Vielmehr gibt es eine Vielzahl von Agenten, die bei der Lösung zum Teil eigennützige Interessen verfolgen. Ziel ist die Entwicklung von Gleichgewichtszuständen, sogenannten Nash-Gleichgewichten, in denen sich kein Agent verbessern kann, sofern alle anderen Agenten an ihren Strategien festhalten. In der Arbeitsgruppe sind bisher verschiedene Netzwerkdesign-Spiele untersucht worden, die anstreben, die Konstruktion und Evolution großer Netzwerke nachzubilden. Algorithm Engineering: Dieser neue Forschungszweig der Algorithmik kombiniert theoretische und experimentelle algorithmische Studien, so dass sie in einem Ringschluss ineinandergreifen. Durch entsprechende Implementationen werden (theoretische) Algorithmen so umgesetzt, so dass sie in der Praxis nutzbar sind. Ergebnisse dieser praktischen Arbeiten fließen wieder in einen verfeinerten Algorithmenentwurf ein. Die Algorithm-Engineering-Arbeiten der Arbeitsgruppe behandeln algorithmische Probleme in großen Netzwerken aber auch Suchprobleme in großen Informations- und Web-Strukturen. Zufällige Graphen und Hypergraphen: Graphen werden seit vielen Jahrhunderten studiert und bilden eine Datenstruktur, die in vielen Anwendungen von zentraler Bedeutung ist. Die Ar-

88 88 Jahresbericht 2009 beitsgruppe untersucht zufällige Graphen und Hypergraphen und wendet die dabei erzielten probabilistischen und asymptotischen Resultate beim Entwurf und der Analyse von Graphenalgorithmen an. Diese Resultate sind u.a. von Bedeutung bei der Untersuchung randomisierter Algorithmen, welche vom Zufall Gebrauch machen. Die oben beschriebenen Forschungsthemen spiegeln sich im Lehrangebot der Arbeitsgruppe wider. Innerhalb des Instituts besteht eine Zusammenarbeit mit den Lehrstühlen Komplexität und Kryptografie und Logik in der Informatik. Lehre Die Grundlagen des Gebiets Algorithmen und Komplexität werden im Bachelorstudium durch die Vorlesungen Einführung in die Theoretische Informatik und Algorithmen und Datenstrukturen vermittelt. Im Grundstudium (Diplom) waren dies vormals die Vorlesungen Theoretische Informatik 2 (Schwerpunkte: Berechenbarkeit und Komplexitätstheorie) und Theoretische Informatik 3 (Schwerpunkt: Algorithmen und Datenstrukturen). Der zentrale Forschungsgegenstand der Arbeitsgruppe, Effiziente Algorithmen, wird in einer Wahlpflichtveranstaltung Effiziente Algorithmen und Datenstrukturen behandelt. Hinzu kommen Hauptstudiumsvorlesungen zu Graphen und Algorithmen. Das Lehrangebot wird ergänzt durch vertiefende Vorlesungen zu den Themen Approximations- und Onlinealgorithmen sowie Randomisierte Algorithmen und Probabilistische Methoden. Ferner werden Seminare und Proseminare zu aktuellen Themen wie z.b. Energieeffiziente Algorithmen, Algorithmischer Spieltheorie oder Perlen der Theoretischen Informatik angeboten. Im Forschungsseminar der Arbeitsgruppe tragen Mitglieder über aktuelle Forschungsergebnisse vor. Das O- berseminar Theoretische Informatik dient dem Austausch mit den anderen Lehrstühlen auf dem Gebiet der Theoretischen Informatik. Veranstaltungen im Bachelorstudium Einführung in die Theoretische Informatik (S. Albers, A. Antoniadis, A. Boll, Z. Endemann, M. Hellwig, F. Hüffner, P. Lenzner, A. Souza, WiSe 09/10) Kernveranstaltungen (Halbkurse) Approximations- und Onlinealgorithmen (S. ALBERS, WiSe 09/10) Graphen und Algorithmen 1 (M. SCHACHT, G. GRUNERT, H. HAN, Y. PERSON, M. ZELKE, WiSe 08/09) Graphen und Algorithmen 2 (M. SCHACHT, G. GRUNERT, Y. PERSON, SoSe 09) Forschung Projekt: Gottfried Wilhelm Leibniz-Preis 2008 Ansprechpartner: PROF. DR. SUSANNE ALBERS Beteiligte Mitarbeiter: Alle wissenschaftlichen Mitarbeiter der Arbeitsgruppe Forschungsförderung: Deutsche Forschungsgemeinschaft Die Fördermittel unterstützen alle oben beschriebenen Forschungsthemen der Arbeitsgruppe.

89 Algorithmen und Komplexität 89 Projekt: Algorithm Engineering für Netzwerkprobleme Ansprechpartner: PROF. DR. SUSANNE ALBERS Beteiligter Mitarbeiter: DR. ALEXANDER SOUZA Forschungsförderung: Deutsche Forschungsgemeinschaft Gegenstand dieses Forschungsvorhabens ist die eingehende Untersuchung von grundlegenden Netzwerkproblemen mit Methoden des Algorithm Engineerings. Ziel ist die Verringerung der bestehenden großen Kluft zwischen den in der Algorithmik entwickelten Forschungsergebnissen und den in der Praxis eingesetzten Lösungen. Für ausgewählte Netzwerkprobleme werden bestehende Algorithmen experimentell analysiert und ggf. so modifiziert werden, dass sie für einen praktischen Einsatz interessant sind. Ferner werden neue Algorithmen und Analysekonzepte entwickelt werden. Dabei werden die theoretischen, konzeptionellen und experimentellen Studien in einem Wechselkreis ineinander greifen. Die bisherigen Arbeiten konzentrieren sich auf Probleme, die bei der Speicherverwaltung in Netzwerk-Switches und bei der Suche in Web-Verzeichnissen auftreten. Projekt: Graduiertenkolleg Methoden für Diskrete Strukturen Beteiligte Mitarbeiter: PROF. DR. SUSANNE ALBERS, DR. MATHIAS SCHACHT Beteiligte Stipendiaten: DIPL.-INF. HIÊP HÀN, DIPL.-MATH. YURY PERSON Forschungsförderung: Deutsche Forschungsgemeinschaft Zusammenarbeit: Freie Universität Berlin, Technische Universität Berlin, Konrad-Zuse- Zentrum für Informationstechnik Berlin Das Graduiertenkolleg wird gemeinsam von der Freien Universität Berlin, der Humboldt- Universität zu Berlin, der Technischen Universität Berlin und dem Konrad-Zuse-Zentrum für Informationstechnik Berlin getragen. Die Forschungsschwerpunkte liegen auf den Gebieten der diskreten Mathematik, insbesondere der Kombinatorik, und der Algorithmik. Erforscht werden insbesondere methodische Ansätze zur Lösung von Problemen. Projekt: Ramsey theory and regularity Ansprechpartner: DR. MATHIAS SCHACHT Beteiligter Mitarbeiter: DIPL.-MAT. YURY PERSON Zusammenarbeit: PROF. DR. EHUD FRIEDGUT, Hebrew University, Jerusalem, Israel Forschungsförderung: German-Israeli Foundation for Scientific Research & Development Der berühmte Satz von Szemerédi, welcher besagt, dass jede Teilmenge der natürlichen Zahlen mit positiver oberer Dichte arithmetische Progressionen beliebiger Länge enthalten muss, ist ein zentraler Satz der Ramseytheorie. Ein wichtiger Hilfssatz in Szemerédis Beweis ist das Regularitätslemma für Graphen. Vor wenigen Jahren wurde das Regularitätslemma von Gowers und unabhängig von Rödl et al. auf Hypergraphen generalisiert. Diese neuen Generalisierungen des Regularitätslemmas haben potentiell viele Anwendungen in der extremalen Hypergraphentheorie. Im Mittelpunkt dieses Projektes stehen die "Dichtevarianten von Ramseysätzen" und der Nachweis von scharfen Schwellenwerten für Ramseysätze der natürlichen Zahlen.

90 90 Jahresbericht 2009 Veröffentlichungen Artikel S. ALBERS: On the value of coordination in network design. SIAM Journal on Computing 38(6): , S. ALBERS: Algorithms for energy saving. In Efficient Algorithms, Essays Dedicated to Kurt Mehlhorn on the Occasion of His 60th Birthday. Springer LNCS 5760, Seiten , S. ALBERS: Resource management in large network. In Algorithmics of Large and Complex Networks - Design, Analysis, and Simulation [DFG priority program 1126], Springer LNCS 5515, Seiten , S. ALBERS: Online Scheduling. Buchkapitel in Introduction to Scheduling, Seiten 57-84, Chapman/CRC Press, S. BÖCKER, F. HÜFFNER, A. TRUß UND M. WAHLSTRÖM: A faster fixed-parameter approach to drawing binary tanglegrams. In Proceedings of the 4th International Workshop on Parameterized and Exact Computation (IWPEC'09), Springer LNCS 5917, Seiten 38-49, J. BÖTTCHER, M. SCHACHT UND A. TARAZ: Proof of the bandwidth conjecture of Bollobás and Komlós. Math. Ann. 343(1), ; Extended abstract appeared in Electron. Notes Discrete Math. 29, S. BRUCKNER, F. HÜFFNER, R.M. KARP, R. SHAMIR UND R. SHARAN: Topology-free querying of protein interaction networks. In Proceedings of the 13th International Conference on Research in Computational Molecular Biology (RECOM'09), Seiten 74-89, S. BRUCKNER, F. HÜFFNER, R.M. KARP, R. SHAMIR UND R. SHARAN: Torque: topology-free querying of protein interaction networks. Nucleic Acids Research 37(Web-Server-Issue): , E.D. DEMAINE, S.P. FEKETE, G. ROTE, N. SCHWEER, D. SCHYMURA UND M. ZELKE: Integer point sets minimizing average pairwise l1 distance: What is the optimal shape of a town? In: Proceedings of the 21st Canadian Conference on Computational Geometry - CCCG2009, pp H. HÀN Y. PERSON UND M. SCHACHT: On perfect matchings in uniform hypergraphs with large minimum vertex degree. SIAM Journal on Discrete Mathematics 23(2), H. HÀN, Y. PERSON UND M. SCHACHT: Note on strong refutation algorithms for random k- SAT formulas. Proceedings of LAGOS 2009, vol. 35 series Electron. Notes Discrete Math., F. HÜFFNER, C. KOMUSIEWICZ, H. MOSER UND R. NIEDERMEIER: Isolation concepts for clique enumeration: Comparison and computational experiments. Theoretical Computer Science, 410(52): , C. KOMUSIEWICZ, F. HÜFFNER, H. MOSER UND R. NIEDERMEIER: Isolation concepts for efficiently enumerating dense subgraphs. Theoretical Computer Science, 410(38-40): , H. LEFMANN, Y. PERSON, V. RÖDL UND M. SCHACHT: On colorings of hypergraphs without monochromatic Fano planes. Combinatorics, Probability and Computing 18(5), H. LIU UND Y. PERSON: Highly connected coloured subgraphs via the Regularity Lemma. Discrete Mathematics, Volume 309, Issue 21, , 2009.

91 Algorithmen und Komplexität 91 B. NAGLE, A. POERSCHKE, V. RÖDL UND M. SCHACHT: Hypergraph regularity and quasirandomness. Proceedings of the Twentieth Annual ACM-SIAM Symposium on Discrete Algorithms (SODA 09), Y. PERSON UND M. SCHACHT: An expected polynomial time algorithm for coloring 2- colorable 3-graphs. Proceedings of EuroComb 09, vol. 34 series Electron. Notes Discrete Math., Y. PERSON UND M. SCHACHT: Almost all hypergraphs without Fano planes are bipartite. Proceedings of the Twentieth Annual ACM-SIAM Symposium on Discrete Algorithms (SODA 09), V. RÖDL UND M. SCHACHT: Generalizations of the removal lemma. Combinatorica 29(4), A. SOUZA UND K. AL-BAWANI: Competitive buffer management with stochastic packet arrivals. In Proceedings of the 8th Symposium on Experimental Algorithms (SEA'09), Springer LNCS 5526, Seiten 28-40, A. SOUZA, G. GREINER UND T. NONNER: The bell is ringing in speed-scaled multiprocessor scheduling. In Proceedings of the 21st Symposium on Parallelism in Algorithms and Architectures (SPAA'09), Seiten 11-18, A. SOUZA UND T. NONNER: A 5/3-approximation algorithm for joint replenishment with deadline. In Proceedings of the 3rd Conference on Combinatorial Optimization and Applications (COCOA'09), Springer LNCS 5573, Seiten 24-35, A. SOUZA UND T. NONNER: Latency constrained data aggregation in chain networks. In Proceedings of the 5th Conference on Algorithmic Aspects in Information and Management (AAIM'09), Springer LNCS 5564, Seiten , A. SOUZA UND A. SIMROTH: On an online traveling repairman problem with flowtimes: Worst-case and average-case analysis. In Proceedings of the 15th International Computing and Combinatorics Conference (COCOON'09), Springer LNCS 5609, Seiten , Herausgegebene Bücher S. ALBERS, H. ALT UND S. NÄHER: Efficient Algorithms, Essays Dedicated to Kurt Mehlhorn on the Occasion of His 60th Birthday, Springer S. ALBERS, A. MARCHETTI-SPACCAMELA, Y. MATIAS, S.E. NIKOLETSEAS UND W. THOMAS: Proceedings of the 26th International Colloquium on Automata, Languages and Programming (ICALP), Springer S. ALBERS UND J.-Y. MARION: Proceedings of the 26th International Symposium on Theoretical Aspects of Computer Science (STACS), IBFI Schloss Dagstuhl, ISBN , Preprints S. ALBERS: Energy-efficient algorithms. Communications of the ACM, zur Veröffentlichung angenommen. N. ALON, A. COJA-OGHLAN, H. HÀN, M. KANG, V. RÖDL UND M. SCHACHT: Quasi-Randomness and Algorithmic Regularity for Graphs with General Degree Distributions. SIAM Journal on Computing, to appear; Extended abstract appeared in Proceedings of ICALP 2007,

92 92 Jahresbericht 2009 A. ANTONIADIS UND A. LINGAS: Approximability of edge matching puzzles. In Proceedings of the 36th International Conference on Current Trends in Theory and Practice of Computer Science (SOFSEM'10), zur Veröffentlichung angenommen. D. CONLON, H. HÀN, Y. PERSON UND M. SCHACHT: Weak quasi-randomness for uniform hypergraphs. Submitted. H. HÀN UND M. SCHACHT: Dirac-type results for loose Hamilton cycles in uniform hypergraphs. Journal of Combinatorial Theory (B), to appear J. HLADKÝ UND M. SCHACHT: Note on bipartite graph tilings. SIAM Journal on Discrete Mathematics, to appear. Y. PERSON UND M. SCHACHT: An expected polynomial time algorithm for coloring 2- colorable 3-graphs. Submitted; Extended abstract appeared in Electron. Notes Discrete Math. 34, M. KANG, O. PIKHURKO, A. RAVSKY, M. SCHACHT UND O. VERBITSKY: Obfuscated Drawings of Planar Graphs. Submitted. Y. KOHAYAKAWA, B. NAGLE, V. RÖDL UND M. SCHACHT: Weak regularity and linear hypergraphs. Journal of Combinatorial Theory (B), to appear. Y. KOHAYAKAWA, V. RÖDL, M. SCHACHT UND E. SZEMERÉDI: Sparse partition universal graphs for graphs of bounded degree. Submitted. V. RÖDL UND, M. SCHACHT: Regularity lemmas for graphs. Submitted. A. SOUZA, C. CHUNG UND T. NONNER: SRPT is 1.86-competitive for completion time scheduling. In Proceedings of the 21st ACM-SIAM-Symposium on Discrete Algorithms (SODA'10), zur Veröffentlichung angenommen. Vorträge S. ALBERS: Network design games. Invited lecture, Berlin Mathematical School, Berlin, Januar S. ALBERS: Energy-efficient algorithm. Colloquium on the Occasion of Kurt Mehlhorn's 60th Birthday, Saarbrücken, August S. ALBERS: Energy-efficient algorithm. Lecture, Research Training Group on Methods for Discrete Structures, Berlin, Oktober Y. PERSON: Almost all hypergraphs without Fano planes are bipartite. ACM-SIAM Symposium on Discrete Algorithms(SODA), New York, USA, Januar Y. PERSON: Weak quasi-randomness for hypergraphs. Third International Conference on Combinatorics, Graph Theory and Applications, Elgersburg, Germany, März Y. PERSON: Quasi-random graphs and hypergraphs. Oberseminar an der TU München, Mai Y. PERSON: Extremal edge coloring problems.the 14th International Conference on Random Structures and Algorithms, Poznan, Poland, August Y. PERSON: An expected polynomial time algorithm for coloring 2-colorable 3-uniform hypergraphs. European Conference on Combinatorics, Graph Theory and Applications, Bordeaux, France, 7-11 September 2009.

93 Algorithmen und Komplexität 93 Y. PERSON: (Hyper-)graph quasi-randomness. Combinatorics Seminar (UCLA), November M. SCHACHT: Regularity lemmas for graphs and hypergraphs. Graduiertenkolleg "Methoden für diskrete Strukturen", Berlin, Januar M. SCHACHT: Die Regularitätsmethode. Department Mathematik, Universität Hamburg, Januar M. SCHACHT: From arithmetic progressions to randomized algorithms. BMS days 2009, Berlin Mathematical School, Februar M. SCHACHT: Regularity lemmas for (hyper)graphs. One-Day Meeting in Combinatorics, Mathematical Institute, University of Oxford, März M. SCHACHT: Regularity lemmas for (hyper)graphs. Emory University, Atlanta, März M. SCHACHT: The regularity method. Forschungsinstitut für Diskrete Mathematik, Universität Bonn, April M. SCHACHT: Regularity lemmas for graphs. Centre for Discrete Mathematics and its Applications, University of Warwick, Mai M. SCHACHT: Die Regularitätsmethode. Fakultät für Informatik, TU München, Juli M. SCHACHT: Weak quasirandom hypergraphs. 14th International Conference on Random Structures and Algorithms, Poznań, August A. SOUZA: Competitive buffer management with stochastic packet arrivals. 8th Symposium on Experimental Algorithms (SEA'09), Dortmund, Juni A. SOUZA: Competitive buffer management with stochastic packet arrivals. Annual meeting of the SPP 1307 "Algorithm Engineering", Dortmund, Juni A. SOUZA: On an online traveling repairman problem with flowtimes: Worst-case and average-case analysis. 15th International Computing and Combinatorics Conference (COCOON'09), Nigara Falls, New York, July M. ZELKE: Datenstrom-Algorithmen für Graphen. Disputation, HU Berlin, Februar Tagungen / Workshops 36th International Colloquium on Automata, Languages and Programming (ICALP 2009) Ansprechpartner: PROF. DR. SUSANNE ALBERS Im Juli 2009 fand auf Rhodos, Griechenland, die ICALP 2009 statt, die als die bedeutendste europäische Tagung der theoretischen Informatik gilt. Susanne Albers war Vorsitzende des Programmkomitees, Track A, und in dieser Funktion maßgeblich für das wissenschaftliche Programm der Tagung zuständig. 26th International Symposium on Theoretical Aspects of Computer (STACS 2009) Ansprechpartner: PROF. DR. SUSANNE ALBERS Die Arbeitsgruppe richtete vom 26. bis 28. Februar 2009 die internationale Tagung STACS 2009 aus. Zu der Zeit befand sich die Arbeitsgruppe noch an der Universität Freiburg. Vorgestellt wurden gut 50 Papiere, die in einem sehr selektiven Auswahlprozess (Akzeptanzrate 19 %) zur Publikation angenommen worden waren. Eingeladene Sprecher waren Prof. Dr. Monika Henzinger (EPFL Lausanne), Prof. Dr. Jean-Éric Pin (CNRS & Univ. Paris 7) und Prof. Dr. Nicole Schweikardt (Univ. Frankfurt).

94 94 Jahresbericht 2009 Sonstige Aktivitäten Prof. Dr. Susanne Albers Mitglied und stellvertretende Vorsitzende des Fachkollegiums der Deutschen Forschungsgemeinschaft für das Fach Informatik Mitglied des Wissenschaftlichen Direktoriums von Schloss Dagstuhl - Leibniz-Zentrums für Informatik GmbH Mitglied des EATCS Councils (European Association for Theoretical Computer Science) Hauptherausgeberin (Editor-in-Chief) der ACM Transactions on Algorithms Mitherausgeberin der Zeitschriften Algorithmica, Computer Science - Research and Development, Informatik-Spektrum, Journal of Discrete Algorithms, Journal of Graph Algorithms and Application und Journal of Interconnection Networks Vorsitzende der Programmkomitees der Tagungen 36th International Colloquium on Automata, Languages and Programming (ICALP), Track A, Rhodos, Juli 2009 und 26th International Symposium on Theoretical Aspects of Computer Science (STACS), Freiburg, 2009, Vorsitz zusammen mit Jean-Yves Marion Mitglied der Programmkomitees der Tagungen STOC 2009 (41st ACM Symposium on Theory of Computing), SPAA 2009 (21st ACM Symposium on Parallelism in Algorithms and Architectures) und ALENEX 2009 (11th Workshop on Algorithm Engineering and Experiments). Mitglied der Steering Committees der internationalen Tagungen STACS und APPROX Mitherausgeberin der Tagungsbandreihen Leibniz International Proceedings in Informatics (LIPIcs) und Advanced Research in Computing and Software Science (ARCoSS), Springer Lecture Notes in Computer Science Gutachterin für das Panel des Swedish Research Councils für das Fach Informatik Hiep Han Dreimonatiger Aufenthalt am Institute for Pure and Applied Mathematics : Teilnahme am Programm "Combinatorics: Methods and Applications in Mathematics and Computer Science", Los Angeles, USA, 13. September - 9. November Yury Person Einwöchiger Kurs an der University of Cambridge, "Probabilistic Combinatorics", United Kingdom, Juli, Dreimonatiger Aufenthalt am Institute for Pure and Applied Mathematics: Teilnahme am Programm "Combinatorics: Methods and Applications in Mathematics and Computer Science", Los Angeles, USA, 15. September Dezember Dr. Mathias Schacht Dozent im Graduiertenkolleg "Methoden für Diskrete Strukturen" Gäste am Lehrstuhl PROF. DR. VOJTECH RÖDL, Emory University Atlanta, USA, Juli DR. ARTUR CZUMAJ, University of Warwick, Mai PROF. DR. ANAND SRIVASTAV, Christian-Albrechts-Universität zu Kiel, November 2009.

95 Algorithmen und Komplexität 95 Dissertationen/Habilitationssschriften MATHIAS SCHACHT: Regular partitions of hypergraphs and property testing. Habilitationsschrift, Humboldt Universität zu Berlin, Institut für Informatik, Juli MARIANO ZELKE: Algorithms for Streaming Graphs. Dissertation, Februar Diplomarbeiten/Masterarbeiten IFTIKHAR AHMAD: Offline algorithms for the list update problem. In Kooperation mit der Universität Freiburg, Dezember GENEVIÈVE GRUNERT: Ein Spektralalgorithmus für zufällige E3SAT-Formeln mit k zugrunde gelegten Belegungen. Diplomarbeit, Humboldt Universität zu Berlin, September MATTHIAS KILLAT: Efficient approximation of the packing number in subgraphs of sparse random graphs. Diplomarbeit, Humboldt Universität zu Berlin, August 2009.

96 96 Jahresbericht 2009 Lehr- und Forschungseinheit Komplexität und Kryptografie Leiter PROF. DR. JOHANNES KÖBLER Tel.: (030) Sekretariat SABINE BECKER Tel.: (030) Fax.: (030) Wissenschaftliche Mitarbeiter DR. OLAF BEYERSDORFF PROF. DR. ERNST GÜNTER GIESSMANN (APL. PROFESSOR) PRIV.-DOZ. DR. WOLFGANG KÖSSLER DIPL.-INF. SEBASTIAN KUHNERT DIPL.-MATH. SEBASTIAN MÜLLER Techniker DIPL.-ING. NORBERT HEROLD Student. Mitarbeiter FRANK FUHLBRÜCK LUKAS MOLL STEPHAN VERBÜCHELN Die Forschungsthemen des Lehrstuhls liegen vorwiegend in den Bereichen Komplexitätstheorie, Algorithmisches Lernen und Kryptografie. Die gegenwärtigen Interessen lassen sich entlang folgender Forschungslinien gliedern: Eine Reihe von algorithmischen Problemstellungen weisen auf Grund ihrer algebraischen Struktur andere Komplexitätseigenschaften auf als die üblichen kombinatorischen Probleme. So lassen sich beispielsweise das Graphisomorphieproblem oder das Faktorisierungproblem weder als effizient lösbar noch als NP-vollständig klassifizieren. Da diese Probleme sowohl aus theoretischer als auch aus praktischer Sicht eine bedeutende Rolle spielen, ist es wichtig, ihre strukturellen Eigenschaften (wie etwa Vollständigkeit oder Lowness für bestimmte Komplexitätsklassen) zu untersuchen. In der Praxis ist das Isomorphieproblem häufig nur für Graphen mit bestimmten Eigenschaften zu lösen. In vielen Fällen gelingt die exakte Bestimmung der Komplexität des Isomorphieproblems für die daraus resultierenden eingeschränkten Graphklassen. Ein verwandtes Forschungsthema ist durch die Frage motiviert, ob die Verwendung von Zufallsentscheidungen und/oder Interaktion mit einem Prover (oder Orakel) eine Steigerung der

97 Komplexität und Kryptografie 97 Effizienz von Algorithmen für bestimmte Probleme ermöglicht. Einen vielversprechenden Ansatz bildet die Erforschung von Beziehungen zwischen Komplexitätsklassen, die auf der Basis unterschiedlicher Berechnungsmodelle wie etwa Turingmaschinen, kombinatorische Schaltkreise oder interaktive Beweissysteme definiert sind. Innerhalb dieser Forschungsrichtung sind wir beispielsweise an der Frage interessiert, ob NP-vollständige Probleme von Schaltkreisen polynomieller Größe berechnet werden können. Interessanter-weise lassen sich hier enge Querbezüge zur Frage der Erlernbarkeit von spezifischen Konzeptklassen herstellen. Im Bereich des Algorithmischen Lernens sind wir an der Erforschung von Querbezügen zu anwendungsbezogenen komplexitätstheoretischen und kryptografischen Fragen interessiert, wobei Angluins Modell des Exakten Lernens durch Fragen und Valiants Modell des PAClearning (PAC = probably approximately correct) im Vordergrund stehen. In einem Projekt zur aussagenlogischen Beweiskomplexität untersuchen wir die Ausdrucksstärke von aussagenlogischen Beweissystemen. Besonders interessant sind hier untere Schranken für die Beweislänge konkreter Tautologien, weil diese eng mit komplexitätstheoretischen Fragestellungen wie etwa NP =? conp verknüpft sind. Starke praktische Relevanz besitzt die Automatisierbarkeit von Beweissystemen, d. h. die Frage, wie schwierig es ist, Beweise automatisch zu generieren. Diese und andere Eigenschaften von Beweissystemen lassen sich gut mittels disjunkter NP-Paare modellieren. Ein weiterer Forschungsschwerpunkt liegt im Bereich der nichtparametrischen statistischen Verfahren. Wir betrachten verschiedene statistische Fragestellungen, bei denen die Normalverteilungsvoraussetzung fallen gelassen wird. Für das Zweistichproben-Problem werden verschiedene nichtparametrische Tests untersucht. Eine interessante Klasse von Tests beruht auf U-Statistiken. Das kombinierte Lage-Skalenproblem wird mit Hilfe von Lepage-Typ-Tests behandelt. Weiterhin betrachten wir das Problem der Unabhängigkeit mit Hilfe linearer Rangtests. Die Güte der Testverfahren wird detailliert untersucht, und adaptive Testversionen werden vorgeschlagen. Lehre Die theoretischen Grundlagen der Informatik werden in den Vorlesungen Theoretische Informatik 2 und Theoretische Informatik 3 vermittelt. Dabei stehen insbesondere die Themengebiete Automatentheorie, formale Sprachen sowie Algorithmen und Komplexität im Vordergrund. Kernveranstaltungen im Hauptstudium sind die beiden Vorlesungen Komplexitätstheorie und Kryptologie 1. Vorlesungen Theoretische Informatik 3 (J. KÖBLER, SoSE 2009) Theoretische Informatik 2 (J. KÖBLER, WiSe 2009/10) Schaltkreiskomplexität (J. KÖBLER, SoSe 2009) Kryptologie 1 (J. KÖBLER, WiSe 2009/10) Werkzeuge der empirischen Forschung (W. KÖSSLER, SoSe 2009) OpenSSL-Kryptologie 2. Teil (E.G. GIESSMANN, SoSe 2009) Elektronische Signaturen 1. Teil (E.G. GIESSMANN, WiSe 2009/10) Stochastik für InformatikerInnen (W. KÖSSLER, WiSe 2009/10) Übungen Schaltkreiskomplexität (J. KÖBLER, SoSE 2009) Stochastik für InformatikerInnen (W. KÖSSLER, WiSe 2009/10) Theoretische Informatik 3 (W. KÖSSLER, S. KUHNERT, S. MÜLLER, SoSE 2009) Theoretische Informatik 2 (W. KÖSSLER, S. KUHNERT, S. MÜLLER, WiSe 2009/10)

98 98 Jahresbericht 2009 Kryptologie 1 (S. KUHNERT, WiSe 2009/10) Werkzeuge der empirischen Forschung (W. KÖSSLER, SoSe 2009) Seminare Sicherheit und Interoperabilität (E.G. GIESSMANN, SoSe 2009) Interaktives Beweisen (J. KÖBLER, S. KUHNERT, SoSe 2009) Das BUCH der Beweise (W. KÖSSLER, WiSe 2009/10) (Proseminar) Moderne Kryptoverfahren (J. KÖBLER, S. KUHNERT, SoSe 2009) (Proseminar) Sonstige Veranstaltungen Zirkel der Mathematischen Schülergesellschaft, 13. Klasse (W. KÖSSLER, SoSe 2009) Zirkel der Mathematischen Schülergesellschaft, 11. Klasse (W. KÖSSLER, WiSe 2009/10) Forschung Projekt: Aussagenlogische Beweiskomplexität und disjunkte NP-Paare Ansprechpartner: PROF. DR. JOHANNES KÖBLER Beteiligte Mitarbeiter: S. MÜLLER, DR. O BEYERSDORFF Forschungsförderung: Deutsche Forschungsgemeinschaft Zur Analyse aussagenlogischer Beweissysteme wurden in den letzten Jahren neben logischen zunehmend kombinatorische, kryptografische und komplexitätstheoretische Techniken herangezogen, die neue Sichtweisen auf beweistheoretische Fragen eröffnen. Unter Ausnutzung dieser Techniken wollen wir im Projekt die Entwicklung einer allgemeinen Theorie zu Beweissystemen weiter vorantreiben. Dabei konzentrieren wir uns auf starke Beweissysteme wie Frege-Systeme, zu denen im Vergleich zu schwachen Systemen wie Resolution viele Fragen noch ungeklärt sind. Als ausdrucksstarkes Werkzeug haben sich hierbei im bisherigen Projektverlauf disjunkte NP-Paare erwiesen. Ein Schwerpunkt dieses Projektes liegt auf der Untersuchung charakteristischer Eigenschaften praktisch wichtiger Beweissysteme. Diese Eigenschaften wollen wir mit Hilfe disjunkter NP-Paare modellieren und im Verband der NP-Paare komplexitätstheoretisch analysieren. Ein weiteres Ziel ist der Einsatz kryptografischer Konzepte wie Pseudozufallsgeneratoren zum Nachweis unterer Schranken für die Beweislänge. Das Fernziel sind hier untere Schranken für erweiterte Frege Systeme. Auch zur Analyse solcher kryptografischen Annahmen wollen wir disjunkte NP-Paare einsetzen. Projekt: Erstellung und Verifizierung eines Sicherheitsmodells für eine Signaturerstellungseinheit mit biometrischer Nutzerauthentifizierung Ansprechpartner: PROF. DR. JOHANNES KÖBLER Beteiligte Mitarbeiter: PROF. DR. ERNST GÜNTER GIESSMANN Zusammenarbeit: SSC Testfactory & Security der T-Systems Enterprise Services GmbH, Dipl.-Inf. Matthias Schwan (Bundesdruckerei GmbH) Das Projekt dient der Entwicklung sicherer, nach allgemein anerkannten Sicherheitskriterien evaluierbarer IT-Sicherheitssysteme, wie sie in immer stärkerem Maße z.b. für elektronische Bezahlsysteme, Systeme biometrischer Merkmalserkennung sowie Anwendungen elektronischer Signaturen notwendig werden. In dem Forschungsvorhaben soll eine Sicherheitsstrategie für eine IT-Sicherheitsanwendung aufgestellt und formal modelliert sowie verifiziert werden. Die Anwendung umfasst das

99 Komplexität und Kryptografie 99 Erstellen einer elektronischen Signatur mit Hilfe eines geheimen kryptographischen Schlüssels mit vorheriger biometrischer Authentifizierung des Inhabers auf einer Chipkarte. Für die Entwicklung des Sicherheitsmodells wird auf einen generischen Ansatz Wert gelegt, so dass das Modell für verschiedene Implementationen nutzbar ist. Weiterhin werden Möglichkeiten der Werkzeugunterstützung genutzt, da Entwicklungszeiten durch Automatisierung verkürzt werden können. Es wird das Werkzeug "Verification Support Environment (VSE)" des DFKI gewählt. Das Forschungsvorhaben wird gemeinschaftlich vom SSC Testfactory & Security der T- Systems und der Humboldt-Universität zu Berlin bearbeitet und ist die Fortführung des Vorgängerprojektes "Sicherheitsmodelle". Projekt: Classical and Quantum Complexity of Graph Isomorphism and Related Problems Ansprechpartner: PROF. DR. JOHANNES KÖBLER Beteiligte Mitarbeiter: SEBASTIAN KUHNERT Zusammenarbeit: Institute of Mathematical Sciences, Chennai, Indien Das Graphenisomorphieproblem, bestehend in der Aufgabe, zwei Graphen auf Isomorphie zu testen, ist eines der faszinierendsten algorithmischen Probleme, da für dieses Problem bislang weder effiziente Algorithmen noch befriedigende Vollständigkeitsresultate bekannt sind. Ziel dieses Projektes ist zum einen die genauere Einordung des Graphenisomorhieproblems für eingeschränkte Graphklassen, wie etwa Graphen mit beschränktem Grad oder beschränkter Farbklasse, in Komplexitätsklassen unterhalb von P. Hierfür wird das Graphenisomorphieproblem im größeren Kontext gruppentheoretischer Probleme untersucht, da viele der bekannten Algorithmen auf gruppentheoretischen Prinzipien basieren. Ein weiteres offenes Problem ist die Frage nach der Existenz effizienter Quantenalgorithmen für das Graphenisomorphieproblem. Auch hier spielen gruppentheoretische Probleme (hidden subgroup problem) eine zentrale Rolle. In Bezug auf das Graphenisomorphieproblem ist die wichtigste Frage, ob die bekannten Quantenalgorithmen für abelsche Gruppen auf Permutationsgruppen übertragen werden können. Projekt: Konsultationszentrum Statistik Ansprechpartner: DR. WOLFGANG KÖSSLER Zusammenarbeit: Computer- und Medienservice (CMS) Es werden laufend kleinere und größere Anfragen zu statistischen Problemen bearbeitet. Projekt: Lepage-Typ Tests für das Lage-Skalenproblem Ansprechpartner: DR. WOLFGANG KÖSSLER Für das Zweistichproben Lage- und Skalenproblem wurde von Lepage (1971) ein Test eingeführt, der auf einer Kombination des bekannten Wilcoxon Tests (für die Lage) und des Ansari-Bradley Tests (für die Skala) beruht. Diese Idee wurde von Büning und Thadewald (2000) verallgemeinert. Wir berechnen die asymptotische Gütefunktion dieser Tests und nutzen die Resultate um einen adaptiven Test zu konstruieren. Wir betrachten sowohl symmetrische als auch moderat schiefe Verteilungen. Es stellt sich heraus, dass für die Konstruktion eines adaptiven Tests lineare Rangstatistiken ausreichen, die für symmetrische Dichten konzipiert sind.

100 100 Jahresbericht 2009 Projekt: Lage- und Skalentests unter Verwendung von U-Statistiken Ansprechpartner: DR. WOLFGANG KÖSSLER Zusammenarbeit: Universität Chandigarh, Punjab, Indien U-Statistiken sind eine interessante Klasse von Statistiken, bei denen alle möglichen Teilstichproben von bestimmtem vorgegebenen Umfang aus der zugrunde liegenden Stichprobe gezogen werden. Für das Zweistichproben-Lageproblem ist der Mann-Whitney-Wilcoxon Test der klassische Vertreter dieser Klasse. Wir betrachten einige Verallgemeine-rungen und untersuchen die asymptotischen Eigenschaften. Weiterhin konstruieren wir adaptive Tests, bei denen zunächst die Verteilung anhand einer Selektorstatistik bezüglich Teilstärke (und Schiefe) geschätzt, und dann ein geeigneter, auf U-Statistiken beruhender Test ausgewählt wird. Der vorgeschlagene adaptive Test hat gute asymptotische und finite Güteeigenschaften. Für Skalentests untersuchen wir ähnliche Ideen. Projekt: Max-Typ Tests und Adaptive Tests Ansprechpartner: DR. WOLFGANG KÖSSLER Der für eine gegebene Datensituation optimale Test ist im allgemeinen nicht bekannt. Eine interessante Idee ist, mehrere für verschiedene Situationen (fast) optimale Teststatistiken zu berechnen und davon das Maximum zu nehmen. Die asymptotische Wahrscheinlichkeitsverteilung lässt sich als Mehrfachintegral berechnen und auswerten. Eine zweite Idee ist, eine (fast) optimale Teststatistik anhand der Daten auszuwählen, und den entsprechenden Test durchzuführen. Dabei ist jedoch darauf zu achten, dass bei diesem zweistufigen Verfahren das vorgegebene Signifikanzniveau eingehalten wird. Dies gelingt sogar wenn auf beiden Stufen dieselben Daten verwendet werden, man muss nur dafür sorgen, dass beide Stufen voneinander unabhängig sind. Wenn wir auf der ersten Stufe ausschließlich Ordnungsstatistiken, und auf der zweiten Stufe Rangstatistiken verwenden, ist diese Forderung wegen der Unabhängigkeit von Rang- und Ordnungsstatistiken erfüllt. Es zeigt sich, dass die adaptiven Tests asymptotisch besser sind, während für kleinere Stichprobenumfänge Max-Typ Tests etwas geeigneter sind. Veröffentlichungen Artikel J. KÖBLER, S. KUHNERT: The isomorphism problem for k-trees is complete for logspace. Mathematical Foundations of Computer Science 2009, Springer LNCS 5734, , V. ARVIND, J. KÖBLER, W. LINDNER: Parameterized learnability of juntas, Theoretical Computer Science, 410 (47-49): , O. BEYERSDORFF: Comparing axiomatizations of free pseudospaces, Archive for Mathematical Logic, 48(/): , O. BEYERSDORFF, J. KÖBLER, J. MESSNER: Nondeterministic functions and the existence of optimal proof systems, Theoretical Computer Science, 410 (38-40): , O. BEYERSDORFF, A. MEIER, M. THOMAS, H. VOLLMER: The complexity of propositional implication, Information Processing Letters, 109(18): , O. BEYERSDORFF: On the correspondence between arithmetic theories and propositional proof systems a survey, Mathematical Logic Quarterly, 55(2): , 2009.

101 Komplexität und Kryptografie 101 O. BEYERSDORFF Y. NEBESOV: Edges as nodes a new approach to timetable information, Proc. of 9 th Workshop on Algorithmic Approaches for Transportation Modeling, Optimization and Systems (ATMOS), Dagstuhl Research Online Publication Server (DROPS), O. BEYERSDORFF, ARNE MEIER, MARTIN MUNDHENK, THOMAS SCHNEIDER, MICHAEL THOMAS, HERIBERT VOLLMER: Model checking CTL is almost always inherently sequential, Proceedings of 16th International Symposium on Temporal Representation and Reasoning (TIME), Seiten 21-28, EEEE Computer Society Press, O. BEYERSDORFF, ZENON SADOWSKI: Characterizing the existence of optimal proof systems and complete sets for promise classes, Proceedings of 4th International Computer Science Symposium in Russia (CSR), Band 5675 der Lecture Notes in Computer Science, Seiten 47-58, Springer Verlag, Berlin Heidelberg, O. BEYERSDORFF, A. MEIER, M. THOMAS, H. VOLLMER: The complexity of reasoning for fragments of default logic, Proceedings of 12 th International Conference on Theory and Applications of Satisfiability Testing (SAT), Band 5584 der Lecture Notes in Computer Science, Seiten 51-64, Springer Verlag, Berlin Heidelberg, O. BEYERSDORFF, S. MÜLLER: Does advice help to prove propositional tautologies?, Proceedings of 12 th International Conference on Theory and Applications of Satisfiability Testing (SAT), Band 5584 der Lecture Notes in Computer Science, Seiten 65-72, Springer Verlag, Berlin Heidelberg, O. BEYERSDORFF, J. KÖBLER, S. MÜLLER: Nondeterminisic instance complexity and proof systems with advice, Proceedings of 3 rd International Conference on Language and Automata Theory and Applications (LATA), Band 5457 der Lecture Notes in Computer Science, S , Springer Verlag, Berlin Heidelberg, O. BEYERSDORFF, J. KÖBLER, S. MÜLLER: Proof systems that take advice. Electronic Colloquium on Computational Complexity (ECCC), TR09-092, W. KÖSSLER: Max-Type Rank Tests, U-Tests and Adaptive Tests for the Two-sample Location Problem An Asymptotic Power Study. Informatik-Bericht, Nr. 228, Humboldt-Universiät Berlin, Institut für Informatik, Preprints O. BEYERSDORFF, S. MÜLLER: A Tight Karp-Lipton Collapse for Bounded Arithmetic, erscheint in ACM Transactions on Computational Logic (Special Edition der CSL 08). O. BEYERSDORFF: The deduction theorem for strong propositional proof systems, erscheint in Theory of Computing Systems. O. BEYERSDORFF: On the existence of complete disjoint NP-pairs, erscheint in Proc. 11 th International Symposium on Symbolic and Numeric Algorithms for Scientific Computing (SYNASC), IEEE Computer Society Press. Vorträge J. KÖBLER: Nondeterministic Instance Complexity and Proof Systems with Advice, Workshop on Algorithms and Complexity, IMSC Chennai, Indien, März W. KÖSSLER: Restrictive Adaptive Tests, RoGerS Romanian-German Symposium on Mathematics and its Applications, Lucian Blaga Universität, Sibiu, Rumänien, Mai 2009.

102 102 Jahresbericht 2009 W. KÖSSLER: Restriktive Adaptive Tests, Quantitativ-Ökonomisches Kolloquium, Freie Universität Berlin, Juni O. BEYERSDORFF: Proof systems that take advice. Theory Seminar, Universita degli Studi di Roma La Sapienza, Rom, Italien, November O. BEYERSDORFF: Proof systems that take advice. Workshop on Ramsey Theory in Logic, Combinatorics and Complexity, Bertinoro, Italien, Oktober O. BEYERSDORFF: On the existence of complete disjoint NP-pairs. 11th International Symposium on Symbolic and Numeric Algorithms for Scientific Computing (SYNASC), Timisoara, Rumänien, September O. BEYERSDORFF: Characterizing the existence of optimal proof systems and complete sets for promise classes. 4th International Computer Science Symposium in Russia (CSR), Novosibirsk, Russland, August O. BEYERSDORFF: Does advice help to prove propositional tautologies? 12th International Conference on Theory and Applications of Satisfiability Testing (SAT), Swansea, Großbritannien, Juli O. BEYERSDORFF: Proving propositional tautologies with the help of advice. 75. GI- Workshop über Algorithmen und Komplexität, Universität Köln, Juni O. BEYERSDORFF: Nondeterministic Instance complexity and proof systems with advice. 3 rd Conference on Language and Automata, Theory and Applications, Tarragona, Spanien, April O. BEYERSDORFF: Ein optimaler Karp-Lipton Kollaps in Beschränkter Arithmetik. 56. GI- Workshop über Algorithmen und Komplexität, Universität Ulm, Februar O. BEYERSDORFF: The complexity of reasoning for fragments of default logic. Mathematisches Institut der Akademie der Wissenschaften, Prag, Februar O. BEYERSDORFF: Ein optimaler Karp-Lipton Kollaps in Beschränkter Arithmetik. Universität Greifswald, Januar S. KUHNERT: Isomorphie von k-bäumen ist L-vollständig, Nordic Complexity Workshop, HU Berlin, April S. KUHNERT: The isomorphism problem for k-trees is complete for lagspace, Mathematical Foundations of Computer Science (MFCS) Novy Smokovec, Slovakei, August S. MÜLLER: The Lengths of Proofs in Modal Logics, Institut für Theoretische Informatik, Hannover, Februar Tagungen / Workshops Workshop für Komplexitätstheorie Ansprechpartner: PROF. DR. JOHANNES KÖBLER Unsere Gruppe veranstaltet zusammen mit Forschergruppen an den Universitäten Hannover, Jena und Lübeck einen halbjährlich stattfindenden Workshop, auf dem aktuelle Forschungsresultate vorgestellt und diskutiert werden. Dieser wurde am 24. April 2009 an der HU ausgerichtet.

103 Komplexität und Kryptografie 103 Sonstige Aktivitäten J. Köbler Studienberatung am Institut für Informatik Mitglied im Prüfungsausschuss Mitglied der Haushaltskommission Mitglied der Wahlleitung des Instituts für Informatik Diverse Gutachtertätigkeiten W. Kössler Eine Reihe von Gutachten für die Zeitschriften o Journal of Systems Science and Complexity o Journal of Statistical Computation and Complexity o Journal of Statistical Computation and Simulation o Canadian Journal of Statistics o Statistics and Computing o Statistical Papers o Allgemeines Statistisches Archiv o Metron o Metrika Mitglied des Fakultätsrats Mitglied der Kommission Lehre und Studium Verantwortlicher für die Evaluierung der Lehre am Institut für Informatik S. Kuhnert Mitglied der Haushaltskommission Diplomarbeiten NADINE DSANGANG: Lagetests mit U-Statistiken STEFAN KRÜGER: Datenergänzungstechniken in Zeitreihen meteorologischer Daten, PHILIPP BATZ: Das variationale Dirichlet-Prozess Mixture Modell Gäste am Lehrstuhl Prof. Dr. Dieter van Melkebeek, The University of Wisconsin, Madison, WI, USA, Juni- August Prof. Dr. Oleg Verbitsky, Institute for Applied Problems of Mechanics and Mathematics, Lviv, Ukraine, September-Dezember 2009.

104 104 Jahresbericht 2009 Lehr- und Forschungseinheit Logik in der Informatik Leiter PROF. DR. MARTIN GROHE Tel.: (030) Sekretariat EVA SANDIG Tel.: (030) Fax: (030) Wissenschaftliche Mitarbeiter/innen DR. PAUL BONSMA DIPL.-MATH. KORD EICKMEYER DIPL.-INF. MAGDALENA GRÜBER DIPL.-INF. BERIT GRUßIEN (SEIT OKTOBER 2009) PD DR. LOUCHKA POPOVA-ZEUGMANN DIPL.-MATH. SIAMAK TAZARI DIPL.-MATH. MARK WEYER Doktoranden M.SC. HOLGER DELL M.SC. BASTIAN LAUBNER DIPL.-INF MARC THURLEY Technikerin DIPL.-ING. PETRA KÄMPFER Tutoren CHRISTOPH BERKHOLZ BERIT GRUßIEN (BIS SEPTEMBER 2009) ALEXANDER HOLZ LENA KALLESKE

105 Logik in der Informatik 105 Die Lehr- und Forschungseinheit deckt in Forschung und Lehre ein breites Spektrum von Themen aus der theoretischen Informatik und angrenzenden Gebieten wie der mathematischen Logik und der Diskreten Mathematik ab. In der Lehre liegt der Schwerpunkt im Bereich der Logik, etwa in den regelmäßig angebotenen Lehrveranstaltungen Theoretische Informatik 1, Logik in der Informatik sowie Logik, Spiele und Automaten. Speziellere Vorlesungen und Seminare spiegeln darüber hinaus das ganze Interessenspektrum der Lehr- und Forschungseinheit wieder. Schwerpunkte der aktuellen Forschung sind in folgenden Themenbereichen zu finden: Algorithmische Metasätze und Deskriptive Komplexitätstheorie. Hier werden Zusammenhänge zwischen logischer Definierbarkeit, effizienten Algorithmen und Komplexität untersucht. Grundlage der Betrachtungen ist die Beobachtung, dass es einen engen Zusammenhang zwischen der algorithmischen Komplexität eines Problems und seiner Beschreibungskomplexität gibt. Parametrische Komplexitätstheorie. Üblicherweise wird in der Komplexitätstheorie die Komplexität eines Problems als eine Funktion der Eingabegröße beschrieben. Diese "eindimensionale" Sichtweise vereinfacht zwar die Analyse, berücksichtigt aber nicht, dass in der Praxis Probleminstanzen oftmals eine komplexere Struktur haben und sich aus mehreren Teilen von ganz unterschiedlichem Gewicht zusammensetzten. Die parametrische Komplexitätstheorie bietet einen Rahmen für eine feinere Analyse, bei der die Komplexität eines Problems in Abhängigkeit von mehreren Eingabeparametern beschrieben wird. Algorithmische Graphenstrukturtheorie. Viele im Allgemeinen schwere algorithmische Probleme lassen sich auf strukturell einfachen Eingabeinstanzen effizient lösen. Die Struktur der Eingabeinstanzen lässt sich dabei oft durch geeignete Graphen beschreiben. Wir untersuchen hier systematisch, wie Ergebnisse der neueren Graphenstrukturtheorie algorithmisch zum Entwurf effizienterer Algorithmen verwendet werden können. Darüber hinaus studieren wir die Komplexität von verschiedenen Familien kombinatorischer Probleme, darunter Constraint-Satisfaction Probleme und dazu verwandte Probleme wie etwa die Berechnung so genannter Partitionsfunktionen, die in der statistischen Physik eine wichtige Rolle spielen. Genaueres lässt sich in den Publikationen der Lehr- und Forschungseinheiten finden, die alle online zur Verfügung stehen. Naturgemäß finden sich die Themen auch in den unten etwas ausführlicher beschriebenen Forschungsprojekten wieder. Lehre Die mathematischen und logischen Grundlagen der Informatik werden in der Vorlesung Theoretische Informatik 1 vermittelt. Die Vorlesung Logik in der Informatik (regelmäßig im Wintersemester) ist eine Kernveranstaltung im Hauptstudium. Die Logik in der Informatik schließt sich an die Grundvorlesung Theoretische Informatik 1 an. Ausgehend von klassischen Sätzen der mathematischen Logik, etwa den Gödelschen Vollständigkeits- und Unvollständigkeitssätzen, werden hier die Grundlagen für Anwendungen der Logik in verschiedenen Bereichen der Informatik gelegt. Darüber hinaus werden regelmäßig weitere Vorlesungen sowie Seminare zu einem breiten Spektrum von Themen der theoretischen Informatik angeboten. Die Themen orientieren sich an den aktuellen Entwicklungen in der theoretischen Informatik und spiegeln die Forschungsinteressen an der Lehr- und Forschungseinheit wider. Das Oberseminar Theoreti-

106 106 Jahresbericht 2009 sche Informatik dient dem Austausch mit den anderen Lehrstühlen des Institutsschwerpunkts Modelle und Algorithmen. Vorlesungen Theoretische Informatik 1 (M. GROHE, WiSe 2008/2009; L. POPOVA-ZEUGMANN, WiSe 2009/2010) Logik in der Informatik (M. GROHE, WiSe 2008/2009, WiSe 2009/2010) Graph Minor Theory (M. GROHE, SoSe 2009) Die Komplexität des constraint satisfaction Problems (M. WEYER, SoSe 2009) Lineare Optimierung (L. POPOVA-ZEUGMANN, SoSe 2009) Zeit und Petrinetze (L. POPOVA-ZEUGMANN, SoSe 2009) Seminare und Proseminare Seminar Aktuelle Themen der Theoretischen Informatik (M. GROHE, WiSe 2008/2009, SoSe 2009, WiSe 2009/2010) Forschungsseminar Logik in der Informatik (M. GROHE, WiSe 2008/2009) Oberseminar Theoretische Informatik (Algorithmen und Komplexität, Komplexität und Kryptographie, Logik in der Informatik, WiSe 2008/2009, SoSe 2009, WiSe 2009/2010) Proseminar Die Grenzen der Berechenbarkeit (M. GROHE, SoSe 2009) Übungen Theoretische Informatik 1 (M. GRÜBER, L. POPOVA-ZEUGMANN, M. WEYER, WiSe 2008/2009; L. POPOVA-ZEUGMANN, WiSe 2009/2010) Logik in der Informatik (M. GRÜBER, WiSe 2008/2009; K. EICKMEYER, WiSe 2009/2010) Graph Minor Theory (M. GRÜBER, SoSe 2009) Die Komplexität des constraint satisfaction Problems (M. GRÜBER, SoSe 2009) Lineare Optimierung (L. Popova-Zeugmann, SoSe 2009) Forschung Projekt: Die Struktur Parametrischer Komplexitätsklassen Ansprechpartner: PROF. DR. MARTIN GROHE Beteiligter Mitarbeiter: DIPL.-MATH. KORD EICKMEYER Zusammenarbeit: Albert-Ludwigs-Universität Freiburg, PROF. DR. JÖRG FLUM Forschungsförderung: Deutsche Forschungsgemeinschaft Die Komplexitätstheorie macht Aussagen über die zur Lösung von algorithmischen Problemen erforderlichen Ressourcen, wie etwa Rechenzeit. Dabei wird die Komplexität eines Problems üblicherweise als Funktion der Eingabegröße gemessen. Dieses einfache Modell führt zu einer klaren Einteilung in Klassen von leicht und schwer lösbaren algorithmischen Problemen, hat aber den Nachteil, dass gewisse feinere Strukturen der Eingabe nicht berücksichtigt und unter Umständen Probleme als schwer klassifiziert werden, obwohl nur gewisse für die Praxis irrelevante Fälle schwer lösbar sind. Häufig besteht die Eingabe eines Problems aus mehreren Teilen. Als Beispiel betrachte man das Problem, eine Datenbankanfrage auszuwerten. Die Eingabe besteht hier aus der Anfrage und der Datenbank. Normalerweise ist die Datenbank um ein Vielfaches größer als die Anfrage. Die parametrische Komplexitätstheorie berücksichtigt dies und ermöglicht eine verfeinerte Komplexitätsanalyse.

107 Logik in der Informatik 107 Ziel des Projektes ist es, ein klareres Bild der noch sehr unübersichtlichen Struktur der parametrischen Komplexitätsklassen und ihres Verhältnisses zu klassischen Komplexitätsklassen zu erlangen. Eine systematische Untersuchung der Parameterabhängigkeit von Problemen soll eine realistischere Einschätzung ihrer Komplexität ermöglichen, als dies bisher möglich ist. Graduiertenkolleg: Methoden für Diskrete Strukturen Ansprechpartner: PROF. DR. MARTIN GROHE Stipendiaten: DIPL.-INF. MARC THURLEY, M.SC. HOLGER DELL, M.SC. BASTIAN LAUBNER Forschungsförderung: Deutsche Forschungsgemeinschaft URL: Das Graduiertenkolleg wird gemeinsam von der Freien Universität, der Humboldt- Universität und der Technischen Universität Berlin getragen. Das wissenschaftliche Programm deckt ein breites Themenspektrum im Bereich der diskreten Mathematik und der theoretischen Informatik ab. Besonders betont wird die Vielfalt der Methoden, die in diesen Bereichen Anwendung finden, etwa geometrische, algebraische, topologische, graphentheoretische, algorithmische und probabilistische Methoden. Projekt: Funktonalität und Zeit in biochemischen Netzwerken Ansprechpartnerin: DR. LOUCHKA POPOVA-ZEUGMANN Zusammenarbeit: BTU Cottbus, Institut für Informatik, PROF. DR. MONIKA HEINER Biochemische Netzwerke werden wegen ihrer Größe in verschiedenen Abstraktionsniveaus modelliert. Üblicherweise eignen sich die Modelle entweder nur für qualitative oder nur für quantitative Auswertung. Beschreibungsmittel, die biochemische Netzwerke auf verschiedenen Abstraktionsebenen modellieren können und eine breite Analyse gestatten, sind natürlicherweise wünschenswert. Üblicherweise wurden bis jetzt vorzugsweise Hypergraphs benutzt um solche Systeme anschaulich darzustellen und Differentialgleichungen um sie zu analysieren. In diesem Projekt versuchen wir mit Petrinetzen eine Brücke zu schlagen: wir benutzen bereits wohlbekannte Petrinetze zu Modellierung und Analyse - qualitative und quantitative - innerhalb eines Modells. Darüber hinaus versuchen wir durch Modifikation der Petrinetze die biochemischen Netzwerke detaillierter beschreiben zu können, um danach exakter analysieren zu können. Bislang haben wir verschiedene zeitabhängige Petrinetze eingesetzt. Sie beschreiben ausreichend gut Momentaufnahmen eines biochemischen Netzwerks. Um die Modellierungsarbeiten zu unterstützen, entwickelten wir einen graphischen Editor und Simulator für verschiedene zeitabhängige Petri Netze. In diesem Jahr wurde mit dem Kooperationspartner ein A- nalysetool (CharlieTimed) für Intervall-Petrinetze und für Dauer-Petrinetze implementiert. Weiterhin setzen wir unsere Arbeit auf der Suche nach hinreichenden strukturellen Kriterien für monoton-lebendige Petrinetze fort. Der Grund dafür ist, dass die biochemischen Netzwerke monoton-lebendig sind. Danach lassen sich die Eigenschaften dieser Klasse von Petrinetzen gut analysieren und damit Eigenschaften eines biochemischen Netzwerkes verifizieren bzw. aufdecken.

108 108 Jahresbericht 2009 Projekt: Fast parameterized algorithms for directed graph problem Ansprechpartnerin: DR. PAUL BONSMA Forschungsförderung: Deutsche Forschungsgemeinschaft NP-hard problems can not be solved efficiently in full generality at the moment, and it is widely believed that this situation will not change. There is however still the need to solve these problems in practice. Parameterized algorithms have been developed in the last two decades as a way of solving such computationally hard problems, by exploiting additional structural properties of problem instances as they may occur in practice. For problems on undirected graphs, much progress has been made, and many standard techniques are available. For directed graphs, very few results were known until recently. In the last two years, activity in this field has significantly increased and a few breakthrough results have been obtained. However, the recent algorithms are still far from practical, and are mostly obtained by problem-specific methods. The proposed research aims to address both issues, by developing faster algorithms for some central and important problems, and by developing structural tools for directed graphs that can be applied to a wide variety of problems. The research is also expected to yield results in related areas such as approximation algorithms, structural and extremal graph theory. Veröffentlichungen I. ADLER, M. WEYER: Tree-width for first-order formulae. Volume 5771 Lecture Notes in Computer Science, Springer-Verlag, pages 71-85, A. ATSERIAS, J. K. FICHTE, M. THURLEY: Clause-Learning Algorithms with Many Restarts and Bounded-Width Resolution. Proceedings of the 12th International Conference on Theory and Applications of Satisfiability Testing - SAT 2009, pages A. ATSERIAS, M. WEYER: Decidable Relationships between Consistency Notions for Constraint Satisfaction Problems. CSL 2009, pages J. BACHMANN, L. POPOVA-ZEUGMANN: Time-Independent Liveness in Time Petri Nets. Proceedings of the Workshop Concurrency, Specification & Programming'2009, Krakow, Sept , Warsaw University, Vol. 1, pp , A. BLUMENSATH, M. OTTO, M. WEYER: Boundedness of Monadic Second-Order Formulae over Finite Words. 36th International Colloquium on Automata, languages and Programming, ICALP 2009, July Proceedings, Part II, pp P. BONSMA: The complexity of the Matching-Cut problem for planar graphs and other graph classes. Journal of Graph Theory, 62(2): , P. BONSMA, F. BREUER: Finding fullerene patches in polynomial time. International Symposium on Algorithm and Computation 2009 (ISAAC 2009), , volume 5878 of Lecture Notes in Computer Science, Springer, Berlin, P. BONSMA, L. CERECEDA: Finding paths between graph colourings: PSPACE-completeness and superpolynomial distances. Theoretical Computer Science, 410(50): , A. BULATOV, V. DALMAU, M. GROHE, D. MARX: Enumerating homomorphisms. In S. Albers and J.-Y. Marion, editors, Proceedings of the 26 th Annual Symposium on Theoretical Aspects of Computer Science, pages , A. DAWAR, M. GROHE, B. HOLM, B. LAUBNER: Logics with rank operators. In Proceedings of the 24th IEEE Symposium on Logic in Computer Science, pages , 2009.

109 Logik in der Informatik 109 L.A. GOLDBERG, M. GROHE, M. JERRUM, M. THURLEY: A complexity dichotomy for partition functions with mixed signs. In S. Albers and J.-Y. Marion, editors, Proceedings of the 26th Annual Symposium on Theoretical Aspects of Computer Science, pages , M. GROHE: Fixed-point definability and polynomial time. In E. Grädel and R. Kahle, editors, Proceedings of the 23rd International Workshop on Computer Science Logic, volume 5771 of Lecture Notes in Computer Science, pages Springer-Verlag, M. GROHE, Y. GUREVICH, D. LEINDERS, N. SCHWEIKARDT, J. TYSZKIEWICZ, J. VAN DEN BUSSCHE: Database query processing using finite cursor machines. Theory of Computing Systems, 44: , M. GROHE, A. HERNICH, N. SCHWEIKARDT: Lower bounds for processing data with few random accesses to external memory. Journal of the ACM, 56(3), pages 1-58, M. GROHE, D. MARX: On tree width, bramble size, and expansion. Journal of Combinatorial Theory, Series B, 99: , M. GROHE, G. SCHWANDTNER: The complexity of datalog on linear orders. Logical Methods in Computer Science, 5(1), J. WEGENER, B. COLLINS, L. POPOVA-ZEUGMANN: Petri Nets with Time Windows: Possibilities and Limitations. Proceedings of the International Workshop on Timing and Stochasticity in Petri nets and other models of concurrency TiSto'2009, June 23, 2009, Paris, France. J. WEGENER, L. POPOVA-ZEUGMANN: Petri Nets with Time Windows: A Comparison to Classical Petri Nets. Fundamenta Informaticae (FI), 93(2009), pp , IOS-Press, Amsterdam. Vorträge P. BONSMA: Finding fullerene patches in polynomial time. International Symposium on Algorithm and Computation 2009 (ISAAC 2009), Honolulu, USA, Dezember P. BONSMA: Efficiently finding fullerene patches. Colloquium on Combinatorics, Magdeburg, November P. BONSMA: Finding fullerene patches in polynomial time. Friday seminar, University of Bergen, Norwegen, September P. BONSMA: Finding fullerene patches in polynomial time: reducing 5-faces. MDS Status workshop, TU Berlin, Januar P. BONSMA: Avaloqix is strongly PSPACE-complete. Mittagsseminar Diskrete Mathematik, TU Berlin, Januar H. DELL: Satisfiability Allows No Nontrivial Sparsification Unless The Polynomial-Time Hierarchy Collapses. Dagstuhl Seminar on Parameterized Complexity and Approximation Algorithms, Dagstuhl, December H. DELL: Satisfiability Allows No Nontrivial Sparsification Unless The Polynomial-Time Hierarchy Collapses. The 1st Workshop on Kernels (Worker 2009), Bergen, Norwegen, September M. GROHE: Counting Homomorphisms, Weighted Constraint Satisfaction Problems, and Partition Functions. Joint Mathematics Meeting, Special Session "Model Theoretic Methods in Combinatorics", Washington, USA, Januar 2009.

110 110 Jahresbericht 2009 M. GROHE: Fixed-Point Definability and Polynomial Time. Eingeladener Vortrag 18th EACSL Annual Conference on Computer Science Logic, Coimbra, Portugal, September B. LAUBNER: Logics with Rank Operators. Workshop on Algorithmic Model Theory (Al- MoTh 2009), Dortmund, Februar B.Laubner: Logics with Rank Operators. 24th IEEE Symposium on Logic In Computer Science (LICS 2009), Los Angeles, USA, August M. THURLEY: Clause-Learning Algorithms with Many Restarts and Bounded-Width Resolution. 12th International Conference on Theory and Applications of Satisfiability Testing - SAT 2009, Swansea, Großbritannien, Juli M. THURLEY: SAT Solvers and Bounded-Width Resolution. Workshop on Algorithmic Model Theory 2009, Dortmund, Februar M. THURLEY: A Complexity Dichotomy for Partition Functions with Mixed Signs. 26th International Symposium on Theoretical Aspects of Computer Science (STACS '09), Freiburg, Februar M. THURLEY: The Complexity of Partition Functions. Dagstuhl Seminar "The Constraint Satisfaction Problem: Complexity and Approximability", Dagstuhl, Oktober Diplomarbeiten JOHANNES KLAUS FICHTE: Abstract State Machines - Programmieren mit Strukturen. März BERIT GRUßIEN: Polynomial Time Algorithms for Constraint Satisfaction Problems. Juli JONATHAN HELLWIG: Algorithmen und Komplexität bei der Suche nach häufigen Sequenzen EVA JACKOLIS: Definierbarkeit und Algorithmische Lerntheorie. Juli ANNE PILCHOWSKI: Vergleich zweier Algorithmen zur Erzeugung von Erreichbarkeitsgraphen von Intervall-PN. Dezember Dissertationen MAGDALENA GRÜBER: Parameterized Approximability. August MARC THURLEY: The Complexity of Partition Functions. September Sonstige Aktivitäten Prof. Dr. Martin Grohe Faculty Member, Berlin Mathematical School Member of the Editorial Board, Journal of Discrete Algorithms Diverse Gutachtertätigkeiten Mitglied des Committees for Logic in Europe der Association for Symbolic Logic Organisation einer Special Session "Model Theoretic Methods in Combinatorics" beim AMS-MAA Joint Mathematics Meeting im Januar 2009 in Washington Geschäftsführender Direktor des Instituts für Informatik Mitglied des Institutsrats Mitglied des Fakultätsrats

111 Logik in der Informatik 111 PD Dr. Louchka Popova-Zeugmann Mitglied des Institutrates Mitglied des Prüfungsausschusses Mitglied der Evaluierungs- und Berufungskommission für Thechnische Informatik Mitglied mehrerer Promotionskommissionen Gutachten für die Konferenzen CS&P 2009, ATPN 2009 (TiSto) Gutachten für die Fachzeitschriften "IEEE Transactions on Automatic Control", "Natural Computing, Springer", "Fundamenta Informaticae". Gutachten der Diplomarbeit Analyse von zeitbewerteten Petrinetzen mit Erreichbarkeitsgraphen von Ansgar Fischer, BTU. Mitglied des PC TiSto (Timing and Stochasticity in Petri nets and other models of concurrency) workshops Mitglied der PS CS&P (Concurrency, Specification, and programmig) workshops Dr. Mark Weyer Gutachtertätigkeiten für verschiedene Fachzeitschriften und Konferenzen Mitglied im Programmkomitee IWPEC 2009 (International Workshop on Parameterized and Exact Computation) Gäste am Lehrstuhl PROF. LESLIE GOLDBERG, University of Liverpool, Dept. of Computer Science April 2009 PROF. WOLFGANG THOMAS, RWTH Aachen, Lehrstuhl für Informatik 7 - Logik und Theorie diskreter Systeme, Mai 2009 PROF. DIETER VAN MELKEBEEK, University of Wisconsin, Dpt. of Computer Sciences, USA, Juni bis August 2009 ANDRÉ BÖHM, Goethe-Universität Frankfurt am Main, Institut für Informatik, Juni bis August 2009 ANDRÉ HERNICH, Goethe-Universität Frankfurt am Main, Institut für Informatik, Juni bis August 2009 PROF. NICOLE SCHWEIKARDT, Goethe-Universität Frankfurt am Main, Institut für Informatik, Juni bis August 2009 DR. MARIANO ZELKE, Goethe-Universität Frankfurt am Main, Institut für Informatik, Juni bis August 2009 PROF. YIJIA CHEN, Jiaotong-Universität Shanghai, Department of Computer Science and Engineering, China, Juli/August 2009 DR. DANIEL KIRSTEN, Universität Leipzig, Institut für Informatik, November 2009 MAGNUS WAHLSTRÖM, Max-Planck-Institut für Informatik, Department 1: Algorithms and Complexity Saarbrücken, November 2009

112 112 Jahresbericht 2009 Lehr- und Forschungseinheit Datenbanken und Informationssysteme Leiter PROF. JOHANN-CHRISTOPH FREYTAG, PH.D. Tel.: (030) Sekretariat ULRIKE SCHOLZ Tel.: (030) Wissenschaftliche Mitarbeiter/innen DIPL.-INF. ARTIN AVANES DIPL.-INF. RICO BERGMANN DIPL.-INF. LUKAS DÖLLE DIPL.-INF. OLAF HARTIG DIPL.-INF. FRANK HUBER DIPL.-INF. MARTIN KOST DIPL.-INF. (FH) KATJA THAM Affiliierte Mitarbeiter DIPL.-INF. RALF HEESE DR. STEPHAN HEYMANN DIPL.-ING. HEINZ WERNER Techniker DR. THOMAS MORGENSTERN Tutoren CHRISTIAN CZEKAY JAN ENGELSBERG HANNES MÜHLEISEN THOMAS WESTPHAL MARTIN ZNAMIROWSKI

113 Datenbanken und Informationssysteme 113 Die Lehr- und Forschungseinheit (LFE) Datenbanken und Informationssysteme (DBIS) konnte im Jahr 2009 seine Forschungsarbeiten in den Bereichen Multi-Core-CPUs, Semantic-Web-Technologien und Schutz der Privatsphäre stärken und weiter ausbauen. Die Arbeiten im EU-Projekt PRECIOSA, zusammen mit Partnern aus Frankreich, Belgien, Polen und Deutschland, im Bereich Privacy sind von der konzeptionellen Phase in die ersten Schritte einer Realisierung übergegangen. Das DFG-geförderte Graduiertenkolleg METRIK, das die Kooperation zwischen den einzelnen LFEen mit seinem inhaltlichen Schwerpunkt im Katastrophenmanagement weiter stärkt, wurde zur Verlängerung bei der DFG eingereicht. Neu hinzugekommen ist die Beteiligung am neu beantragten und am Ende des Jahres genehmigten DFG-Graduiertenkolleg SOAMED (Service-orientierte Architekturen zur Integration Software-gestützter Prozesse am Beispiel des Gesundheitswesens und der Medizintechnik), das im Jahr 2010 seine Arbeit aufnehmen wird. Besonderer Bedeutung kam 2009 das Projekt DB-Novo in Kooperation mit der LFE Strukturanalytik und Umweltchemie, Prof. Linscheid, am Institut für Chemie zu. In dieser Kooperation wurden im Kontext von Datenbanken und Massenspektroskopie innovative Ideen zur Kopplung beider Welten entwickelt, die zu einem Patentantrag und einer intensiven Kooperation mit der Firma Thermo-Fischer, Bremen, führten. Weiterhin ist besonders die Verleihung des "HP Labs Innovation Research Awards 2009" an Prof. Freytag, der diesen Preis zusammen mit weiteren HP Innovation Awards für Prof. V. Markl und Prof. O. Kao (Technische Universität Berlin) erhielt, hervorzuheben. In der Lehre wurden einige der existierenden Vorlesungen und Projekte an die Entwicklungen in der Informatik angepasst. Insbesondere die Themen Semantic Web/Link Data und DBMSe im Kontext Mehrkern-CPUs wurden in verschiedenen Veranstaltungen integriert. Prof. Freytag verbrachte einen Teil seines Forschungsfreisemester von Februar bis Mai 2009 als Gastprofessor an der Harvard Universität, Cambridge, MA, USA. Lehre Wintersemester 2008/2009 Vorlesung Grundlagen von Datenbanken (DBS I) (PROF. J.-C. FREYTAG) Praktikum zu DBS I (L. DÖLLE, O. HARTIG, F. HUBER) Vorlesung Neue Konzepte und Techniken für Datenbanksysteme (PROF. J.-C. FREYTAG) Übungen zur Vorlesung Neue Konzepte und Techniken für Datenbanksysteme (M. KOST) Seminar SPARQL - Anfragen im Web der Daten (O. HARTIG) Sommersemester 2009 Projektseminar Web Information Systeme (F. HUBER, SS 2009) Seminar Genomvergleiche - Stammesgeschichtliche und Medizinische Implikationen (DR. S. HEYMANN, SS 2009) Seminar Suche im Web - Neue Konzepte für veränderte Anforderungen (O. HARTIG, SS 2009) Professor J.-C. FREYTAG nahm sein Forschungsfreisemester wahr

114 114 Jahresbericht 2009 Wintersemester 2009/2010 "Einführung in die Programmiersprache C" (PROF. J.-C. FREYTAG) Praktische Informatik III (Compilerbau) (PROF. J-.C. FREYTAG) Praktikum zur Praktischen Informatik III (L. DÖLLE, M. KOST) Vorlesung Grundlagen von Datenbanken (DBS I) (PROF. J.-C. FREYTAG) Praktikum zu DBS I (R. BERGMANN, O. HARTIG, F. HUBER) Vorlesung Implementierung von Datenbanksystemen (DBS II) (PROF. J.C. FREYTAG) Praktikum zu DBS II (O. HARTIG, F. HUBER) Lehre im Ausland Vorlesungsblock Bioinformatik im Fachbereich Biomedizin an der Slawischen Universität von Yerevan/Armenien (STEPHAN HEYMANN, Oktober 2009, in Russisch und Armenisch) Forschung Projekt: Anfragebearbeitung auf Mehrkern-Prozessoren Ansprechpartner: DIPL.-INF. FRANK HUBER Moore s Gesetz beschreibt die Entwicklung von Transistoren auf integrierten Schaltkreisen. Es besagt, dass sich etwa alle zwei Jahre die Anzahl der Transistoren auf einem Schaltkreis verdoppeln lässt. Dieser Effekt führte in der Vergangenheit zu immer besseren bzw. schnelleren Prozessoren und Computern. Er führte auch automatisch zu einer stetigen Verbesserung des Leistungsverhaltens von Software. Während Moore s Gesetz fortwährend besteht, sind einer weiteren Steigerung der Leistung von Prozessoren bestimmte physikalische und wirtschaftliche Grenzen gesetzt. Diese Grenzen haben zu einem neuen Trend bei der Entwicklung von Prozessoren geführt, den Mehrkern-Prozessoren. Statt die Leistung durch höhere Taktraten zu steigern, wird versucht, mehrere (Rechen-) Kerne auf einem Prozessor unterzubringen. Die CPU kann somit mehrere Programme gleichzeitig ablaufen lassen oder falls ein Programm entsprechend vorbereitet ist, dieses auf mehrere Kerne verteilen und damit parallelisieren und beschleunigen. Um ein Programm zu verteilen, müssen die verwendeten Algorithmen und Datenstrukturen parallelisiert und wenn nötig synchronisiert werden. Die neuen Mehrkern-Architekturen (CMP) unterscheiden sich gegenüber früheren Mehr- Prozessorsystemen (SMP) einerseits dadurch, dass die einzelnen Kerne eines Prozessors sehr schnell Daten untereinander austauschen können, z.b. durch geteilte Caches oder durch sehr schnelle Verbindungen unter den einzelnen Kernen. Zum anderen müssen sich alle Kerne oder Gruppen von Kernen bestimme Ressourcen teilen. Darunter Cache und Datenverbindungen zum Speicher. Auch wird die Anzahl der vorhandenen Recheneinheiten auf CMPs in naher Zukunft signifikant höher sein als die von bisherigen SMP Systemen. Zentrales Thema dieses Projektes ist die Anfragebearbeitung auf Mehrkern-Systemen. Anfragebearbeitung im Kontext von relationalen Datenbankmanagementsystemen (RDBMSen) ist der Prozess, bei dem für eine durch den Nutzer an das DBMS gerichtete Anfrage ausgewertet wird und die richtigen Daten zurück geliefert werden. Abbildung 1 illustriert diesen Prozess, der sich in zwei Teile zerlegen lässt.

115 Datenbanken und Informationssysteme 115 Abb.1: Anfragebearbeitung in RDBMSen Im ersten Teil wird die in deklarativer Form vom Nutzer übergebene Anfrage durch den logischen Datenbankprozessor (LDBP) in eine möglichst optimale ausführbare Form transformiert. Den sogenannten Anfrageausführungsplan (QEP). Dieser QEP wird dann im zweiten Teil der Anfrageausführung, durch den physischen Datenbankprozessor (PDBP) ausgewertet. Der erste Teil kann nochmal in zwei Teilschritte zerlegt werden. Dabei wird im ersten Schritt die Anfrage geparst und auf ihre semantische Korrektheit überprüft. Danach folgt in die View Integration. Anschließend wird die Anfrage in eine interne Form überführt und optimiert. Das Resultat ist dann ein QEP. Um Mehrkern-Rechner effektiv zu nutzen, ist es notwendig, die Anfrageausführung zu parallelisieren. Die Möglichkeiten der parallelen Ausführung kann man in drei Kategorien unterteilen (siehe Abbildung 2): 1. Interquery Parallelität Mehrere Anfragen werden vom DBMS gleichzeitig abgearbeitet. 2. Interoperator Parallelität Unterschiedliche Operatoren eines QEPs werden gleichzeitig abgearbeitet. Man unterscheidet hier zwischen vertikaler und horizontaler Parallelität. 3. Intraoperator Parallelität Die Abläufe eines einzelnen Operators werden parallelisiert und gleichzeitig ausgeführt.

116 116 Jahresbericht 2009 Abb. 2: Kombination von Inter- und Intraopterator-Parallelität Bzgl. Mehrkern-Prozessoren sind besonders Inter- und Intraoperator-Parallelität von Interesse. Eine wichtige Frage, die sich daraus ergibt, ist: Mit welchem Ausführungsmodell lassen sich diese Parallelitäten am besten umsetzen. Bei der Ausführung von QEPs wurde bisher zumeist das Iterator-Modell verwendet. Das Iterator-Modell weist jedem Operator die drei Funktionen Open, Next und Close zu. Mit der Funktion Open wird der Operator geöffnet und für die Rückgabe von Daten durch den Next- Aufruf vorbereitet. Der Next-Aufruf liefert entsprechend Daten des Operators zurück. Close wird verwendet, um einen Operator zu schließen. Das Iterator-Modell zeichnet sich somit als eine Folge von sequentiellen Next-Aufrufen aus, wobei der aufrufende Operator wartet. Das Iterator-Modell ist somit ideal für den Einzelkern-Prozessor. Ob es ebenfalls für den Mehrkernbetrieb mit einer hohen Anzahl von kleinen kurzen parallelen Aufgaben geeignet ist, ist eine der zentralen Fragen dieses Projektes. Dazu wird ein neues asynchrones Ausführungsmodell eingeführt, bei dem im Unterschied zum Iterator- Modell der erzeugende Operator seine Daten direkt an den Konsumenten verschickt. Eine Evaluierung der beiden Modelle, soll ihre Tauglichkeit bzgl. Mehrkern-Prozessoren aufzeigen. Ein anderer wichtiger Punkt bei der Anfragebearbeitung ist das physische Datenmodell. Es zeigt sich, dass die Leistung von DBMSen zunehmend vom Transfer von Daten aus dem Hauptspeicher in die Prozessor-Caches abhängt und nicht mehr so stark vom Transfer vom sekundären Speichern in den Hauptspeicher. Somit muss das Lesen bzw. Schreiben in bzw. aus den Prozessor-Caches optimiert werden. An diesem Punkt spielt das physische Datenmodell eine bestimmende Rolle. Denn es definiert die Datenstrukturen und somit Wann, Was, Wie transferiert werden muss. Somit ergeben sich auch auf dieser Ebene viele interessante Fragestellungen.

117 Datenbanken und Informationssysteme 117 Abb. 3: Rahmengerüst für Anfragebearbeitung auf Mehrkern-Architekturen Um die einzelnen Fragen zu untersuchen, wird im Rahmen dieses Projektes ein Rahmengerüst entstehen, das den kompletten Bereich der Anfragebearbeitung abdeckt. Abbildung 3 zeigt die einzelnen Teilgebiete dieses Rahmens. Die unterste Ebene stellt eine Abstraktion der Mehrkern-Architektur auf seine Grundbestandteile wie Kerne, Threads und Caches dar. Dazu kommt eine logische Komponente, die sogenannte Arbeitsgruppe. Eine Arbeitsgruppe ist eine Zusammensetzung von verschiedenen Kernen, Threads und Caches. Auf dieser Abstraktion werden verschiedene Metaoperatoren definiert. Die Metaoperatoren sollen es dem Programmierer erlauben, Hardware unabhängig zu programmieren und trotzdem die einzelnen Komponenten der Abstraktionssicht direkt benutzen und ansprechen zu können. Aufbauend auf dieser Schicht wird das Teilgebiet des physischen Datenmodells definiert. Am Ende stehen die Anfrageoptimierung und Anfrageausführung spezialisiert für Mehrkern-Prozessoren. Im Teil der Anfrageausführung soll das neue Operatormodell definiert und implementiert werden. Im Teil der Anfrageoptimierung werden spezielle Optimierungsstrategien bzgl. Mehrkern-Architekturen betrachtet. Zum Beispiel wie werden die vorhandenen Ressourcen verteilt. Dabei ist zum einen eine globale Optimierung (über verschiedene Anfrage) als auch eine lokale Optimierung (über verschiedene Operatoren eines QEPs) notwendig. Am Ende des Projektes soll uns der entwickelte Rahmen eine Basis geben, um die zukünftigen Möglichkeiten von Mehrkern-Architekturen optimal zu nutzen. Projekt: Schutz der Privatsphäre in der Anfragebearbeitung Ansprechpartner: DIPL.-INF. LUKAS DÖLLE Der Schutz der Privatsphäre bekommt in heutigen Anwendungen immer eine größere Aufmerksamkeit. Oftmals müssen personenbezogene Daten veröffentlicht werden, wobei der Datenhalter garantieren möchte, dass die einzelnen Individuen nicht identifiziert werden können. Abbildung 4 zeigt ein Beispiel von Patientendaten, in denen zu jedem Patienten neben seiner Postleitzahl (PLZ), dem Alter und dem Geschlecht die entsprechende Krankheit gespeichert ist. Bei einer Herausgabe dieser Daten muss gewährleistet werden, dass den Personen nicht ihre Krankheit zugeordnet werden kann. Das Attribut Krankheit wird in diesem Zusammenhang auch sensitiv genannt. Betrachtet man nun Anfragen an diese Daten, so stellen die Ergebnismengen potenzielle Verletzungen der Privatsphäre dar, wenn aus ihnen Rückschlüsse auf die sensitiven Werte der Individuen gezogen werden können.

118 118 Jahresbericht 2009 Name PLZ Alter Geschlecht Krankheit Alice W Grippe Bob M Bronchitis Chris M Gastritis Doris W Herzleiden Ellen W Erkältung Frank M Erkältung Gegeben sei eine Anfrage Q 1 an die Daten T: Abb. 4: Beispieldaten T Q 1 : SELECT * FROM T WHERE Age BETWEEN 18 AND 20 Die Ergebnismenge dieser Anfrage beinhaltet die ersten drei Tupel der Daten T. Um die Privatsphäre zu schützen, kann man z. B. die sensitiven Werte separat ausgeben, wie in Abbildung 5 gezeigt. Dabei werden die Krankheitswerte in einer anderen Reihenfolge ausgegeben, als die Tupel der Ergebnismenge. Dieses Verfahren heißt Bucketization und gewährleistet, dass ein potenzieller Angreifer die sensitiven Werte nicht eindeutig den Individuen zuordnen kann, wenn die Ergebnismenge groß genug ist. Name PLZ Alter Geschlecht Krankheit Alice W Bronchitis Bob M Gastritis Chris M Grippe Abb. 5: Ergebnismenge von Q 1 Im Rahmen dieses Projektes soll eine Methode entwickelt werden, um aus einer Reihe von Anfragen herauszufinden, ob die Kombination der entsprechenden Ergebnismengen bzw. das Wissen, das ein potenzieller Angreifer durch die Ergebnisse erhält, eine Verletzung der Privatsphäre darstellt. Aus der ersten Ergebnismenge aus Abb. kann er zum Beispiel schlussfolgern, dass Chris entweder Bronchitis, Gastritis oder Grippe haben muss. Das gleiche gilt auch für Alice und Bob. Werden nun weitere Anfragen gestellt, muss geprüft werden, ob weitere Einschränkungen der Möglichkeiten existieren, so dass z. B. nur noch ein gültiger Wert für ein Individuum übrig bleibt. Ein einfaches Beispiel ist die Anfrage Q 2 : SELECT * FROM T WHERE Age BETWEEN 20 AND 22, die als Ergebnis die Tupel für Chris, Doris und Ellen liefert (siehe Abbildung 6). Name PLZ Alter Geschlecht Krankheit Chris M Erkältung Doris W Gastritis Ellen W Herzleiden Abb. 6: Ergebnismenge von Q 2 Die Kombination der beiden Ergebnismengen liefert die Erkenntnis, dass Chris Gastritis haben muss, da ein Tupel für Chris in beiden Ergebnissen vorkommt und Gastritis der einzige sensitive Wert ist, der zweimal vorkommt.

119 Datenbanken und Informationssysteme 119 Jedoch können durch andere Anfragen auch wesentlich weniger offensichtliche Rückschlüsse auf sensitive Werte gezogen werden, die eine Verletzung der Privatsphäre darstellen. Dazu wurde ein Graphenmodell entwickelt, dass das Wissen potenzieller Angreifer darstellt und aus dem die Verletzung der Privatsphäre hervorgeht. Projekt: PRECIOSA (PRivacy Enabled Capability In Co-Operative System and Safety Applications) Ansprechpartner: DIPL.-INF. MARTIN KOST, DIPL.-INF. LUKAS DÖLLE, PROF. JOHANN- CHRISTOPH FREYTAG, PH.D. Zusammenarbeit: TRIALOG (Koordinator), Oracle, PTV, Universität Ulm Forschungsförderung: Europäisches Forschungsprojekt im Rahmen der ICT-FP7 Allgegenwärtige Informationsverarbeitung (engl. pervasive computing) findet in einer Vielzahl von Anwendungen statt, welche in Zukunft immer stärker vernetzt werden. Eine breite Palette an Geräten zur Unterstützung solcher Anwendungen ist bereits verfügbar und wird fortlaufend weiterentwickelt. Kunden wird heutzutage die Möglichkeit geboten, Angebote wie Lokalisierungsdienste, Navigation, intelligente Reiseführung und personalisierte Dienste zu nutzen. Neben den sich ergebenden Möglichkeiten durch den Einsatz von Umgebungen zur allgegenwärtigen Informationsverarbeitung entstehen auch neue Herausforderungen, einem Missbrauch von Informationen vorzubeugen. Beispielsweise sind sich viele der Nutzer nicht im Klaren darüber, dass und auf welche Art personenbezogene Informationen ausgetauscht werden. Oft sind diese Informationen alleine betrachtet nicht sensitiv. Allerdings können sie in einem allgemeineren Zusammenhang sensitiv werden. Intelligente Angreifer können die Privatsphäre eines Nutzers verletzen, indem sie die beobachteten Daten bzw. Informationen mit zusätzlichen Informationen kombinieren. Quellen zusätzlicher Informationen können digitale Daten- oder Wissensspeicher sein. Für die Angreifer wird es dadurch möglich, sensitive Informationen zu erschließen und die dazugehörigen Individuen zu identifizieren. Diese Art von Verletzung der Privatsphäre eines Nutzers wird Angriff durch Verknüpfung (engl. linkage attack) genannt.

120 120 Jahresbericht 2009 Abb. 7: Angriffsszenario für ITS Im Rahmen des europäischen Forschungsprojekts PRECIOSA (Privacy Enabled Capability In co-operative Systems and Safety Applications) entwickeln wir Vorgehensweisen (bzw. Richtlinien) und Konzepte zur Entwicklung und Überprüfung von Architekturen und Anwendungen, welche personenbezogene Informationen im Bereich intelligenter Transportsysteme verarbeiten. Ziel ist dabei die Gewährleistung heutiger und zukünftiger Anforderungen an den Schutz der Privatsphäre durch die Überführung organisatorischer Richtlinien (z.b. aus Datenschutzgesetzen) hin zu technischen Maßnahmen. Abb. 8: Privacy by Design

121 Datenbanken und Informationssysteme 121 Die Umsetzung von Anforderungen für den Schutz der Privatsphäre begleitet den gesamten Lebenszyklus einer Anwendung bzw. eines Systems von der (a) Entwurfsphase, über die (b) Einrichtung bzw. Konfiguration der Laufzeitumgebung bis hin zur (c) Laufzeit und (d) möglichen Änderungen/Anpassung von Systemen und Anwendungen. PRECIOSA stellt entsprechende Konzepte und Mechanismen für alle diese Phasen bereit. Während der Entwurfsphase (siehe Abb. 8: Privacy by Design) müssen Anforderungen an den Schutz der Privatsphäre erkannt und berücksichtigt werden. Das Erkennen von Anforderungen wird zum einen durch allgemeine Richtlinien und Prinzipien unterstützt. Zum anderen werden durch den Einsatz von Ontologien (siehe Abb. 9: Beispiel einer Ontologie) mögliche Angriffspunkte auf die Privatsphäre identifiziert und kategorisiert. Ergänzend verwenden wir Mechanismen mit denen wir formale Beschreibungen von möglichen Angriffen auf die Privatsphäre und von Methoden zum Schutz vor solchen Angriffen erstellen. Auf Grundlage dieser Beschreibungen können mithilfe von Metriken konkrete Anwendungen auf die Einhaltung der identifizierten Anforderungen überprüft werden. Abb. 9: Beispiel einer Ontologie Der Beitrag von DBIS liegt dabei vor allem im Bereitstellen von Mechanismen zum Identifizieren möglicher Angriffspunkte auf die Privatsphäre während der Analyse- /Entwurfsphase, einer Sprache zum Beschreiben adäquater Beschränkungen für den Zugriff auf personenbezogene Informationen durch den Nutzer oder durch Datenschutzbeauftragte, einer Vorgehensweise zur Realisierung von Architekturen, welche die abstrakten Prinzipien zum Schutz der Privatsphäre umsetzen und die Einhaltung von nutzerdefinierten Beschränkungen garantieren sowie der prototypischen Umsetzung einer Architektur, welche der eingeführten Vorgehensweise entspricht. Einen besonderen Kernpunkt stellt der systemweite Schutz der Privatsphäre (engl. system privacy) dar. Der systemweite Schutz sensitiver Informationen muss heterogene Komponenten wie Datenspeicher und Kommunikationseinheiten integrieren und stellt daher besondere Anforderungen an einzusetzende Schutzmechanismen. Daraus folgt die Notwendigkeit zur Entwicklung und Implementierung neuer Methoden, welche die Observierung von ortsbezogenen Informationen in komplexen Systemen verhindern. Weitere Informationen unter den Projektseiten des Lehrstuhls oder

122 122 Jahresbericht 2009 Projekt: Prozesse in selbst-organisierenden, verteilten Informationssystemen Verteilung und Ausführung Ansprechpartner: DIPL.-INF. ARTIN AVANES Zusammenarbeit: DFG-Graduiertenkolleg METRIK (GFZ Potsdam, Fraunhofer FIRST, HPI, ZIB, Humboldt-Universität zu Berlin) Forschungsförderung: Deutsche Forschungsgemeinschaft (DFG) Im Rahmen des Graduiertenkollegs METRIK werden in diesem Teilprojekt die Planung, die effiziente Koordination und die robuste Steuerung von Prozessen (Notfallpläne) kurz nach einem Katastrophenfall, wie z.b. einem Erdbeben, untersucht. Modernes Katastrophenmanagement beinhaltet den Einsatz von drahtlosen, selbst-organisierenden Netzen und darauf aufbauende dezentrale Informationssysteme. Die Integration von solchen hochdynamischen, weitgehend autarken und verteilten Netzstrukturen führt zu neuen Herausforderungen bei der Koordination und Steuerung von Prozessen. 1. Limitierte Ressourcekapazitäten: Anders als bei größeren Servern mit ausreichend Prozessor- und Stromleistung, sind die in den Applikationsszenarien betrachteten Ressourcen in ihrer Kapazität limitiert. 2. Dynamische Topologie: Des Weiteren muss man zu jeder Zeit mit dem Ausfall von eingesetzten Ressourcen oder mit neu hinzu kommenden Ressourcen rechnen. Die Topologie der zugrunde liegenden Ausführungsumgebung ist demnach nicht statisch, sondern einer gewissen Dynamik ausgesetzt. 3. Skalierbarkeit: Die Prozessausführung zur Laufzeit sollte skalieren mit steigender Anzahl von neu hinzukommenden Prozessinstanzen. Insbesondere für Anwendungen wie einem effizienten Katastrophenmanagement ist eine skalierbare Ausführung unerlässlich, um Zeitverlust und Verzögerungen zu vermeiden. In der Dissertation werden im Hinblick der oben genannten Herausforderungen mehrere Scheduling-Algorithmen entwickelt. Zunächst wurde als Teil einer präventiven Strategie ein paralleler, heuristischer Verteilungsalgorithmus entwickelt, der komplexere Beschränkungen (Resource Allocation Constraints) bzgl. des Kontroll-/Datenfluss (Control Constraints) wie auch begrenzter Ressourcenkapazität (Cost Constraints) während der Verteilung berücksichtigt. Der Algorithmus besteht aus zwei Schritten: (a) einem Partitionierungsschritt, bei dem zunächst aus einer gegebenen Menge von Prozessen entsprechende Prozesspartitionen gebildet werden und (b) einem Allokationsschritt, bei dem die Aktivitäten einer Partition mittels Constraint- Programming-Techniken auf die vorhandenen Ressourcen verteilt werden. Um gute Partitionen zu erzeugen, werden gegebene Datenflussabhängigkeiten zwischen den Aktivitäten analysiert (Data Links), mit Hilfe derer dann iterativ Partitionen um stark vernetzte Aktivitäten gebildet werden (Graph Growing). Nachdem die Partitionen den Clustern zugewiesen wurden, wird der Allokationsschritt durch mehrere Constraint-Systeme parallel ausgeführt, wobei jeweils ein Constraint-System für ein Cluster definiert wird. Dabei löst ein Constraint-System ein lokales Allokationsproblem für ein Cluster, d.h. der entsprechende Hypergraph wird initialisiert. Ein Hypergraph modelliert die Anforderungen der den Clustern zugewiesenen Aktivitäten, die während der Allokation beachtet werden müssen. Konkret bedeutet die Initialisierung eines Hypergraphen, dass jedes Cluster lokal eine Zuordnung seiner Ressourcen zu den Aktivitäten der zugewiesenen Partition vornimmt, die die Anforderungen und Beschränkungen erfüllen.

123 Datenbanken und Informationssysteme 123 Abb. 10: (a) Abhängige Prozessgraphen (b) Einbettung #1 (Graph Embedding) (c) Einbettung #2 Wir konnten mittels einer ersten prototypischen Implementierung zeigen, dass unser paralleler Algorithmus in der Praxis wesentlich besser skaliert als zentralistische Verfahren. Motiviert durch diese ersten praktischen Resultate haben wir zwei Erweiterungen unserer Partitionierung entwickelt, welche ein polynomiales Laufzeitverhalten des gesamten Schedulingverfahrens garantiert. Die Idee ist dabei, auch die Struktur des entstehenden Hypergraphen während der logischen Partitionierung zu betrachten und gegebenenfalls die Partitionierung dynamisch anzupassen, um eine polynomiale Laufzeit im nachfolgenden physischen Allokationsschritt zu erreichen. Während der Ausführung können Ressourcen ausfallen, so dass Aktivitäten nicht erfolgreich abgeschlossen werden können. Daher bedarf es auch einer reaktiven Strategie während der Ausführungszeit als Ergänzung zu der im ersten Teil beschriebener präventiver Strategie (zur Entwurfszeit). Diesbezüglich haben wir ausgehend von einem hierarchischen Ausführungsmodell - dem sogenannten Ausführungsbaum - definiert, wann eine korrekte Prozessausführung vorliegt. Unsere Korrektheitsdefinition wird insbesondere durch die Sicht auf die involvierten Daten motiviert, die nebenläufig von verschiedenen Aktivitäten gleichzeitig zugegriffen und verarbeitet werden können. Daher steht ein einheitliches Modell zur Serialisierbarkeit (Serializability) und Wiederherstellbarkeit (Recoverability) von nebenläufig ausgeführten Aktivitäten im Fokus unserer Korrektheitskriterien. Ausgehend von diesen Korrektheitskriterien, haben wir ein flexibles Re-Scheduling-Verfahren entwickelt. Es ermöglicht uns, abhängig von dem Fehlerfall zu entscheiden, ob nur Teile des Ausführungsbaums oder alle von dem Ausfall betroffene Bereiche innerhalb eines Ausführungsbaums für die Fehlererholung mit einbezogen werden sollen. Dabei wird aus der Menge der möglichen Kompensationen, diejenige ausgewählt, die die verfügbaren Ressourcen am meisten schont. Diesbezüglich werden alternative Hypergraphen konstruiert (für jede mögliche Kompensation) und diejenige Initialisierung gewählt, die die Anforderungen (Resource Allocation Constraints) am besten erfüllt.

124 124 Jahresbericht 2009 Abb. 11: Verteilte Re-Instanziierung eines Hypergraphen mittels Constraint-Programming Projekt: Anfragebearbeitung über dem Web der Daten Ansprechpartner: DIPL.-INF. OLAF HARTIG Derzeit befindet sich des World Wide Web in einer Transformationsphase von einem Web der Dokumente zu einem Web der Daten. Web-Dokumente werden im Rahmen dieses Prozesses nicht verschwinden. Stattdessen werden sie, neben ihrer bisherigen Rolle, Texte und andere Medieninhalte in einer für menschliche Nutzung aufbereiteten Form zu übermitteln, zukünftig auch der standardisierten Veröffentlichung von Daten auf Basis eines einheitlichen Datenmodells dienen. Die Veröffentlichungsprinzipien, welche auf etablierten Web- Technologien wie HTTP (Hypertext Transfer Protocol) und URIs (Uniform Resource Identifier) beruhen, verlangen, die jeweils angebotenen Daten mit weiteren Daten im Web zu verknüpfen. Die hierfür angewandten Datenverweise sind vergleichbar mit den bekannten Verweisen zwischen Web-Dokumenten, erlauben es jedoch, auf einer konzeptionell tieferen Ebene in die Daten einer Web-Datenquelle direkt auf deren Daten über eine bestimmte Entität zu verweisen. Entsprechend entsteht mit dem Web der Daten ist ein riesiger Datenraum, welcher Daten verschiedenster Anbieter miteinander verbindet. Auf Basis dieses Datenraums entstehen faszinierende, neuartige Möglichkeiten für Web-basierte Anwendungen. Daten verschiedenster Anbieter können miteinander kombiniert werden, lückenhafte Informationen unterschiedlicher Quellen können zu einer vollständigeren Sicht integriert werden, scheinbar widersprüchliche Informationen können gemeinsam analysiert und weiterverarbeitet werden. Um das Potential des Webs der Daten in Anwendungen nutzbar zu machen, beschäftigen wir uns in diesem Projekt mit einer Möglichkeit, strukturierte Anfragen über dem Web auszuführen. Hierbei steht die Frage im Mittelpunkt, wie das Web der Daten als eine riesige, global verteilte Datenbank aufgefasst und angefragt werden kann. Aus dieser Sichtweise ergeben sich neuartige Herausforderungen, welche in existierenden Ansätzen der Anfragebearbeitung in verteilten Szenarien keine Rolle spielen. Der grundlegendste Unterschied besteht in dem fehlenden Wissen über die Existenz und den Inhalt von Daten, welche poten-

125 Datenbanken und Informationssysteme 125 tiell zur Beantwortung einer Anfrage herangezogen werden können. Deshalb beruht der, im Rahmen des Projektes angewandte, verweisbasierte Ansatz zur Anfragebearbeitung nicht auf traditionellen Ansätzen der Anfrageverteilung. Stattdessen werden explizit die Charakteristika des Webs - insbesondere die Existenz von Datenverweisen - ausgenutzt. Die Idee der verweisbasierten Anfragebearbeitung (engl.: link traversal based query processing) ist es, die Anfrageausführung mit dem Verfolgen von Datenverweisen zu kombinieren und somit potentiell relevante Daten während der Ausführung zu entdecken. Hierbei werden jeweils abwechselnd Teile der Anfrage über einer lokalen Datenmenge ausgewertet und die durch entsprechend bestimmte Zwischenergebnisse repräsentierten Datenverweise zur Erweiterung der lokalen Datenmenge genutzt. Während so die Anfrageergebnisse aus der sukzessiven Ergänzung von Zwischenergebnissen um Teillösungen für die verschiedenen Anfrageteile entstehen, wächst die Menge der heruntergeladenen, potentiell relevanten Daten und damit ergibt sich die Möglichkeit weitere Teillösungen zu bestimmen. Ein grundlegendes Merkmal der Idee ist, dass während des skizzierten Vorgangs nicht beliebige Datenverweise in den entdeckten Daten verfolgt werden. Stattdessen wird das Web mittels der, durch Zwischenergebnisse repräsentierten Verweise gezielt traversiert. Durch die Endlichkeit der so verfolgbaren Verweise wird die Bearbeitung von Anfragen in jedem Fall terminieren. Aufgrund der rekursiven Natur des Ansatzes ist jedoch nicht immer eine zumutbare Zeit bis zum Abschluss der vollständigen Abarbeitung garantiert. Weiterhin ist es selbst im Fall der vollständigen Rekursion möglich, dass korrekte Anfrageergebnisse nicht gefunden werden, da auf Grund fehlender Verweise relevante Daten nicht entdeckt werden. Entsprechend stellt sich bei der verweisbasierten Anfragebearbeitung die Frage nach Ansätzen möglichst vollständige Ergebnismengen mit einem möglichst geringen Aufwand zu finden. Im Rahmen der Entwicklung der Semantic Web Client Library untersuchen wir einen Ansatz die verweisbasierte Anfragebearbeitung umzusetzen und dabei eine eingeschränktere Ergebnismenge zu Gunsten einer vorhersagbaren und möglichst effizienten Realisierung zu tolerieren. Dieser Ansatz beruht auf der Idee einer iteratorbasierten Pipeline, wie sie auch im Rahmen klassischer Anfragebearbeitung häufig eingesetzt wird. Hierbei kommt eine Kette von Iteratoren zur Anwendung, bei der jeder Iterator für einen Anfrageteil zuständig ist, wodurch sich explizit eine feste Auswertungsreihenfolge ergibt. Während die Verkettung eine effiziente Ergebnisberechnung ermöglicht, da Zwischenergebnisse nicht materialisiert werden müssen, kann es durch die Kombination von Anfrageausführung und Verweisverfolgung zu Verzögerungen bei der Abarbeitung kommen. Diese Verzögerungen entstehen, da einzelne Anfrageteile erst abgearbeitet werden, wenn zugehörige Verweise verfolgt und die entsprechenden Daten in die lokale Datenmenge geladen wurden. Um die Menge von notwendigen Verzögerungen zu minimieren und deren negativen Auswirkungen auf die Gesamtausführungsdauer zu reduzieren, wurden Konzepte entwickelt, mit denen die Gesamtausführungsdauer im Gegensatz zu einer naiven iteratorbasierten Umsetzung halbiert werden konnte. Die effektivste Idee ist die Erweiterung des Iterator-Paradigmas um eine Postpone-Funktion, welche es Iteratoren ermöglicht, das zuletzt vom Vorgängeriterator erhaltene Objekt zeitweilig zurückzuweisen und damit dessen Verarbeitung zurückzustellen.

126 126 Jahresbericht 2009 Abb. 12: Karte der Datenbankprofessoren in Deutschland basierend auf Daten aus dem Web Um zu demonstrieren, dass die verweisbasierte Anfragebearbeitung in Web-Anwendungen eingesetzt werden kann, wurde der Prototyp einer neuartigen Mash-up-Anwendung entwickelt. Diese Anwendung stellt in einer Karte den Sitz deutscher Datenbankprofessoren dar. Die Menge der anzuzeigenden Professoren kann auf Professoren mit bestimmten Forschungsinteressen eingeschränkt werden. Nach Auswahl eines beliebigen Professors werden dessen Publikationen unterhalb der Karte angezeigt. Die Daten, welche in dieser Anwendung visualisiert werden, sind Ergebnisse von Anfragen über dem Web der Daten. Dadurch ist es möglich, dass Professoren ihre persönlichen Daten selbstständig pflegen und darin beispielsweise auf Daten zu ihren Publikationen in einer externen Datenquelle verweisen. Mit dieser Anwendung konnten wir den ersten Preis bei der Scripting Challenge des fünften Workshop "Scripting for the Semantic Web" gewinnen. Unsere zukünftige Arbeit in diesem Projekt wird darin bestehen, Konzepte zu entwickeln, wie eine möglichst optimale Reihenfolge der Iteratorverkettung gefunden werden kann, um die Menge an Anfrageergebnissen unter den gegebenen Einschränkungen zu maximieren. Weiterhin werden wir untersuchen, wie die lokale Datenmenge nach der Abarbeitung einer Anfrage als Basis für folgende Anfragen genutzt werden kann. Dabei soll einerseits die Anfrageausführungsdauer durch Vermeidung wiederholten Herunterladens von Daten verringern werden. Andererseits könnte dadurch die Vollständigkeit der Anfrageergebnisse erhöht werden, da relevante Daten in die Auswertung einbezogen werden könnten, welche durch die Anfragebearbeitung nicht gefunden werden.

127 Datenbanken und Informationssysteme 127 Teilprojekt: Web Data Provenance - Herkunft von Daten im Web Ansprechpartner: DIPL.-INF. OLAF HARTIG Das entstehende Web der Daten eröffnet vielfältige Möglichkeiten für neuartige und innovative Anwendungen, welche Daten verschiedenster Quellen miteinander kombinieren und verarbeiten. Die Offenheit des Webs ermöglich es jedem, gleichberechtigt teilzunehmen, sich und seine Daten einzubringen und damit den globalen Datenraum zu bereichern. Damit entsteht aber auch die Notwendigkeit, die zugreifbaren Daten vor ihrer Verarbeitung auf Basis personalisierter Regeln bezüglich ihrer Relevanz, Aktualität, Zuverlässigkeit und anderer Merkmale zu filtern. Eine Grundlage für die Entwicklung entsprechender Bewertungsund Beurteilungsmethoden sind Informationen über die Herkunft und Historie der Daten. Entsprechend setzt sich dieses Projekt mit der Herkunft von Web-Daten auseinander. In diesem Rahmen wurde untersucht, wodurch die Herkunft von Web-Daten charakterisiert ist, wie die Herkunft repräsentiert werden kann und wie Herkunftsinformationen zu einem konkreten Datum ermittelt und veröffentlicht werden können. Die Grundlage des Projekts bildet ein Herkunftsmodell für Web-Daten. Das Modell beruht auf der Idee, die Herkunft jedes Datums durch einen Graph zu repräsentieren. Die Knoten eines solchen Herkunftsgraphen entsprechen Herkunftselementen, welche die verschiedenen, an der Herkunft beteiligten Entitäten wiederspiegeln. Die Kanten repräsentieren die Beziehungen, in der die jeweiligen Herkunftselemente standen. Das entwickelte Herkunftsmodell definiert eine grob-granulare Unterteilung der möglichen Typen von Herkunftselementen und der möglichen Beziehungen zwischen diesen Typen. Für die Entwicklung dieses Modells wurden existierende Ansätze zur Beschreibung der Herkunft von Daten untersucht. Diese Ansätze betrachten zumeist abgeschlossene Systeme und konzentrieren sich entsprechend auf verschiedene Aspekte der Datenerzeugung. Bei der Erzeugung von Web-Daten muss jedoch davon ausgegangen werden, dass ein Teil der, für die Erzeugung genutzten Ursprungsdaten von Datenquellen aus dem Web bezogen wurden. Auch diese Ursprungsdaten können wieder auf Basis von Daten aus dem Web erzeugt worden sein. Entsprechende Informationen können für die Beurteilung der Daten relevant sein. Deshalb enthält das entwickelte Herkunftsmodell auch Elementtypen für die verschiedenen Aspekte des Web-basierten Zugriffs und Transfers der Daten. Auf Basis des Herkunftsmodells wurde untersucht, welche Informationen über die Herkunft eines Datums aus dem Web tatsächlich ermittelt werden können. Hierbei zeigte sich, dass die wenigsten Datenquellen im Web herkunftsrelevante Metadaten zur Verfügung stellen, was unter anderem an fehlenden Möglichkeiten zur Erzeugung und Beschreibung solcher Metadaten liegt. Aus diesem Grund wurde das Herkunftsmodell zu einer leichtgewichtigen Ontologie - dem Provenance Vocabulary - weiterentwickelt. Hiermit kann, mittels Web- Daten, die Herkunft anderer Web-Daten beschrieben werden. Das Provenance Vocabulary wird mittlerweile in mehreren Projekten eingesetzt. Um die Verbreitung noch zu steigern und die Menge an herkunftsrelevanten Metadaten im Web zu erhöhen, wurden im Rahmen des Projekts mehrere Werkzeuge zur Veröffentlichung von Web-Daten um entsprechende Metadatenkomponenten erweitert. Mit dem Herkunftsmodell und den entwickelten Möglichkeiten zur Erzeugung und Beschreibung herkunftsrelevanter Metadaten wurden die Grundlagen für eine herkunftsbasierte Bestimmung von Merkmalen der Informationsqualität von Web-Daten geschaffen. Darauf aufbauend werden wir uns zukünftig mit der Entwicklung und der Anwendung entsprechender Bewertungsmethoden beschäftigen.

128 128 Jahresbericht 2009 Teilprojekt: Leistungsorientiertes RDF-Managementsystem Ansprechpartner: DIPL.-INF. RALF HEESE Der überwiegende Teil der heute verfügbaren RDF-Management-Systeme basiert auf relationaler Datenbanktechnologie. Obwohl sich das relationale Datenmodell für tabellarisch darstellbare Geschäftsdaten bewährt hat, eignet sich es aufgrund des graphbasierten Datenmodells für RDF-Daten nur bedingt. Ohne für Graphen geeignete Daten- und Indexstrukturen müssen für die Bearbeitung von Anfragen häufig RDF-Datentabellen miteinander verknüpft werden (Join) aber gerade diese Operation ist besonders kostenintensiv. Im vergangenen Jahr wurde an einem nativen RDF-Management-System geforscht, das RDF-Daten ihrem Datenmodell folgend als Graphen verwaltet. D.h. die Daten werden nicht wie bisher tabellarisch verwaltet, sondern der Graph wird direkt auf Datenbankseiten abgebildet. Dem System liegen dabei mehrere Annahmen über die Struktur der Daten und der Art der Anfragen zugrunde, die aus dem Datenmodell und der Analyse von Anfrage- Logdateien abgeleitet werden können. Beispielsweise können in einem RDF-Graphen benannte Knoten (Ressource) nur einmal auftreten, da die Bezeichnung einer Ressource (URI) eindeutig sein muss. Des Weiteren kann angenommen werden, dass eine Ressource nur mit wenigen anderen in Beziehung steht. Abbildung 13 illustriert die Speicherung eines Graphen auf Datenbankseiten: 1) Wenn eine Ressource als Subjekt in einer Aussage auftritt, so ist dieser genau eine Datenbankseite zugeordnet; 2) Alle Aussagen mit derselben Ressource als Subjekt werden auf derselben Datenbankseite gehalten wie das Subjekt selbst; 3) Ressourcen desselben Typs (rdf:type) werden in Cluster zusammengefasst (z.b. P1 enthält nur Ressourcen vom Typ Artikel). Aufgrund dieser nativen Speicherung der RDF-Daten ergeben sich für die Bearbeitung von P1 <uri_1> issued journal type 1990 P2 <uri_2> seealso <uri_3> title ref:titel issued <uri_2> Artikel 1995 type Journal <uri_4> type Artikel Abb. 13: Native Speicherung eines RDF-Graphen auf Datenbankseiten Anfragen neue Strategien: 1) Für Anfragen mit bekanntem Subjekt muss nur eine einzelne Datenbankseite geladen werden; 2) Sternanfragen (Tripelmuster mit demselben Subjekt) lassen sich ohne Join beantworten, da die dafür erforderlichen Aussagen gruppiert abgelegt sind; 3) Wenn der Typ einer Variablen abgeleitet werden kann, sind die zuzugreifenden Datenbankseiten bekannt. Weitere Forschungsfragen beschäftigen sich mit der Weiterentwicklung des obigen Ansatzes. Beispielsweise könnte die Navigation entlang von Pfaden durch eine geeignete Zusammenfassung geeigneter Ressourcen auf Datenbankseiten, die Anzahl der Beziehungen zwischen Datenbankseiten minimiert werden. Bezogen auf das obige Beispiel bedeutete dies im Idealfall, dass alle Objekte die, mit Subjekten von P1 über die Eigenschaft journal in Beziehung stehen, auf der Seite P2 zu finden wären. Auch das Speichern des semantischen Abschlusses einer Ressource auf einer Datenbankseite könnte zu einer effizienteren

129 Datenbanken und Informationssysteme 129 Anfragebeantwortung führen, z.b. zu einer Person wird auch die komplette Adresse auf derselben Seite abgelegt. Projekt: Datenbankgestützte Online-De-Novo Sequenzierung von Biopolymeren Ansprechpartner: DR. STEPHAN HEYMANN, DIPL.-INF. (FH) KATJA THAM Zusammenarbeit: Lehrstuhl Strukturanalytik und Umwelt-Chemie (Prof. Linscheid, Institut für Chemie) Das DB Novo-Projekt ist ein mittlerweile ins dritte Jahr gehendes Kooperationsprojekt der Lehrstühle "Strukturanalytik und Umweltchemie" (Institut für Chemie) und "Datenbanken und Informationssysteme" (Institut für Informatik). Gemeinsam wird in dem Projekt - basierend auf einer datenbankgestützten Online- Datenanalyse und Echtzeit-Rückkopplung - eine Methode zur automatisierten und zielorientierten Messgerätesteuerung am Beispiel eines Massenspektrometers entwickelt. Das Hauptziel der Analyse biologischer Proben besteht darin, alle einzelnen Bestandteile (nachfolgend als Analyten bezeichnet) zu identifizieren. Im Rahmen dieses Projektes nutzen wir ein Massenspektrometer, welches es uns ermöglicht, die Masse zu Ladung einzelner Analyten, sowie deren Intensität (einem sogenannten Massenspektrum) zu ermitteln. Im Rahmen eines Experimentes wird die Probe über ein vorgelagertes Trennsystem dem Messgerät zugeführt und resultiert in einem chronologischen Strom detektierbarer Signale. Es handelt sich um zeitkritische Messungen, da 1) jeder Stoff experimentbedingt nur in einem beschränkt Zeitfenster verfügbar ist, 2) sich zu einem Zeitpunkt (trotz vorgeschaltetem Trennsystem) mehrere Stoffe überlagern können und 3) Massenspektrometer nur sequenzielle Messungen zulassen. Aufwändige, zeitintensive Berechnungen die für eine gezielte Beeinflussung des Experimentes zur Realzeit notwendig wären, lassen eine schnelle Auswertung von Messdaten zur Laufzeit nicht zu. Derzeit am Markt verwendete, standardisierte Messstrategien unterliegen deshalb starren Mustern, die sich bspw. an Signalmaxima orientieren und unabhängig von den erreichten Messergebnissen vor Experimentbeginn festgelegt werden müssen. Daher ist es bisher nicht möglich, den Messvorgang zur Laufzeit des Experimentes gezielt zu beeinflussen und damit eine erfolgreiche, vollständige Aufklärung der untersuchten Analyten sicherzustellen. Unsere Idee ist es daher, den möglichen Ergebnisraum komplett vorzuberechnen und leistungsfähige Datenbanksysteme zu nutzen, um mittels schneller Anfragen an diese vorberechneten Datenbasis eine Auswertung der Messdaten in nahe Realzeit zu ermöglichen. Entgegen bisherigen statischen Messstrategien, die sich lediglich an einfachen Datenbezügen wie bspw. Signalhöhe orientieren um eine Auswahl zu treffen, erlaubt uns diese neuartige Herangehensweise, komplexe Datenbezüge in Beziehung zueinander zu setzen und bereits zur Laufzeit Informationen zu extrahieren, um einen gezielten Einfluss auf den Experimentverlauf zu nehmen. Im Zusammenarbeit mit einem der führenden Massenspektrometrie-Hersteller Deutschlands konnte die Tragweite dieses neuartigen, dynamischen Eingriffs in den Messverlauf während zweier Forschungsaufenthalten experimentell nachgewiesen werden. Erste Gespräche mit dem Ziel einer nachhaltigen, engen Zusammenarbeit mit Partnern aus der Wirtschaft werden zeitnah folgen und zeigen deutlich den realweltlichen Bezug dieses Projektes.

130 130 Jahresbericht 2009 Projekt: Entwicklung eines Systems zur Rückverfolgbarkeit und individuellen genetischen Charakterisierung ganzer Rinderpopulationen zur Erhöhung der Tiergesundheit und Lebensmittelsicherheit Ansprechpartner: STEPHAN HEYMANN Zusammenarbeit: Agrobiogen GmbH Hilgertshausen-Tandern (Konsortialführer), Nexttec GmbH, Leverkusen, Bactochem Ltd., Ness-Ziona und Agricultural Research Organization, Institute of Animal Sciences, Dept. of Quantitative and Molecular Genetics, Rehovot, Israel Forschungsförderung: Bundesministerium für Bildung und Wissenschaft, FKZ: Bio-Disc , Laufzeit 01/06 bis 08/09 Seit der BSE-Krise sind die Anforderungen an die Qualität landwirtschaftlicher Produkte und an die Lebensmittelsicherheit zu einem wesentlichen Faktor des Verbraucherschutzes geworden. Neben Identitäts- und Abstammungsnachweisen verlangt der transnationale Handel mit Zucht- und Schlachttieren die Kontrolle tückischer viraler Krankheitserreger in Nutztierbeständen. Im Rahmen des Projekts oblagen dem Lehrstuhl DBIS mehrere Aufgaben 1. Die syntaktische Analyse der Referenzsequenz des Rindergenoms Die Aufgabe bestand in der positionalen Verwaltung von rd. 4 Milliarden Sequenzfragmenten in einer relationalen Datenbank, aus der der Nutzer mit Hilfe einer interaktiven Applikation nach frei wählbaren Kriterien Auswahlen treffen kann. Eine solche Auswahl ist idealtypisch, wenn sie die experimentelle Erfassung der individuellen genetischen Signatur jedes Rindes erlaubt. Abb. 14: Screenshot eines Arbeitsvorgangs bei der Ableitung molekularbiologischer Nachweiskomponenten an der Nutzerschnittstelle der Datenbank Bos Taurus

131 Datenbanken und Informationssysteme 131 Abb. 15: Beispiel von Syntheseprodukten aus einer Polymerase-Ketten-Reaktion (PCR) zur Anreicherung der DNA-Abschnitte mit den individuellen Unterscheidungsmerkmalen einzelner Tiere. (Abschlussbericht Bio-Disc 2 entnommen) Die Güte der Auswahl wurde verifiziert, indem die Projektpartner aus isolierter Rinder- DNA im Experiment diejenigen Abschnitte hunderttausendfach vermehrt und anschließend molekulardiagnostisch charakterisiert haben, hinsichtlich derer sich ein Tier von anderen unterscheidet. 2. Rechnergestützter Nachweis viraler Keime, die zu hohen ökonomischen Verlusten führen Die Infektionsbiologie des Virus der Bovinen Virusdiarrhoe (BVDV) enthält Unsichtbarkeitsfenster und diktiert daher die Abkehr von klassischen serologischen Screeningmethoden. Die lückenlose BVDV Diagnostik wurde daher auf Nukleinsäurebasis umgestellt. In der Praxis wird die Lösung dieser Aufgabe dadurch erschwert, dass Hunderte Virusstämme von Mutanten existieren, die alle von einem Nachweissystem erfasst werden müssen. Abb. 16 zeigt links die Stammbaumanalyse von 500 Virusvarianten und rechts die Verteilung der Mutationen entlang eines BVDV Sequenzabschnitts. Abb. 16: Stammbaumanalyse (links), Mutationshäufigkeitsverteilung (rechts oben) und Konsensus- Sequenz (unten rechts) für den Nachweis von BVDV Im Ergebnis der Analyse wurden drei Sequenzabschnitte identifiziert, die für die molekulare Diagnostik in Frage kommen. Einer davon (im unteren Teil der Abbildung 16 dargestellt) erwies sich geeignet für einen sensitiven Pahogennachweis.

Informationen in Leichter Sprache

Informationen in Leichter Sprache Informationen in Leichter Sprache Das Elite-Netzwerk Bayern kümmert sich um kluge Köpfe! Die Internet-Seite vom Elite-Netzwerk Bayern heißt: www.elitenetzwerk.bayern.de Was ist das Elite-Netzwerk Bayern?

Mehr

INHALTE DAUER ABSCHLÜSSE ZUGANGSVORAUSSETZUNGEN STUDIENBEGINN VORLESUNGSZEIT UND PRÜFUNG

INHALTE DAUER ABSCHLÜSSE ZUGANGSVORAUSSETZUNGEN STUDIENBEGINN VORLESUNGSZEIT UND PRÜFUNG DAUER ABSCHLÜSSE ZUGANGSVORAUSSETZUNGEN STUDIENBEGINN VORLESUNGSZEIT UND PRÜFUNG 9 Semester mit integrierter Ausbildung zur Fachinformatikerin/zum Fachinformatiker der Fachrichtung Anwendungsentwicklung

Mehr

Angewandte Informatik

Angewandte Informatik Informatik Angewandte Informatik Theorie und Praxis im Gleichklang Das Studium der Angewandten Informatik ist im Gegensatz zu zum Beispiel Geo-Informatik oder Wirtschafts-Informatik keine Bindestrich-Informatik,

Mehr

we focus on students Fachhochschule Dortmund University of Applied Sciences and Arts

we focus on students Fachhochschule Dortmund University of Applied Sciences and Arts Dualer Studiengang Softwaretechnik Fördern und fordern für Qualität we focus on students Fachhochschule Dortmund University of Applied Sciences and Arts WARUM SOFTWARETECHNIK STUDIEREN? Der Computer ist

Mehr

Die Zukunft der Zukunftsforschung im Deutschen Management: eine Delphi Studie

Die Zukunft der Zukunftsforschung im Deutschen Management: eine Delphi Studie Die Zukunft der Zukunftsforschung im Deutschen Management: eine Delphi Studie Executive Summary Zukunftsforschung und ihre Methoden erfahren in der jüngsten Vergangenheit ein zunehmendes Interesse. So

Mehr

THE KNOWLEDGE PEOPLE. CompanyFlyer.indd 1 07.03.2016 11:48:05

THE KNOWLEDGE PEOPLE. CompanyFlyer.indd 1 07.03.2016 11:48:05 THE KNOWLEDGE PEOPLE CompanyFlyer.indd 1 07.03.2016 11:48:05 BE SMART IT-CONSULTING Smartes IT-Consulting für die Zukunft: Agilität, Dynamische IT, Komplexitätsreduzierung, Cloud, Industrie 4.0, Big Data

Mehr

Anbieter. Hochschule. Zittau/Görlitz. (FH) - University. of Applied. Sciences. Angebot-Nr. Angebot-Nr. 00095232. Bereich. Studienangebot Hochschule

Anbieter. Hochschule. Zittau/Görlitz. (FH) - University. of Applied. Sciences. Angebot-Nr. Angebot-Nr. 00095232. Bereich. Studienangebot Hochschule Mechatronik (Master) in Zittau Angebot-Nr. 00095232 Bereich Angebot-Nr. 00095232 Anbieter Studienangebot Hochschule Termin Permanentes Angebot Hochschule Zittau/Görlitz 3 Semester Tageszeit Ganztags Ort

Mehr

Arbeiten Sie gerne für die Ablage?

Arbeiten Sie gerne für die Ablage? University of Applied Sciences Arbeiten Sie gerne für die Ablage? Ihr Studium kommt nun in die Schlussphase, denn Sie haben sich gerade zur Abschlussarbeit angemeldet. Auch wenn das Ende Ihres Studiums

Mehr

IT-Governance und Social, Mobile und Cloud Computing: Ein Management Framework... Bachelorarbeit

IT-Governance und Social, Mobile und Cloud Computing: Ein Management Framework... Bachelorarbeit IT-Governance und Social, Mobile und Cloud Computing: Ein Management Framework... Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science (B.Sc.) im Studiengang Wirtschaftswissenschaft

Mehr

Virtual Roundtable: Business Intelligence - Trends

Virtual Roundtable: Business Intelligence - Trends Virtueller Roundtable Aktuelle Trends im Business Intelligence in Kooperation mit BARC und dem Institut für Business Intelligence (IBI) Teilnehmer: Prof. Dr. Rainer Bischoff Organisation: Fachbereich Wirtschaftsinformatik,

Mehr

Kommunikation, Information und mobile verteilte Systeme (KIS)

Kommunikation, Information und mobile verteilte Systeme (KIS) Qualifikationsziele Heutzutage sind nahezu alle wichtigen Informationssysteme verteilt, d.h., fast immer erbringt nicht nur ein Computer alleine eine bestimmte Dienstleistung, sondern es sind mehrere Rechner,

Mehr

Institut für Computational Engineering ICE. N ä h e r d ra n a m S ys t e m d e r Te c h n i k d e r Z u ku n f t. w w w. n t b.

Institut für Computational Engineering ICE. N ä h e r d ra n a m S ys t e m d e r Te c h n i k d e r Z u ku n f t. w w w. n t b. Institut für Computational Engineering ICE N ä h e r d ra n a m S ys t e m d e r Te c h n i k d e r Z u ku n f t w w w. n t b. c h Rechnen Sie mit uns Foto: ESA Das Institut für Computational Engineering

Mehr

Die Informatik-Studiengänge

Die Informatik-Studiengänge Die Informatik-Studiengänge Wissenswertes für Erstsemestler Prof. Dr. Till Tantau Studiendekan MINT-Studiengänge 11. Oktober 2010 Gliederung Wie sollten Sie richtig studieren? Der Bachelor-Studiengang

Mehr

.. für Ihre Business-Lösung

.. für Ihre Business-Lösung .. für Ihre Business-Lösung Ist Ihre Informatik fit für die Zukunft? Flexibilität Das wirtschaftliche Umfeld ist stärker den je im Umbruch (z.b. Stichwort: Globalisierung). Daraus resultierenden Anforderungen,

Mehr

Master-Studium Informatik

Master-Studium Informatik an der Heinrich-Heine Universität Düsseldorf Prof. Dr. Michael Leuschel Heinrich-Heine-Universität Düsseldorf Institut für Informatik 8. Oktober 2012 Prof. Dr. Michael Leuschel 2 Informatik-Studium an

Mehr

Institut für Informatik

Institut für Informatik Institut für Informatik Peter Forbrig Institutsdirektor 22. 5. 2013 UNIVERSITÄT ROSTOCK INSTITUTE FÜR INFORMATIK FACHTAGUNG-DATENSCHUTZ 2013 1 Herzlich willkommen zur Datenschutz-Fachtagung 2013 Professuren

Mehr

Bachelor of Science Wirtschaftsinformatik. Wirtschaftsinformatik. Bachelor of Science

Bachelor of Science Wirtschaftsinformatik. Wirtschaftsinformatik. Bachelor of Science Bachelor of Science Wirtschaftsinformatik Wirtschaftsinformatik Bachelor of Science Arbeitgeberin Stadt Köln Köln ist mehr als eine Stadt: Köln ist ein Lebensgefühl! Eine pulsierende, lebendige Stadt mit

Mehr

Übergang vom Diplom zum Bachelor

Übergang vom Diplom zum Bachelor Übergang vom Diplom zum Bachelor Da die Fächer des Bachelorstudienganges größtenteils aus Fächern des Diplomstudiengangs hervorgegangen sind, können sich die Studierenden diese Fächer aus dem Diplom für

Mehr

Multi-Agent Systems. Agentensysteme. Industry 4.0 Machine Learning. Energy and Smart Grids

Multi-Agent Systems. Agentensysteme. Industry 4.0 Machine Learning. Energy and Smart Grids Multi-Agent Systems VDI/VDE-Gesellschaft Mess- und Automatisierungstechnik (GMA) Fachausschuss 5.15 Agentensysteme Industry 4.0 Machine Learning Material Handling Energy Management Production Control Operations

Mehr

Europäischer Fonds für Regionale Entwicklung: EFRE im Bundes-Land Brandenburg vom Jahr 2014 bis für das Jahr 2020 in Leichter Sprache

Europäischer Fonds für Regionale Entwicklung: EFRE im Bundes-Land Brandenburg vom Jahr 2014 bis für das Jahr 2020 in Leichter Sprache Für Ihre Zukunft! Europäischer Fonds für Regionale Entwicklung: EFRE im Bundes-Land Brandenburg vom Jahr 2014 bis für das Jahr 2020 in Leichter Sprache 1 Europäischer Fonds für Regionale Entwicklung: EFRE

Mehr

Die Universität stellt sich vor

Die Universität stellt sich vor Die Universität stellt sich vor Prof. Dr. Till Tantau. Juni Überblick Die Universität zu Lübeck Exzellente Forschung...... führt zu exzellenter Lehre Die Universität in Zahlen Studierende. Professoren

Mehr

Individuelles Bachelorstudium. Software Engineering for Physics

Individuelles Bachelorstudium. Software Engineering for Physics Individuelles Bachelorstudium Software Engineering for Physics 1 Qualifikationsprofil Das individuelle Bachelorstudium Software Engineering for Physics vermittelt eine breite, praktische und theoretische

Mehr

Bachelor- und Master-Studium Informatik

Bachelor- und Master-Studium Informatik Bachelor- und Master-Studium Informatik Wissenswertes für Erstsemestler Prof. Dr. Till Tantau Studiengangsleiter MINT-Studiengänge 8. Oktober 2012 Gliederung Wie sollten Sie richtig studieren? Der Bachelor-Studiengang

Mehr

Informatik studieren an der Universität zu Lübeck

Informatik studieren an der Universität zu Lübeck Informatik studieren an der Universität zu Lübeck Prof. Dr. Till Tantau Studiendekan Technisch-Naturwissenschaftliche Fakultät Universität zu Lübeck Das Informatik-Studium an der Uni Lübeck...... ist angewandter.

Mehr

Spezialisierungskatalog

Spezialisierungskatalog Spezialisierungskatalog Inhaltsverzeichnis: 1. Friedrich Schiller Universität 2. TU Ilmenau 3. FH Erfurt 4. FH Jena 5. FH Nordhausen 6. FH Schmalkalden 7. BA Gera 8. BA Eisenach 1. Friedrich-Schiller-Universität

Mehr

Outsourcing und Offshoring. Comelio und Offshoring/Outsourcing

Outsourcing und Offshoring. Comelio und Offshoring/Outsourcing Outsourcing und Offshoring Comelio und Offshoring/Outsourcing INHALT Outsourcing und Offshoring... 3 Comelio und Offshoring/Outsourcing... 4 Beauftragungsmodelle... 4 Projektleitung vor Ort und Software-Entwicklung

Mehr

Unsere Forschungsschwerpunkte Synthetische Biologie: Biologie der Stressantwort: Strahlenbiologie:

Unsere Forschungsschwerpunkte Synthetische Biologie: Biologie der Stressantwort: Strahlenbiologie: Foto: Andreas Arnold Unsere Forschungsschwerpunkte Synthetische Biologie: Im Fachgebiet Synthetische Biologie arbeiten Biologen, Chemiker und Ingenieure zusammen, um biologische Systeme zu erzeugen, die

Mehr

Management von Informationssystemen

Management von Informationssystemen R. Haux, A. Lagemann, P. Knaup, P. Schmücker, A. Winter Management von Informationssystemen Analyse, Bewertung, Auswahl, Bereitstellung und Einführung von Informationssystemkomponenten am Beispiel von

Mehr

Biomedizinische Technik

Biomedizinische Technik university of applied sciences Biomedizinische Technik Bachelor of Science Fachbereich 04 KMUB Campus Gießen Biomedizinische Technik Der Bachelorstudiengang Biomedizinische Technik Das Studium der Biomedizinischen

Mehr

Informatik und Informationstechnik (IT)

Informatik und Informationstechnik (IT) Informatik und Informationstechnik (IT) Abgrenzung Zusammenspiel Übersicht Informatik als akademische Disziplin Informations- und Softwaretechnik Das Berufsbild des Informatikers in der Bibliothekswelt

Mehr

SharePoint Portal für eine effiziente Zusammenarbeit

SharePoint Portal für eine effiziente Zusammenarbeit Portal für eine effiziente Zusammenarbeit SharePoint Zusammenarbeit im Unternehmen Die Informationstechnologie, die Mitarbeitern dabei hilft mit ihren Kollegen während der täglichen Arbeit leicht und schnell

Mehr

Prozessbewertung und -verbesserung nach ITIL im Kontext des betrieblichen Informationsmanagements. von Stephanie Wilke am 14.08.08

Prozessbewertung und -verbesserung nach ITIL im Kontext des betrieblichen Informationsmanagements. von Stephanie Wilke am 14.08.08 Prozessbewertung und -verbesserung nach ITIL im Kontext des betrieblichen Informationsmanagements von Stephanie Wilke am 14.08.08 Überblick Einleitung Was ist ITIL? Gegenüberstellung der Prozesse Neuer

Mehr

Informatik an der LMU

Informatik an der LMU 2009 Informatik an der LMU Priv.-Doz. Dr. Studiengangskoordinator Themen des Vortrages Was ist Informatik? Sollte ich Informatik studieren? Informatik-Studiengänge an der LMU Warum Informatik an der LMU

Mehr

Organisatorisches. Informatik II Informationen und Daten. Organisatorisches. Organisatorisches. Rainer Schrader. 13. Oktober 2008

Organisatorisches. Informatik II Informationen und Daten. Organisatorisches. Organisatorisches. Rainer Schrader. 13. Oktober 2008 Dozent: Prof. Dr. Rainer Schrader Informatik II Informationen und Daten Rainer Schrader Zentrum für Angewandte Informatik Köln 13. Oktober 2008 Tel.: 470-6030 email: schrader@zpr.uni-koeln.de Sprechstunde:

Mehr

Profil der Wirtschaftsinformatik

Profil der Wirtschaftsinformatik Profil der Wirtschaftsinformatik WKWI und GI FB WI * Die folgenden Ausführungen formulieren das Profil der Wirtschaftsinformatik im deutschsprachigen Raum, wie es von der wissenschaftlichen Gemeinschaft,

Mehr

Lehrveranstaltungen SS 2012

Lehrveranstaltungen SS 2012 Lehrveranstaltungen SS 2012 Grundlagenmodule der Informatik (1. - 4. Fachsemester Bachelor) Modul: Grundlagen der Technischen Informatik (Informatik II) Creditpoints: 10 Aufnahmekapazität für Studium Universale.

Mehr

Agile Vorgehensmodelle in der Softwareentwicklung: Scrum

Agile Vorgehensmodelle in der Softwareentwicklung: Scrum C A R L V O N O S S I E T Z K Y Agile Vorgehensmodelle in der Softwareentwicklung: Scrum Johannes Diemke Vortrag im Rahmen der Projektgruppe Oldenburger Robot Soccer Team im Wintersemester 2009/2010 Was

Mehr

TTS - TinyTimeSystem. Unterrichtsprojekt BIBI

TTS - TinyTimeSystem. Unterrichtsprojekt BIBI TTS - TinyTimeSystem Unterrichtsprojekt BIBI Mathias Metzler, Philipp Winder, Viktor Sohm 28.01.2008 TinyTimeSystem Inhaltsverzeichnis Problemstellung... 2 Lösungsvorschlag... 2 Punkte die unser Tool erfüllen

Mehr

Modellierung verteilter Systeme Grundlagen der Programm und Systementwicklung

Modellierung verteilter Systeme Grundlagen der Programm und Systementwicklung Modellierung verteilter Systeme Grundlagen der Programm und Systementwicklung Wintersemester 2009/10 Prof. Dr. Dr. h.c. Manfred Broy Unter Mitarbeit von Dr. K. Spies, Dr. M. Spichkova, L. Heinemann, P.

Mehr

Content Management System mit INTREXX 2002.

Content Management System mit INTREXX 2002. Content Management System mit INTREXX 2002. Welche Vorteile hat ein CM-System mit INTREXX? Sie haben bereits INTREXX im Einsatz? Dann liegt es auf der Hand, dass Sie ein CM-System zur Pflege Ihrer Webseite,

Mehr

Hans-Jürgen Appelrath, Dietrich Boles, Volker (laus, Ingo Wegener. Starthilfe Informatik

Hans-Jürgen Appelrath, Dietrich Boles, Volker (laus, Ingo Wegener. Starthilfe Informatik Hans-Jürgen Appelrath, Dietrich Boles, Volker (laus, Ingo Wegener Starthilfe Informatik Hans-Jürgen Appelrath, Dietrich Boles, Volker Claus, Ingo Wegener Starthilfe Informatik 2., durchgesehene Auflage

Mehr

Masterstudiengänge am Institut für Informatik

Masterstudiengänge am Institut für Informatik Masterstudiengänge am Institut für Informatik Hintergrund: Informatikerausbildung für Wissenschaft und Industrie im Informationszeitalter wird die Informatik immer stärker zur Schlüsseldisziplin am Arbeitsmarkt

Mehr

Bioinformatik: Hype oder Hoffnung?

Bioinformatik: Hype oder Hoffnung? Bioinformatik: Hype oder Hoffnung? Florian Markowetz Max-Planck-Institut für Molekulare Genetik Computational Molecular Biology Berlin Career Nights AKG Bensheim, 28. Januar 2005 1 Florian Markowetz, Bioinformatik:

Mehr

Beispiel-Musterstudienpläne

Beispiel-Musterstudienpläne Beispiel-Musterstudienpläne Dieser Anhang bezieht sich auf Anhang 3 der Studienordnung, in der die Prinzipien zur Erstellung von Musterstudienplänen beschrieben sind, und enthält jeweils drei Beispiele

Mehr

SSI WHITE PAPER Design einer mobilen App in wenigen Stunden

SSI WHITE PAPER Design einer mobilen App in wenigen Stunden Moderne Apps für Smartphones und Tablets lassen sich ohne großen Aufwand innerhalb von wenigen Stunden designen Kunde Branche Zur Firma Produkte Übersicht LFoundry S.r.l Herrngasse 379-381 84028 Landshut

Mehr

Informatik studieren an der Universität zu Lübeck

Informatik studieren an der Universität zu Lübeck Informatik studieren an der Universität zu Lübeck Prof. Dr. Till Tantau Studiengangsleiter MINT Lübecker Schnuppertag 2011 Das Informatik-Studium an der Uni Lübeck...... ist angewandter. Ein Studium an

Mehr

B.SC. INFORMATIK TIM JUNGNICKEL

B.SC. INFORMATIK TIM JUNGNICKEL ABOUT ME (21) 5. SEMESTER B.SC. INFORMATIK TU-BERLIN SEIT 2008 2 AGENDA Was ist Informatik? Wie geht es weiter? Was kann ich an der Uni machen? 1 2 3 4 Struktur des Studiums Was lernt man an der Universität?

Mehr

IT-Sicherheitsausbildung an der RWTH Aachen

IT-Sicherheitsausbildung an der RWTH Aachen IT-Sicherheitsausbildung an der RWTH Aachen Martin Mink Lehr- und Forschungsgebiet Verlässliche Verteilte Systeme Workshop zur Ausbildung im Bereich IT-Sicherheit 11. August 2005, Köln Wer sind wir? Lehr-

Mehr

Masterstudiengang Medientechnologie (M.SC.)

Masterstudiengang Medientechnologie (M.SC.) Masterstudiengang Medientechnologie (M.SC.) Dietmar Kunz 1 Überblick Status Berufsfelder Ziele Forschungskontext Curriculum Adressaten und Vorkenntnisse Zulassungsverfahren Fragen 2 Status neuer Studiengang

Mehr

Hinweise für das Schreiben einer Bachelor-Arbeit im Fachbereich Wirtschaftspsychologie

Hinweise für das Schreiben einer Bachelor-Arbeit im Fachbereich Wirtschaftspsychologie Universität Duisburg-Essen Fakultät für Ingenieurwissenschaften Informatik und angewandte Kognitionswissenschaft Wirtschaftspsychologie Hinweise für das Schreiben einer Bachelor-Arbeit im Fachbereich Wirtschaftspsychologie

Mehr

Das vorliegende Informationsblatt soll Ihnen die Orientierung in Ihrem Nebenfach Wirtschaftswissenschaften während des Hauptstudiums erleichtern.

Das vorliegende Informationsblatt soll Ihnen die Orientierung in Ihrem Nebenfach Wirtschaftswissenschaften während des Hauptstudiums erleichtern. Leopoldstrasse 139 80804 München Germany Tel: +49 / 89 / 289-24800 Fax: +49 / 89 / 289-24805 www.prof-reichwald.org Kompaktinformation für Studierende der Fachrichtungen: - Informatik, - Mathematik, -

Mehr

Überprüfung der digital signierten E-Rechnung

Überprüfung der digital signierten E-Rechnung Überprüfung der digital signierten E-Rechnung Aufgrund des BMF-Erlasses vom Juli 2005 (BMF-010219/0183-IV/9/2005) gelten ab 01.01.2006 nur noch jene elektronischen Rechnungen als vorsteuerabzugspflichtig,

Mehr

1. Berufsbegleitende Nachqualifizierung zum Berufsabschluß

1. Berufsbegleitende Nachqualifizierung zum Berufsabschluß 13 1. Berufsbegleitende Nachqualifizierung zum Berufsabschluß In diesem einleitenden Kapitel wird ein Überblick über die Ziele und Merkmale der berufsbegleitenden Nachqualifizierung gegeben. Unter der

Mehr

Agiles Design. Dr.-Ing. Uwe Doetzkies Gesellschaft für Informatik mail: gi@uwe.doetzkies.de

Agiles Design. Dr.-Ing. Uwe Doetzkies Gesellschaft für Informatik mail: gi@uwe.doetzkies.de Agiles Design Dr.-Ing. Uwe Doetzkies Dr.-Ing. Uwe Doetzkies Gesellschaft für Informatik mail: gi@uwe.doetzkies.de startupcamp berlin 15.3.2013 Regionalgruppe Berlin/Brandenburg Arbeitskreis Freiberufler

Mehr

Studieren- Erklärungen und Tipps

Studieren- Erklärungen und Tipps Studieren- Erklärungen und Tipps Es gibt Berufe, die man nicht lernen kann, sondern für die man ein Studium machen muss. Das ist zum Beispiel so wenn man Arzt oder Lehrer werden möchte. Hat ihr Kind das

Mehr

präzision und kreativität feinmechanik & systemtechnik gmbh

präzision und kreativität feinmechanik & systemtechnik gmbh präzision und kreativität feinmechanik & systemtechnik gmbh Die gaedigk gmbh wurde 1996 gegründet. Damaliger Sitz war das Technologiezentrum an der Ruhr-Universität Bochum von Anfang an stand die enge

Mehr

Studienrichtung Eingebettete Systeme

Studienrichtung Eingebettete Systeme Qualifikationsziel Eingebettete Systeme stellen ein äußerst wichtiges Anwendungsfeld der Methoden der Informatik dar. Unter einem eingebetteten System versteht man dabei ein (Mikro-) Computersystem, das

Mehr

Studienrichtung Computational Neuroscience/Neuroinformatik des Studienganges Angewandte Informatik

Studienrichtung Computational Neuroscience/Neuroinformatik des Studienganges Angewandte Informatik Studienrichtung Computational Neuroscience/Neuroinformatik des Studienganges Angewandte Informatik Table of Contents 1 Wichtige Informationen und Voraussetzungen...1 2 Zur Studienrichtung...2 3 Vorlesungen

Mehr

Grundstufe. Mathematik 2 Klausur 210 Minuten 9 Leistungspunkte

Grundstufe. Mathematik 2 Klausur 210 Minuten 9 Leistungspunkte Anlage 1: und Prüfungen im Bachelor-Studium Grundstufe 1. Semester 2. Semester. Semester. Semester Mathematik Mathematik 1 Klausur 20 Minuten 11 Mathematik 2 Klausur 210 Minuten 9 Mathematik Klausur 10

Mehr

Informationsblatt Induktionsbeweis

Informationsblatt Induktionsbeweis Sommer 015 Informationsblatt Induktionsbeweis 31. März 015 Motivation Die vollständige Induktion ist ein wichtiges Beweisverfahren in der Informatik. Sie wird häufig dazu gebraucht, um mathematische Formeln

Mehr

Test zur Bereitschaft für die Cloud

Test zur Bereitschaft für die Cloud Bericht zum EMC Test zur Bereitschaft für die Cloud Test zur Bereitschaft für die Cloud EMC VERTRAULICH NUR ZUR INTERNEN VERWENDUNG Testen Sie, ob Sie bereit sind für die Cloud Vielen Dank, dass Sie sich

Mehr

Willkommen zu Ihrem Elternratgeber

Willkommen zu Ihrem Elternratgeber Willkommen zu Ihrem Elternratgeber Es ist eine große Entscheidung, wenn Ihr Kind auf eine Universität im Ausland gehen will. Sie möchten Gewissheit haben, dass Ihr Kind an einer etablierten Universität

Mehr

Dualer Studiengang. we focus on students. Fachhochschule Dortmund University of Applied Sciences and Arts

Dualer Studiengang. we focus on students. Fachhochschule Dortmund University of Applied Sciences and Arts Dualer Studiengang SOFTWARE- UND SYSTEMTECHNIK DEN TECHNISCHEN FORTSCHRITT MITGESTALTEN we focus on students Fachhochschule Dortmund University of Applied Sciences and Arts Dauer Abschlüsse ZUgangsvoraussetzungen

Mehr

Installation und Inbetriebnahme von SolidWorks

Installation und Inbetriebnahme von SolidWorks Inhaltsverzeichnis FAKULTÄT FÜR INGENIEURWISSENSCHAFTEN I Prof. Dr.-Ing. Frank Lobeck Installation und Inbetriebnahme von SolidWorks Inhaltsverzeichnis Inhaltsverzeichnis... I 1. Einleitung... 1 2. Installation...

Mehr

Marketing-Leitfaden zum. Evoko Room Manager. Touch. Schedule. Meet.

Marketing-Leitfaden zum. Evoko Room Manager. Touch. Schedule. Meet. Marketing-Leitfaden zum Evoko Room Manager. Touch. Schedule. Meet. Vorher Viele kennen die Frustration, die man bei dem Versuch eine Konferenz zu buchen, erleben kann. Unterbrechung. Plötzlich klopft

Mehr

Persönliche Einladung. Zur IT Managers Lounge am 4. November 2009 in Köln, Hotel im Wasserturm.

Persönliche Einladung. Zur IT Managers Lounge am 4. November 2009 in Köln, Hotel im Wasserturm. Persönliche Einladung. Zur IT Managers Lounge am 4. November 2009 in Köln, Hotel im Wasserturm. IT Managers Lounge präsentiert: Top-Trend Cloud Computing. Flexibilität, Dynamik und eine schnelle Reaktionsfähigkeit

Mehr

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 374

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 374 DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN Nr. 374 Eignung von Verfahren der Mustererkennung im Process Mining Sabrina Kohne

Mehr

Modulbeschreibung: Master of Education Informatik

Modulbeschreibung: Master of Education Informatik Modulbeschreibung: Master of Education Informatik Die Gewichtung der Einzelnoten bezieht sich im Folgenden auf eine Gesamtpunktzahl von 34 zu erbringenden Leistungspunkten. Nichtbenotete Leistungspunkte

Mehr

Überblick über das Institut für Telematik

Überblick über das Institut für Telematik Überblick über das Institut für Telematik Professoren Prof. Dr. Sebastian Abeck (seit 16) Prof. Dr. Michael Beigl (seit 2010) Prof. Dr. Hannes Hartenstein (seit 2003) Prof. Dr. Wilfried Juling (seit 18)

Mehr

Materialwissenschaft. Bachelor of Science

Materialwissenschaft. Bachelor of Science Materialwissenschaft Bachelor of Science Im Studiengang Materialwissenschaft werden alle notwendigen theoretischen und angewandten natur wissenschaftlichen Grundkenntnisse für die Herstellung und den Einsatz

Mehr

----------------------------------------------------------------------------------------------------------------------------------------

---------------------------------------------------------------------------------------------------------------------------------------- 0 Seite 0 von 20 03.02.2015 1 Ergebnisse der BSO Studie: Trends und Innovationen im Business Performance Management (BPM) bessere Steuerung des Geschäfts durch BPM. Bei dieser BSO Studie wurden 175 CEOs,

Mehr

Ihre PLM-Prozessexperten für Entwicklung und Konstruktion

Ihre PLM-Prozessexperten für Entwicklung und Konstruktion Ihre PLM-Prozessexperten für Entwicklung und Konstruktion PLM2015 Umfrage zur Umstellung CATIA nach Siemens NX bei Daimler AG 16.04.2013 l Umfrageergebnisse 2 VIELEN DANK Vielen Dank für die zahlreiche

Mehr

Weitere Auszeichnung der Akademie

Weitere Auszeichnung der Akademie Weitere Auszeichnung der Akademie In: Jahrbuch / Berlin-Brandenburgische Akademie der Wissenschaften (vormals Preußische Akademie der Wissenschaften). Berlin : de Gruyter Akademie Forschung ; 2013 (2014),

Mehr

Wir fördern das Gute in NRW. www.nrwbank.de/azubiwelt

Wir fördern das Gute in NRW. www.nrwbank.de/azubiwelt Wir fördern das Gute in NRW. www.nrwbank.de/azubiwelt Teamgeist ist eine der guten Eigenschaften in NRW, die es wert sind, gefördert zu werden, und die unsere Auszubildenden im Gepäck haben sollten. So

Mehr

Universität Stuttgart Institut für Automatisierungstechnik und Softwaresysteme Prof. Dr.-Ing. M. Weyrich. Softwaretechnik I

Universität Stuttgart Institut für Automatisierungstechnik und Softwaresysteme Prof. Dr.-Ing. M. Weyrich. Softwaretechnik I Universität Stuttgart Institut für Automatisierungstechnik und Softwaresysteme Prof. Dr.-Ing. M. Weyrich Softwaretechnik I Wintersemester 2015 / 2016 www.ias.uni-stuttgart.de/st1 st1@ias.uni-stuttgart.de

Mehr

Java Enterprise Architekturen Willkommen in der Realität

Java Enterprise Architekturen Willkommen in der Realität Java Enterprise Architekturen Willkommen in der Realität Ralf Degner (Ralf.Degner@tk-online.de), Dr. Frank Griffel (Dr.Frank.Griffel@tk-online.de) Techniker Krankenkasse Häufig werden Mehrschichtarchitekturen

Mehr

Computational Life Science

Computational Life Science Computational Life Science Algorithmik Analysis Bildverarbeitung Biochemie Bioinformatik Biologische Systeme Chemie Lineare Algebra Numerik Programmierung Stochastik mit dem Leben im Focus Computational

Mehr

«Eine Person ist funktional gesund, wenn sie möglichst kompetent mit einem möglichst gesunden Körper an möglichst normalisierten Lebensbereichen

«Eine Person ist funktional gesund, wenn sie möglichst kompetent mit einem möglichst gesunden Körper an möglichst normalisierten Lebensbereichen 18 «Eine Person ist funktional gesund, wenn sie möglichst kompetent mit einem möglichst gesunden Körper an möglichst normalisierten Lebensbereichen teilnimmt und teilhat.» 3Das Konzept der Funktionalen

Mehr

SharePoint Demonstration

SharePoint Demonstration SharePoint Demonstration Was zeigt die Demonstration? Diese Demonstration soll den modernen Zugriff auf Daten und Informationen veranschaulichen und zeigen welche Vorteile sich dadurch in der Zusammenarbeit

Mehr

Psychologie-Geschichte in der Lehre Würzburg, 08. September 2011 (Gallschütz)

Psychologie-Geschichte in der Lehre Würzburg, 08. September 2011 (Gallschütz) 1 Schorr & Wehner (1990, S. 306) : Die Psychologiegeschichte ist in durchaus ausbaufähiger Weise in der Ausbildung vertreten. 2 Damals: Befragung von 145 Hochschulinstituten mit Haupt- oder Nebenfachausbildung

Mehr

Präsentation der Fakultät Informatik

Präsentation der Fakultät Informatik - Dekanat Präsentation der Dresden, 26.05.2005 - Geschichte 1969 Beginn der Informatikausbildung in Dresden (Sektion Informationsverarbeitung an der TU Dresden und an der Ingenieurhochschule Dresden) 1986

Mehr

Verwaltungshandbuch Teil 1 A-Rundschreiben

Verwaltungshandbuch Teil 1 A-Rundschreiben Verwaltungshandbuch Teil 1 A-Rundschreiben ohne FME Prüfungsordnungen 1.6 veröffentlicht am: 29.07.09 Fakultät für Informatik Satzung zur Änderung der Prüfungsordnung für die Masterstudiengänge Computer

Mehr

Wirtschaftsinformatik an der Universität Trier. Intelligente Technologien für das Management der Zukunft! 26.10.2015

Wirtschaftsinformatik an der Universität Trier. Intelligente Technologien für das Management der Zukunft! 26.10.2015 Wirtschaftsinformatik an der Universität Trier Intelligente Technologien für das Management der Zukunft! 26.10.2015 Professuren der Wirtschaftsinformatik Wirtschaftsinformatik I: Verteilte Künstliche Intelligenz

Mehr

Informatik @ Referent: Prof. Volkhard Pfeiffer. Fakultät Elektrotechnik/Informatik, HS Coburg 1

Informatik @ Referent: Prof. Volkhard Pfeiffer. Fakultät Elektrotechnik/Informatik, HS Coburg 1 Informatik @ Referent: Prof. Volkhard Pfeiffer 1 In welchen Bereichen kommt Informatik zum Einsatz? Wohlbekannt und für jeden sichtbar: Aber fast noch wichtigere Einsatzgebiete sind:... 2 Informatik durchdringt

Mehr

Nr. 20. Jubiläums-BAT

Nr. 20. Jubiläums-BAT Nr. 20 Jubiläums-BAT Das Berner-Architekten-Treffen Das Berner-Architekten-Treffen ist eine Begegnungsplattform für an Architekturfragen interessierte Informatikfachleute. Durch Fachvorträge aus der Praxis

Mehr

HUMBOLDT-UNIVERSITÄT ZU BERLIN

HUMBOLDT-UNIVERSITÄT ZU BERLIN HUMBOLDT-UNIVERSITÄT ZU BERLIN INSTITUT FÜR INFORMATIK Humboldt-Universität zu Berlin Unter den Linden 6 10099 Berlin Liebe Studentinnen und Studenten, wir, das Institut für Informatik der Humboldt-Universität,

Mehr

Referat CSL Behring AG Einweihung Logistik- und Service-Center 21. September 2012

Referat CSL Behring AG Einweihung Logistik- und Service-Center 21. September 2012 Referat CSL Behring AG Einweihung Logistik- und Service-Center 21. September 2012 Grussbotschaft Regierungsrat Bernhard Pulver, Erziehungsdirektor des Kantons Bern Logistik- und Service-Centren gehören

Mehr

Wer wir sind. Qualität ist das Ergebnis gewissenhafter Arbeit. Denn nur die setzt sich durch. Unser Profil

Wer wir sind. Qualität ist das Ergebnis gewissenhafter Arbeit. Denn nur die setzt sich durch. Unser Profil Wer wir sind Unser Profil Die Geschichte der CORYX Software GmbH begann im Jahr 2001 im fränkischen Coburg. Ein kleines Team rund um Unternehmensgründer Uwe Schenk übernahm den Support für das Reuters

Mehr

WELCOME TO SPHERE SECURITY SOLUTIONS

WELCOME TO SPHERE SECURITY SOLUTIONS Failing to plan, is planning to fail WELCOME TO SPHERE SECURITY SOLUTIONS your professional security partner INTRO Wie wertvoll Sicherheit ist wird besonders klar, wenn sie im entscheidenden Moment fehlt.

Mehr

Online-Befragung internationaler Doktorand_innen an der Universität zu Köln - Zusammenfassung der Ergebnisse -

Online-Befragung internationaler Doktorand_innen an der Universität zu Köln - Zusammenfassung der Ergebnisse - Online-Befragung internationaler Doktorand_innen an der - Zusammenfassung der Ergebnisse - Folie: 1 Online-Befragung: Allgemein Ziel Evaluation und Weiterentwicklung des existierenden Beratungs-,Betreuungs-

Mehr

Das Warenwirtschaftswunder

Das Warenwirtschaftswunder Das Warenwirtschaftswunder UNSERE HISTORIE Mit Individualität zum Produkterfolg. Die Geschichte der VARIO Software GmbH beginnt schon einige Jahre vor ihrer Gründung. Zunächst auf Projektbasis programmierte

Mehr

Liebe Interessierte an technischen Lösungen für die Sicherheit zu Hause,

Liebe Interessierte an technischen Lösungen für die Sicherheit zu Hause, Nutzerorientierung bei der Entwicklung technikgestützter Lebenswelten unter besonderer Berücksichtigung ambienter Technologien für die Lebensqualität von Menschen mit Demenz Studie Sicherheit Liebe Interessierte

Mehr

KOMPETENZ IN APPS. Lösungen für Industrie und Mittelstand. Telefon: +49 (531) 22 43 55-0, E-Mail: info@c4cengineering.de, www.c4cengineering.

KOMPETENZ IN APPS. Lösungen für Industrie und Mittelstand. Telefon: +49 (531) 22 43 55-0, E-Mail: info@c4cengineering.de, www.c4cengineering. KOMPETENZ IN APPS Lösungen für Industrie und Mittelstand c4c engineering GmbH kompetenz in Software, Hildesheimer Straße 27, 38114 Braunschweig Telefon: +49 (531) 22 43 55-0, E-Mail: info@c4cengineering.de,

Mehr

Die Bachelorarbeit muss laut Prüfungsordnung nicht mehr thematisch dem gewählten Schwerpunktmodul zuzuordnen sein.

Die Bachelorarbeit muss laut Prüfungsordnung nicht mehr thematisch dem gewählten Schwerpunktmodul zuzuordnen sein. Bachelor of Science BWL: Studierende, welche im Sommersemester 2012 die Bachelorarbeit schreiben möchten, müssen sich im Zeitraum 10.01. bis 23.01.2012 in FlexNow voranmelden. Aufgrund der Voranmeldung

Mehr

Konsolidierung und Neuimplementierung von VIT. Aufgabenbeschreibung für das Software Engineering Praktikum an der TU Darmstadt

Konsolidierung und Neuimplementierung von VIT. Aufgabenbeschreibung für das Software Engineering Praktikum an der TU Darmstadt Konsolidierung und Neuimplementierung von VIT Aufgabenbeschreibung für das Software Engineering Praktikum an der TU Darmstadt Inhaltsverzeichnis 1 Was ist der Kontext?... 1 2 VIT: Ein sehr erfolgreiches

Mehr

Amtliche Mitteilungen Nr. 11/2006 05.07.2006 Studien- und Prüfungsordnung für den Master-Studiengang Wirtschaftsinformatik

Amtliche Mitteilungen Nr. 11/2006 05.07.2006 Studien- und Prüfungsordnung für den Master-Studiengang Wirtschaftsinformatik Amtliche Mitteilungen Nr. 11/2006 05.07.2006 Studien- und Prüfungsordnung für den Master-Studiengang Wirtschaftsinformatik Inhaltsverzeichnis 1 Geltungsbereich 2 Bezugnahme auf die Musterordnung 3 Leitbild

Mehr

Integration mit. Wie AristaFlow Sie in Ihrem Unternehmen unterstützen kann, zeigen wir Ihnen am nachfolgenden Beispiel einer Support-Anfrage.

Integration mit. Wie AristaFlow Sie in Ihrem Unternehmen unterstützen kann, zeigen wir Ihnen am nachfolgenden Beispiel einer Support-Anfrage. Integration mit Die Integration der AristaFlow Business Process Management Suite (BPM) mit dem Enterprise Information Management System FILERO (EIMS) bildet die optimale Basis für flexible Optimierung

Mehr

Elektronische Prüfungsanmeldungen für Bachelor-Studierende der Informatik

Elektronische Prüfungsanmeldungen für Bachelor-Studierende der Informatik Elektronische Prüfungsanmeldungen für Bachelor-Studierende der Informatik Dr. Stefan Lüttringhaus-Kappel 12. April 2010 Zusammenfassung Bachelor-Studierende der Bonner Informatik müssen sich elektronisch

Mehr

Studienfachberatung Psychologie. Der Studiengang Psychologie in Dresden

Studienfachberatung Psychologie. Der Studiengang Psychologie in Dresden Studienfachberatung Psychologie Der Studiengang Psychologie in Dresden Worum geht es im Fach? Gegenstand der Psychologie ist die Beschreibung, Erklärung und Vorhersage des Erlebens und Verhaltens von Menschen

Mehr

1 Vorstellung. 2 Entwicklung der Informatik. 3 Angewandte Informatik mit den Schwerpunkten Ingenieur- und. 4 Bachelor/Master (Bologna-Prozess)

1 Vorstellung. 2 Entwicklung der Informatik. 3 Angewandte Informatik mit den Schwerpunkten Ingenieur- und. 4 Bachelor/Master (Bologna-Prozess) Bachelor/Master (Bologna-Prozess) Studienorganisation Bachelor/Master (Bologna-Prozess) Studienorganisation Kurze Inhaltsangabe Bachelor/Master (Ingenieur- und Medieninformatik) Prof. Abteilung für Informatik

Mehr