Proceedings 12. Workshop Fuzzy Systeme

Größe: px
Ab Seite anzeigen:

Download "Proceedings 12. Workshop Fuzzy Systeme"

Transkript

1 Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Wissenschaftliche Berichte FZKA 6767 Proceedings 12. Workshop Fuzzy Systeme Dortmund, November 2002 R. Mikut, M. Reischl (Hrsg.) Institut für Angewandte Informatik November 2002

2

3 Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Wissenschaftliche Berichte FZKA 6767 Proceedings 12. Workshop Fuzzy Systeme Dortmund, November 2002 Ralf Mikut, Markus Reischl (Hrsg.) Institut für Angewandte Informatik Forschungszentrum Karlsruhe GmbH, Karlsruhe 2002

4 Für diesen Bericht behalten wir uns alle Rechte vor Forschungszentrum Karlsruhe GmbH Postfach 3640, Karlsruhe Mitglied der Hermann von Helmholtz-Gemeinschaft Deutscher Forschungszentren (HGF) ISSN

5 VORWORT Dieser Tagungsband enthält die Beiträge des 12. Workshops Fuzzy Systeme des Fachausschusses 5.22 Fuzzy Control der VDI/VDE-Gesellschaft für Mess- und Automatisierungstechnik (GMA) und der Fachgruppe Fuzzy-Systeme und Soft- Computing der Gesellschaft für Informatik (GI), der vom November 2002 im Haus Bommerholz, Dortmund, stattfindet. Der jährliche Workshop unseres Fachausschusses bietet ein Forum zur Diskussion neuer methodischer Ansätze und industrieller Anwendungen auf dem Gebiet der Fuzzy-Logik und in angrenzenden Gebieten wie Künstlichen Neuronalen Netzen und Evolutionären Algorithmen. Besondere Schwerpunkte sind automatisierungstechnische Anwendungen, z.b. in der Verfahrenstechnik, Energietechnik, Kfz-Technik, Robotik und Medizintechnik, aber auch Lösungen in anderen Problemgebieten (z.b. Data Mining für technische und nichttechnische Anwendungen) sind von Interesse. Die Ergebnisse werden von den ca. 50 Mitgliedern und Gästen aus Hochschulen, Forschungseinrichtungen und der Industrie präsentiert und in Klausuratmosphäre intensiv diskutiert. Dabei ist es gute Tradition, auch neue Ansätze und Ideen bereits in einem frühen Entwicklungsstadium vorzustellen, in dem sie noch nicht vollständig ausgereift sind. Nähere Informationen zum Fachausschuss erhalten Sie unter Die Herausgeber bedanken sich an dieser Stelle bei allen Autoren und Rednern sowie bei Prof. Dr. Klawonn (Fachhochschule Braunschweig/Wolfenbüttel), Herrn Dr. Runkler (Siemens AG), Herrn Dr. Jäkel (Forschungszentrum Karlsruhe) und Herrn Dr. Kroll (ABB Heidelberg), die maßgeblich an der Vorbereitung des Workshops beteiligt waren. Ralf Mikut und Markus Reischl i

6 ii

7 INHALTSVERZEICHNIS Klawonn, F., FH Braunschweig/Wolfenbüttel: Visualisierung von Fuzzy-Clusteranalyse-Ergebnissen Kiendl, H.; Haendel, L., Universität Dortmund: Datenbasierte Regelgenerierung mit modell-basierten Clusterverfahren Seising, R., Universität Wien: Eine kleine Geschichte der Fuzzy-Systeme in der Medizintechnik ( Ü- bersichtsvortrag) Loose, T.; Jäkel, J.; Mikut, R., Forschungszentrum Karlsruhe: Datenbasierte Generierung natürlichsprachlicher Erklärungstexte am Beispiel der Instrumentellen Ganganalyse von Schmidt, B., Deutsches Zentrum für Luft- und Raumfahrt: Geometrische Veranschaulichung von Fuzzy-Klassifikationssystemen und Multilayer Perceptronen und Parallelen zwischen beiden Modellen Kästner, W.; Traichel A.; Förster T.; Hampel R., Hochschule Zittau/ Görlitz (FH): Zur Problematik der Gewichtsverteilung in Künstlichen Neuronalen Netzen Frey, Ch.; Kuntze, H.-B.; Munser, R., FhG IITB Karlsruhe: Anwendung von Neuro-Fuzzy-Methoden zur multisensoriellen Schadensdiagnose in Abwasserkanälen Kempf, R.; Staab, H., Technische Universität Darmstadt: Funktionswurzeln und Lernalgorithmen für abgetastete Systeme Klose, A., Universität Magdeburg: An Evolutionary Algorithm for Semi-Supervised Fuzzy Classification Felgner, F., Universität Kaiserslautern: Entwicklung einer Fuzzy-Control-Bibliothek in Modelica Haendel, L., Universität Dortmund: Benchmark: Qualitätskontrolle bei KFZ-Aggregaten Mikut, R., Forschungszentrum Karlsruhe: Fuzzy-Modellbildung für den Benchmarkdatensatz Kfz-Aggregate iii

8 Inhaltsverzeichnis Pfeiffer, B.M.; Reischl, M., Siemens AG, Forschungszentrum Karlsruhe: Entwicklungsstand und WWW-Präsenz des Tutorials "Erfolgreiche Anwendungen von Fuzzy Control" des GMA FA 5.22 Silva, C. A.; Runkler, T. A.; Sousa, J. M., Siemens AG, Universität Lissabon: Evolved ant colonies optimization in the scheduling of logistic processes Kuhn, C., Technische Universität Ilmenau: Ein Zwei-Welten-Modell für die Prozessanalyse und Klassifikation Beck, S.; Lehmann, A.; Martin, J.; Mikut, R., Forschungszentrum Karlsruhe: Modellbildung und Fuzzy-Gelenkpositionsregelung für eine 5-Finger- Roboterhand mit flexiblen Fluidaktoren Karimanzira, D., Technische Universität Ilmenau: Ein neuronales Netzwerkssystem zur Kompensation stückweiser stetiger Nichtlinearitäten in Regelungssystemen Patzwahl, S.; Kramer, K. D.; Nacke, T., Hochschule Harz: Computational Intelligence auf Mikrocontrollersystemen am Beispiel eines Fuzzy-Systems zur Optimierung von Biogasanlagen iv

9 Î Ù Ð ÖÙÒ ÚÓÒ ÙÞÞݹ ÐÙ Ø Ö Ò ÐÝ ¹ Ö Ò Ò Ö Ò ÃÐ ÛÓÒÒ Ö ÁÒ ÓÖÑ Ø Ó ÙÐ Ö ÙÒ Û»ÏÓÐ Ò ØØ Ð Ë ÐÞ ÐÙÑ Ö ËØÖº ¹ ¼¾ ÏÓÐ Ò ØØ Ð Ì Ðº ¼ ½µ ½½½ Ü ¼ ½µ ¼¼¾ ¹Å Ð º Ð ÛÓÒÒ ¹ÛÓÐ Ò Ù ØØ Ðº ½ ÒÐ ØÙÒ ÐÙ Ø Ö Ò ÐÝ ÖØ ÞÙ Ñ Ö Ö ÜÔÐÓÖ Ø Ú Ò Ø Ò Ò ÐÝ Ú Ö Ö Ò Ò Ò ÖÙÑ Ø ËØÖÙ ØÙÖ Ò ÅÙ Ø Ö Ó Ö ÖÙÔÔ Ò Ò Ø Ò ÞÙ Ò Òº ÁÒ Ñ Ë ÒÒ Ò ÑÑØ ÐÙ Ø Ö Ò ÐÝ Ò ÙÒ ÖÛ Ø ÃÐ Ø ÓÒ ÚÓÖº ÙÞÞݹ ÐÙ Ø Ö Ò Ö Ø Ø Ì Ø ÃÐ Ò Ó Ö ÐÙ Ø Ö ÒÒ Ö Ð Ö Ø Ò Ñ ÐÐ Ñ Ò Ò Ò Ø ÚÓÐÐ ØÒ Ô Ö ÖØ Ò Ó Ò Ø ÐÐ Ò Ö Ø Ò ÙÓÖ ÒÙÒ Ò ØÙÑ ÞÙ Ò Ù Ò Ö ÃÐ Û Ð Ò Ù Ö Ø Ö ÞÛ ¹ Ò ¼ ÙÒ ½ Ö Ò Ø Û Ö º ÖÙ Ð Ø Ò ÙÞÞݹ ÐÙ Ø Ö Ò ÐÝ ¹Ì Ò Ò Ö Ò Ò ÐÙ Ø Ö ÒØ ÐÙÒ Ò Ñ Ú Ö Ù Ò Ò Ð ÙÒ Ø ÓÒ ÞÙ Ñ Ò Ñ ¹ Ö Òº Û ÒØÐ Ò Î Ö Ð Ò Ö Ð ÙÒ Ø ÓÒ Ò Ù Ö Ø Ö ÙÒ È Ö Ñ Ø Ö Ä ÙÒ ÓÖÑ Ö ÐÙ Ø Ö Ø ÑÑ Òº Î Ö Ö Ò Ö ¹ Ò Ò ÑÑ Ö ÞÙÑ Ò Ø Ö Ò Ò ÐÙ Ø Ö ÒØ ÐÙÒ Ö Ò Ñ ÙÒ ÖÛ Ò Ø Ò ÐÓ Ð Ò Å Ò ÑÙÑ Ö Ð ÙÒ Ø ÓÒ ÒØ ÔÖ Ò ÒÒº Ë Ð Ø Û ÒÒ ÐÓ Ð Å Ò ¹ ÑÙÑ ÙÒ Ò Û Ö ÒÒ ÐÙ Ø Ö Ò ÐÝ ¹ Ö Ò ÙÒÞÙÖ Ò Ò Û ÒÒ ÐÙ Ø Ö ÓÖÑ Ò Ó Ö ÐÙ Ø Ö ÒÞ Ð Ð Û ÐØ ÛÙÖ Òº Ø Ò Ñ ÐÐ ¹ Ñ Ò Ò Ó Ñ Ò ÓÒ Ð Ò Ø Ò Ö Ø ØÖ ØÙÒ Ö Ø Ò ÙÒ Ò ÐÝ Ö Ò Ù º Î Ù Ð ÖÙÒ Ñ Ø Ó Ò Û ÅÙÐØ Ñ Ò ÓÒ Ð Ë Ð ¹ ÖÙÒ ÒÒ Ò Ù ÒÙÖ Ò Ö Ò ÖÒ Ø Ð Û Ö Òº ÌÖÓØÞ Ñ Ø Ò ÙÖØ ÐÙÒ Ò ÐÙ Ø Ö Ò ÐÝ ¹ Ö Ò ÙÒ ÖÐ Ð º ÐÙ Ø Ö Ø Ñ Ú Ö Ù¹ Ò ÈÖÓ Ð Ñ ÞÙ Ð Òº ÐÐ Ö Ò Û Ö Ò Ø Ñ Ò Ò ÖÓ Ø Ò ÒÞ Ð Ù Ñ Ö Ö ÐÙ Ø Ö Ú ÖØ ÐØ Û Ö Ù Ù Ò ÒÞ Å Þ Ð Ö ÙÞ Öغ ÁÒ Ñ ØÖ Û Ö Ù Þ Ø Û Ù Ù Ò Ù Ò ÈÖ ÒÞ Ô Ò Ö ÐÙ Ø Ö¹ Ø Ñ Ò Ö Î Ö Ò ÙÐ ÙÒ ÚÓÖ ÒÓÑÑ Ò Û Ö Ò ÒÒº Ö ¹ Ê ÔÖ ÒØ Ø ÓÒ ÒØ ÐØ Û ÒØÐ Ñ Ö ÁÒ ÓÖÑ Ø ÓÒ Ò Ð Ò Ø Ñ Ò ÁÒ ÓÖÑ Ø ÓÒ ÓÑÔÖ ÓÒ Ù Ò ÒÞ ÐÒ Ö ÐÐ Ð ÚÓÖÒ ÑÑغ Ù Ï ¹ ÒÒ Ò ÁÒ ÓÒ Ø ÒÞ Ò Ò Ö ÐÙ Ø Ö ÒØ ÐÙÒ Ó Ö Ó Ö Ò ÒÞ ÐÒ Ò ÐÙ Ø ÖÒ Ð Ø Ö Ø Ø ÐÐØ Û Ö Òº Ò ØØ ¾ ÖØ ÙÖÞ Ö Þ Ð ÙÒ Ø ÓÒ ÖØ ÙÞÞݹ ÐÙ Ø Ö Ò Ò Ø ¹ Ø Ò ÖÙÒ Ð Ò Òº ÖÙÒ ÓÒÞ ÔØ Ö ÐÙ Ø Ö Ø Ñ Û Ö Ò Ñ Ò ØØ ÚÓÖ Ø ÐÐغ ÐØ ÖÒ Ø Ú Ò Ö Ò Ê ÔÖ ÒØ Ø ÓÒ Ò Ö ÐÙ Ø Ö Ø Ò Ì Ñ Ò ØØ º ÁÒ Ò Ð Ò Ò Ñ Ö ÙÒ Ò Û Ö Ù Þ Ø

10 Î Ù Ð ÖÙÒ Ñ Ø Ó Ò Ù Ö ÖØ Ò Ø¹ ÙÞÞݵ ÐÙ Ø Ö Ò Ú Ö Ö Ò ¹ Ò Ø Ò º ¾ Ð ÙÒ Ø ÓÒ ÖØ ÙÞÞݹ ÐÙ Ø Ö Ò ÙÞÞݹ ÐÙ Ø Ö Ò Þ ÐØ Ù Ù Ò Ò ÚÓÒ ËØÖÙ ØÙÖ Ò Ò Ø Ò º Ò Ø Ò ØÞ Û Ö Ò Ò Ò Ð ÒÞ Ð ÚÓÒ ÐÙ Ø ÖÒ Ù Ø ÐØ ËØÖÙ ØÙÖ Ò Ò Ò ¹ Ø Ò Ö ÔÖ ÒØ Ö Òº Ñ ÙÞÞݹ ÐÙ Ø Ö Ò Û Ö Ñ Ò ØÞ ÞÙÑ Ö ÑÑÐ Ò Ô ÖØ Ø ÓÒ Ö Ò Ò ÖØ Òµ ÐÙ Ø Ö Ò Ò ÒÞ ÐÒ Ö Ø ÒÚ ØÓÖ Ò Ø Ò ÙØ Ò Ñ ÐÙ Ø Ö ÞÙ ÓÖ Ò Ø ÓÒ ÖÒ Û Ö Ò Ù Ö Ø Ö Ø ÒÚ ¹ ØÓÖ ÞÙ Ñ ÐÙ Ø Ö Ø ÑÑØ ÙÑ Ú ÖÖ Ù Ø ÙÒ Ò Ø Ò ÙØ ÞÙÞÙÓÖ Ò Ò Ø Ò Ò Ò ÞÙ ÒÒ Òº Ñ Ø Ò ÙÞÞݹ ÐÙ Ø Ö Ò ¹Î Ö Ö Ò Ö Ò Ù Ö Å Ò Ñ ÖÙÒ Ò Ö Ð ÙÒ Ø ÓÒ ÙÒØ Ö Æ Ò Ò ÙÒ Òº Ö Ñ Ù Ø Ò Ú ÖÛ Ò Ø Ò ØÞ Ø ÔÖÓ Ð Ø ÐÙ Ø Ö Ò Ñ Ø Ö ÞÙ Ñ Ò Ñ Ö Ò Ò Ð ÙÒ Ø ÓÒ ÙÒØ Ö Ò Æ Ò Ò ÙÒ Ò ½ ½ Ò ½ Ù Ñ ½µ Ù ½ Ö ÐÐ ½ Ò ¾µ Û Ö ÒÞ Ð Ö ÐÙ Ø Ö ÞÙÒ Ø Ø Û Ðغ Ö Ò ÞÙ ÐÙ Ø ÖÒ Ò Ø Ò ØÞ Ü ½ Ü Ò ÁÊ Ô Ñ Ò Ù Ö Ø Ö Ù Û Ð Ò Ø ÒÚ ØÓÖ Ü ÞÙÑ Ø Ò ÐÙ Ø Ö Ø ÑÑØÛ Ö Òº Ø Ò Ø ÒÞÑ Ò Ø Ò Ó Ö ÍÒ ÒÐ Ø Ø ÒÚ ØÓÖ Ü ÞÙÑ ÐÙ Ø Ö Ô Þ Þ ÖØ ÞÙÑ Ô Ð Ö ÕÙ Ö Ø ÖØ µ Ù Ð Ø Ò ÚÓÒ Ü ÞÙÑ Ø Ò ÐÙ Ø ÖÞ ÒØÖÙѺ Ö È Ö Ñ Ø Ö Ñ ½ ÙÞÞ Ö ÒÒ ÒØ Ø Ù ÖØ Û Ø Ö ÐÙ Ø Ö ÞÓ Ò Ù Ù Ö Ø Ö ÖÐ ÔÔ Ò Ö Òº Æ Ò Ò ÙÒ Ò ¾µ Ö Ò Ò Ò Æ Ñ Ò ÔÖÓ Ð Ø ÐÙ Ø Ö Ò Ù Ö Ø Ö Ù Ò Ñ ÐÐ Ù Ð Ï Ö ÒÐ Ø Ü ÞÙÑ ÐÙ Ø Ö ÖØ ÒØ ÖÔÖ Ø Ö Ö Ò º Ò Ö Ð ÙÒ Ø ÓÒ ÞÙ ÓÔØ Ñ Ö Ò Ò È Ö Ñ Ø Ö Ò Ù Ö Ø Ö Ù ÙÒ ÐÙ Ø ÖÔ Ö Ñ Ø Ö Ö Ò Ø ÜÔÐ Þ Ø Ò Ò Ò º Ë Ò Ò Ò Ø ÒÞ Ò Ú Ö ÓÖ Òº Ö ÖÙ Ð Ï Ò Ø¹Ð Ò Ö ÇÔØ Ñ ¹ ÖÙÒ ÔÖÓ Ð Ñ Å Ò Ñ ÖÙÒ Ö Ð ÙÒ Ø ÓÒ ½µ ÞÙ Ð Ò Ø Ø Ù Ò Ñ ÐØ ÖÒ Ö Ò Ò Ë Ñ Û Ð Û ÐÒ Ò Ò Ö È Ö Ñ Ø Ö ØÞ Ù Ö ¹ Ø Ö ÙÒ ÐÙ Ø ÖÔ Ö Ñ Ø Ö Ø ÐØ ÙÒ Ò Ò Ö Ò È Ö Ñ Ø Ö ØÞ Þ Ð Ø ÐØ Ò Ò ÓÔØ Ñ Öغ ÁÒ Ö Ö Ø Ø Ò Ø ÙÑ Ú Ö Ò ÖØ ¹ Ò ÐÙ Ø Ö ÓÖÑ Ò ÃÙ ÐÒ ÐÐ Ô Ó Ð Ò Ö Å ÒÒ ÐØ Ø Ò ÉÙ Ö Ò µ ÙÖ Ò Ò Ø Ï Ð Ö Ø ÒÞ ÙÒ Ø ÓÒ Ö Ø ÐÐ Ö Ò º Ò Ò Ö Ð Ö Ö ÖØ Î Ö Ö Ò Ò Ø Ñ Ò Þº º Ò ¾ ºµ Ö ÚÓÖ Ø ÐÐØ Ò Î Ù Ð ¹ ÖÙÒ Ø Ò Ò Ð Ò Ù Ø ÐÐ Ð Ò ÐÙ Ø Ö ÓÖÑ Ò ÒÛ Ò Òº ÐÐ Ö Ò Ø Ö Ë Ðй ÐÙ Ø Ö Ò ¹Ì Ò Ò Ö ÒÒÙÒ ÚÓÒ Ç ØÖÒ ÖÒ Þº º Ò ÓÖÑ ÚÓÒ Ö Ò ÃÖ ¹ Ó Ö ÐÐ Ô ÒÖÒ ÖÒ Ò Ö Ò Ô Ø Ø ¹ Ñ º Ë Ðй ÐÙ Ø Ö Ò Ö Ñ Ø Ò Ö ÒÛ Ò ÙÒ Ò Ò Ö Ð Ú Ö Ö ØÙÒ

11 ÒØÛ ÐØ ÛÙÖ Ò ÐØ Ò Ñ ÐÐ Ñ Ø Ò ÙÑ ÞÛ Ñ Ò Ó ÒÐ ¹ Ø Ò Ò Ò Î Ù Ð ÖÙÒ Ó Ò Ò ÙÒÔÖÓ Ð Ñ Ø Øº Ö ÚÓÖ Ø ÐÐØ Ò Î Ù Ð ÖÙÒ Ø Ò Ò Ð Ò Ò ÐÐ Ù ÆÓ ÐÙ Ø Ö Ò ÒÛ Ò Ò Ñ Ö ÔÖÓ Ð Ø ÖÙÒ Ò ÐØ Ò Û Ö º Æ Ò Ò ÞÙ Ø ÑÑ Ò Ò ÐÙ Ø ÖÒ Û Ö Ó ÒÓ Ò ÞÙ ØÞÐ ÐÙ¹ Ø Ö Ö Ê Ù Ø Ò Ò Öغ ÐÐ Ø ÒÚ ØÓÖ Ò ØÞ Ò Ò Ò Ø Ò ÖÓ Òµ Ø Ò ÞÙÑ Ê Ù ÐÙ Ø Öº Ù Ï ÐØ Ò Ø ÒÚ ØÓÖ Ò Ò Ö Ö ÒÞ ÞÛ Ò ÞÛ ÐÙ Ø ÖÒ Ð Ò Û Ø Ö Ò Ò Ò Ó Ò Ù Ö Ø Ö ÞÙ Ò ÐÙ Ø ÖÒº Ø ÒÚ ØÓÖ Ò Ê Ù Ò Ö Ø ÐÐ Ò ÙÒ ÚÓÒ ÐÐ Ò ÐÙ Ø ÖÒ Û ¹ Ø Ö ÒØ ÖÒØ Ò Û Ö Ò Ñ Ê Ù ÐÙ Ø Ö Ñ Ø Ò Ñ Ó Ò Ù Ö Ø Ö ÞÙ ÓÖ Ò Ø ÙÒ Ò Ù Ò Ò Ö Ò ÐÙ Ø Ö Û Ò Öº ÈÓ Ð Ø ÐÙ Ø Ö Ò Ñ ÔÖÓ Ð Ø Æ Ò Ò ÙÒ ÙÒØ Ö Ò ÖÙÒ Ò ËØÖ Ø ÖÑ Ö Ð Ò Ù Ö Ø Ö ÚÓÐÐ ØÒ Ù Ò Û Ö ÙÑ ØÖ Ú Ð Ä ÙÒ Ù ¼ ÞÙ Ú ÖÑ Ò Ø ÒÙÖ Ö Ö ÒÞØ Ö Ö ÚÓÖ Ø ÐÐØ Ò Î Ù Ð ÖÙÒ Ø Ò Ò Ò Øº ÈÓ Ð Ø ÐÙ Ø Ö Ò Ø Ó Ò Ò ÓÖÑ Ð Ò Ø Ù Ö Ö Ò Ö Ð Ö ÐÙ Ø Ö Ò ÐÝ ÜÔÐ Þ Ø Ò Ö Î ÖÑ ÙÒ ÐÓ Ð Ò Å Ò ÑÙÑ Ö Ð ÙÒ Ø ÓÒ ÙÒ Ò Ö ËÙ Ò Ò Ñ ÐÓ Ð Ò Å Ò ÑÙÑ Ø Ø º ÐÙ Ø Ö Ø Ñ ÐÙ Ø Ö Ø Þ Ò Ø ÈÖÓ Ð Ñ Ó Ò Ò ÙÞÞݹµ ÐÙ Ø Ö ÒØ ÐÙÒ Ö ÙÔØ Ò Ø Ò Ò Ñ Ò Øº Ñ ÚÓÖ Ò Ò ØØ ÖÛ ÒØ ÐØ Ö¹ Ò Ö Ò ÇÔØ Ñ ÖÙÒ Ñ Ú Ö Ù Ø ÑÑ Ö Ò ØÑ Ð ÒÔ ÙÒ Ö Ô Ö Ñ ØÖ ÖØ Ò ÐÙ Ø Ö ÓÖÑ Ò ÚÓÖ Ò Ö ÒÞ Ð Ò Ø Ò ÞÙ Ö¹ Ö Òº ÙØ Ø ÐÐ Ö Ò Ò Û Ð Ø ÐÓ Ð ÇÔØ ÑÙÑ Ö Ð ÙÒ Ø ÓÒ Ò ÒÒÚÓÐÐ ÐÙ Ø Ö ÒØ ÐÙÒ Ö Ø Ò Ö ÔÖ ÒØ Öغ ÒÞ Ð Ö ÐÙ Ø Ö ÒÒ Ð Û ÐØ ÛÓÖ Ò Ò Ó Ö Ù Ø Ò ÐÙ Ø Ö ÓÖÑ Ò ÒÒ Ò Ò Ò Ø Ò ÙÒØ Ö ÍÑ ØÒ Ò Ö ÙÔØ Ò Ø ÚÓÖ Ò Ò Ò Ó ÖÒ Ö ÙÔØ ËØÖÙ ØÙÖ Ò Ò Ø Ò ÞÙ ÖÙÒ Ð Òº ÈÖÓ Ð Ñ Ö ÐÙ Ø Ö Ø Ø ÒÐ Û Ö Ð Ò Ö Ò Ê Ö ÓÒ ÛÓ Ò ØÑ Ð ÒÔ ÙÒ Ò Ö Ð Ò Ö Ò ÙÒ Ø ÓÒ Ò Ø Ò Ò Û ÙØ Ø Ò Ð Ò Ö Ö Ù ÑÑ Ò Ò Ò Ò Ø Ò ÚÓÖ Ò Ò Øº ÐÙ Ø Ö Ø Ñ Û Ö Ò ÓÛÓ Ð ÞÙÖ ÙÖØ ÐÙÒ Ò ÐÙ Ø Ö Ò ÐÝ Ö Ò ÒÞ ÐÐ Ñ Ò ÒÙØÞØ Ð Ù ÞÙÖ Ø ÑÑÙÒ Ö ÒÞ Ð Ö ÐÙ Ø Öº ÙÖ Ò¹ Þ Ð Ø ÑÑÙÒ Û Ö ÐÙ Ø Ö Ò ÐÝ Ñ Ø Ú Ö Ò Ò ÒÞ Ð Ò ÚÓÒ ÐÙ Ø ÖÒ ÙÖ ÖØ ÙÒ Þ Ðº Ù Û ÐØ Ò Ø Ñ Ø Ö Ò Ú ÖÛ Ò Øº ÓÐÐ Ò Ö ÙÖÞ Ò ÐÙ Ø Ö Ø Ñ ÚÓÖ Ø ÐÐØ Û Ö Ò ÙÑ ÞÙ ÖÙÒ Ð ¹ Ò Ò ËØÖ Ø Ò ÞÙ Ö ÐÖ Òº Ò ÚÓÐÐ ØÒ Ö Ö Ð Û Ö Ö ÞÙ Û Ø Ö Ò Ó Û Ö Ù Ä Ø Ö ØÙÖ ¾ Ú ÖÛ Ò Û Ö Ò ÓÐк Ù Ö Ñ ÓÐÐ Ò Ö ÒÙÖ ÐÓ Ð Ø Ñ ØÖ Ø Ø Û Ö Ò ÑØ ÐÙ Ø Ö Ò ÐÝ Ö Ò Û ÖØ Ò ÙÒ Ò Ø ÒÙÖ ÒÞ ÐÒ ÐÙ Ø Öº Ö È ÖØ Ø ÓÒ Ó Þ ÒØ ½ Ø Ò ÖØ ÙÖ È ½ Ò È Ò ½ Ù¾

12 Â Ö Ö Ö Ï ÖØ Ø ØÓ Ö ÓÐÐØ ÐÙ Ø Ö Ò ÐÝ Ö Ò Òº Ö Ö Ø Ï ÖØ ½ Û Ö Ò Ù ÒÒ Ò ÒÓÑÑ Ò Û ÒÒ ÙÞÞݹ ÐÙ Ø Ö ÒØ ÐÙÒ Ö Ø º º Ù ¾ ¼ ½ º Ö Ð Ò Ø Ï ÖØ ½ Û Ö ÖÖ Ø Û ÒÒ ÐÐ Ø Ò¹ Ú ØÓÖ Ò ÐÐ Ò ÐÙ Ø ÖÒ Ñ Ø Ñ Ð Ò Ù Ö Ø Ö ½ ÞÙ ÓÖ Ò Ø Û Ö¹ Òº ÙØ Ø Ò ÙÞÞݹ ÐÙ Ø Ö Ò ÐÝ Ö Ò Ð ÙÑ Ó Ö Ò Ò Û Ö Ö Ö ÒØ ÐÙÒ Øº È ÖØ Ø ÓÒ ÒØÖÓÔ ½ È ½ È Ò ½ Ù ÐÒ Ù µ Ò ÛÙÖ Ö Ë ÒÒÓÒ¹ ÒØÖÓÔ Ò ÑÔ ÙÒ Òº Â Ð Ò Ö Ö Ï ÖØ Ö È ÖØ Ø ÓÒ Ò¹ ØÖÓÔ ØÓ Ö Û Ö ÐÙ Ø Ö Ò ÐÝ Ö Ò Ò Òº ÁÒ Û Ö Ò Ø Ñ Ò ÖØ Ò Ø ÒÙÖ Ù Ö Ø Ö ÓÒ ÖÒ Ù ÎÓÐÙÑ Ò Ö ÐÙ Ø Ö Ö Ø Òº È Ò ½ ÙÑ Ü Ú µ Ü Ú µ È Ò ½ ÙÑ ÙÞÞݹµÃÓÚ Ö ÒÞÑ ØÖ Ü Ø Ò ÐÙ Ø Ö ÛÓ Ú È Ò ½ ÙÑ Ü È Ò ½ ÙÑ ÐÙ Ø ÖÞ ÒØÖÙÑ Ø Ò ÐÙ Ø Ö Ø ÙÒ Ü Ø ÒÚ ØÓÖ Ò Ò º Ø Ñ ÙÞÞݹÀÝÔ ÖÚÓÐÙÑ Ò Û Ö ÓÐ Ò ÖÑ Ò Ò ÖØ ÀÎ ½ Ô Ø µ Ò Ð Ò Ö Ï ÖØ ÚÓÒ ÀÎ Û Ø Ù Ð Ò ÓÑÔ Ø ÙÒ Ö ÙØ ÐÙ Ø Ö Òº Ñ ØØÐ Ö È ÖØ Ø ÓÒ Ø Ø ÙÖ Ò ÛÓ Ë È ¾ Ù ÙÒ ½ ½ Ë Ô Ø µ ¾ ½ Ò Ü Ú µ ½ Ü Ú µ ½ Å Ò Ö Ø ÒÚ ØÓÖ Ò Ò Ö Æ ÐÙ Ø ÖÞ ÒØÖÙÑ Ú Øº Ë ÒØ ÔÖ Ø Ö ÒÞ Ð Ö Ø ÒÚ ØÓÖ Ò Ñ ÐÙ Ø Ö ÞÙ ÓÖ Ò Ø Û Ö Òº Ö Ø ÔÖÓÔÓÖØ ÓÒ Ð ÞÙÖ Ñ ØØÐ Ö Ò Ø Ö Ø Ò Ò ÐÙ Ø Ö º Ò Ó Ö Ï ÖØ Ô Ë Ø µ Ø Ñ ÙØ Ø Ù Ò ÙØ ÐÙ Ø Ö ÒØ ÐÙÒ º Ð Ò ÓÐÐ ÒÓ È ÖØ Ø ÓÒ Ø È ½ Ë ÀÎ

13 ÖÛ ÒØ Û Ö Ò Ö Ò ÖÓ Ö Ï ÖØ Û ÖÙÑ Ù Ò ÙØ ÐÙ Ø Ö ÒØ ÐÙÒ ÒÛ Øº ÓÐÐ ÒÓ ÒÑ Ð ØÓÒØÛ Ö Ò Ø Ñ Û Ö È ÖØ Ø ÓÒ Ó Þ ÒØ Ó Ö È ÖØ Ø ÓÒ ÒØÖÓÔ Û ÖØÙÒ Ö ÐÙ Ø Ö ÒØ ÐÙÒ ÐÐ Ò Ù ÖÙÒ Ö Ù¹ Ö Ø Ö ÚÓÖÒ Ñ Òº Û Ö Ò ÙÞÞݹÀÝÔ ÖÚÓÐÙÑ Ò ÙÒ Ñ ØØÐ Ö µ È ÖØ Ø ÓÒ Ø ÞÙ ØÞÐ ØÒ Ö Ø Ò ÞÙ Ò ÐÙ Ø ÖÒ Ö Ø Òº ÈÖ ÒÞ Ô Ò Û Ö Ò Ò ÓÐ Ò Ò Î Ù Ð ÖÙÒ Ñ Ø Ó Ò ÒÙØÞغ Î Ù Ð ÖÙÒ ÙÒ Ø ÓÐÐ Ò ÒÙÖ Ù Ö Ø Ö ÞÙÖ Ú Ù ÐÐ Ò ÙÖØ ÐÙÒ Ò ÐÙ¹ Ø Ö Ò ÐÝ Ö Ò Ö Ò ÞÓ Ò Û Ö Òº ÞÙ ÖÙÒ Ð Ò ÈÖ ÒÞ Ô Ø Ø Ö Ò Ò ÙÞÞݹ ÐÙ Ø Ö ÒØ ÐÙÒ ÙÑ Ó Ö ÙÖØ ÐØ Û Ö ØÓ Ö Ö Øº Æ Ø ÖÐ ÒÒ Ò Ö Ö ÒØ ÐÙÒ ÑÑ Ö ÙÖ Ò Ð Ò Ö Ï Ð ÙÞÞ Ö Ñ ÖÖ Ø Û Ö Ò Ó Ò Ö Ò Ø Ø Ð Ö Û Ö º Ö ÓÐÐØ Ö ÙÞÞ Ö ÑÑ Ö Ñ Ø Ö Ø Ø Û Ö Òº ÙÖ Î Ö Ò ÙÐ Ö Ö Ò Ø Ñ ÒØ Ö Ò Ð ÙÒ ½ Ö Ø ÐÐØ Ø Ò ØÞ Ö Ó Ò Ö Ö ÙØ Ô Ö ÖØ ÐÙ Ø Ö ÒØ Ðغ Ö Ø Ò ØÞ ÛÙÖ¹ Ñ Ø Ñ ÒÒØ Ò ÙÞÞݹ¹Å Ò ¹ Ð ÓÖ Ø ÑÙ ÐÙ Ø ÖØ ÓÛÓ Ð Ñ Ø Ö Ð Ù Ñ Ø Ú Ö ÐÙ Ø ÖÒº Ö Ò Ö ÐÙ Ø ÖÒ ÒØ ÔÖ Ø Ö ÒØÙ Ø Ú ÓÖ¹ Ö Ø Ò ÒØ ÐÙÒ Ö Ø Òº Ð ÙÒ ½ Þ Ø ÐÙ Ø ÖÞ ÒØÖ Ò Ñ ÐÐ ÚÓÒ Ú Ö ÐÙ Ø ÖÒº Ò Ö Ò Î Ù Ð ÖÙÒ Ñ Ø Ó Ø Ø Ò Ö ØÖ ØÙÒ Ö Î ÖØ ¹ ÐÙÒ Ö Ù Ö Ø Ö º ÁÑ Á Ð ÐÐ Ò Ö Ö Ò ÐÙ Ø Ö ÒØ ÐÙÒ Û Ö ØÙÑ Ò ÙØ Ò Ñ ÐÙ Ø Ö Ñ Ø Ù Ö Ø Ö ½ ÞÙ ÓÖ Ò Ø ÙÒ ÐÐ Ò Ò¹ Ö Ò Ñ Ø Ù Ö Ø Ö ¼º Å Ò Û Ö Ò Ñ ÐÐ Ò Ö Ð Ø Ú ÀÙ Ø ÚÓÒ Ò Òµ ½ Ñ Ï ÖØ ½ ÙÒ ÒØ ÔÖ Ò ½µÒ Òµ ½µ Ñ Ï ÖØ ¼ ÖÛ ÖØ Òº ÁÒ Ñ ÐÐ Ö Ò À ØÓ Ö ÑÑ Ò Ò Ï ÖØ ÚÓÒ ½µ Ù Ö Ð Ò Ò ½ Ù Ö Ö Ø Ò Ë Ø ÙÒ ÞÛ Ò ¼ Þ Øº Ò Ö ÖØ À ØÓ Ö ÑÑ ÛÖ º º ÝÑÑ ØÖ ÙÒ Î Ö ÐØÒ ÚÓÒ Ð Ò Ö ÞÙ Ö Ø Ö Ë Ø ÛÖ Ò ÚÓÒ Ö ÒÞ Ð Ö ÐÙ Ø Öº ÁÒ ÓÒ Ö ¹ Ò Ö Ö Ö Ò ÐÙ Ø Ö ÒÞ Ð Û Ö Ö Ï ÖØ Ù Ö Ð Ò Ò Ë Ø ÐÐ Ò Ö Ø Ö ÓÑ Ò Ö Òº Ö Ö Ò Û Ö Ò Ë Ð ÖÙÒ ÙÖ Ö Ñ Á Ð ÐÐ Ò Ö Ö¹ Ò ÒØ ÐÙÒ Ð Ò ÙÒ Ö Ø Ö Ï ÖØ ½ Ø Ò Û Ö º ÙØ Ø Ö ÐÙÒ Ö Ö Ð Ø Ú Òµ ÀÙ Ø Ò Ï ÖØ ¼ Ñ Ø Ñ ØÓÖ ½µ ÙÒ Ï ÖØ ½ Ñ Ø Ñ ØÓÖ ÑÙÐØ ÔÐ Þ ÖØ Û Ö Òº ÙÖ Ö Ø ÐÐÙÒ À ØÓ¹ Ö ÑÑ Û Ö Û ØÙÒ Ö Ï ÖØ ÞÛ Ò ¼ ÙÒ ½ ÒØ ÔÖ Ò Ò Ò ÜØÖ ÑÛ ÖØ Ò Ð Ò Ö ÒØ ÖÔÓÐ Öغ Ò ÒÞ ÐÒ Ö Ð Ò Ñ À ØÓ Ö ÑÑ Þ Ø Ö Ò Ø Ö Ð Ø Ú Ò ÀÙ Ø Ò ÚÓÒ Ù Ö Ø Ö Ò Ò Ò Ñ Ö ÞÛ Ò ÙÒ ½ Ò Ö µ ¾ ½ ½ Ò Ù ÓÒ ÖÒ Ð ÖØ ÀÙ Ø ½ Ò µ Ù ¾µ Ù ½ ½

14 Ð ÙÒ ½ ÐÙ Ø Ö Ò ÐÝ ¹ Ö Ò Ú Ö ÐÙ Ø ÖÒ

15 Ð ÙÒ ¾ Ë Ð ÖØ Î ÖØ ÐÙÒ Ò Ö Ù Ö Ø Ö Ö Ö Ð Ò µ ÙÒ Ú Ö Ö Ø µ ÐÙ Ø Ö Ð ÙÒ ¾ Þ Ø Ð ÖØ Ò À ØÓ Ö ÑÑ Ö Ò Ò ØÐ Ò Ø Ò ØÞ Û ÒÒ Ö ÐÙ Ø Ö Ð ÓÖ Ø ÑÙ ÚÓÒ Ö ÞÛº Ú Ö ÐÙ Ø ÖÒ Ù Øº Ö À Ö À ØÓ¹ Ö ÑÑ Ø ÒÓÖÑ Ð ÖØ Ö Ï ÖØ Ù Ö Ð Ò Ò Ë Ø ØÖ Ø Ö Ð Ò À ØÓ¹ Ö ÑÑ ¼º ¾ Ö Ö Ø À ØÓ Ö ÑÑ ¼º ¼º Ï ÒØÐ Ò ÒØ Ö Ø Ó Ö Ð Ò ÐÙ Ø Ö ÒÞ Ð Û ÒØÐ Ñ Ö Ù Ö Ø Ö Ñ Ñ ØØÐ ¹ Ö Ò ÙÒ Û Ò Ö Ñ Ö Ø Ò Ö Ù ØÖ Ø Ò Û Ù Ò Ö Ð Ø ÐÙ Ø Ö¹ Ò ÐÝ Ö Ò Ò ÙØ Øº À ØÓ Ö ÑÑ Ò ÐØ Ò ÞÛ Ö ÓÒ Û Ø ÁÒ ÓÖÑ Ø ÓÒ Òº ÓÐÐØ Ö ÞÙÑ Ò Ø ÒÓ Ò Û Ø Ö Ö Ò Ù Ù Ö Ø Ö Ò Ö Ò Ö ÑÑ ØÖ Ø Ø Û Ö Òº Ö Ò Ø ÒÚ ØÓÖ Ü Û Ö ÐÙ Ø Ö Ñ Ø Ñ Ö Ø Ò Ù Ö Ø Ö Þº º ÐÙ Ø Ö ½ ÙÒ ÐÙ Ø Ö Ñ Ø Ñ ÞÛ Ø Ö Ø Ò Ù ¹ Ö Ø Ö ØÛ ¾ Ø ÑÑغ ÒÒ Û Ö Ö Ò Ø ÒÚ ØÓÖ Ò ÈÙÒ Ø Ñ Ø Ò ÃÓÓÖ Ò Ø Ò Ù ½ Ù ¾ µ Þ Ò Ø Û ÞÙ Ò Ñ Ö ÑÑ Û Ò Ð ÙÒ Öغ Ç Ò ØÐ Ñ Ò ÐÐ ÈÙÒ Ø Ò Ñ Ö Ð Ò ÙÖ ÈÙÒ Ø ¼ ¼µ ¼º ¼º µ ÙÒ ½ ¼µ Ù Ô ÒÒØ Û Ö Ö Ø ÃÓÓÖ Ò Ø ÑÑ Ö Ö Ö Ð ÞÛ Ø Ò ÑÙ ÙÒ Û Ò Ö ÔÖÓ Ð Ø Ò Æ Ò Ò ÙÒ ¾µ ÞÙ ØÞÐ Ù ½ Ù ¾ ½ ÐØ Ò ÑÙ º ÁÑ Á Ð ÐÐ Ò Ö Ò ÞÙµ Ö Ò ÐÙ Ø Ö ÒØ ÐÙÒ Û Ö Ò ÐÐ ÈÙÒ Ø Ò Ö Æ ÈÙÒ Ø ½ ¼µ Ð Òº ÈÙÒ Ø Ò Ö Æ ÚÓÒ ¼º ¼º µ ÙØ Ò Ù Ñ Ö¹ ÙØ Ø ÒÚ ØÓÖ Ò Ò ØÛ Ò Ö Å ØØ ÞÛ Ò ÞÛ ÐÙ Ø ÖÒ Ð Òº ÈÙÒ Ø ¼ ¼µ Ø ÑÑ Ò Ð ÖÛ ÚÓÒ Ê Ù Ø Ò Ò Ò Ö Ò Ò Ù ¹ Ö Ø Ö ÞÙ ÐÐ Ò ÐÙ Ø ÖÒ Ù Û Òº Ó Ö Ð Ò Ö ÑÑ Ò Ð ÙÒ Þ Ø Ë ØÙ Ø ÓÒ ÞÙ ÒÒ Ö ÐÙ Ø Ö¹ Ò ÐÝ ÛÓ ÐÙ Ø ÖÞ ÒØÖ Ò ÞÙ ÐÐ Ò Ø Ð ÖØ Û Ö Òº Ë Ð ØÚ Ö ØÒ Ð Ö Ø Ö Ù ÐÐ Ò Ø Ð ÖÙÒ Ò Ö Ð Ø Ð ÙÒ ÒÙÖ Ö Û Ò ÈÙÒ Ø Ð Ò Ò Ö Æ Á ÐÔÙÒ Ø ½ ¼µº

16 Ð ÙÒ Å Ü Ñ Ð Ù Ö Ø Ö Ö ÞÙ ÐÐ Ò Ò Ò Ø Ð ÖÙÒ Ö ÐÙ Ø ÖÞ ÒØÖ Ò Ó Ò Ð Ò µ Ö Ö ÙÒØ Ò Ð Ò µ Ú Ö ÙÒØ Ò Ö Ø µ ÐÙ Ø Ö Ò ÃÓÒÚ Ö ÒÞ Ð ÓÖ Ø ÑÙ ÙÒ Ò ÁÒØ Ò ØØ ÔÐÓØ Ö Ò Ò ÖÓ Ò Ø Ò ØÞ Ó Ò Ö Ø µ Ö ÙÒØ Ö Ì Ð ÚÓÒ Ð ÙÒ Þ Ø Ö ÑÑ Ò ÚÓÐÐ ØÒ Ö ÙÖ ¹ ÖÙÒ Ö ÐÙ Ø Ö Ò ÐÝ Ñ Ø Ö ÞÛº Ú Ö ÐÙ Ø ÖÒº ÐÙ Ø Ö ÒØ ÐÙÒ Ñ Ø Ö ÓÖÖ Ø Ò ÒÞ Ð ÚÓÒ Ö ÐÙ Ø ÖÒ Û Ø ÙØÐ Ñ Ö Ï ÖØ Ò Ö Æ Á ÐÔÙÒ Ø ½ ¼µ Ù º ÁÑ ÐÐ Ö ÖÓ Ö Ø Ò ØÞ ÓÐÐØ Ò Ø ÐÐ Ö ÒÞ ÐÒ Ò ÈÙÒ Ø Ò ÁÒØ Ò ØØ ÔÐÓØ ÚÓÖ ÞÓ Ò Û Ö Ò Ñ Ö Ó Ö ÁÒØ Ò ØØ ÒÞ Ø Û ÖÓ Ø Ö ÈÙÒ Ø Ñ ÒØ ÔÖ Ò Ò Ö Øº Ó Ö Ö Ø Ö ÑÑ Þ Ø Ò Ò Ö ÖØ Ò ÁÒØ Ò ØØ ÔÐÓØ Ö Ò Ò ÒÐ Ò Ø Ò ØÞ Û Ò Ð ÙÒ ½ Ñ Ø Ò Ö ÙØÐ Ö Ø Ò Ø Ò Ø Ñ Ø Ò ÑØ ½ ¾¾ ½ Ò Ø ØØ ½ Ø ÒÚ ØÓÖ Òº Ö ÖØ Ò Î Ù Ð ÖÙÒ Ò ÐÐ Ò Ù Ò Ù Ö Ø Ö Òº ÁÑ ÚÓÖ¹ Ö Ò Ò Ò ØØ ÛÙÖ Ö Ø ÖÛ ÒØ Ñ Ö ÁÒ ÓÖÑ Ø ÓÒ Ö ¹ ÙÖØ ÐÙÒ Ö ÐÙ Ø Ö Ø Ö Ò ÞÓ Ò Û Ö Ò ÒÒº Ø Ñ Û ÙÞÞݹ ÀÝÔ ÖÚÓÐÙÑ Ò Ó Ö Ñ ØØÐ Ö µ È ÖØ Ø ÓÒ Ø Ö Ø Ò Ù ¹ ØÒ Ö Ø ÒÚ ØÓÖ Ò ÞÙ Ò ÐÙ Ø ÖÒº Ë Ö Ò ØÞÐ Ø ØÖ ØÙÒ Ö Ù Ö Ø Ö ÔÖÓ ÐÙ Ø Ö Ù ØÖ Ò Ö Ò Ø ÒÞ Òº Ö ÐÙ Ø Ö Û Ö Ò Ò Ö ÑÑ Ö Ø ÐÐØ Ò Ñ Ö Ò Ø ÒÚ ØÓÖ Ü Ò ÈÙÒ Ø Ò Ö ËØ ÐÐ Ù µ Þ Ò Ø Û Ö º ÖØ ÞÙ Ö ÑÑ Ò Û Ò Ð ÙÒ ÞÙ Ò Ò º Ï ÓÐÐØ Ò Ð Ö ÑÑ Ù Ò Ð Ò Ò Ø ÒÞ Ò ÓÐÐØ Ò Ó Ö Ö Ò Ø ÒÞ Ò Ò Ö Ù Ö Ø Ö Ö Òº ÓÐÐ ÙÖÞ ÖÐÙ¹ Ø ÖØ Û Ö Ò Û Ð Ø Ù ØÖ Ø Ò Û ÒÒ ÐÙ Ø ÖÞ ÒØÖ Ò ÙÒ Ò Ø Û ÐØ Û Ö Ò Ó ÛÓ Ð ÙØ ÐÙ Ø Ö ØÖÙ ØÙÖ Ò Ò Ò Ø Ò ÚÓÖ Ò Ò Ò º ÌÝÔ ÈÖÓ¹

17 Ð ÙÒ Ù Ö Ø Ö Ù ØÖ Ò Ö Ò Ø ÒÞ Ò Ö ÐÙ Ø ÖÒ Ð ÙÒ Ù Ö Ø Ö Ù ØÖ Ò Ö Ò Ø ÒÞ Ò Ú Ö ÐÙ Ø ÖÒ Ð Ñ Ò Ñ ÐÐ Ù ØÖ Ø Ò Ò ÓÐ Ò Ò Ò ÐÙ Ø Ö ÑÙ ÞÛ Ó Ö Ñ Ö Ø ÒÐÙ Ø Ö Òº Ö ÐÐ ØÖ ØØ ÚÓÖ ÐÐ Ñ ÒÒ Ù Û ÒÒ ÒÞ Ð Ö ÐÙ Ø Ö ÞÙ Ð Ò Û ÐØ ÛÓÖ Ò Øº ÁÒ Ñ ÐÐ Û Ö Ò ÒÙÖ Û Ò Ø Ò Ñ Ó Ö Ò Ð Ò Ò Ì Ð Ö ÑÑ Ñ Ø Ö Ö Ò Ñ Ø Ò ÞÙ Ñ ÐÙ Ø Ö Ö Òº Û Ó Ö Ñ Ö ÐÙ Ø Ö Ø Ð Ò Ð Ø ÒÐÙ Ø Öº ØÖ ØØ Ð Ö¹ Û Ù Û ÒÒ ÒÞ Ð Ö ÐÙ Ø Ö ÞÙ ÖÓ Û ÐØ ÛÙÖ º ÁÒ Ñ ÐÐ ØÖ Ø Ò Ð Ø Ö Ð Ò Ø ÒÞ Ò Ù Ð Ò Ù Ö Ø Ö Ñ Ð Ò Ò ÙÒØ Ö Ò Ì Ð Ö ÑÑ Ù º Ð ÙÒ Þ Ø ÒØ ÔÖ Ò Ò Ö ÑÑ Ö Ò Ò ØÐ Ò Ø Ò ØÞ Û ÒÒ Ö ÐÙ Ø Ö Ú ÖÛ Ò Ø Û Ö Òº ÐÐ Ö Ö ÑÑ Ò Ö ÙØ Ù º Å Ò Ö ÒÒØ Ó Ö ÐÙ Ø Ö ½ ÙÒØ Ö Ø ÒÐÙ Ø Ö Ò Ð ÙÒ ½ ¹ Ø Ñ Ø Ò ÚÓÒ ÐÐ Ò Ò Ö Ò ÐÙ Ø ÖÒ Ô Ö ÖØ Øº Ö Ð Ò Ï Ð ÚÓÒµ Ú Ö ÐÙ Ø ÖÒ Ö Ò Ò Ð ÙÒ Ö Ø Ðй Ø Ò Ö ÑÑ º ÐÙ Ø Ö ½ Ø Û ÖÙÑ ÙÒØ Ö Ø ÒÐÙ Ø Ö Ò Ð ÙÒ ½ ÙÒ Ö ÑÑ Ø ÑÑØ Ò ÞÙ Ñ Ø Ñ ÚÓÒ ÐÙ Ø Ö ½ Ö ÐÙ Ø ÖÒ Ö¹ Òº Ö ÑÑ Ö ÐÙ Ø Ö Ñ Ø Ñ ÐÙ Ø ÖÞ ÒØÖÙÑ Ó Ò Ð Ò Ò Ð ÙÒ µ Ø Ò ÐÐ Þ ÔØ Ð Ù º Ï Ò Ð ÙÒ ½ ÞÙ Ò Ø Ø ÐÙ¹ Ø Ö Ù Ò ÖÑ Ò ÓÖÖ Ø Ð Ò Ó Ö Ø ÒÐÙ Ø Ö º ÐÐ Ö Ò ÙØ Ø Ö Ö Ð Ø Ú ÓÒØ ÒÙ ÖÐ ÐÐ Ö Ù Ö Ø Ö Ò ÐÙ Ø Ö Ò Ø Ö ÙØ ÚÓÒ Ò Ò Ö Ò ÐÙ Ø ÖÒ Ô Ö ÖØ Øº ÐÙ Ø Ö Ñ Ø Ñ ÐÙ Ø ÖÞ ÒØÖÙÑ

18 Ð ÙÒ ÁÒØ Ò ØØ ÔÐÓØ Ö Ù Ö Ø Ö Ö Ò Ø ÒÞ Ò Ö Ò Ò ÖÓ Ò Ø Ò ØÞ Ó Ò Ò Ö Å ØØ Ò Ð ÙÒ ½ Ø Ð Ø Ø ÐÙ Ø Öº Ë Ð Ø Ö Ð Ò ¹ Ø ÒÞ Ò ØÖ Ø Ò ØÖÓØÞ Ñ Ð Ò Ù Ö Ø Ö Ù Ò Ø Ò Ñ Ø Ñ Ö Ø Ò ÐÙ Ø Ö ¾ Ø Ð Ò ÑÙ º Ù Ö Ñ Ø Ò Ä Ñ Ö Ñ Ø¹ Ø Ð ÖÓ Ö Ù Ö Ø Ö Û ÒÞ Ø ÐÙ Ø Ö Ò Ò Ò ÚÓÒ ÞÛ Ú Ö Ò Ò Ø ÒÐÙ Ø ÖÒ Ô Ø Û Ö º ÐÙ Ø Ö ¾ Û Ø Ò Ö Ù Ö Ø ¹ Ö Ù Ö Ð Ò Ø ÒÞ Ò Ù Ò Ø Ò Ñ Ø ÐÙ Ø Ö Ø Ð Ò ÑÙ º Ï Ò Ö Ò Ñ Ø Ò Ñ Ü Ñ Ð Ò Ù Ö Ø Ö Ò ÓÐÐØ Ñ ÐÐ ÖÓ Ö Ø Ò ØÞ Ò ÁÒØ Ò ØØ ÔÐÓØ Û Ò Ð ÙÒ ÚÓÖÞÙ Ø Û Ö Òº Ð Û Ø Ö Ô Ð ÞÙÖ ÁÐÐÙ ØÖ Ø ÓÒ ÒØ Ö Ò Ð ÙÒ Ö Ø ÐÐØ Ò ØÐ Ø Ò ØÞ Ñ Ê Ù Ø Ò ÒÞÙ Ø ÛÙÖ Òº Ð ÙÒ Þ Ø Ð ÖØ µ Î ÖØ ÐÙÒ Ö Ù Ö Ø Ö ÙÒ ¹ Ö ÑÑ Ö Ñ Ü Ñ Ð Ò Ù Ö Ø Ö Ö Ò Ú ÖÖ Ù Ø Ò Ø Ò ØÞ Û ÒÒ Ö Ñ Ø Ö ÐÙ Ø ÖÒ ÐÙ Ø ÖØ Û Ö º Ö ÑÑ ÓÐÐØ Ò Ò Ò Ò Ò Ð¹ ÙÒ Ò ¾ ÞÛº Ò Ö Ø ÐÐØ Û Ö Òº Ñ Ò Ñ Ø Ò ÙÒ ÍÒØ Ö Ò Ó Ò ØÐ ÙÒ Ö Ù Ò Ò Ø Û Ø Ö ÖÐÙØ ÖØ ÞÙ Û Ö Òº ÁÒ Ð ÙÒ Ò Ù Ö Ø Ö Ö Ò Ø ÒÞ Ò Ö Ø ÐÐØ Ú Ðº Ð ÙÒ ÙÒ µº Ë ÐÙ Ñ Ö ÙÒ Ò ÁÒ Ñ ØÖ ÛÙÖ Ò Ú Ö Ò Î Ù Ð ÖÙÒ Ø Ò Ò ÞÙÖ ÙÖØ ÐÙÒ Ò ÐÙ Ø Ö Ò ÐÝ Ö Ò ÚÓÖ Ø ÐÐغ ÃÐ Ø Ñ ÒÒ Ò ÞÙ Ú Ö¹ Û Ò Ø Û Ö Ò Ò ÐÙ Ø Ö Ò ÐÝ ÚÓÐÐ ØÒ ÙÒ ÖÛ Ø ÙÖ ÞÙ Ö Òº ÐÐ Ö¹ Ò Ú ÖÐ Ø Ñ Ò Ù Î Ö Ö Ò Ò ÜØÖ Ñ ÁÒ ÓÖÑ Ø ÓÒ ÓÑÔÖ ¹ ÓÒ ÚÓÖÒ Ñ Òº ÁÑ Ò ØÞ ÞÙ Ò ÐØ Ò Ö Ò Ø Ñ Û ÒØÐ Ñ Ö ÁÒ ÓÖÑ Ø ÓÒ Ò ÙÒ ÖÐ Ù Ò Ó Ö ÙÖØ ÐÙÒ ÙÒ Á ÒØ Ø ÓÒ ÙØ Ö ÙÒ Ð Ø Ö ÐÙ Ø Öº Ç ÛÓ Ð ÐÐ Ö Ò Ø Ñ Ù Ö Ø Ö Ú ÖÛ Ò Ò Ð Ò ØÖÓØÞ Ñ Ù Ö Ò Ø¹ ÙÞÞݵ ÐÙ Ø Ö Ò Ú Ö Ö Ò ÒÛ Ò Òº ÞÙ Ñ Ò ÒÙÖ

19 Ð ÙÒ ÐÙ Ø Ö Ò ÐÝ Ö Ò Ñ Ø Ö ÐÙ Ø ÖÒ Ú ÖÖ Ù Ø Ò Ø Ò Ð ÙÒ Ë Ð ÖØ À ØÓ Ö ÑÑ ÙÒ Ñ Ü Ñ Ð Ù Ö Ø Ö Ö Ò Ú Ö¹ Ö Ù Ø Ò Ø Ò ØÞ

20 Ð ÙÒ Ù Ö Ø Ö Ù ØÖ Ò Ö Ò Ø ÒÞ Ò Ú ÖÖ Ù Ø Ò Ø Ò Ò Ö ÙÖ ÖÙÒ Ö Ö Ò ÐÙ Ø Ö Ò ÐÝ ÒÑ Ð Ù Ö Ø Ö Ò Ò Ð Ò ÓÖÑ ÐÒ Ö Ò Ø Û Ö Ò ÚÓÖ Î Ù Ð ÖÙÒ Ñ Ø Ó Ò Ò Û Ò Ø Û Ö Ò ÒÒ Òº Ò ÙÒ ÖÓ Ò Ò ÙÐ Î Ö ØÑ Ò ÙÒ Ö Â ÒÞ Î Ù Ð ÖÙÒ ÓÒÞ ÔØ ÑÔÐ Ñ ÒØ ÖØ Òº Ä Ø Ö ØÙÖ ½ Þ Âº º È ØØ ÖÒ Ê Ó Ò Ø ÓÒ Û Ø ÙÞÞÝ Ç Ø Ú ÙÒØ ÓÒ Ð ÓÖ Ø Ñ º ÈÐ ÒÙÑ ÈÖ Æ Û ÓÖ º ½ ½º ¾ º º Þ Âº º à ÐÐ Ö Âº ÃÖ Ò ÔÙÖ Ñ Êº È Ð Æº ʺ ÙÞÞÝ ÅÓ Ð Ò Ð ÓÖ Ø Ñ ÓÖ È ØØ ÖÒ Ê Ó Ò Ø ÓÒ Ò ÁÑ ÈÖÓ Ò º ÃÐÙÛ Ö Ó ØÓÒº ½ º Ú Êº ƺ Ö Ø Ö ÞØ ÓÒ Ò Ø Ø ÓÒ Ó ÆÓ Ò ÐÙ Ø Ö Ò º È ØØ ÖÒ Ê Ó Ò Ø ÓÒ Ä ØØ Ö ½¾ ½ ½µ ˺ º Ø Á Ú º º ÍÒ ÙÔ ÖÚ ÇÔØ Ñ Ð ÙÞÞÝ ÐÙ Ø Ö Ò º Á ÌÖ Ò º È ØØ ÖÒ Ò ÐÝ Ò Å Ò ÁÒØ ÐÐ Ò ½½ ½ µ ˺ ½º À ÔÔÒ Ö º ÃÐ ÛÓÒÒ º ÃÖ٠ʺ ÊÙÒ Ð Ö Ìº ÙÞÞÝ ÐÙ Ø Ö Ò ÐÝ º Ï Ð Ý Ø Öº ½ º ÃÖ Ò ÔÙÖ Ñ Êº à ÐÐ Ö Âº ÈÓ Ð Ø ÔÔÖÓ ØÓ ÐÙ Ø Ö Ò º Á ÌÖ Ò º ÓÒ ÙÞÞÝ ËÝ Ø Ñ ½ ½ µ ˺ ½½¼º Ì ÑÑ Àº ÓÖ ÐØ º ÃÖ٠ʺ ÅÓ Ø ÓÒ ØÓ ÁÑÔÖÓÚ ÈÓ Ð Ø ÐÙ¹ Ø Ö Ò ÐÝ º Á ÁÒØ ÖÒº ÓÒ º ÓÒ ÙÞÞÝ ËÝ Ø Ñ ÀÓÒÙÐÙÐÙ ¾¼¼¾µº

21 Datenbasierte Regelgenerierung mit modell-basierten Clusterverfahren H. Kiendl, L. Haendel Lehrstuhl für Elektrische Steuerung und Regelung Universität Dortmund, Dortmund Tel.: oder oder Zusammenfassung Betrachtet wird die Aufgabe der datenbasierten Modellierung von Prozessen für die Datenpunkte erhoben wurden. Jeder Datenpunkt besteht aus den Werten einer oder mehrerer Eingangsgrößen und einer dazugehörenden Ausgangsgröße. Das Modellierungsziel besteht darin, ausgehend von den Datenpunkten ein Modul zu lernen, das die Ausgangsgrößenwerte für zukünftige Datenpunkte, für die nur die Eingangsgrößenwerte bekannt sind, vorhersagt. Der hier vorgestellte SMBC Algorithmus erweitert unüberwacht arbeitende modellbasierte Clusterverfahren in Richtung eines überwachten Generierens von Clustern und darauf basierenden WENN-DANN-Regeln. Cluster werden individuell nach Relevanzgesichtspunkten bewertet. Dies erhöht ihre Interpretierbarkeit. Durch Mechanismen zum Löschen, Hinzufügen und Vereinigen von Clustern wird automatisch eine passende Clusteranzahl ermittelt. Die prinzipielle Leistungsfähigkeit des entwickelten Verfahrens wird an mehreren Benchmarkproblemen demonstriert. 1 Einleitung Betrachtet wird die Aufgabe der datenbasierten Modellierung von künstlichen oder realen Prozessen für die Datenpunkte erhoben wurden. Jeder Datenpunkt P (x, y) besteht aus einem m dimensionalen Eingangsvektor x und einem dazugehörenden Ausgangsgrößenwert y. Zu unterscheiden sind Regressions- und Klassifikationsaufgaben. Bei Regressionsaufgaben ist die Ausgangsgröße reellwertig, bei Klassifikationsaufgaben nimmt sie nur ganzzahlige Werte an, die die verschiedenen Klassen repräsentieren. Das Modellierungsziel besteht darin, aus der zur Verfügung stehenden Menge von Datenpunkten ein Modul zu lernen, das die Ausgangsgrößenwerte für zukünftige Datenpunkte, für die nur die Eingangsgrößenwerte bekannt sind, vorhersagt. Fuzzy-Systeme sind zur Lösung dieser Aufgabe prinzipiell geeignet; sie modellieren das Prozessverhalten mit Hilfe einer aus WENN-DANN-Regeln bestehenden Regelbasis. Für die datenbasierte Generierung von Mamdani-Fuzzy-Systemen ist das Fuzzy-ROSA-Verfahren [KK94, Kro99, Sla01] entwickelt worden. Als wesentliche Einschränkung sind die mit dem Fuzzy-ROSA-Verfahren generierten Regelprämissen allerdings nur in der Lage, achsparallele Gebiete des Eingangsraumes zu adressieren. Um diese Einschränkung zu überwinden, werden hier geeignete Clusterverfahren entwickelt. Fuzzy-Clusterverfahren partitionieren eine gegebene Menge von Datenpunkten in mehrere Gruppen, die als Cluster bezeichnet werden. Datenpunkte können dabei gleichzeitig zu mehreren Clustern gehören. Die Datenpunkte sollen dabei innerhalb eines Clu-

22 sters möglichst ähnlich und zwischen verschiedenen Clustern möglichst unähnlich zueinander sein. Modell-basierte Clusterverfahren wie der Fuzzy-C-Means (FCM) oder der Gustafson-Kessel (GK) Algorithmus [GK79, HKK97, JMF00] arbeiten mit einer a priori festzulegenden Anzahl von Clustern und kennzeichnen diese durch ein Zentrum und beim GK Algorithmus durch eine Kovarianzmatrix, welche den Schwerpunkt bzw. die Ausdehnung der dem Cluster zugeteilten Datenpunkte beschreiben. Als Maß für die Ähnlichkeit von Datenpunkten wird der Abstand derselben verwendet. Zu gegebenen Daten werden die Clusterparameter iterativ mit einem Expectation-Maximization (EM) Algorithmus [DLR77] bestimmt: Die Clusterparameter werden geeignet initialisiert. Im sogenannten E-Schritt wird die Zuteilung jedes Datenpunktes zu jedem Cluster abstandsabhängig bestimmt. Datenpunkte werden dabei umso mehr einem Cluster zugeteilt, umso näher sie ihm sind. Im darauf folgenden sogenannten M-Schritt werden die Clusterparameter aufgrund der Zuteilungen neu ermittelt. Die beiden Schritte werden bis zur Erfüllung eines Abbruchkriteriums wiederholt. 2 Grundidee FCM und GK Algorithmus arbeiten unüberwacht, d.h. ohne besondere Berücksichtigung einer Ausgangsgröße. Im Kontext der datenbasierten Regelgenerierung ist es jedoch gewünscht, Cluster zu erhalten, die sich durch möglichst homogene bzw. gleiche Ausgangsgrößenwerte auszeichnen und es erscheint sinnvoll, dieses bereits während des Clusterprozesses zu berücksichtigen. Ferner ist die Anzahl der zu verwendenden Cluster selten im vorhinein bekannt und sollte sich deshalb während des Clusterprozesses selbständig einstellen. Daher werden FCM bzw. GK Algorithmus durch die von uns entwickelten Strategieelemente wie folgt erweitert und das daraus resultierende Verfahren wird fortan als SMBC 1 Algorithmus bezeichnet. Erweiterung der Repräsentation der Cluster um einen Ausgangsgrößenwert Modifikation der Zuteilung von Datenpunkten, die bezüglich des Ausgangsgrößenwertes unpassend zu einem Cluster sind automatische Ermittlung einer passenden Clusteranzahl durch Einfügen neuer Cluster in Gebiete des Eingangsraums, in denen inhomogene Cluster, d.h. Cluster denen Datenpunkte mit stark unterschiedlichen Ausgangsgrößenwerten zugeteilt wurden, liegen Übertragung und Einsatz der Relevanzkonzepte des Fuzzy-ROSA-Verfahrens zur Bewertung von Clustern. Löschen von Clustern mit besonders schlechter Bewertung und Vereinigen von Clustern, wenn dies anhand der resultierenden Relevanzbewertung sinnvoll erscheint. 3 Basisalgorithmus Im folgenden wird die auf dem FCM Algorithmus basierende Basis-Variante des SMBC Algorithmus beschrieben. 1 engl.: supervised modell-based-clustering

23 3.1 Clusterprototypen und Partitionsmatrix Ein Cluster wird beschrieben durch ein im Eingangsraum definiertes sogenanntes Clusterzentrum v und durch einen zugeordneten Ausgangsgrößenwert c. Die Zuteilung jedes Datenpunktes der zu clusternden Datenstichprobe zu jedem Cluster sei zusammengefaßt in der sogenannten Partitionsmatrix U. Das Element u i,t dieser Matrix kennzeichnet die Zuteilung des Datenpunktes P i zum Cluster C t. Die Partitionsmatrix hat genauso viele Zeilen wie Datenpunkte in der zu clusternden Stichprobe enthalten sind und genauso viele Spalten wie Cluster vorhanden sind. Für jeden Datenpunkt hat die über alle Cluster gebildete Summe der Zuteilungen den Wert 1. Ordnet man einem Datenpunkt P i die Masse 1 zu, so läßt sich u i,t auch als der Anteil interpretieren, der dem Cluster t von der Masse des Datenpunktes P i zugeteilt wird. Zu einer Stichprobe werden bei gegebener Partitionsmatrix die Clusterzentren und Ausgangsgrößenwerte jedes Clusters als eine Art Schwerpunkt der zugeteilten Datenpunktmassen gemäß v t,j = N u α i,tx i,j i=1 N u α i,t i=1 (1) c t = N u α i,ty i i=1 N u α i,t i=1 berechnet. Dabei bezeichnet der Index j die jeweilige Eingangsgröße und der Index t das jeweilige Cluster. N ist die Anzahl der Datenpunkte und α ist ein wählbarer Fuzziness-Parameter, für den wir den üblicherweise verwendeten Wert α = 2 wählen. Der Abstand eines Datenpunktes zu einem Cluster wird gemäß (2) m d 2 (x, v) = (x j v j ) 2 (3) j=1 im Eingangsraum als euklidischer Abstand zwischen dem Eingangsvektor x des Datenpunktes und dem Zentrum v des Clusters ermittelt. Zu einer Stichprobe werden bei gegebenen Clustern C t die Elemente u i,t der Partitionsmatrix nach der Vorschrift u i,t = 1 ( K di,t ) 2 α 1 (4) h=1 ermittelt. Dabei ist d i,t der nach Gl. (3) ermittelte Abstand des Datenpunktes P i = (x i, y i ) zum Clusterzentrum v t und K ist die Anzahl der Cluster. Die Zuteilung eines Datenpunktes zu einem Cluster ist hiernach um so größer, je geringer der Abstand des Datenpunktes zum betrachteten Cluster relativ zu den Abständen zu den anderen Clustern ist. d i,h

24 3.2 Modifikationsmatrix Die Partitionsmatrix wird unüberwacht, d.h. ohne Berücksichtigung der Ausgangsgrößenwerte der jeweiligen Datenpunkte und der Cluster ermittelt. Anhand des Ausgangsgrößenwertes eines Clusters ist jedoch feststellbar, wie gut ein Datenpunkt hinsichtlich seines Ausgangsgrößenwertes zu einem Cluster paßt. Im folgenden wird die Idee verfolgt, diese Information bereits während des Clusterprozesses auszunutzen. Hierzu wird die Zuteilung eines Datenpunktes mittels eines Modifikationsfaktors ω abgeschwächt, wenn sich die Ausgangsgrößenwerte des Datenpunktes und des Clusters stark voneinander unterscheiden. Zur Ermittlung der Modifikationsfaktoren werden im folgenden für den Fall der Regression bzw. der Klassifikation unterschiedliche Vorgehensweisen beschrieben. Analog zur Partitionsmatrix werden die Modifikationsfaktoren in der Matrix Ω zusammengefaßt. Das Element ω i,t gibt an, in welchem Maße die Zuteilung des Datenpunktes P i zum Cluster C t abzuschwächen ist. Anstelle der ursprünglichen Partitionsmatrix wird dann in den Gln. (1) und (2) zur Bestimmung der Clusterparameter die modifizierte Partitionsmatrix U mod verwendet, die sich ergibt, indem die ursprüngliche Partitionsmatrix U elementweise mit der Modifikationsmatrix Ω multipliziert wird. Gegebenenfalls ist es sinnvoll, die modifizierte Partitionsmatrix so zu re-normieren, daß die Summe der Elemente jeder Zeile wieder den Wert 1 ergibt. Regression Bei hinreichend gleichmäßiger Verteilung der Ausgangsgrößenwerte der Datenpunkte wird die Ähnlichkeit zweier Ausgangsgrößenwerte anhand eines Gaußkernels nach ω i,t = exp ( ) 2 ct y i (5) 2σβ bewertet. Dabei bezeichnet σ die auf der zu clusternden Stichprobe berechnete Standardabweichung der Ausgangsgröße und β ist ein einzustellender Strategieparameter des Verfahrens. Er bestimmt die Breite des Ausgangsgrößenintervalls, die von einem Cluster abgedeckt wird. Bei stark unterschiedlicher Verteilung der Ausgangsgrößenwerte der Datenpunkte kann es vorteilhaft sein, die Ausgangsgröße in einigen Wertebereichen genauer als in anderen aufzulösen. Dann empfiehlt es sich, den Parameter β basierend auf der Verteilung der Ausgangsgrößenwerte für den jeweiligen Ausgangsgrößenwert des Clusters gemäß ω i,t = ( ) 2 ct y i exp y < c β ( l t ) 2 ct y i exp y c β r t (6) individuell anzupassen. Die angepaßten Werte für β l t und β r t werden durch β l t = c t y l und β r t = y r c t (7) festgelegt. Dabei werden y l und y r so bestimmt, daß innerhalb der Intervalle [y l, c] bzw. [c, y r ] jeweils ungefähr n Datenpunkte enthalten sind. Der Wert des Parameters

25 n ist über den einzustellenden Strategieparameters γ an die Anzahl der zu clusternden Datenpunkte N und an die aktuelle Clusteranzahl K gemäß angekoppelt. n = γ K N (8) Klassifikation Im Falle der Klassifikation sind die vorkommenden Ausgangsgrößenwerte der Datenpunkte ganzzahlig und es existiert keinerlei Ordnung der Zahlenwerte wie es beispielsweise bei einer ordinalen Größe der Fall wäre. Daher werden die Modifikationsfaktoren durch ω i,t = { 1 yi = c t 0 sonst (9) festgelegt. Dies hat zur Folge, daß sich der Ausgangsgrößenwert eines Clusters nach dessen Initialisierung nicht mehr ändern kann. 3.3 Clusterprozeß Zu gegebenen Datenpunkten werden die Clusterparameter wie bereits in Abschnitt 1 beschrieben mit einem iterativen EM Algorithmus ermittelt: Zunächst werden K Start Startcluster geeignet initialisiert, z.b. indem zufällig K Start Datenpunkte der Stichprobe ausgewählt und die Eingangsraumpositionen und Ausgangsgrößenwerte dieser Datenpunkte als Clusterzentrum und Clusterausgangsgrößenwert verwendet werden. Anschließend wird im E-Schritt zu den aktuellen Clusterparametern die modifizierte Partitionsmatrix anhand von Gl. (4) und einer der Gln. (5), (6) oder (9) berechnet. Darauf folgend werden im M-Schritt die Clusterparameter anhand von Gl. (1) und (2) neu ermittelt. Um die Anzahl der Cluster automatisch den Eigenarten der jeweiligen Datenstichprobe anzupassen, werden im Anschluß an den M-Schritt die in den Abschnitten 3.6 und 3.7 beschriebenen Mechanismen zum Löschen, Hinzufügen und Vereinigen von Clustern eingesetzt. Damit sind alle Teilschritte eines Lernschrittes beendet und es werden bis zum Erreichen eines geeignet definierten Abbruchkriteriums dann diese Schritte ab dem E-Schritt wiederholt. 3.4 Prognosemechanismus Jedes Cluster C t ist bekanntlich direkt in eine Fuzzy-Regel der Form WENN Eingangsvektor innerhalb des Clusters DANN y = c t (10) überführbar. Der Aktiviertheitsgrad µ t der Prämisse, d.h. das Maß nach dem bestimmt wird, in welchem Grade ein Eingangsvektor x innerhalb eines Clusters C t liegt, wird durch µ t = exp( d 2 t ) (11) definiert. Dabei bezeichnet d t den nach Gl. (3) berechneten Abstand von Eingangsvektor und Clusterzentrum.

26 Wenn zur Verknüpfung mehrerer linguistischer Terme in der Prämisse als UND-Operator die Multiplikation verwendet wird, kann die Prämisse auch auf die folgende, üblichere Form gebracht werden. WENN x 1 ist A 1 UND... UND x n ist A n mit A j = exp( d 2 j) (12) Wir verwenden bei Regressionsaufgaben zur Akkumulation die gewöhnliche Summe und zur Defuzzifizierung die Schwerpunkt-Methode (COG). Bei Klassifikationsaufgaben verwenden wir dagegen zur Akkumulation und zur Defuzzifizierung jeweils die Maximum-Methode. 3.5 Relevanzbewertung Im Fuzzy-ROSA-Verfahren sind zur Bewertung der Relevanz einer Regel mehrere statistisch motivierte Kriterien entwickelt worden. Der Grundgedanke besteht darin, jede einzelne Regel danach zu bewerten, ob sie einen signifikanten Zusammenhang des Ein- Ausgangsverhaltens beschreibt. Die Übertragung des Relevanzkonzeptes auf eine Regel, die wie beschrieben einem Cluster zugeordnet wird, erfolgt hier derart, daß die Homogenität der Ausgangsgrößenwerte der Datenpunkte innerhalb eines Clusters betrachtet wird. Gemessen wird der Homogenitätsgrad als Trefferquote ϱ t = N ω i,t µ i,t i=1, (13) N µ i,t i=1 die sich als das Verhältnis der Summe der mit den Modifikationsfaktoren gewichteten Zugehörigkeiten der Datenpunkte zum Cluster C t zur Summe der ungewichteten Zugehörigkeiten ergibt. Man beachte, daß hier in Gl. (13) nicht die Zuteilung sondern die Zugehörigkeit der Datenpunkte zu den Clustern verwendet wird, damit jedes Cluster unabhängig von den anderen bewertet wird. Dies ist für den im Abschnitt 3.7 beschriebenen Vereinigungsmechanismus und für die Interpretierbarkeit der generierten Cluster von Bedeutung. Die bei der Relevanzbewertung der Cluster erhaltenen Werte ϱ t können als Glaubensgrad bei der Verarbeitung des resultierenden Regelsatzes verwendet werden. 3.6 Löschen und Hinzufügen von Clustern Aufgrund ihrer Äquivalenz zu Regeln sollten Cluster gelöscht werden, wenn ihre Relevanzbewertung zu schlecht ist oder wenn die Summe der Zuteilungen zu gering ist. Für diese beiden Löschbedingungen sind passende Schwellwerte ϱ min und u α min zu wählen 2. Dort wo Datenpunkte liegen, die in bezüglich der Ausgangsgrößenwerte inhomogenen Clustern zusammengefaßt sind, werden gezielt neue Cluster eingefügt: Das Konzept 2 Bei Berechnung der Clusterparameter werden in Gl. (1) und (2) die mit α potenzierten Zuteilungen verwendet. Dementsprechend bezieht sich der Schwellwert u α min auf die Summe N i=1 uα i,t.

27 der Modifikationsfaktoren induziert, daß dem einzelnen Datenpunkt sogenannte Verlustmasse 3 zugeordnet wird. Dies ist die Differenz zwischen der ursprünglichen Masse 1 eines Datenpunktes und der Summe der Teilmassen, die sich aufgrund der modifizierten Zuteilung ergeben. Am Ende eines Lernschritts wird ein Datenpunkt, für den sich eine von Null verschiedene Verlustmasse ergeben hat, zufällig ausgewählt. Die Auswahlwahrscheinlichkeit wird proportional zu den Verlustmassen der Datenpunkte angesetzt. Der ausgewählte Datenpunkt dient zur Initialisierung eines neuen Clusters in der aktuellen Clusterpopulation. Wie auch bei der Initialisierung wird die Eingangsraumposition des Datenpunktes als neues Clusterzentrum und die Ausgangsgröße des Datenpunktes als Clusterausgangswert verwendet. 3.7 Vereinigen von Clustern Eine geringere Anzahl von Clustern bedeutet ein weniger komplexes Modell und wirkt sich positiv auf die Interpretierbarkeit und oft auch auf die Generalisierungsfähigkeit und damit auf die Prognosegüte aus. Deshalb werden eng benachbarte Cluster, deren zugeteilte Datenpunkte ähnliche Ausgangsgrößenwerte aufweisen und denen damit ähnliche Clusterausgangswerte zugewiesen worden sind, als Kandidaten für eine Vereinigung angesehen. Zwei Cluster werden hier miteinander vereinigt, wenn die Relevanzbewertung des vereinigten Clusters nicht schlechter ist, als die beste Relevanzbewertung der bisherigen einzelnen Cluster. Die Vereinigung zweier Cluster geschieht, indem die entsprechenden Spalten der modifizierten Partitionsmatrix addiert und anschließend die Clusterparameter und die Relevanzbewertung neu berechnet werden. Die Cluster, für die eine Vereinigung versucht wird, werden wie folgt ausgewählt: Für jedes Cluster C t wird aus der Menge der Cluster gleichen oder 4 ähnlichen Ausgangsgrößenwertes das am nächsten liegende sogenannte Partnercluster ermittelt. Die Cluster werden mit zunehmenden Abstand zu ihrem Partnercluster in einer Rangliste sortiert 5. Nun wird die Rangliste schrittweise durchgegangen und versucht, das jeweilige Cluster mit seinem Partnercluster zu vereinigen, wenn keines der beiden betrachteten Cluster bisher vereinigt wurde und somit nicht mehr in der Clusterpopulation existiert. 4 Details und Erweiterungen 4.1 Geometrieparameter Beim FCM Algorithmus werden die Cluster lediglich durch ein Clusterzentrum gekennzeichnet; die Geometrie der dem Cluster zugeteilten Datenpunkte wird nicht berücksichtigt. Damit impliziert das verwendete Clustermodell sphärische, kugelförmige Cluster gleicher Größe. Im Gegensatz dazu werden die Clusterprototypen beim GK Algorithmus durch Bestimmung der Kovarianzmatrix anhand der zugeteilten Datenpunkte 3 Diese wird unabhängig von einer eventuellen Re-Normalisierung der Partitionsmatrix nachgehalten. 4 Im Falle der Klassifikation werden nur die Cluster mit gleichem Ausgangsgrößenwert betrachtet. Im Falle der Regression werden zu C t dagegen alle Cluster betrachtet, deren Ausgangsgrößenwert hier y i genannt in Verbindung mit dem Ausgangsgrößenwert c t des Clusters C t einen Modifikationsfaktor ergibt, der oberhalb eines festzulegenden Schwellwertes ω min liegt. 5 Sollte ein Cluster C t kein Partnercluster besitzen wird dieses Cluster ignoriert.

28 durch zusätzliche Geometrieparameter charakterisiert. Dabei werden die Elemente der Kovarianzmatrix 6 bei gegebener Stichprobe durch die Partitionsmatrix 7 U zu N Q t = u α i,t(x i v t ) T (x i v t ) (14) i=1 bestimmt. Ferner wird für die Berechnung der Partitionsmatrix anstelle des euklidischen Abstandes zwischen Clusterzentrum und Datenpunkt für jedes Cluster eine Art individuelle Mahalanobis-Distanz d 2 i,t = m det(q t ) (x i v) T Q 1 t (x i v t ) (15) verwendet. Der Term m det(q t ) bewirkt eine Normalisierung der Clustergröße. Damit impliziert das beim GK Algorithmus verwendete Clustermodell ellipsoide Cluster beliebiger Orientierung aber gleicher Größe. Für die Berechnung der Zugehörigkeit eines Datenpunktes zu einem Cluster wird jedoch auf diese Normierung verzichtet 8. Für die Startinitialisierung der Geometrieparameter wird die Einheitsmatrix verwendet. Beim Hinzufügen eines neuen Clusters werden die Geometrieparameter vom nächstliegenden Cluster übernommen. Die Anzahl der zu berechnenden Parameter der Kovarianzmatrix steigt quadratisch mit der Dimensionalität des Problems. Damit steigt gleichermaßen die Anzahl der Datenpunkte, die notwendig sind, um die Parameter mit einer bestimmten statistischen Robustheit zu bestimmen. Ebenso ist es bei Verwendung der vollen Kovarianzmatrix nicht mehr möglich, die den Clustern äquivalenten Fuzzy-Regeln auf die Form (12) zu bringen, da aufgrund der Drehung des Koordinatensystems keine komponentenweisen Abstände mehr ermittelt werden können. Oft werden daher nur die Diagonalelemente der Kovarianzmatrix ermittelt und sämtliche Elemente der Nebendiagonalen zu Null gesetzt, womit die Clusterprototypen jedoch wieder nur achsparallele Strukturen implizieren. Die Diagonalelemente sind bis auf einen zu vernachlässigenden konstanten Faktor identisch mit den komponentenweise berechneten Varianzen der den Cluster zugeteilten Datenpunkte bezüglich des Clusterzentrums. Ein allgemeinerer von Banfield & Raftery entwickelter Weg wird in [BR93, FR98] beschrieben. Durch Re-Parametrisierung der Kovarianzmatrix mittels Singulärwertzerlegung ist es möglich, sehr flexibel eine große Vielzahl von verschiedenen Clustermodellen mit der kennzeichnenden Matrix Q t = D t Λ t D T t (16) aufzustellen. Dabei ist D t eine orthogonale Matrix mit den Eigenvektoren der Matrix Q t. Die Matrix Λ t ist eine Diagonalmatrix mit den Eigenwerten der Matrix Q t als Diagonalelementen; sie kann weiter in Λ t = λ t A t zerlegt werden. Die Matrix D t bestimmt damit die Orientierung, die Matrix A t die Form und der Parameter λ t die 6 Gustafson & Kessel verwendeten ursprünglich sogenannte Fuzzy-Kovarianzmatrizen, die sich nach Gl. (14) ergeben wenn zusätzlich sämtliche Elemente durch N i=1 uα i,t dividiert werden. Siehe hierzu [HKK97] Seite Wir verwenden hier die modifizierte Partitionsmatrix U mod. 8 Die Zugehörigkeiten werden zur Relevanzbewertung der Cluster und zur Auswertung des äquivalenten Regelsatzes verwendet.

29 Größe des Clusterellipsoids. Jeder Term wird entweder individuell für jedes Cluster einzeln ermittelt, als Mittel über alle Cluster berechnet oder aber a priori festgelegt. 4.2 Skalierbarkeit Von großer Bedeutung für die Abschätzung der praktischen Anwendbarkeit eines Lernverfahrens für ein gegebenes Problem ist die sogenannte Ordnung. Sie gibt an, wie sich die Laufzeit bzw. der Speicherplatzbedarf von einem Algorithmus mit zunehmender Größe des zu bearbeitenden Problems erhöht. Die Größe des Problems wird hier durch die Anzahl der Datenpunkte N und die Anzahl der Eingangsgrößen m bestimmt. Wenn mit einer festen maximalen Anzahl an Lernschritten und einer Obergrenze für die Anzahl der Cluster gearbeitet wird, hat der SMBC Algorithmus eine jeweils mit der Anzahl der Datenpunkte linear und mit der Anzahl der Eingangsgrößen kubisch zunehmende Ordnung O(Nm 3 ). Dies ergibt sich wie folgt: Für jeden Lernschritt müssen einmalig die Partitions- und Modifikationsmatrix berechnet und daran anschließend die Clusterparameter neu ermittelt werden. Diese Operationen skalieren linear mit der Anzahl der Datenpunkte und der Cluster. Für die Berechnung der Abstände der Datenpunkte zu den Clustern ist die Inversion einer m m Matrix erforderlich, die bei Verwendung eines üblichen Gauß schen Eliminationsverfahrens eine Ordnung von O(m 3 ) aufweist 9. Allerdings ist zu beachten, daß die obigen Voraussetzungen mit steigender Stichprobengröße ggf. nicht mehr zu rechtfertigen sind und es sinnvoll sein kann, eine größere Anzahl an Lernschritten und Clustern vorzusehen. 4.3 RBF-Netze Funktionsweise RBF-Netze [Orr96] modellieren den Zusammenhang zwischen der Ausgangsgröße und den Eingangsgrößen durch eine Linearkombination K y = f(x) = c t h t (x). (17) t=1 von K Teilfunktionen h t. Als Teilmodell werden häufig durch einen Mittelpunkt v und skalare oder komponentenweise Radien r bzw. r definierte Kernelfunktionen gewählt. Ein einfaches Beispiel für den eindimensionalen Fall ist (x v)2 h(x) = exp( ). (18) r 2 Die Erweiterung für den mehrdimensionalen Fall ist trivial. Neben Exponentialfunktionen werden in der Literatur verschiedene andere Funktionen untersucht. Beispielsweise schlägt Orr [Orr96] den allgemeinen Ansatz h(x) = F (d 2 ) mit d 2 = (x v) T R 1 (x v) (19) 9 Je nach verwendeten Clustermodell ist die Inversion einer Matrix nicht erforderlich bzw. bei einer Diagonalmatrix mit einer Ordnung von O(m) durchführbar, womit sich die Ordnung des Verfahrens auf O(N m) reduziert.

30 für die Modelle h(x) vor, wobei R eine geeignet definierte und invertierbare Matrix und F irgendeine eindimensionale Kernelfunktion ist, die vorzugsweise kontinuierlich, beschränkt und integrierbar zu 1 zu wählen ist. Das Lernen eines RBF-Netzes wird oft auf die Bestimmung günstiger Gewichtsfaktoren für einen festen Kanon von möglichen Kernelfunktionen beschränkt. Für eine bestimmte Auswahl aus der Menge der möglichen Kernelfunktionen ist dann die Bestimmung optimaler Gewichtsfaktoren durch Lösung eines linearen Gleichungssystems mittels der Pseudoinversen 10 durchführbar. Die Initialisierung, d.h. die Vorgabe möglicher Kernelfunktionen erfolgt u.a. durch Clusterverfahren. Alternativ werden alle Lerndatenpunkte als mögliche Kernelmittelpunkte verwendet. Die Ausdehnungsparameter ergeben sich dann zumeist sehr einfach aus statistischen Kennwerten der Lerndaten. Einordnung und Vergleich Das aus Abschnitt 3.4 im Falle der Regression resultierende Modul liefert zu einem gegebenen Eingangsvektor x den prognostizierten Ausgangsgrößenwert y in der From y(x) = K c t µ t (x) t=1. (20) K µ t (x) t=1 Darin sind c t die den Clustern C t zugeordneten Ausgangsgrößenwerte und µ t (x) die Zugehörigkeitsgrade des Vektors x zu den einzelnen Clustern C t. Kennzeichnend für unseren Ansatz ist, daß sich die Werte c t aus dem Clusterprozeß ergeben. Dieser ist wie beschrieben im Interesse einer guten Interpretierbarkeit der resultierenden Regeln so angelegt, daß sich möglichst homogene Cluster ergeben. Dies sind Cluster, die möglichst nur Datenpunkte mit gleichen oder ähnlichen Ausgangsgrößenwerten abdecken. Dementsprechend lassen sich die Funktionen µ t (x) und die Werte c t als lokale Charakterisierungen der Menge der Datenpunkte interpretieren. Mit läßt sich Gl. (20) auch in der Form u t (x) = µ t(x) K µ h (x) h=1 (21) K y(x) = c t u t (x) (22) t=1 schreiben. Damit kann man die aus dem Clusterprozeß hevorgegangenen Funktionen u t (x) zur Initialisierung der Kernelfunktionen für ein RBF-Netz verwenden und anstelle der bisherigen Werte c t mit Hilfe der Pseudoinversen neue Werte c t bestimmen. In ersten Versuchen konnte die Prognosegüte damit jedoch nur geringfügig gesteigert werden. Im Gegensatz dazu führte die Initialisierung der Menge möglicher Kernelfunk- 10 Die Pseudoinverse A + = (A T A) 1 A T löst die Gl. Ax = b im Sinne der Minimierung der quadratischen Fehler zu x = A + b.

31 tionen mit allen Lerndatenpunkten zu wesentlich besseren Ergebnissen; allerdings unter letztendlicher Verwendung einer viel größeren Anzahl an Kernelfunktionen. Die Ursache hierfür ist darin zu sehen, daß die Auswahl der Kernelfunktionen beim üblichen RBF-Ansatz mit Blick auf das Gesamtverhalten erfolgt. Es wird dabei also das Zusammenspiel der Kernelfunktionen von Anfang an berücksichtigt. Dies führt zu einer hohen Prognosegüte allerdings auf Kosten der Interpretierbarkeit: Häufig ergeben sich stark überlappende Kernelfunktionen, d.h. für einen angelegten Eingangsvektor sind meistens die Funktionswerte mehrerer Kernelfunktionen von Null verschieden. Zudem sind die sich ergebenden Gewichtsfaktoren die positiv und negativ sein können nicht mehr lokal interpretierbar. Der hier aufgezeigte Zielkonflikt zwischen Modellierungsgüte und Interpretierbarkeit ist im übrigen generell bei der datenbasierten Fuzzy-Modellierung anzutreffen. Man kann wie beim Fuzzy-ROSA-Verfahren auf Regeln abzielen, die jede für sich einen lokal sinnvollen Aspekt der betrachteten Daten darstellen und somit interpretierbar sind. Alternativ kann man auch auf die Interpretierbarkeit verzichten und die Regeln nebst Zugehörigkeitsfunktionen allein danach auswählen bzw. bestimmen, daß das resultierende Modul eine möglichst hohe Prognosegüte liefert. Zur Abrundung der Einordnung und zum Vergleich sei hier angemerkt, daß sich die für RBF-Netze kennzeichnende Vorschrift (17) auch wie folgt interpretieren läßt: Jedem Tupel (c t, h t (x)) entspricht eine Regel WENN x ist h t (x) DANN y = c t, wobei der Erfülltheitsgrad der Prämisse sich direkt zu µ t (x) = h t (x) ergibt und die Defuzzifizierung durch die Drehmomentmethode (TOR) [Kie97] erfolgt. Diese Sicht macht deutlich, daß die datenbasierte Generierung von interpretierbaren Regeln für ein Fuzzy-Modul, in dem die Drehmomentmethode zur Defuzzifizierung verwendet wird, ein noch nicht befriedigend gelöstes Problem aufwirft: Die Relevanz einer Regel kann nicht durch eine isolierte Betrachtung dieser Regeln, sondern nur durch Berücksichtigung des Zusammenspiels aller Regeln ermittelt werden. 5 Experimente Operatoren/Parameter erläuternder Kontext Aggregation Produkt Fuzzy-Modul Glaubensgrad Produkt Fuzzy-Modul K Start 1 Anzahl Startcluster α 2 Fuzziness-Parameter β 0.2 Modifikationsfaktoren nach Gl. (5) γ 6 Modifikationsfaktoren nach Gl. (6) u α min 5 minimale Zuteilung; Löschen von Clustern ϱ min 0 minimale Relevanz; Löschen von Clustern ω min 0.9 Ähnlichkeitsschwelle für Vereinigung Tabelle 1: Gewählte Einstellungen für die Fuzzy-Operatoren und freien Strategieparameter für die nachfolgenden Experimente

32 5.1 Illustrationsbeispiel quadratische Form Als zu modellierender Prozeß wird zunächst die quadratische Form y = x T [ ] x (23) betrachtet, für die 1000 Datenpunkte durch zufällig gewählte Eingangsraumpositionen erzeugt wurden. Für die Berechnung der Modifikationsfaktoren wird die histogrammbasierte Variante nach Gl. (6) gewählt und abweichend von Tabelle 5 der Parameter u α min auf den Wert 2 eingestellt. Abbildung 1 zeigt die Verteilung der Datenpunkte und die sich nach 40 Lernschritten ergebende Clusterkonfiguration im Eingangsraum. Für jedes Cluster sind dabei das Zentrum und die Ellipse, die alle Punkte mit gleicher Zugehörigkeit und zwar µ = 1 zum Cluster enthält, eingezeichnet. Offensichtlich e sind die Cluster wunschgemäß entlang der Höhenlinien der quadratischen Form ausgerichtet. Abbildung 1: Datenpunkte und mit dem SMBC Algorithmus generierte Cluster im Eingangsraum 5.2 Benchmarkprobleme Der SMBC Algorithmus wird anhand eines Regressions- und zweier Klassifikationsbenchmarks getestet und die Ergebnisse werden mit denen verglichen, die sich mit dem Fuzzy-ROSA-Verfahren bei Anwendung der in [Sla01] definierten Standardvorgehensweise bei 2-facher Kreuz-Validierung ergeben. Da der SMBC Algorithmus nicht deterministisch arbeitet, werden für jede Kreuz-Validierung jeweils 10 Testläufe durchgeführt und die resultierenden Mittelwerte angegeben. Als Prognosegüte ist je nach Aufgabentyp jeweils der mittlere absolute Fehler MAE bzw. der mittlere Klassifizierungsfehler MCE auf Testdaten als Ergebnis angegeben. F R Sys bezeichnet die Standardvorgehensweise des Fuzzy-ROSA-Verfahrens, F R Sys+OCR bedeutet, daß der mit

Ê Ê ÙÒ ÒØ ÖÖ Ý Ó ÁÒ Ô Ò ÒØ ÙØÓÖ ÖÒ Ö Ë Ñ Ø Å Øº ÆÖº ¾ à ÒÒÞº ½ ½ ÁÆÀ ÄÌËÎ Ê Á ÀÆÁË ÁÆÀ ÄÌËÎ Ê Á ÀÆÁË ÁÒ ÐØ Ú ÖÞ Ò ½ ÅÓØ Ú Ø ÓÒ ¾ Ì Ð Ò Ê ËÝ Ø Ñ ÖÖ Ý Å Ò Ñ ÒØ ËÓ ØÛ Ö Ê Ä Ú Ð º½ Ö «Ò Ø ÓÒ Ò ººººººººººººººººººººººººººººººº

Mehr

Verteilte Systeme/Sicherheit im Internet

Verteilte Systeme/Sicherheit im Internet ruhr-universität bochum Lehrstuhl für Datenverarbeitung Prof. Dr.-Ing. Dr.E.h. Wolfgang Weber Verteilte Systeme/Sicherheit im Internet Intrusion Detection und Intrusion Response Systeme (IDS & IRS) Seminar

Mehr

ÔÐÓÑ Ö Ø ÈÖÓ Ù Ø ÓÒ ÔÐ ÒÙÒ Ñ Ø À Ð ÚÓÒ ÅÙÐØ ÒØ Ò Ý Ø Ñ Ò Ë ÄĐÙ ÔÐÓÑ Ö Ø Ñ Ö ÁÒ ÓÖÑ Ø Ö ÍÒ Ú Ö ØĐ Ø ÓÖØÑÙÒ ½ º Ç ØÓ Ö ¾¼¼½ ØÖ Ù Ö ÈÖÓ º Öº Ã Ø Ö Ò ÅÓÖ Ôк ÁÒ ÓÖѺ ËØ Ò À Ù Ø Ò À ÖÑ Ø ØĐ Ø Ö Ø Ð Ø ØĐ Ò Ú

Mehr

Ê Ñ Ò¹ËÔ ØÖÓ ÓÔ Ò Ò Ö Ñ Ò ÓÒ Ð Ò Ð ØÖÓÒ Ò Ý Ø Ñ Ò ÖØ Ø ÓÒ ÞÙÖ ÖÐ Ò ÙÒ Ó ØÓÖ Ö Ö È Ý Ö ÍÒ Ú Ö ØĐ Ø À Ñ ÙÖ ÚÓÖ Ð Ø ÚÓÒ Þ Ö ÍÐÖ Ù À Ñ ÙÖ À Ñ ÙÖ ¾¼¼¼ ÙØ Ø Ö Ö ÖØ Ø ÓÒ ÙØ Ø Ö Ö ÔÙØ Ø ÓÒ ØÙÑ Ö ÔÙØ Ø ÓÒ ËÔÖ Ö

Mehr

BS Registers/Home Network HLR/AuC

BS Registers/Home Network HLR/AuC Ë Ö Ø Ñ ÅÓ Ð ÓÑÑÙÒ Ø ÓÒ Ò ØÞ Ö º Ò Ö Ø ÓÒ ÍÅÌ˵ ÃÐ Ù ÚÓÒ Ö À Ý ¾¼¼¾¹¼ ¹¾ ÁÒ ÐØ Ú ÖÞ Ò ½ Ò ÖÙÒ ¾ ½º½ Ï ÖÙÑ Ö ÙÔØ Ë Ö Ø ÓÒÞ ÔØ ÑÓ Ð Ö ÃÓÑÑÙÒ ¹ Ø ÓÒ º º º º º º º º º º º º º º º º º º º º º º º º º º º º

Mehr

Strategische Standortplanung in Reverse-Logistik-Netzwerken - Eine empirische und modellgestützte Analyse

Strategische Standortplanung in Reverse-Logistik-Netzwerken - Eine empirische und modellgestützte Analyse Sven Mühlthaler Strategische Standortplanung in Reverse-Logistik-Netzwerken - Eine empirische und modellgestützte Analyse Dargestellt für die Amaturenaufarbeitung kassel university press Die vorliegende

Mehr

ÖÓÒÐÝ ÒÙÒ ÎÖÖÒ ÞÙÖ ÈÁƹÖÒÙÒ ÙÒ ÈÁƹÈÖĐÙÙÒ ĐÙÖ ¹ÃÖØÒ ÖÓÒÐÝ ÒÙ ÈÁƹÎÖÖÒ ½ ÁÒÐØ ÚÖÞÒ ½ Ù ÑÑÒ ÙÒ Ö Ê ÙÐØØ ¾ ¾ ÒÙ ÎÖÖÒ ¾º½ ÈÁƹÒÖÖÙÒ º º º º º º º º º º º º º º º º º º º º º º º º º ¾º½º½ ÈÁƹÒÖÖÙÒ Ù ÃÖØÒÒÓÖÑØÓÒÒ

Mehr

ß Ð ¹ ÓÜ¹Ï ÖÚ ÖÛ Ò ÙÒ Î Ö ĐÙ Ö Ø ÚÓÒ Ú Ö Ò Ò Ö Ø ÒÙØÞ Ö ÃÐ Ò ÞÙÖ ÁÒ Ø ÒØ ÖÙÒ ÖĐ Ò Ø ÅĐÓ Ð Ø Ò ÞÙÖ ÒÔ ÙÒ Ö Ò Ö Ú ÖÛ Ò Ö ß Ï ÖÚ ÖÛ Ò ÙÒ ÚÓÒ ÃÓÑÔÓÒ ÒØ Ò Ò ÃÓÑÔÓÒ ÒØ Ò Ô Þ ÐÐ ËÛ¹Ì Ð Ò Ô Þ Î Ö ÐØ Ò Ù ¹ Û Ò

Mehr

Grundtypen von Lägern

Grundtypen von Lägern º Ä Ö Ý Ø Ñ Ñ Ö Î Á¹Ê ØÐ Ò ¾ ½½ Ø Ä ÖÒ ÔÐ ÒØ Ä Ò Ö Ø ¹ Ò Ø Ò Ñ Å Ø Ö Ð Ù º Ä Ö Ø Ò Ê ÙÑ ÞÛº Ò Ð ÞÙÑ Ù Û Ö Ò ÚÓÒ ËØ ¹ ÙÒ»Ó Ö Ë ØØ ÙØ Ò ÓÖÑ ÚÓÒ ÊÓ ØÓ Ò Û ¹ ÒÔÖÓ Ù Ø Ò Ó Ö ÖØ Û Ö Ò Ñ Ò Ò¹ ÙÒ»Ó Ö Û ÖØÑ Ö Ø

Mehr

Ò ĐÙ ÖÙÒ Ò ÒØÛ ÐÙÒ Ø Ò Ö ÁÒ ÓÖÑ Ø ÓÒ Ý Ø Ñ ÃÓÒÞ ÔØ Å Ø Ó Ò ÙÒ Ï Ö Þ Ù ÞÙÖ ÒØÛ ÐÙÒ ÒØ Ö ÖØ Ö ÁÒ ÓÖÑ Ø ÓÒ Ý Ø Ñ Ñ Ø Ò Ò ÍÑ Ð ß ÎÓÖÐ ÙÒ ÙÒØ ÖÐ Ò ß Öº Å ÖØ Ò Ò Ö ÙÒ Ó Ö ÁÒ Ø ØÙØ ĐÙÖ Ö ØÖ ÙÒ ¹ ÙØÓÑ Ø ÖÙÒ Å

Mehr

ÖÖ Ö Ø ÚÓÒ ÓÑÔÙØ Ö Ý Ø Ñ Ò Ë Ö ÔØ ÞÙÑ Ë Ñ Ò Ö ËÓÑÑ Ö Ñ Ø Ö ½ À Ö Ù Ö Å Ò Ö Ã Ö Ö Ü Ð ÈÖĐ Ð Ò Ö ÁÒ ÓÖÑ Ø ÍÒ Ú Ö ØĐ Ø Ã Ö Ð ÙØ ÖÒ ¹ ¼ Ã Ö Ð ÙØ ÖÒ Ï Ø ÖÑ ÒÝ ÁÒ ÐØ Á Ø Ò ÙØÞ ½ Ø Ò ÙØÞ ß Ö ØÐ Ä ½º½ ÏÓ Ö ÓÑÑØ

Mehr

ÎÓÖÖØÙÒ ÑØÖÐ ĐÙÖ Ò ËØÙÙÑ Ò Ò ĐÖÒ ÅØÑØ ÙÒ ÁÒÓÖÑØ Ò Ö ÍÒÚÖ ØĐØ ÄÔÞ ÀÖÙ Ò ÚÓÑ ËØÙÒÒ Ö ÙÐØĐØ ĐÙÖ ÅØÑØ ÙÒ ÁÒÓÖÑØ ÏÖÙÑ Ò ÌÙØÓÖÙÑ ÅØÑØ ÁÒ ÐÐÒ ÚÓÒ ÙÒ ÖÖ ÙÐØĐØ ÒÓØÒÒ ËØÙÒĐÒÒ Ø ĐØÙÒ ÑØ ÑØÑØ Ò ËÚÖÐØÒ Ð ØÚÖ ØĐÒк

Mehr

ÙÐØØ ÁÒ Ò ÙÖ Û Ò Ø Ò ÙÒ ÁÒ ÓÖÑ Ø ÔÐÓÑ Ö Ø Ö Ì Ñ ÃÓÒ ÓÐ ÖÙÒ Ò Á̹ËÝ Ø Ñ ÞÙÖ ÍÒØ Ö Ø ØÞÙÒ ÐÐ ÖØ Ö Ö Ö ËÓ ØÛ Ö Ò ØÐ ØÙÒ Ò ÚÓÖ Ð Ø ÙÖ ÌÓÖ Ø Ò ÁÖÐÒ Ö ¾¼¼ ÌÓÖ Ø Ò ÁÖÐÒ Ö ÓÑ Ö Ø Ö ÖÚ Ï Ö Ø ÙÒØ Ö Ö Ö Ø Ú ÓÑÑÓÒ

Mehr

Von Zeit zu Zeit ist man gezwungen, ein fsck manuell auszuführen. Sehen Sie sich dazu einfach das folgende Beispiel an:

Von Zeit zu Zeit ist man gezwungen, ein fsck manuell auszuführen. Sehen Sie sich dazu einfach das folgende Beispiel an: º Ø Ý Ø Ñ Ö Ô Ö Ö Ò ¾ ½ mounten. Der Parameter blocksize definiert die Blockgröße des Loop-Back-Geräts. Als Nächstes wird nun die Datei linux in /mnt (oder dort, wohin Sie das Image gemountet haben) mit

Mehr

ËÓÑÑ Ö Ñ Ø Ö ¾¼¼½ ÝÒ Ñ ËÝ Ø Ñ ¾ ÎÓÖÐ ÙÒ Ö ÔØ Ñ Ø ÄĐÓ ÙÒ Òµ Í Ó Ù Þ ÒØÖ Ð Ò ËÝ Ø Ñ Ö ÎÓÖÐ ÙÒ Å Ò Ð ÖÓØÑ Ò ÂÙÐ Ñ Ò ÙÒ ÒÞÙ Ø ÈÓ Ð³ Ò Ê Ñ Ø ÍÒÛÙ Ø ÁÆÀ ÄÌËÎ Ê Á ÀÆÁË ÁÒ ÐØ Ú ÖÞ Ò ÒÐ Ò Ä ÖÒÞ Ð Ú ½ ½ º ÔÖ Ð ¾¼¼½

Mehr

Ð ØÛÓÖØ Ó ØÓÖÚ Ø Ö Ñ Î Ö Ð ÚÓÒ ÁÒ ÓÖÑ Ø ÓÒ ÕÙ ÐÐ Ò ÙÒ Đ Ò ÚÓÒ Ò Ò Ö ÒØÛ ÐØ ÛÙÖ Ò ØĐÓ Ø Ñ Ò ÑÑ Ö Û Ö Ù È Đ ÒÓÑ Ò Ø Ò Ò Ö ÁÒ ÓÖÑ Ø ÓÒ ÕÙ ÐÐ ÐØ Ò ÓÑÔ Ø Ð Ò Ñ Ø Ò Ò Ò Ö ÞÛ Ø Ò Ð Ø Û ÒÒ ÙÑ Ð ÒÛ Ò ÙÒ Ò Ðغ À

Mehr

ËÚ Ò Æ ÙÑ ÒÒ À Ò Ä Ò Ö È Ö Ò Ò Ò ĐÙ ÖÙÒ Ò Ñ Ò ÐÐ Ò ÐÝ Ò ØĐÙÖÐ Ö ËÔÖ Ú ÎÓÖÛÓÖØ Ð Û Ö Ò Ö ¼ Ö Â Ö ÞÙÑ Ö Ø ÒÑ Ð Ä ÖÚ Ö Ò Ø ÐØÙÒ Ò ÚÓÖ Ö Ø Ø Ò Ò Ò ĐÍ Ö Ð ĐÙ Ö Ù Ë Ø Ö ÓÑÔÙØ ÖÐ Ò Ù Ø Û Ø Ø Ò È Ö¹ Ò Ð ÓÖ Ø Ñ

Mehr

Superharte, unterschiedlich gradierte PVD-Kohlenstoffschichten mit und ohne Zusätze von Titan und Silizium

Superharte, unterschiedlich gradierte PVD-Kohlenstoffschichten mit und ohne Zusätze von Titan und Silizium Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Wissenschaftliche Berichte FZKA 6740 Superharte, unterschiedlich gradierte PVD-Kohlenstoffschichten mit und ohne Zusätze von Titan und Silizium

Mehr

ËØ Ò À ÖØÑ ÒÒ Å ØÖ Ð¹ÆÖº ½ µ ÃÓÒÞ ÔØ ÓÒ ÙÒ Ú ÐÙ ÖÙÒ Ò Ö Î Ù Ð ÖÙÒ Ø Ò Ö Ñ Ò Ò Ø Ò ÚÓÒ ÓÐÓ Ò ÐÐ Ò ÔÐÓÑ Ö Ø ÈÖÓ º Öº º ÃÖ Ñ Ö ÈÖÓ ÙÖ Ö Ö Ô Ø ÒÚ Ö Ö ØÙÒ Ö ÓÐÓ ÙÒ ÁÒ ÓÖÑ Ø ÁÒ Ø ØÙØ Ö ÁÒ ÓÖÑ Ø ÂÓ ÒÒ ÏÓÐ Ò Ó

Mehr

Ò ÖØ Ö ÑÙÐØ Ñ Ð ÒÛ Ò ÙÒ Ò Ö Ø Ã Ö Ð ÓÖÒÖ Ò ¼ Ø ØØ Ò Ö Ø Ö ÐºÒ Ø ¾ º Å ¾¼¼½ Ù ÑÑ Ò ÙÒ Ö Ø Ñ Ø Ò Ò Ö Ð Ö ÒÓÖÑ Ò ÓØ Ò ÑÙÐØ Ñ Ð Ò Ò ÖØ Ò Ò ÙÒ Ò ÒØ Ö ÒØ ÙÒ Ò Ù Ì ÒÓÐÓ Ò ÙÖ ÔÖ Ø ¹ Ì Ø Ò Ù Ö ÙÒØ Ö ÄÙÔ Ò Ñ Òº

Mehr

ÁÒ Ø Ú ÖÞ Ò ½ Ò ÖÙÒ ½ ¾ Å ÒÞ Ö ÌÖ Ø Ùѹ ¹ ÜÔ Ö Ñ ÒØ ¾º½ ÌÖ Ø Ùѹ ¹ËÔ ØÖÙÑ º º º º º º º º º º º º º º º º º º º º º º º º º ¾º¾ ÜÔ Ö Ñ ÒØ Ò Å ÒÞ º º º º º º º º º º º º º º º º º º º º º º º º ½½ ¾º¾º½

Mehr

Ò ÓÖ ÖÙÒ Ò Ò ÑÓ ÖÒ ÖÓÛ Ö¹ Ö Ò Ï ¹ ÔÔÐ Ø ÓÒ Ò ËØ Ò Ê Ù Ð ÅĐ ÖÞ ¾¼¼½ ÔÐÓÑ Ö Ø Ò Ì Ð Ñ Ø ÙÖ ĐÙ ÖØ Ñ ÁÒ Ø ØÙØ ĐÙÖ ÁÒ ÓÖÑ Ø ÓÒ Ú Ö Ö ØÙÒ ÙÒ ÓÑÔÙØ Ö ØĐÙØÞØ Æ Ù Å Ò Ö Ì Ò Ò ÍÒ Ú Ö ØĐ Ø Ö Þ ÙØ Ø Ö ØÖ Ù Ö ÇºÍÒ

Mehr

Ë Ö Ø ÒĐÙ ÖØÖ ÙÒ ĐÙ Ö ÁÒØ ÖÒ Ø Ñ ØØ Ð ÁÈË ËØÙ Ò Ö Ø ÎÓÖ Ð Ø ÚÓÒ Ì ÐÓ ÊÙ ÞÙÖ ÙØ ØÙÒ ÙÖ ÈÖÓ º Öº ÃÐ Ù ÖÙÒÒ Ø Ò ½ º Þ Ñ Ö ½ ÍÒ Ú Ö ØĐ Ø À Ñ ÙÖ Ö ÁÒ ÓÖÑ Ø Ö Ø Ö ÒÛ Ò ÙÒ Ò Ö ÁÒ ÓÖÑ Ø Ò Ø ¹ ÙÒ Æ ØÙÖÛ Ò Ø Ò ÁÒ

Mehr

ÁÒ ÐØ Ú ÖÞ Ò ½ ÒÐ ØÙÒ ½º½ ØÝÓ Ø Ð ÙÑ Ó ÙÑ Ð ÅÓ ÐÐÓÖ Ò ÑÙ º º º º º º º º º º º º º º º ½º¾ ÝØÓ Ð ØØ º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º ½º Ø Ò Ò Ò ÈÖÓØ Ò Ò ØÝÓ Ø Ð ÙÑ Ó ÙÑ

Mehr

Ù ØÓÑ Ö Ê Ð Ø ÓÒ Ô Å Ò Ñ ÒØ Ò ÇÖ Ò Ø ÓÒ Ò Ò ÅÓ ÐÐ Ö ËØÖÙ ØÙÖ ÖÙÒ ÒÒ ØØ È ØØÐÓ ÖØ Ø ÓÒ ÞÙÖ ÖÐ Ò ÙÒ Ñ Ò Ö Ò Ó ØÓÖ Ö È ÐÓ ÓÔ Ò Ö Ö ØÙÒ ÁÒ ÓÖÑ Ø ÓÒ Û Ò Ø Ò Ö ÍÒ Ú Ö ØØ Ë ÖÐ Ò ÖÐ Ò Ñ ÂÙÒ ¾¼¼ ¾ ÙØ Ø Ö ÈÖÓ º

Mehr

Security. Privacy. Authentity

Security. Privacy. Authentity Ä Ö ÖÛ Ø Ö Ð ÙÒ Æ ØÞÛ Ö Ñ Ò Ñ ÒØ ÌÍ ÑÒ ØÞ ÙÐØĐ Ø ĐÙÖ ÁÒ ÓÖÑ Ø ÁÒ ÐØ Ú ÖÞ Ò ½ Ë Ö Ø ÔÖÓ Ð Ñ ¾ ½º½ Ä Ø Ö ØÙÖ º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º ¾ ½º¾

Mehr

Proceedings 13. Workshop Fuzzy Systeme Dortmund, 19. - 21. November 2003

Proceedings 13. Workshop Fuzzy Systeme Dortmund, 19. - 21. November 2003 Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Wissenschaftliche Berichte FZKA 69 Proceedings 13. Workshop Fuzzy Systeme Dortmund, 19. - 1. November 3 R. Mikut, M. Reischl (Hrsg.) Institut für

Mehr

ÒÓÒÝÑ ÃÓÑÑÙÒ Ø ÓÒ Ë Ñ Ø Ö Ö Ø ÚÓÒ Ò Ö ÃÖÑ Ö Ö Ñ Ö º Ø Þº ÈÖÓ ÓÖ ÖÒ Ö ÈÐ ØØÒ Ö ØÖ Ù Ö Ò Æ Ø Ð Ï Ð Ö ÌÁÃ ÌÀ Ö º ÖÙ Ö ¾¼¼¼ ØÖ Ø Ì Ö Ø Ô ÖØ Ó Ø Ô Ô Ö ÜÔÐ Ò ÓÙÖ ÓÐÙØ ÓÒ ÓÖ ÒÓÒÝÑÓÙ ÓÑÑÙÒ Ø ÓÒ ÓÒ Ø ÒØ ÖÒ Ø ÖÓÛ

Mehr

Abschlussklausur Cluster-, Grid- und Cloud-Computing (CGC) 25.1.2012 Dr. Christian Baun

Abschlussklausur Cluster-, Grid- und Cloud-Computing (CGC) 25.1.2012 Dr. Christian Baun ÐÙ Ø Ö¹ Ö ¹ÙÒ ÐÓÙ ¹ ÓÑÔÙØ Ò µ Ä ÙÒ ÞÞ ÒÞÙÖ ÐÙ Ð Ù ÙÖ ¾ ºÂ ÒÙ Ö¾¼½¾ ÎÓÖÒ Ñ Æ Ñ Å ØÖ ÐÒÙÑÑ Ö ËØÙ Ò Ò À ÒÛ ÌÖ ÒË ÞÙ Ö Ø Ù ÐÐ Ò ÐØØ ÖÒ Ò Ð Ð Ð ØØ µá Ö ÒÆ Ñ Ò Ë Ö ÒË Ä ÙÒ Ò ÖÌ Ð Ù Ù Û Ð ÚÓÖ Ö Ø Ø Ð Øغ Á Ö

Mehr

ÇÔ Ò ËÓÙÖ ÄÓ Ð Ò Ö Ñ Î Ö Ð ÞÙ ÓÑÑ ÖÞ ÐÐ Ò ËÝ Ø Ñ Ò ÔÐÓÑ Ö Ø ÚÓÒ Ì ÓÑ ËØ Ð Ó ÙÐ ÖÑ Ø Ø Ö ÁÒ ÓÖÑ Ø ØÖ Ù Ö ÈÖÓ º Öº ÆÓÖ ÖØ ÃÖ Ö ÈÖÓ º Öº ÃÐ Ù É٠Рݹ Ö Ð Ö Ó Ø Ñ À Ø ÐÙÒ ÁÌ Öº ÖØ ÙÖ Ê Ø ÒÛ Ð ËÓÑÑ Ö Ñ Ø Ö

Mehr

Ð ØÑ Ø Ö Ð ÞÙÖ ÎÓÖÐ ÙÒ ÈÖÓÞ Ö Ò ÖØ Ò Ò ØØ Ø Ê ÐÞ Ø¹ËÝ Ø Ñ µ ËÓÑÑ Ö Ñ Ø Ö ½ È Ø Ö Å ÖÛ Ð ÁÒ ÓÖÑ Ø ÁÁ Ì Ò ÁÒ ÓÖÑ Ø µ ÍÒ Ú Ö ØĐ Ø ÓÖØÑÙÒ º ÔÖ Ð ½ Ö Ð ØØ ÜØ Ø ÒÙÖ ÞÙÖ ÒÙØÞÙÒ ÙÖ Ì ÐÒ Ñ Ö Ö ÎÓÖÐ ÙÒ Øº Û Ö Ò

Mehr

Å Ò ØÙÖ ÖØ Ð ØÖÓ Ø Ø Ä Ò Ò Ù ÓÒÚ ÒØ ÓÒ ÐÐ Ò Ð Ò Ò Ö Ó Ù Ò Æ Ö Ô ÒÒÙÒ ¹ Ê Ø Ö Ð ØÖÓÒ ÒÑ ÖÓ ÓÔ ÖØ Ø ÓÒ ÞÙÖ ÖÐ Ò ÙÒ Ö Ò Ó ØÓÖ Ö Æ ØÙÖÛ Ò Ø Ò Ö ÙÐØØ Ö È Ý Ö Ö Ö ¹Ã ÖÐ ¹ÍÒ Ú Ö ØØ ÞÙ Ì Ò Ò ÚÓÖ Ð Ø ÚÓÒ Ê ÑÓÒ

Mehr

Scheduling und Ressourcenverwaltung in Realzeitsystemen

Scheduling und Ressourcenverwaltung in Realzeitsystemen INSTITUTE FOR REAL-TIME COMPUTER SYSTEMS TECHNISCHE UNIVERSITÄT MÜNCHEN PROFESSOR G. FÄRBER Scheduling und Ressourcenverwaltung in Realzeitsystemen Hauptseminar Realzeit-Computersysteme Wintersemester

Mehr

Ö ÙÒ ÚÓÒ Ï ¹ ÖØ Ò ÁÒ ÓÖÑ Ø ÓÒ Ý Ø Ñ Ò Ñ ØØ Ð Ê ¹Å Ø Ø Ò ÖØ Ø ÓÒ ÞÙÖ ÖÐ Ò ÙÒ Ñ Ò Ö Ò Ó ØÓÖ Ö Ï ÖØ Ø Û Ò Ø Ò Öº Ö Öº ÔÓкµ ÙÖ Ò Ö Ï ÖØ Ø Û Ò Ø Ò Ö ÍÒ Ú Ö ØĐ Ø Ù ÙÖ ¹ Ò ËØ Ò ÓÖØ Ò ÎÓÖ Ð Ø ÚÓÒ Ê Ò ÓÐ ÃÐ Ô

Mehr

Sicher ist sicher: Backup und restore Einleitung Hallo Schatz, habe die Diskette gefunden,...... die du gestern so verzweifelt gesucht hast.

Sicher ist sicher: Backup und restore Einleitung Hallo Schatz, habe die Diskette gefunden,...... die du gestern so verzweifelt gesucht hast. Einleitung Hallo Schatz, habe die Diskette gefunden,...... die du gestern so verzweifelt gesucht hast. Ä ÒÙܹÁÒ Ó¹Ì Ù ÙÖ ¹¾ ºÅÖÞ¾¼¼ à ÖÐ ÙØ Á̹ÏÇÊÃ˺ Ǻ ̹ ÓÒ ÙÐØ Ò ²ËÓÐÙØ ÓÒ Einleitung Willkommen Karl

Mehr

Sectoral Adjustment of Employment: The Impact of Outsourcing and Trade at the Micro Level

Sectoral Adjustment of Employment: The Impact of Outsourcing and Trade at the Micro Level 145 Reihe Ökonomie Economics Series Sectoral Adjustment of Employment: The Impact of Outsourcing and Trade at the Micro Level Peter Egger, Michael Pfaffermayr, Andrea Weber 145 Reihe Ökonomie Economics

Mehr

Integriertes Management großer Web-Sites auf der Basis datenbankbasierter Modellierungskonzepte

Integriertes Management großer Web-Sites auf der Basis datenbankbasierter Modellierungskonzepte ÁÒ Ø ØÙØ ĐÙÖ ÁÒ ÓÖÑ Ø Ö Ì Ò Ò ÍÒ Ú Ö ØĐ Ø ÅĐÙÒ Ò Integriertes Management großer Web-Sites auf der Basis datenbankbasierter Modellierungskonzepte ÍÐÖ ËÓÑÑ Ö ÁÒ Ø ØÙØ ĐÙÖ ÁÒ ÓÖÑ Ø Ö Ì Ò Ò ÍÒ Ú Ö ØĐ Ø ÅĐÙÒ

Mehr

ÄÙ Û ßÅ Ü Ñ Ð Ò ßÍÒ Ú Ö ØĐ Ø ÅĐÙÒ Ò ÁÒ Ø ØÙØ ĐÙÖ ÁÒ ÓÖÑ Ø ÅÓ Ð ÒØ ËÝ Ø Ñ Ö Ø ØÙÖ Ò ÈÐ ØØ ÓÖÑ ĐÙÖ Ü Ð ÁÌßÅ Ò Ñ ÒØ Ì Ò Ö Ö Ø ¼¾ ÓÖ ÖÙ ËØ Ô Ò À Ð ÖÓÒÒ Ö À ÐÑÙØ Ê Ö MNM TEAM ÅĐÙÒ Ò Ö Æ ØÞÑ Ò Ñ ÒØ Ì Ñ ÅÓ Ð

Mehr

Trustworthy Preservation Planning. Christoph Becker. nestor edition 4

Trustworthy Preservation Planning. Christoph Becker. nestor edition 4 Trustworthy Preservation Planning Christoph Becker nestor edition 4 Herausgegeben von nestor - Kompetenznetzwerk Langzeitarchivierung und Langzeitverfügbarkeit Digitaler Ressourcen für Deutschland nestor

Mehr

ÃÓÒÞÔØÓÒ Ò ÙØ Ò ØÒÒÜ ĐÙÖ ÓÖ ÙÒ ÞÛ Çµ ÀÖÑÒÒ ĐÓÔÔÐ ÀÒÖ ËĐÙØÞ Ù ÓÒ ÔÔÖ ÆÖº ½¾ ÃÙÖÞ ÙÒ ĐÙÖ ÏÓÖÐÏÏ ØÙÐÐ ÎÖ ÓÒ ÂÒÙÖ ½ ÊĐÙÖÒ ØØ Ò ÓÐÒ Ö ÁÒ ØØÙØ ĐÙÖ ÒØ ÙÒ ØÓÖ ÙÒ ÍÒØÖÒÑÒ ÓÖ ÙÒ ÍÒÚÖ ØĐØ ÃÖÐ ÖÙ ÌÀµ ÈÓ Ø ¼ ½¾ ÃÖÐ

Mehr

PROCEEDINGS der Verbundtagung VertIS 2001

PROCEEDINGS der Verbundtagung VertIS 2001 Fachgruppe 1.1.6 Verteilte Künstliche Intelligenz (VKI), Fachgruppe 2.5.2 Entwicklungsmethoden für Informationssysteme und deren Anwendung (EMISA), Fachgruppe 5.10 Informationssystem-Architekturen: Modellierung

Mehr

ÎÖ ÖÙÒ ÑØÑØ ÖÙÒÐÒ ÙÒ ÖĐÙÚÖ ÖÙÒ ØÒ ÔØ ÚÓÒ ÈÖÖÖ ÄÚ ¹ÌÖÒ Åº ÈÑ º Ø Àº¹Âº Û ÐÖ ½ ÒÐØÙÒ ÙÖ ÖÙÐÖÙÒ ÙØ Ò ÎÖ ÖÙÒ ÑÖØ Ò ÙØ Ò ÄÒ ¹ ÚÖ ÖÙÒ ÙÒØÖÒÑÒ ÒÞ ÒÙ ÖØÒ Ö ØÐØÙÒ ÖÖ ÈÖÓÙØ ÖÐØÒº ÙÖ ÒÙ ÑÒ ÓÒ Ö ÐÐØĐØ Ø ØÞØ ÑĐÓÐ ÔÞ

Mehr

ÐØÖÓÒ Ò ØÒ ÚÓÒ ÑÒØ ÙÒ ÑÒØÖØÒ ÃÓÐÒ ØÓ«Ò ÁËËÊÌÌÁÇÆ ÞÙÖ ÖÐÒÙÒ Ñ Ò Ö ÓØÓÖ ÖÖÙÑ ÒØÙÖÐÙÑ Öº ÖÖº Òغµ ÚÓÖÐØ Ö ÙÐØĐØ ÅØÑØ ÙÒ ÆØÙÖÛ Ò ØÒ Ö ÌÒ Ò ÍÒÚÖ ØĐØ Ö Ò ÚÓÒ Ôк¹ÈÝ º ËØÔÒ ÏÑÒÒ ÓÖÒ Ñ ¾º½¼º½ Ò ÊÐÒÒ ÙØØÖ ÈÖÓº

Mehr

Data Mining und Knowledge Discovery in Databases

Data Mining und Knowledge Discovery in Databases Data Mining und Knowledge Discovery in Databases Begriffsabgrenzungen... Phasen der KDD...3 3 Datenvorverarbeitung...4 3. Datenproblematik...4 3. Möglichkeiten der Datenvorverarbeitung...4 4 Data Mining

Mehr

Nachfolgend alle Unterlagen

Nachfolgend alle Unterlagen NÜRNBERGER TOP Empfehlung Für Ärzte / Tierärzte / Ingenieure / Hausfrauen Top Zusatz Infektionsklausel für Ärzte! Besonders geeignet weil! Nicht sinnvoll wenn /für! --Sehr günstiger Beitrag -- Bauberufe

Mehr

ÇÔØÑÖÙÒ Ò ØÞ ÚÓÒ Ð¹ËÙÖ¹ÙÑÙÐØÓÖÒ Ò ÈÓØÓÚÓÐعÀÝÖ¹ËÝ ØÑÒ ÙÒØÖ ÔÞÐÐÖ Ö ØÙÒ Ö ØØÖÐØÖÙÒ ÖØØÓÒ ÞÙÖ ÖÐÒÙÒ ÓØÓÖÖ Öº ÖÖº Òغ Ö ÙÐØØ Ö ÆØÙÖÛ Ò ØÒ Ö ÍÒÚÖ ØØ ÍÐÑ ÚÓÒ Ö ÍÛ ËÙÖ Ù ÅÒÒÑ ÍÐÑ ¾¼¼ ½º ÙØØÖ ÈÖÓº Öº º Ö ¾º

Mehr

Ö ÙÖ ÍÆÁ» ÀÌÅÄ ÂĐÓÖ ÀÒÖ ÐÜÒÖ Ê ¾º ÆÓÚÑÖ ½ Á ÍÆÁ ¾ ½ ÒÙØÞÖ ¾ ¾ Ø Ý ØÑ ¾ ¾º½ ØØÝÔÒ º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º º ¾ ¾º¾ ØÙÑ º º º º º º º º º º º º º º º

Mehr

ÈÖÓº Öº ØÑÖ ÈÖ ÈÖÚØ ÃÖÒÒÚÖ ÖÙÒ ÈÃε ÏË ¾¼¼½»¼¾ Áº ÊØÐ ÙÒ ÚÖ ÖÙÒ ÑØÑØ ÖÙÒÐÒ Ö ÈÃÎ Áº½º ĐÕÙÚÐÒÞÔÖÒÞÔ Ö ÈÃÎ Áº¾º ÃÓÔ ĐÒ ÙÒ ËÒÔÖÓ Ð Áº º ÆØØÓÔÖĐÑ Áºº ÖÙØØÓÔÖĐÑ ÁÁº ØÖ ÒÔ ÙÒÒ ÁÁº½º ÐØÖÙÒ ÖĐÙ ØÐÐÙÒ ÁÁº¾º ØÒ

Mehr

Data Mining. Lehrgebiet Datenbanksysteme für neue Anwendungen. Seminarband zu Kurs 1912 im SS 2008. Vorträge der Präsenzphase am 4. und 5.

Data Mining. Lehrgebiet Datenbanksysteme für neue Anwendungen. Seminarband zu Kurs 1912 im SS 2008. Vorträge der Präsenzphase am 4. und 5. Lehrgebiet Datenbanksysteme für neue Anwendungen Seminarband zu Kurs 1912 im SS 2008 Data Mining Vorträge der Präsenzphase am 4. und 5. Juli 2008 Betreuer: Prof. Dr. Ralf Hartmut Güting Dipl.-Inform. Christian

Mehr

6. Explizite Zeit und Zeitautomaten

6. Explizite Zeit und Zeitautomaten 6. Explizite Zeit und Zeitautomaten Bisher: Zeit nur als Ordnungsrelation zwischen Zuständen/Ereignissen Jetzt: Zeit als explizite kontinuierliche Größe modelliert (reelle Werte) Uhren: stückweise kontinuierliche

Mehr

Künstliche Intelligenz Dirk Krechel SS 2009

Künstliche Intelligenz Dirk Krechel SS 2009 Künstliche Intelligenz Dirk Krechel SS 2009 Überblick über das Modul 1. Einführung 2. Symbolische Verfahren Logik Aussagenlogik Prädikatenlogik Horn Logik Prolog 3. Suchen und Bewerten Problemlösen durch

Mehr

ÄÒÖ ÙÒ ÒØÐÒÖ ÊÑÒ¹ËÔØÖÓ ÓÔ Ò ÓÐÓ ÖÐÚÒØÒ ÅÓÐÐ Ý ØÑÒ ÖØØÓÒ ÞÙÖ ÖÐÒÙÒ ÒØÙÖÛ Ò ØÐÒ ÓØÓÖÖ Ö ÝÖ Ò ÂÙÐÙ ßÅÜÑÐÒ ßÍÒÚÖ ØĐØ ÏĐÙÖÞÙÖ ÚÓÖÐØ ÚÓÒ Ë ØÒ ËÐĐÙÖ Ù Ò ÏĐÙÖÞÙÖ ¾¼¼½ ÒÖØ Ñ Ö ÙÐØĐØ ĐÙÖ Ñ ÙÒ ÈÖÑÞ ½º ÙØØÖ ºººººººººººººººººººººººººººººººººººººººººººº

Mehr

# echo 1 > /proc/sys/net/ipv4/ip_forward

# echo 1 > /proc/sys/net/ipv4/ip_forward ¾º ÊÓÙØ Ò Áȹ ÐØ Ö Ö Û ÐÐ ÙÒ ÁȹŠÖÙÒ ÈÖÓ Ð Ñ ½¼ ËÝÑÔØÓÑ ÈÖÓ Ð Ñ minicom Ò Ø Ñ Î ÖÐ Òº minicom ÐÓ ÖØ Ñ Ä Ò Ò Ò ÓÖÖ Ø ØÞØ Ò Ö ÐÐ Ò ÖØ º Ä ÙÒ Ë Ò Ò Ò Ò Ù Ë ÐÐ ÙÒ Ò Ò Ò minicom¹èöóþ Ñ Ø Ñ Ð kill -KILLº Ô

Mehr

Elemente der Analysis II

Elemente der Analysis II Elemente der Analysis II Kapitel 3: Lineare Abbildungen und Gleichungssysteme Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 15. Mai 2009 1 / 35 3.1 Beispiel

Mehr

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 374

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 374 DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN Nr. 374 Eignung von Verfahren der Mustererkennung im Process Mining Sabrina Kohne

Mehr

Termin3 Klassifikation multispektraler Daten unüberwachte Verfahren

Termin3 Klassifikation multispektraler Daten unüberwachte Verfahren Ziel Termin3 Klassifikation multispektraler Daten unüberwachte Verfahren Einteilung (=Klassifikation) der Pixel eines multispektralen Datensatzes in eine endliche Anzahl von Klassen. Es sollen dabei versucht

Mehr

Personalisierung. Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung. Data Mining.

Personalisierung. Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung. Data Mining. Personalisierung Personalisierung Thomas Mandl Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung Klassifikation Die Nutzer werden in vorab bestimmte Klassen/Nutzerprofilen

Mehr

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s Nachtrag zur allgemeinen Vektorraum-Theorie. 1.5.15. Direkte Summen. Sei V ein Vektorraum, seien U 1,..., U t Unterräume, wir schreiben V = U 1 U 2 U t = t i=1 U i falls die folgenden beiden Bedingungen

Mehr

Ò ÓÖÑÐ ÖÙÒ Ö ÙÙØÖ ÖÒÙÒ ¹ ÖÙÒÐ ÞÙÖ ÒÔ ÙÒ ÙÒ ÒØÛÐÙÒ Ò ÁÒÓÖÑØÓÒ Ý ØÑ ¹ ÖØØÓÒ ÞÙÖ ÖÐÒÙÒ Ñ Ò Ö ÓØÓÖ ¹ ÁÒÒÙÖ Ò Ö ÙÐØĐØ ÙÒÒÙÖÛ Ò Ö ÙÙ ¹ÍÒÚÖ ØĐØ ÏÑÖ ÎÓÖÐØ ÚÓÒ ÖÒ ÐÖ Ù ÏÓÐ ÙÖ¹ÍÒÖÓ»ÌĐÙÖº ÏÑÖ Ò ¼ º ÂÙÐ ¾¼¼¾ ÙØØÖ

Mehr

Multivariate Statistik

Multivariate Statistik Hermann Singer Multivariate Statistik 1 Auflage 15 Oktober 2012 Seite: 12 KAPITEL 1 FALLSTUDIEN Abbildung 12: Logistische Regression: Geschätzte Wahrscheinlichkeit für schlechte und gute Kredite (rot/blau)

Mehr

Neue Ansätze im IT-Service-Management. Prozessorientierung (ITIL/eTOM)

Neue Ansätze im IT-Service-Management. Prozessorientierung (ITIL/eTOM) Hauptseminar Wintersemester 2003/2004 Neue Ansätze im IT-Service-Management Prozessorientierung (ITIL/eTOM) Einführung Referenzszenario Auszug aus: Sailer, M., Klassifizierung und Bewertung von VPN Lösungen

Mehr

Algorithmische Modelle als neues Paradigma

Algorithmische Modelle als neues Paradigma Algorithmische Modelle als neues Paradigma Axel Schwer Seminar über Philosophische Grundlagen der Statistik, WS 2010/11 Betreuer: Prof. Dr. Thomas Augustin München, den 28. Januar 2011 1 / 29 LEO BREIMAN

Mehr

Codierungstheorie Rudolf Scharlau, SoSe 2006 9

Codierungstheorie Rudolf Scharlau, SoSe 2006 9 Codierungstheorie Rudolf Scharlau, SoSe 2006 9 2 Optimale Codes Optimalität bezieht sich auf eine gegebene Quelle, d.h. eine Wahrscheinlichkeitsverteilung auf den Symbolen s 1,..., s q des Quellalphabets

Mehr

Einführung in die Vektor- und Matrizenrechnung. Matrizen

Einführung in die Vektor- und Matrizenrechnung. Matrizen Einführung in die Vektor- und Matrizenrechnung Matrizen Definition einer Matrix Unter einer (reellen) m x n Matrix A versteht man ein rechteckiges Schema aus reellen Zahlen, die wie folgt angeordnet sind:

Mehr

OPERATIONS-RESEARCH (OR)

OPERATIONS-RESEARCH (OR) OPERATIONS-RESEARCH (OR) Man versteht darunter die Anwendung mathematischer Methoden und Modelle zur Vorbereitung optimaler Entscheidungen bei einem Unternehmen. Andere deutsche und englische Bezeichnungen:

Mehr

DHBW Karlsruhe, Vorlesung Programmieren, Klassen (2)

DHBW Karlsruhe, Vorlesung Programmieren, Klassen (2) DHBW Karlsruhe, Vorlesung Programmieren, Klassen (2) Aufgabe 3 Bankkonto Schreiben Sie eine Klasse, die ein Bankkonto realisiert. Attribute für das Bankkonto sind der Name und Vorname des Kontoinhabers,

Mehr

2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen

2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen 4. Datenanalyse und Modellbildung Deskriptive Statistik 2-1 2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen Für die Auswertung einer Messreihe, die in Form

Mehr

Teil II. Nichtlineare Optimierung

Teil II. Nichtlineare Optimierung Teil II Nichtlineare Optimierung 60 Kapitel 1 Einleitung In diesem Abschnitt wird die Optimierung von Funktionen min {f(x)} x Ω betrachtet, wobei Ω R n eine abgeschlossene Menge und f : Ω R eine gegebene

Mehr

Data Warehouse. Kapitel 16. Abbildung 16.1: Zusammenspiel zwischen OLTP und OLAP. Man unterscheidet zwei Arten von Datenbankanwendungen:

Data Warehouse. Kapitel 16. Abbildung 16.1: Zusammenspiel zwischen OLTP und OLAP. Man unterscheidet zwei Arten von Datenbankanwendungen: Kapitel 16 Data Warehouse OLTP Online Transaction Processing OLAP Online Analytical Processing Decision Support-Anfragen Data Mining operationale DB operationale DB operationale DB Data Warehouse operationale

Mehr

Künstliches binäres Neuron

Künstliches binäres Neuron Künstliches binäres Neuron G.Döben-Henisch Fachbereich Informatik und Ingenieurwissenschaften FH Frankfurt am Main University of Applied Sciences D-60318 Frankfurt am Main Germany Email: doeben at fb2.fh-frankfurt.de

Mehr

ENERGIE PLUTONIUM STROM und die UMWELT

ENERGIE PLUTONIUM STROM und die UMWELT Deutsche Physikalische Gesellschaft Arbeitskreis Energie ENERGIE PLUTONIUM STROM und die UMWELT 17 Vorträge der Tagungen Heidelberg (1999) und Dresden (2000) eingeschlossen das Dresdner Symposion 'Plutonium

Mehr

Proseminar - Data Mining

Proseminar - Data Mining Proseminar - Data Mining SCCS, Fakultät für Informatik Technische Universität München SS 2012, SS 2012 1 Data Mining Pipeline Planung Aufbereitung Modellbildung Auswertung Wir wollen nützliches Wissen

Mehr

Approximationsalgorithmen

Approximationsalgorithmen Ausarbeitung zum Thema Approximationsalgorithmen im Rahmen des Fachseminars 24. Juli 2009 Robert Bahmann robert.bahmann@gmail.com FH Wiesbaden Erstellt von: Robert Bahmann Zuletzt berarbeitet von: Robert

Mehr

Eine Mustersprache für das Design von Autorensystemen

Eine Mustersprache für das Design von Autorensystemen Eine Mustersprache für das Design von Autorensystemen Eine Anwendung des Open-Source Entwicklungsmodells auf Entwurf und Herstellung von Lernsoftware Dissertation zur Erlangung des akademischen Grades

Mehr

Seminararbeit für das SE Reine Mathematik- Graphentheorie

Seminararbeit für das SE Reine Mathematik- Graphentheorie Seminararbeit für das SE Reine Mathematik- Graphentheorie Der binäre Rang, der symplektische Graph, die Spektralzerlegung und rationale Funktionen Vortrag am 24.01.2012 Heike Farkas 0410052 Inhaltsverzeichnis

Mehr

Data Mining-Modelle und -Algorithmen

Data Mining-Modelle und -Algorithmen Data Mining-Modelle und -Algorithmen Data Mining-Modelle und -Algorithmen Data Mining ist ein Prozess, bei dem mehrere Komponenten i n- teragieren. Sie greifen auf Datenquellen, um diese zum Training,

Mehr

Statistische Verfahren für das Data Mining in einem Industrieprojekt

Statistische Verfahren für das Data Mining in einem Industrieprojekt Statistische Verfahren für das Data Mining in einem Industrieprojekt Thorsten Dickhaus Forschungszentrum Jülich GmbH Zentralinstitut für Angewandte Mathematik Telefon: 02461/61-4193 E-Mail: th.dickhaus@fz-juelich.de

Mehr

Maschinelles Lernen und Data Mining: Methoden und Anwendungen

Maschinelles Lernen und Data Mining: Methoden und Anwendungen Maschinelles Lernen und Data Mining: Methoden und Anwendungen Eyke Hüllermeier Knowledge Engineering & Bioinformatics Fachbereich Mathematik und Informatik GFFT-Jahrestagung, Wesel, 17. Januar 2008 Knowledge

Mehr

Seminar Analysis Konvexe Funktionen und einige wichtige Ungleichungen

Seminar Analysis Konvexe Funktionen und einige wichtige Ungleichungen Seminar Analysis Konvexe Funktionen und einige wichtige Ungleichungen Michael Schaeer 3.04.03 Abstract This seminar is about convex functions and several imortant ineualities. At the beginning the term

Mehr

(2) (x 2 1 + x 2 2 + + x 2 n)(y 2 1 + y 2 2 + + y 2 n) = z 2 1 + z 2 2 + + z 2 n

(2) (x 2 1 + x 2 2 + + x 2 n)(y 2 1 + y 2 2 + + y 2 n) = z 2 1 + z 2 2 + + z 2 n Über die Komposition der quadratischen Formen von beliebig vielen Variablen 1. (Nachrichten von der k. Gesellschaft der Wissenschaften zu Göttingen, Mathematisch-physikalische Klasse, 1898, S. 309 316.)

Mehr

Optimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg

Optimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg Universität Regensburg Wintersemester 2012/13 1 Einführung Anwendungen Finanzwirtschaft: maximale Gewinnrate unter Beschränkungen an das Risiko; Portfolio von Investments Produktion: maximiere Gewinn bei

Mehr

Data Mining für die industrielle Praxis

Data Mining für die industrielle Praxis Data Mining für die industrielle Praxis von Ralf Otte, Viktor Otte, Volker Kaiser 1. Auflage Hanser München 2004 Verlag C.H. Beck im Internet: www.beck.de ISBN 978 3 446 22465 0 Zu Leseprobe schnell und

Mehr

Vorbereitungsaufgaben

Vorbereitungsaufgaben Praktikum Bildverarbeitung / Bildinformationstechnik Versuch BV 4 / BIT 3: Mustererkennung Paddy Gadegast, CV00, 160967 Alexander Opel, CV00, 16075 Gruppe 3 Otto-von-Guericke Universität Magdeburg Fakultät

Mehr

1. Grundlegende Konzepte der Informatik

1. Grundlegende Konzepte der Informatik 1. Grundlegende Konzepte der Informatik Inhalt Algorithmen Darstellung von Algorithmen mit Programmablaufplänen Beispiele für Algorithmen Aussagenlogik Zahlensysteme Kodierung Peter Sobe 1 Algorithmen

Mehr

Motivation. Themenblock: Klassifikation. Binäre Entscheidungsbäume. Ansätze. Praktikum: Data Warehousing und Data Mining.

Motivation. Themenblock: Klassifikation. Binäre Entscheidungsbäume. Ansätze. Praktikum: Data Warehousing und Data Mining. Motivation Themenblock: Klassifikation Praktikum: Data Warehousing und Data Mining Ziel Item hat mehrere Attribute Anhand von n Attributen wird (n+)-tes vorhergesagt. Zusätzliches Attribut erst später

Mehr

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Aufgabe 35: Thema: Singulärwertzerlegung und assoziierte Unterräume Sei A eine m n Matrix mit Rang r und A = UDV T ihre Singulärwertzerlegung.

Mehr

3.3 Eigenwerte und Eigenräume, Diagonalisierung

3.3 Eigenwerte und Eigenräume, Diagonalisierung 3.3 Eigenwerte und Eigenräume, Diagonalisierung Definition und Lemma 3.3.1. Sei V ein K-Vektorraum, φ End K (V ), λ K. Wir defnieren den zu λ gehörigen Eigenraum von φ als Dies ist ein Unterraum von V.

Mehr

Computer Vision: Optische Flüsse

Computer Vision: Optische Flüsse Computer Vision: Optische Flüsse D. Schlesinger TUD/INF/KI/IS Bewegungsanalyse Optischer Fluss Lokale Verfahren (Lukas-Kanade) Globale Verfahren (Horn-Schunck) (+ kontinuierliche Ansätze: mathematische

Mehr

Risiken bei der Analyse sehr großer Datenmengen. Dr. Thomas Hoppe

Risiken bei der Analyse sehr großer Datenmengen. Dr. Thomas Hoppe Risiken bei der Analyse sehr großer Datenmengen Dr. Thomas Hoppe Datenaufbereitung Datenanalyse Data Mining Data Science Big Data Risiken der Analyse Sammlung Integration Transformation Fehlerbereinigung

Mehr

Methoden der Datenanalyse AI-basierte Decision Support Systeme WS 2006/07

Methoden der Datenanalyse AI-basierte Decision Support Systeme WS 2006/07 Regression Trees Methoden der Datenanalyse AI-basierte Decision Support Systeme WS 2006/07 Ao.Univ.Prof. Dr. Marcus Hudec marcus.hudec@univie.ac.at Institut für Scientific Computing, Universität Wien 2

Mehr

(λ Ri I A+BR)v Ri = 0. Lässt sich umstellen zu

(λ Ri I A+BR)v Ri = 0. Lässt sich umstellen zu Herleitung der oppenecker-formel (Wiederholung) Für ein System ẋ Ax + Bu (B habe Höchstrang) wird eine Zustandsregelung u x angesetzt. Der geschlossene egelkreis gehorcht der Zustands-Dgl. ẋ (A B)x. Die

Mehr

Automatische Mustererkennung zur Klassifikation von Konsumentenverhalten am Beispiel der Kreditwürdigkeitsprüfung

Automatische Mustererkennung zur Klassifikation von Konsumentenverhalten am Beispiel der Kreditwürdigkeitsprüfung Prof. Dr. Gerhard Arminger Dipl.-Ök. Alexandra Schwarz Bergische Universität Wuppertal Fachbereich Wirtschaftswissenschaft Fach Statistik Automatische Mustererkennung zur Klassifikation von Konsumentenverhalten

Mehr

Künstliche Neuronale Netze und Data Mining

Künstliche Neuronale Netze und Data Mining Künstliche Neuronale Netze und Data Mining Catherine Janson, icasus GmbH Heidelberg Abstract Der Begriff "künstliche Neuronale Netze" fasst Methoden der Informationstechnik zusammen, deren Entwicklung

Mehr

Lösung des Kleinste-Quadrate-Problems

Lösung des Kleinste-Quadrate-Problems Lösung des Kleinste-Quadrate-Problems Computergestützte Statistik Lisakowski, Christof 15.05.2009 Lisakowski, Christof ()Lösung des Kleinste-Quadrate-Problems 15.05.2009 1 / 34 Themen 1 Problemstellung

Mehr

Data-Mining: Ausgewählte Verfahren und Werkzeuge

Data-Mining: Ausgewählte Verfahren und Werkzeuge Fakultät Informatik Institut für Angewandte Informatik Lehrstuhl Technische Informationssysteme Data-Mining: Ausgewählte Verfahren und Vortragender: Jia Mu Betreuer: Dipl.-Inf. Denis Stein Dresden, den

Mehr

Forschungszentrum Karlsruhe. Proceedings 10. Workshop Fuzzy Control des GMA-FA 5.22

Forschungszentrum Karlsruhe. Proceedings 10. Workshop Fuzzy Control des GMA-FA 5.22 Forschungszentrum Karlsruhe Technik und Umwelt Wissenschaftliche Berichte FZKA 6509 Proceedings 10. Workshop Fuzzy Control des GMA-FA 5.22 Dortmund, 18. - 20. Oktober 2000 Ralf Mikut, Jens Jäkel (Hrsg.)

Mehr

Computer Vision: 3D-Geometrie. D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17

Computer Vision: 3D-Geometrie. D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17 Computer Vision: 3D-Geometrie D. Schlesinger () Computer Vision: 3D-Geometrie 1 / 17 Lochkamera Modell C Projektionszentrum, Optische Achse, Bildebene, P Hauptpunkt (optische Achse kreuzt die Bildebene),

Mehr

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen Austausch- bzw. Übergangsrozesse und Gleichgewichtsverteilungen Wir betrachten ein System mit verschiedenen Zuständen, zwischen denen ein Austausch stattfinden kann. Etwa soziale Schichten in einer Gesellschaft:

Mehr

1. Einleitung. 1.1. Ausgangssituation

1. Einleitung. 1.1. Ausgangssituation 1. Einleitung In der vorliegenden Arbeit wird untersucht, welche Faktoren den erfolgreichen Ausgang eines Supply-Chain-Projektes zwischen zwei Projektpartnern beeinflussen. Dazu werden zum einen mögliche

Mehr

Bioinformatik I (Einführung)

Bioinformatik I (Einführung) Kay Diederichs, Sommersemester 2015 Bioinformatik I (Einführung) Algorithmen Sequenzen Strukturen PDFs unter http://strucbio.biologie.unikonstanz.de/~dikay/bioinformatik/ Klausur: Fr 17.7. 10:00-11:00

Mehr