KYBERNETIK UND DIE INTELLIGENZ VERTEILTER SYSTEME NORDRHEIN-WESTFALEN AUF DEM WEG ZUM DIGITALEN INDUSTRIELAND

Größe: px
Ab Seite anzeigen:

Download "KYBERNETIK UND DIE INTELLIGENZ VERTEILTER SYSTEME NORDRHEIN-WESTFALEN AUF DEM WEG ZUM DIGITALEN INDUSTRIELAND"

Transkript

1 KYBERNETIK UND DIE INTELLIGENZ VERTEILTER SYSTEME NORDRHEIN-WESTFALEN AUF DEM WEG ZUM DIGITALEN INDUSTRIELAND

2 IKT.NRW SCHRIFTENREIHE Die Studie "Kybernetik und die Intelligenz verteilter Systeme" erläutert die Entwicklung, die Herausforderungen und die Potentiale der kybernetischen Idee für dezentrale Steuerungsmodelle von Cyber Physical Systems und 4.0-Paradigmen. Autorin Univ.-Prof. Dr. rer. nat. Sabina Jeschke Mit Dank an Dr. Alicia Dröge, Dr. Ruth Horn, Alexander an Haack, Erhard Zorn, Dr.-Ing. Tobias Meisen, Dr.-Ing. Daniel Ewert, Dr. Frank Hees, Philipp Ennen, Prof. Christian Brecher, Prof. Gerhard Lakemayer, Prof. Rolf Rossaint, Prof. Christopher Schlick. Kontakt Univ.-Prof. Dr. rer. nat. Sabina Jeschke Direktorin des Institutsclusters IMA/ZLW & IfU Prodekanin der Fakultät für Maschinenwesen RWTH Aachen University Dennewartstr Aachen Hintergrund Diese Studie ist Teil der IKT.NRW Schriftenreihe "NRW auf dem Weg zum digitalen Industrieland". Die Beiträge der Schriftenreihe ergänzen die unter dem gleichnamigen Titel erschienene IKT.NRW Roadmap 2020 entweder aus der Perspektive einer IKT- Basistechnologie oder einer der NRW-Schlüsselbranchen. Herausgeber Clustermanagement IKT.NRW V. i. S. d. P. Monika Gatzke c/o SiKoM Institut für Systemforschung der Informations-, Kommunikations- und Medientechnologie Bergische Universität Wuppertal Rainer-Gruenter-Str Wuppertal Wuppertal, Dezember

3 INHALT 1. Hintergrund 4 2. Kybernetik Ein historischer Exkurs Die zentralen Elemente der Kybernetik 9 3. Begriffsklärungen im Feld der verteilten intelligenten Systeme Verteilte Systeme Internet of Things und Cyber Physical Systems Künstliche Intelligenz: von GOFAI zum Konnektivismus Embodiment-Theorie Der Intelligenzbegriff eine pragmatische Annäherung Auf dem Weg zu einer dezentralen Automatisierungstechnik Zum Stand der Automatisierungstechnik heute Automatisierungstechnik der Zukunft Modellierungen dezentraler Systeme durch Multiagenten Architekturen für dezentrale Steuerungen Watsons probabilistische DeepQA Architektur Logistik 4.0: Beispiel einer hybriden 3-Layer-Architektur Kognitive Architekturen Transparenz in Systemen dezentraler Steuerung Perspektiven Innovationspotentiale und Einsatzgebiete Vernetzte Automatisierungstechnik in der Industrie Losgrößen und individualisierte Fertigung Die Revolution des Ramp-Up Prozesses Personalisierung der Smart Objects Dezentrale Steuerungen in der Mensch-Maschine-Kooperation Von Smart Factories und Fabrics of the Future Vernetzte Automatisierungstechnik erobert den Alltag Vehicle2infrastructure Communication Smart Grid, Smart Buildings, Smart Metering ehealth Neue Mensch-Maschine-Schnittstellen Zusammenfassung und Fazit Literatur 65 3

4 1. HINTERGRUND Zusammen mit einigen bemerkenswerten Durchbrüchen in den vergangenen drei Jahren, wie dem Jeopardy-spielenden IBM- Supercomputer Watson oder dem autonomen Google Car, stehen wir vor einer neuen Ära in der Künstlichen Intelligenz. Eine besondere Rolle nimmt dabei die Verteilte Künstliche Intelligenz ein, Cyber Physical Systems, Internet of Things und die 4.0-Metapher boomen. Die Bedeutung dieser Konzepte geht in vielfacher Hinsicht weit über die Entwicklung einer normalen technischen Neuerung hinaus. Ein Aspekt lässt dabei besonders aufhorchen: Hier entsteht eine neuartige Form einer Intelligenz, einer nämlich, die auf der Vielzahl, der räumlichen Verteiltheit und der Heterogenität ihrer Subkomponenten basiert eine Abb. 1: 4.0 Systeme verteilter Intelligenz Intelligenz verteilter Systeme. Diese Intelligenz muss verstanden erobern das Feld; Bild OPC Foundation werden schon allein weil die hier entstehenden Systeme unmittelbare und umfassende Auswirkungen auf unseren Alltag haben und in der Zukunft noch viel mehr haben werden, wie an Beispielen wie smart grids in der Energietechnik, kooperativen Robotern in der Produktionstechnik, vernetzten medizinischen Systemen zur Früherkennung, oder der car2infrastructur Communication im Verkehr sofort erkennbar wird. Ist nun das Konzept einer verteilten Intelligenz tatsächlich neu? Schließlich ist auch bei Menschen, ebenso bei anderen Säugetieren, der Sitz der Intelligenz nicht ausschließlich das Gehirn selbst: Intelligente Vorverarbeitungen finden in biologischen Sensoren, den 4

5 Sinnesorganen, statt. Entsprechendes gilt für biologische Aktuatoren, Muskeln, die durch zuständige Bereiche im Rückenmark gesteuert werden. Erst diese Vorverarbeitungen ermöglichen hochqualifizierte und vor allem echtzeitfähige Reaktionen: Ohne sie wären wir nicht einmal in der Lage, eine Fliege zu erlegen, gar nicht zu reden von einer Flucht vor einem Säbelzahntiger! Auch hier ist die Intelligenz also zu einem gewissen Grade wenn auch in anderer Weise verteilt. Als Tendenz zeichnet sich in der Tierwelt ab, dass hochentwickelte Formen von Intelligenz gerade mit einer höheren Verteiltheit ihrer intelligenz-erzeugenden Komponenten einhergehen. Die Vermutung liegt daher nahe, dass wenngleich nicht ausnahmslos zunehmende Verteiltheit nicht nur zu Intelligenz beiträgt, sondern möglicherweise sogar eine Voraussetzung einer hochentwickelten Intelligenz sein könnte. Tatsächlich ist nicht die Verteiltheit an sich das Neuartige im Zoo der Systeme. Das Neue liegt zum einen in der Art der Verteilung, also darin, dass Systeme wie Cyber Physical Systems (kurz: CPS) weder in einem strikten noch in einem schwachen Sinn lokalisiert sind. Während ein Mensch, ein Tier, ein einzelner Roboter oder ein isolierter Computer in erster Näherung als eine lokalisierte Entität angenommen werden können, mit kleiner Ausdehnung und einem entsprechend beschränkten Wahrnehmungsund Wirkungsradius also, ist ein Cyber Physical System räumlich nicht beschränkt, sondern kann aus Komponenten bestehen, die sich im Extremfall über die gesamte Welt verteilen. Ein solches System kann Informationen von weit entfernten Orten bis auf physikalisch bedingte Signalübertragungzeiten synchron zusammenführen, und ebenso an all diesen Orten mit seinen global agierenden Entitäten gleichzeitig fast synchron mit der Umwelt interagieren. Abb. 2: Verteilung der intelligenz bei Menschen auf Gehirn, Sinnesorgane und Die zweite wesentliche Neuerung betrifft Gestalt und Wandelbarkeit Aktuatoren; Bild M. Malcher Aachen solcher Systeme: Während Mensch und Tier i.d.r. aus einer festen Anzahl von Komponenten, etwa Gliedmaßen, Sinnesorganen etc., bestehen, induziert die Perspektive des Internet of Things Konstrukte hochgradiger Dynamik und Variabilität: Ihre mit einer Teilautonomie ausgestatteten Komponenten bilden eine Art Community, deren Mitglieder kommen und gehen wie sie wollen bzw. wie es die Gegebenheiten erlauben. Eine Art zentrale Zugangs- und Anwesenheitskontrolle kann zwar technisch realisiert werden, ist aber nicht unmittelbarer Bestandteil des Konzepts. Vorgesehen ist hier zunächst nur eine zentrale Kenntnis über die Mitgliederstruktur zu jedem festen Zeitpunkt, eine Art Anwesenheitsprotokoll. Darüber hinaus können einzelne Komponenten gleichzeitig zu mehreren, also verschiedenen Cyber Physical Systems gehören! Intelligente Cyber Physical Systems haben damit Fähigkeiten der Eigengestaltung und darauf basierender Optimierung in einem bis dato in der Technik unbekannten Maße. Nach der Embodiment-Theorie entsteht Intelligenz aus dem Wechselspiel zwischen dem Körper und seiner Umwelt. Nicht nur setzt damit die Ausbildung von Intelligenz die grundsätzliche Existenz eines Körpers voraus, die Robotik hat durch die Embodiment- Theorie innerhalb der KI einen enormen Schub erfahren mehr noch: Die Ausbildung der 5

6 Intelligenz hängt von der konkreten Gestalt eines Körpers ab, weil unterschiedlich gestaltete Körper unterschiedliche physikalische Interaktion erfahren. Wenn die Embodiment-Theorie sich als zutreffend erweist und dafür spricht vieles: Was für ein Intelligenzbegriff entsteht dann bei einem Wesen mit praktisch unbegrenzter Reichweite und dynamischem Austausch seiner Komponenten? Was bedeutet der Intelligenz-Begriff in einem Cyber Physical System, und was für Anwendungen sind auf dieser Basis möglich? Die vorliegende Studie ordnet sich bewusst zwischen zwei Polen ein: Der vordere Teil ist dominiert durch eine Einführung in die kybernetische Denkweise und die Grundlagen von Theorie und Praxis verteilter intelligenter Systeme. Das Verständnis dieser Konzepte und Modelle stellt eine zentrale Hilfe für die anstehende Weiterentwicklungen im Kontext einer Industrie 4.0 dar. Der weitere Teil ist eher in das Modell zukunftsorientierter Studien einzuordnen, die Perspektiven auf Handlungsoptionen eröffnen. Als Zielgruppe steht hier die Deutsche Wirtschaft und ganz besonders der Kompetenzraum NRW im Vordergrund. Abb. 3: Körper eines 4.0- Wesens? Bild M. Malcher Aachen 6

7 2. KYBERNETIK 2.1 Ein historischer Exkurs Der Begriff Kybernetik leitet sich ab vom altgr. Wort kybernétes (etwa: steuermännisch, Steuermannskunst) und wurde um 1940 begründet. Als Vater der Disziplin gilt der bekannte amerikanische Mathematiker Norbert Wiener, der Lehrstühle zunächst am MIT Boston/USA und später in Cambridge/UK innehatte erschien sein berühmtes Buch Cybernetics or Control and Communication in the Animal and the Machine (deutsche Ausgabe: Kybernetik. Regelung und Nachrichtenübertragung im Lebewesen und in der Maschine) [1], ein Titel der gleichsam als eine erste Definition dieses neuen Konzeptes verstanden werden kann. Im gleichen Jahr erschien in der Zeitschrift Scientific American ein grundlegender Übersichtsartikel zur Kybernetik [2]. Die Macy-Konferenzen Circular causal, and feedback mechanisms in biological and social systems ( , [2]) wirkten bei der Weiterentwicklung des Konzepts als interdisziplinärer Katalysator. Die Kybernetik erforscht die grundlegenden Konzepte zur Steuerung und Regelung komplexer, hybrider Systeme. Es ist für den Leser entscheidend, dieses Konzept vor ihrem historischen Hintergrund zu reflektieren, um die Parallelen für die heutigen Entwicklungen zu verstehen: Eingeleitet durch die zweite industrielle Revolution zur Jahrhundertwende erlebte die Automatisierungstechnik in den Dreißiger- und Vierzigerjahren des 20. Jahrhunderts eine stürmische Entwicklung. Auf der Theorieseite lag die Wurzel des Erfolgs in dem umfassenden Leistungszuwachs der Steuer- und Abb. 4: Norbert Wiener, Vater der Kybernetik; laroucheplanet.info 7

8 Regelungstechnik, die sich seit den 1920er Jahren rasant entwickelte. Die Leistung von Wiener und Kollegen war damit weniger, sich mit der Steuerung und Regelung von Systemen zu befassen denn das lag auf der Hand. Die neue Idee der jungen Disziplin war vielmehr, dass hier keinerlei Voraussetzung an die Art der Systeme gemacht wurden, die da geregelt werden sollten dass es sich um Maschinen, Systeme von Maschinen, aber auch um Menschen, Organisationen, biologische Systeme, ökologische Systeme oder Mischformen der genannten handeln konnte. Die Kybernetik war der erste Versuch, die Erkenntnisgewinne der klassischen Steuer- und Regelungstechnik auf beliebige, heterogene sowie nicht-nur technische Systeme zu übertragen. Damit waren die Ziele der Kybernetik zweierlei: Gesucht wurde zum einen eine ganzheitliche, auf Steuerungs- und Regelungsmechanismen basierende Beschreibung solcher komplexen Gesamtsysteme, mit qualitativen und quantitativen Komponenten. Zum zweiten sollte diese Theorie die Basis einer disziplinübergreifenden neuen Einheitswissenschaft bilden, d.h. sehr unterschiedliche Bereiche mit einer einzigen Theorie beschreiben können, und damit in der Konsequenz auch Systeme völlig unterschiedlicher Herkunft in ihrem Verhalten vergleichbar machen. Der neue Ansatz wurde schnell von Wissenschaftlern sehr unterschiedlicher Disziplinen aufgegriffen, konzeptionell erweitert und auf verschiedenste neue Anwendungsfelder übertragen. Insbesondere die berühmten Macy-Konferenzen ( , USA) trugen umfassend zur Vernetzung der führenden Köpfe verschiedener Disziplinen bei [2]. Die Kybernetik durchlief eine wechselvolle Geschichte, von vielen Aufs und Abs getrieben [3]: Zwar ließ die grundsätzliche Idee kaum Raum für Zweifel. Das Statement von Wolfgang Wieser 1963, zum 15. Jahrestag des Erscheinens von Norbert Wieners Cybernetics fängt die Hype Stimmung perfekt ein: Abb. 5: Macy-Konferenzen, Kybernetik ist zu mehr als einem zentraler Treiber einer multidisziplinären Kybernetik wissenschaftlichen oder technologischen Begriff geworden: Sie ist eine Idee, ein Programm, ein Schlagwort einer jener Kondensationspunkte im intellektuellen Raum, an dem sich der gestaltlose Nebel von Einzelwissen und Spekulation hoffnungsvoll niederschlägt. [4] Die konkreten Ergebnisse jedoch konnten nicht mit den Erwartungen Schritt halten. Insbesondere wurde die fehlende Quantifizierbarkeit der Modelle zu einem zentralen Punkt der Wissenschaftskritik eine Theorie, die über rein qualitative Aussagen nicht hinauskommt, erfüllt nicht die Anforderungen einer naturwissenschaftlich dominierten Weltsicht. Moderne Weiterentwicklungen etwa aus Teilen der System Dynamics- Community [5], begründet von Jay W. Forrester [6] bereits in der Mitte der 1950er Jahre an der Sloan School des MIT, setzten genau hier an, um die Theorie voranzutreiben. 8

9 Eine andere Kritik, der die Kybernetik stets ausgesetzt war, kommt aus den Geistes- und Gesellschaftswissenschaften: Die Kybernetik fasst Menschen und Gesellschaften als komplexe Mechanismen auf, die sich ganz im Sinne einer Einheitstheorie in ihrer grundsätzlichen Modellierung nicht von Maschinen- oder Maschinensystemen unterscheiden. Nur wenn Menschen und Maschinen gleichermaßen auf digitaler Basis arbeiten, wenn das Wissen vom Menschen und das Wissen von Computern kompatibel gemacht werden können, ist auch die kybernetische Epistemologie selbst arbeitsfähig. schreibt dazu der Medientheoretiker Claus Pias [7]. Damit war die Kybernetik stets dem Vorwurf der Mechanisierung des Menschlichen ausgesetzt (ein paralleler Vorwurf traf zeitgleich den Taylorismus). Die Kritiker legen einen grundsätzlichen Unterschied zwischen den Menschen auf der einen Seite und Technik auf der anderen zu Grunde, der Mensch als das kreative, bewusste und intelligente auffasst, dagegen die Maschine als einfältig und bestenfalls in der Lage, standardisierte Prozeduren abzuarbeiten. Gerade mit den extremen Leistungssteigerungen der künstlichen Intelligenz in den letzten zwei Jahrzehnten wird jedoch deutlich, dass dieser Ansatz jedenfalls in einer strikten Form eher von einem gewissen Bias als von der Realität getrieben ist. Die Kybernetik gehört zu den Gründungsdisziplinen der modernen Informatik. Sie ist als Großvater des wichtigen Teilgebiets der KI, der künstlichen Intelligenz, zu betrachten, und sie wird vielfach mit biologischen Konzepten wie der Schwarmintelligenz, der Fähigkeit zur Selbstorganisation, der Autopoesis und der Bionik als Gebiet in Verbindung gebracht. Auch Begriffe wie der Cyber Space, der Cyborg aus dem Science Fiction Genre oder eben auch die Cyber Physical Systems tragen nicht nur sprachlich das Erbe der Kybernetik in sich [3]. 2.2 Die zentralen Elemente der Kybernetik Die Kybernetik ist eine sogenannte Systemtheorie, sie ist sogar der prominenteste Vertreter dieser Klasse von Erkenntnismodellen. Der Name ist Programm: Systemtheorien versuchen, die Gesetzmäßigkeiten komplexer Systeme zu analysieren, zu modellieren und damit das Systemverhalten grundsätzlich transparent und vorhersagbar zu machen. Ein System ist dabei zusammengesetzt aus mehreren (bis hin zu sehr vielen) Subsystemen oder Einzelelementen, die als Ganzes zusammenwirken, wodurch ein Gesamtsystemverhalten entsteht. Systemtheorien brechen mit der Betrachtung isolierter Objekte und stellen stattdessen die Betrachtung der Relationen zwischen Objekten und/oder Subsystemen und ihre gegenseitigen Beeinflussungen in den Vordergrund. Die Grundkonzeption der Kybernetik sind von einigen zentralen Elementen gekennzeichnet: Komplexe Systeme: Die Kybernetik betrachtet Viel-Komponenten-Systeme als ihren Untersuchungsgegenstand. Diese Komponenten stehen i.d.r. in komplexen, nicht-linearen Wechselwirkungen, und sie können heterogenen Ursprungs sein. Die Kybernetik macht keine Einschränkung an die Art der beteiligten Komponenten. 9

10 Feedbackschleife [auch Rückkopplungsschleife ]: Rückkoppelung beschreibt einen wichtigen Mechanismus der Regelungstechnik, bei dem das Ergebnis, also das Outputsignal, an die Eingangsgröße zurückgemeldet wird und dort modulierend (verstärkend oder abschwächend) rückwirken kann. An die Stelle geradlinig-kausaler Erklärungen treten damit zirkuläre Erklärungsansätze, die nicht auf einen umfassenden Forecast des Systemverhaltens zielen, sondern die Grundsätze des Systemverhaltens abbilden. Rückkopplungsschleifen mit Selbstregulationseigenschaften sind das kennzeichnende Merkmal der Funktionsweise natürlicher Systeme. Kybernetische Systeme werden durch multiple Feedbackschleifen beschrieben. Autopoiesis (altgriech., autos selbst, poiein machen ): Autopoietische Systeme haben die Fähigkeit zu selbstständiger Reproduktion. Autopoietische Systeme sind in diesem Sinne lebendig, dabei aber nicht notwendigerweise biologischer Natur. Stabile, langlebige Systeme sind durch Autopoiesis gekennzeichnet, die neue Fähigkeiten ausbilden kann, um sich geänderten Bedingungen anzupassen. Der Begriff wurde durch die Biologen Humberto Maturana und Francisco Varela geformt. Dezentralität: Kybernetische Systeme sind durch eine weitgehend dezentrale Steuerung gekennzeichnet, die sich als natürliche Konsequenz des rückkopplungsgetriebenen Ansatzes ergibt. Die Folge ist ein weitgehend bottom-up induziertes Systemverhalten. Die Kybernetik postuliert damit eine prinzipielle Überlegenheit selbstorganisierter Prozesse (bottomup) über zentralistischen top-down Prozessen. Emergenz (lat., emergere, etwa: auftauchen, entstehen): Kybernetische Systeme zeigen emergentes Verhalten, d.h. es kommt zu einer spontanen Herausbildung neuer Eigenschaften, Strukturen oder Verhaltensweisen eines Systems infolge des dezentralen Zusammenspiels seiner Komponenten, die die Abb. 6: Das Viable Systems Model nach Stafford Beer 1995; Bild M. Malcher Aachen einzelnen Systemelemente nicht aufweisen. So kann etwa ein Schwarmverhalten von Fischen nur entstehen, wenn hinreichend viele Fische vorhanden sind ein einzelner Fisch kann keinen Schwarm bilden. Emergenzeffektre sind i.d.r. positiv für das betrachtetet System zwar ist im Grundsatz auch negative Emergenzbildung möglich, das führt allerdings häufig zum Ableben des Systems und somit zum Verschwinden des Effekts und wird deshalb weniger beobachtet. Emergenzbildung ist somit eine zentrale Grundlage für das Überleben höherwertiger, also besser angepasster Systeme an ihre Umgebung: Schwarmbildung bietet erhöhten Schutz vor Räubern, das neue Verhalten führt also zu einer höheren Lösungsqualität als die Verfolgung reiner Einzelstrategien. 10

11 3. BEGRIFFSKLÄRUNGEN IM FELD DER VERTEILTEN INTELLIGENTEN SYSTEME 3.1 Verteilte Systeme Unter einem verteilten System wird in der Informatik basierend auf der Definition von A. Tanenbaum [8] [9] ein Zusammenschluss unabhängiger Computersysteme verstanden. Nach außen repräsentieren sich diese als ein einziges System. Die beteiligten Computersysteme können unterschiedlich repräsentiert sein: Es kann sich dabei einfach nur um Prozessoren, um Blades in einem Rechenzentrum, um PCs oder Labtops, mobile Systeme oder eingebettete Prozessoren handeln, um nur die wesentlichen Klassen zu nennen. Zentrale Eigenschaft eines verteilten Systems ist, dass es sich um autonome unabhängige Einheiten handelt, die über keinen gemeinsamen Speicher verfügen was im Umkehrschluss bedeutet, dass jede Form des Datenaustauschs durch Kommunikationsprozesse zwischen den beteiligten Einheiten realisiert werden muss. Während in der Vergangenheit mehrheitlich verteilte Computerzusammenschlüsse betrachtet wurden, etwa in Rechenzentren, gewinnen in der jüngeren Zeit insbesondere diejenigen verteilten Systeme an Bedeutung, die embodied sind und aktiv mit ihrer Umwelt interagieren, wie etwa ein Team kooperierender Roboter oder ein Schwarm autonomer Fahrzeuge. Abb. 7: ein an Industrie 4.0 angelehntes verteiltes System; Bild M. Malcher Aachen 11

12 Betrachtet man die Entwicklung der künstlichen Intelligenz in den letzten zwei Dekaden, so wird der Einfluss des Paradigmas der Verteilung in allen Bereichen überdeutlich: Verteilte Systeme sind die treibende Kraft hinter heutigen Hochleistungsrechnern: In den siebziger Jahren banden die ersten local-area networks wie das Ethernet Computer zu ersten Clustern zusammen. Auf dieser Basis konnte eine vorher undenkbare Rechenleistung erreicht werden, und das auf der Basis üblicher Geräte anstelle monolithischer, teurer Großrechner mit Einzelstückcharakter. Schon bald stellten diese Cluster die monolithischen Großrechner, die Mainframes, beim number crunching in den Schatten. Die Verteiltheit der Systeme führte zwangsläufig zu einem Schub in dem Forschungsfeld der Parallelisierung von Algorithmen, um die entstehende Rechnerpower überhaupt nutzen zu können. Neuronale Netze zeigen ihr Potential: Neuronale Netze sind grob dem Aufbau des Gehirns nachempfunden. Künstliche Neuronen werden untereinander verknüft ein verteiltes System also wiederum und sind in der Lage, nach der sogenannten Hebb schen Lernregel [10] [11] zu lernen. Im Gegensatz zur sequenziellen Abarbeitung klassischer Programme verarbeitet ein neuronales Netz alle eingehenden Inputs parallel und ist damit ungleich schneller, auch skaliert es besser weil im Fall komplexerer Strukturen einfach die Anzahl der beteiligten Neuronen erhöht wird, anstatt den Algorithmus anpassen zu müssen. Etwa im Bereich automatischer Mustererkennung eine zentrale Fähigkeit aller intelligenten Systeme haben sie inzwischen Abb. 8: Neuronale Netze inspiriert vom beeindruckende Ergebnisse. Die Theorie neuronaler Netze biologischen Vorbild; Bild M. Malcher Aachen entstand bereits in den Vierzigerjahren, allerdings reichten lange Zeit die Rechnerleistungen nicht aus, um die Leistungsfähigkeit des Ansatzes zu beweisen. Neuronale Netze markieren den radikalen Wechsel von der symbolischen zur subsymbolischen KI, der vielleicht wichtigste Paradigmenwechsel der KI überhaupt (vergl. Kap. 3.4). Heute erleben neuronale Netze in Form der Deep-Learning-Algorithmen (siehe Kap. 4.4), Kernelement der Big Data Techniken, eine Blüte. Das Internet ist die dominierende Kulturtechnik: Das Internet ist die dominierende Kulturtechnik und gleichzeitig das größte verteilte System, das die Menschheit jemals gestaltet hat. Mit seinen riesigen und heterogenen Datenmengen, verteilt auf unzählige Server, repräsentiert das Internet einen völlig neuen Typ eines komplexen Systems mit (teil-)autonomen Subsystemen. Hochskalierbare, weil parallelisierte, Algorithmen wie z.b. Googles MapReduce [12] [13] führen zu bemerkenswerten Ergebnissen. Die gesamte Big Data Entwicklung ist als Offspring der Internettechnologie aktuell dabei, Wissenschaftsmethodiken ebenso wie ganze Wirtschaftszweige umzukrempeln. 12

13 Mit dem Konzept der Cyber Physical Systems entsteht ein neuer Typ verteilter Systeme: Dieser Typ ist charakterisiert durch die Interaktion von Teilen seiner Komponenten (Sensoren, Roboter usw.) mit der Umgebung (vergl. Kap. 1). CPS können als die Weiterentwicklung eingebetteter Systeme [14] [15] verstanden werden, jedoch mit erweiterten Funktionalitäten in Bezug auf Kommunikation und Kooperation. Sie bilden eine Brücke zwischen der digitalen Computerwelt und der physikalischen Umwelt. Weil das System über physische Erfahrungen und jedenfalls in gewisser Weise über einen Körper verfügt, erfüllt es die zentralen Voraussetzungen für die Ausbildung von Intelligenz nach der Embodiment-Theorie (vergl. Kap. 3.4). Diese Liste ließe sich fortsetzen, insbesondere verdichten. Summarisch ergibt sich die Erkenntnis, dass verteilte Computersysteme und verteilte Algorithmen aktuell zu einem neuen Typ intelligenter Systeme führen, dessen primäre Verhaltensmuster durch einen bottom-up Ansatz dem Verhalten der Einzelkomponenten und damit kybernetisch geprägt sind. Und wenn auch von einem strikten Standpunkt aus die Entwicklung eine kontinuierliche, und damit eine rein quantitative, ist unsere Wahrnehmung ist doch mehrheitlich eine andere: Weil diese neuen Strukturen völlig neue Szenarien ermöglichen, wie z.b. autonome kooperierende Fahrzeuge, intelligente Energienetze, und vieles mehr, ist die Veränderung in ihrer Konsequenz durchaus eine sprunghafte, und in der Folge sowohl quantitative als auch qualitative. 3.2 Internet of Things und Cyber Physical Systems Der Begriff des Internet of Things (kurz: IoT) entstand 1999 durch Kevin Ashton (Auto- ID Center des MIT, USA), der Begriff der Cyber Physical Systems wurde 2006 durch Helen Gill von den National Science Foundation NSF (der amerikanischen DFG ) maßgeblich geprägt. Im Kern handelt es sich bei ersterem um einen Verbund mehrheitlich technischer Subkomponenten, die über eine internetbasierte Dateninfrastruktur miteinander kommunizieren, bei letzterem um die Ausweitung des Beteiligungskonzepts des Internets: Teilnehmer sind nicht mehr ausschließlich Menschen, sondern auch Dinge wie etwa die Sensorik eines Autos, Klimadatenstationen, Prozessdatenrechner der Produktionstechnik und andere informationstragende und/oder mit der Umwelt unmittelbar interagierende Systeme. In beiden Konzepten entsteht ein Graph aus Knoten und Kanten, ein verteiltes System bei dem die Knoten die Informationseinheiten repräsentieren, die Kanten die Kommunikationswege. Die eine Sichtweise fokussiert auf die Komponenten, die zweite auf das Netzwerk in gegenseitiger vollständiger Anerkennung dessen, dass das eine ohne das andere wenig nützlich wäre. Im Ergebnis bilden Cyber Physical Systems und Internet of Things zwei Sichten auf dasselbe Phänomen, nämlich, wie es einer der führenden Wissenschaftler von Bosch, Dr. Stefan Ferber, in seiner Keynote 2012 in Wuxi/China zusammenfasste, the outlook of connecting 50 billions devices by Connecting them with each other and with 6 billion people, hätte er noch hinzufügen können. 13

14 Interessant ist die unterschiedliche Konzeptualierung der Begriffe bei gleichzeitiger Übereinstimmung ihrer Kernelemente: Beide Ansätze gehen von einem großen, verteilten System von (Sub-)Systemen aus, die mit der Umgebung gekoppelt sind und mit dieser Informationen austauschen. Das Internet fungiert als Informationsträger und Protokolleebene, die Komponenten sind als eingebettete Systeme ( embedded systems ) realiziert. Die Perspektive des Internet of Things ist aus der Informatik getrieben, i.w. als Erweiterung derjenigen Community die auch das Internet entworfen hat; konsequenterweise steht hier die Netz- und Kommunikationsperspektive im Vordergrund. Der Begriff des Cyber-physical Systems wurde von Beginn an stark getrieben durch die Ingenieurwissenschaften - die Perspektive auf die Einzelkomponenten, die dann miteinander kommunizieren, ist unverkennbar. Dieser Unterschied in der Betrachtung wird gut sichtbar in den unterschiedlichen Lösungsmethodiken beider Gruppen. 3.3 Künstliche Intelligenz: von GOFAI zum Konnektivismus Die Geschichte der Künstlichen Intelligenz beginnt in den Fünfzigerjahren in der Bugwelle immer leistungsstärkerer Rechner. Die Informatik begründet sich als eigenständiges Fachgebiet (sie wurde zuvor innerhalb der Mathematik bzw. der Elektrotechnik oder zwischen beiden Disziplinen angesiedelt), erste Studiengänge zur KI entstehen. Zentrale Namen sind John McCarthy [16], Marvin Minsky [17], Claude Shannon [18], Alan Turing [19], Hans Moravec [20]. Die Community überlappte sich erheblich mit der der Kybernetik. Die KI ist getrieben von zwei einander i.w. ablösenden zentralen Stömungen, die verkürzt mit top-down vs. bottom-up KI beschrieben werden können: GOFAI top-down symbolische KI: o In der frühen Phase der KI wurde angenommen, dass die Explizierung von Informationen die zentrale Grundlage für Intelligenz sei (die sog. Physical Symbol System Hypothesis ). Das Ergebnis waren alle erdenkbaren Formen von Wissensrepräsentationen, also riesige Datenbanken als Wissensspeicher, detaillierte Taskbeschreibungen usw. der Versuch, das menschliche Wissen inkl. Handlungsbeschreibungen so komplett wie möglich abzubilden. o Man spricht von der symbolischen KI, weil sie als Startpunkt das Wissen als Symbole in den Speichersystemen des Computers anordnet, um dann auf diesen zu operieren. Der Ansatz wird heute, also retrospektiv und mit leichtem Augenzwinkern, als GOFAI good old-fashioned artificial intelligence bezeichnet. Abb. 9: GOFAI Nürnberger Trichter für IT-Systeme; Bild M. Malcher Aachen Nachdem diese Programme zwar Achtungserfolge in sehr spezialisierten Anwendungen erreichen konnten, den großen Zielen eines wirklich intelligenten Agierens auch in unbekannten Handlungskonzepten aber kaum näher kamen, setzte ein umfangreiches Umdenken ein: 14

15 Konnektivismus bottom-up subsymbolische KI: Wissen sollte selbstständig und durch Erfahrungen erworben werden können. Voraussetzung dafür ist klarerweise die Fähigkeit, überhaupt Informationen aus der Umwelt wahrnehmen zu können, weshalb dieser Ansatz in natürlicher Weise die im Kap. 3.4 eingeführte Embodiment- Theorie einleitete. Das wesentliche Werkzeug der Methode sind die in Kap. 3.1 eingeführten neuronalen Netze, die vereinfacht die Funktionsweise des menschlichen Gehirns nachahmen und ein wichtiges Konzept verteilter Systeme darstellen. Die Subsumption-Architektur [21] [22], eingeführt durch Rodney Brooks 1986 (vergl. Kap. 3.4), wurde zur wichtigsten Architektur in der Robotikforschung, in der Informatik lösten hybride kognitive Architekturen wie Soar die zuvor rein symbolischen ab (vergl. Kap ). In Abgrenzung zur symbolischen KI und wegen ihres von unten kommenden Ansatzes wird dieser Ansatz als subsymbolische KI bezeichnet. Abb. 10: Konnectivismus subsymbolische KI; Bild M. Malcher Aachen Das folgende Beispiel [22] illustriert den Unterschied perfekt: um etwa den Buchstaben W zu erkennen und von anderen Buchstaben unterscheiden zu können, würde ein topdown Programm ein Testobjekt mit einer genauen Beschreibung des Buchstaben ( vier Linien, die paarweise an ihren Ecken mit den-und-den Winkeln miteinander verbunden sind ) abgleichen. Ein bottom-up Programm hingegen würde anhand verschiedener Ws deren Gemeinsamkeiten erlernen und das gelernte dann auf weitere Kandidaten anwenden. Im Hintergrund steckt i.d.r. ein neuronales Netz, das auf den Buchstaben trainiert wurde (vergl. Kap. 3.1). Im Kern steht einfach der Unterschied zwischen Wissen mitgeben vs. Wissen erwerben. Das Beispiel macht auch deutlich dass der Schulstreit der beiden Fraktionen an manchen Stellen überzogen ist: Auch ein System, das erfahrungsgetrieben lernt, baut ja eine Wissensbasis auf, auf der es dann operiert. In diesem Sinn schliessen sich symbolische und subsymbolische KI nicht aus, die Herkunft des Wissens ist allerdings unterschiedlich. Moderne Ansätze aus den Kognitionswissenschaften wie etwa D. Kahnemann (Nobelpreis 2003, Schnelles Denken langsames Denken, [23] [24]) legen vielmehr nahe, dass die optimale Struktur gerade in einer geschickten Kombination beider Ansätze liegt. Genau dieser Ansatz wird auch in hybriden Softwarearchitekturen heute aufgegriffen (vergl. Kap ). Die Kybernetik boomt derzeit. Das Kapitel erklärt die Ursache: Die Kybernetik ist ohnehin ein Großvater der KI, denn ihr Ziel war die Beschreibung des Verhaltens komplexer Systeme ohne weitere Aussage über die Herkunft der Systeme, was also Computersysteme mitumfasst. Weil aber aktuell die gesamte Entwicklung in Richtung einer verteilten dezentralen, koennektivistischen KI zeigt, wächst der ohnehin vorhandene Einfluss der Kybernetik auf die modernen Entwicklungen der Informatik gerade massiv: Der dezentrale Modellierungsansatz des Konnektivismus entspricht genau dem Steuerungsparadigma der Kybernetik, das dezentral organiserte Internet als Schlüsseltechnologie des Digitalisierungszeitalters ebenso. 15

16 3.4 Embodiment-Theorie Die Embodiment-Theorie entstammt den Kognitionswissenschaften und wurde von Rodney Brooks [24] [25] [26] um 1980 in das Gebiet der künstlichen Intelligenz eingebracht und seitdem intensiv weiterentwickelt, unter anderem durch Hans Moravec ( Moravec Paradoxon, [20]) und im deutschsprachigen Raum insbesondere durch Rolf Pfeiffer an der ETH Zürich [27]. Die zentrale Aussage ist, dass die eigenständige Ausbildung von Intelligenz zwingend die Existenz eines Körpers voraussetzt, der mit der Umwelt interagiert und so erfahrungsgetrieben Erkenntnisse gewinnen kann. Intelligenz ist demnach Ausdruck einer sensomotorische Koordination, soll heißen: Sensoren (Sinnesorgane) und Aktuatoren (Motoren, Muskeln) werden durch interne Informationsverarbeitung koordiniert. Der Ansatz steht in diametralem Gegensatz zu klassischen Interpretationen, die Intelligenz als einen Spezialfall einer rein internen Informationsverarbeitung verstanden. Eindrucksvolle jüngere Arbeiten kamen insbesondere von Josh Bongard 2006 [28], der als erster die Lernfähigkeit von Robotern auf der Basis selbsterlernter Körpermodelle demonstrierte [28]. Im Kern geht es darum, Roboter mit einem Körperbewusstsein auszustatten, um ihn auf dieser Basis Bewegungen erlernen und optimieren zu lassen. Der Bongard sche vierbeinige Spinnenroboter lernt auf diese Weise zu laufen, und er erlernt einen Laufstil auf drei Beinen selbstständig wenn ein Teil eines seiner Beine unbenutzbar ist. Abb. 11: Embodiment keine Intelligenz ohne Körper; Bild M. Malcher Aachen Die Embodiment-Theorie kann als eine konsequente Interpretation oder Weiterführung der Subsumption-Theorie (vergl. S. 15) gesehen werden: Die Existenz eines Körpers und damit die Existenz von Sinnesorganen bzw. Sensoren ermöglicht genau die eigenständige Erfahrung, die die Grundlage des Konnektivismus bildet. 3.5 Der Intelligenzbegriff eine pragmatische Annäherung In den vorangegangenen Abschnitten wurde der Begriff der Intelligenz verwendet, ohne die zugrundegelegte Definition zu thematisieren. Die zugehörige Debatte ist spannend und soll in diesem Kapitel wenigstens ansatzweise vorgestellt werden auch, um in den nachfolgenden Kapiteln wenn nicht über eine Definition so doch über eine gewisse definitorische Grundlage zu verfügen: Die Konzeption dessen was Intelligenz ist oder was sie nicht ist füllt Bücher. Extreme liegen zwischen dem sogenannten Biological chauvinism (verkürzt: nur biologische Gehirne sind intelligent, angelehnt an C. Sagan in den sechziger Jahren) und dem Liberal functionalism (verkürzt: jedes verhaltensfähige System ist intelligent ; Jackendorf 1987, Putnam 1967). Leicht überzeichnet ergibt sich eine Spanne von nur Menschen sind intelligent bis hin zu auch ein Toaster ist schlau. Während das erste Extrem verhältnismäßig schnell zu den Akten gelegt werden kann, hat der zweite Ansatz intellektuell einen gewissen Charme, weil er immerhin keine willkürlichen Grenzen zieht. Jedoch: In einem Verständnis, dass fast alles intelligent ist, lassen sich wiederum 16

17 kaum Schlussfolgerungen über Entstehung und Funktionsweise hochentwickelter Intelligenz gewinnen. Im Großen und Ganzen besteht heute durchaus eine gewisse Übereinstimmung in der wissenschaftlichen Community, auch über die unterschiedlichen Fachdisziplinen und Schulen hinweg, darüber, dass ein intelligenter Agent typischerweise durch drei zentrale Komponenten gekennzeichnet ist: 1. die Fähigkeit zur Wahrnehmung der Umgebung und ihrer Veränderungen, also der Besitz sensorischer Komponenten zur Wahrnehmung externer Stimuli SENSORIK 2. die Fähigkeit zur Prozessverarbeitung, also das Prozessieren der externen Daten, deren Analyse und schließlich die Anpassung des eigenen Verhaltens an die Umwelt KOGNITION 3. die Fähigkeit zur Reaktion, also die Möglichkeit zur unmittelbaren physikalischen Interaktion mit der Umgebung AKTUATORIK. In einem so verhältnismäßig allgemeingehaltenen Ansatz der Intelligenz als einem Dreisprung im oben skizzierten Sinne haben etwa heutige Industrieroboter durchaus eine gewisse Intelligenz (vergl. Kap. 4.1), jedenfalls die neuester Generationen. Dabei ist klar, dass diese Intelligenz in keiner Weise einer humanen Intelligenz nahekommt was aber auch keineswegs zwingend ist. 17

18 4. AUF DEM WEG ZU EINER DEZENTRALEN AUTOMATISIERUNGSTECHNIK 4.1 Zum Stand der Automatisierungstechnik heute Die aktuelle Automatisierungstechnik ist von dem Paradigma einer zentralistischen Steuerung gekennzeichnet. Master-Slave-Systeme sind das dominierende Architekturmodell: Ein Zentralserver verteilt die Tasks, die abhängigen Einheiten erfüllen ihre Aufgaben und berichten an den Zentralserver. Solche Systeme sind weder ziel-basiert noch agieren sie als soziales Team: sie wissen kaum, wer sie sind, wer ihre Nachbarn sind, was ihre Aufgabe ist, wie sie zusammenwirken, was die Konsequenzen ihrer Fehler sein können, welche alternativen Strategien es geben könnte usw. Was wie eine kooperative Robotik wirkt etwa bei einer Vielzahl von Robotern entlang einer Automobilfertigungsstraße ist i.d.r. heute lediglich ein zeitlich synchrones Abarbeiten verschiedener Task durch die beteiligten Roboter. Das Modell der zentralistischen Steuerung führt dazu, dass die gesamte Struktur typischerweise mit Systemen desselben Herstellers realisiert wird: Heterogene Strukturen, also Systeme unterschiedlicher Hersteller, würden voraussetzen dass die Zentralserver die verschiedenen Kommunikationsprotokolle beherrschen, diese sind jedoch sogar mehrheitlich proprietär. Diversität der Hardware stellt heute ein Problem dar und wird tunlichst vermieden, gleichzeitig behindert genau das den Einsatz alternativer Techniken oder die Einführung neuer. 18

19 Die Szene ist von einer hohen Standardisierungsphilosophie getrieben, allerdings nicht in ganz wiederspruchsfreier Weise: Zwar ist die Feldbus-Ebene normiert, d.h. die grundsätzliche Protokollebene zur Anbindung der Komponenten an den Server. Hinsichtlich der Steuerungssprachen, die das eigentliche Verhalten der Systeme regeln, dominieren jedoch derzeit noch die Hersteller-spezifischen, also nicht standardisierten Sprachen. Die Intelligenz heutiger Industrierobotik ist mehrheitlich beschränkt auf die sehr präzise! Durchführung von Basisfunktionalitäten wie die Handhabung spezifischer Tools, Navigation, Kollissionsvermeidung, und zentrale Prüffunktionen (z.b. die integrierte Messung der Breite einer Schweißnaht). Wobei bereits das letztgenannte keine durchgängige Eigenschaft mehr ist: So erkennen etwa Roboter in einer Lackierstraße im Automobilbereich nicht, dass sie aufgrund verstopfter Düsen ein ungleichmäßiges Lackbild produzieren. Ein Ziel, das in den vergangenen Jahren bereits mehr und mehr erreicht werden konnte, ist die Flexibilität der Anlagen in Bezug auf die Fertigung mehrerer Varianten auf derselben Produktionslinie. Durch die Abb. 12: Klassische Industrierobotik - Ausstattung der Systeme mit mehr Sensoriken und interner CPU (oder synchronisiert aber nicht kooperativ, Zugang zu einer znetralen) wurde es möglich, dass Systeme die und ohne Selbstwahrnehmung ; angelieferten Teile bzw. den Zustand des halbfertigen Produkts korrekt Bild M. Malcher Aachen identifizieren und auf dieser Basis die nächsten Schritte durchführen. So beherrschen insbesondere in der hochentwickelten deutschen Automobilfertigung moderne Produktionslinien heute selbstverständlich die Fertigung mehrerer Modelle. 4.2 Automatisierungstechnik der Zukunft Intelligenz Die Zukunft der Automatisierungstechnik liegt darin, die Einzelsysteme mit mehr Intelligenz auszustatten, zunächst einmal vor allem, um Prozess- und Produktqualität zu erhöhen. Die Systeme umfassen zunehmend mehr Sensoriken, die etwa Abweichungen vom Zielzustand früh feststellen. Integrierte Fehleranalysen können im Idealfall das Verhalten noch im laufenden Prozess anpassen oder notfalls den Prozess abbrechen, um weiteren Schaden zu verhindern (im Fall des im Vorkapitel beschriebenen Lackschadens wird die komplette Karosserie nach Fertigstellung der Lackierung entsorgt, sie ist für den Verkauf vollständig unbrauchbar). Kooperative Robotik und dezentrale Steuerungslogiken Darauf aufbauend setzen moderne Robotikkonzepte insbesondere bei dem Konzept einer kooperativen Robotik an: Eine Vielzahl von Forschungsprojekten in der Automatisierungstechnik adressiert die Thematik, Roboter als Team agieren zu lassen. Der Hintergrund ist Abb. 13: Moderne Industrierobotik mit intelligenter Kooperation und Fehlererkennung; Bild M. Malcher Aachen evident: Werden Menschen mit einer komplizierten Aufgabe konfrontiert, so lösen sie sie in Teamarbeit, und dies mit möglichst heterogenen 19

20 Teammitgliedern, um die wechselseitigen Kompetenzen nutzen zu können. Genau dieser Schritt steht in der Robotik derzeit an die aktuellen Produktionssysteme umfassen zwar oft viele Roboter, aber diese werden nur durch den Zentralserver zeitlich koordiniert, sie agieren nicht als sich abstimmendes Team. Die neuen Erkenntnisse der Theorie verteilter Systeme bilden die Grundlage für neue Modelle. Ein solcher Teamprozess unterliegt notwendigerweise einem dezentralen Steuerungsparadigma. Die Automatisierungstechnik der Zukunft steht vor dem gleichen Wandel, die der Bereich des Höchstleistungsrechnens bereits hinter sich hat: Die weitgehende Ablösung monolitischer Mainframes es gibt Ausnahmen, gerade auch wieder in jüngster Zeit zu riesigen Blade-Clustern, auf denen parallele Algorithmen laufen, entspricht dem Wandel weg von zentralistischen Master-Slave-Systemen hin zu dezentral organisierten kooperativen Teams von Systemen. Kommunikation auf der Basis natursprachlicher Analyse Dazu sind aber erhebliche Steigerungen der Intelligenz der heutigen Systeme notwendig: Um kooperieren zu können, ist ein Verständnis der Gesamtaufgabe notwendig, ein Verständnis der einzelnen Entität für seine Rolle im Team, ein Verständnis der Rolle anderer, eine Übersicht über im Team verfügbare Kompetenzen, Spielregeln für die decision making processes, die Fähigkeit zur gemeinsamen Entwicklung neuer Arbeitsteilungen und Lösungsstrategien, die Fähigkeit der Kommunikation von Intentionen gegenüber den anderen Teammitgliedern, Letzteres wird gerne unterschätzt: Naiv sollte man annehmen, dass sich Roboter und andere technische Systeme aufgrund ihrer Möglichkeit drahtloser, hochperformanter Funkverbindungen eher schneller und unmittelbarer austauschen können sollten als Menschen. Das ist richtig für den reinen Datenaustausch. Um aber zu verstehen was die Informationen des Senders inhaltlichen bedeuten bedarf es mehr. Nur wenn die Systeme über gleiche Protokolle verfügen, d.h. gleiche Sprachen sprechen, darf unmittelbar von einen gewissen Verständnis ausgegangen werden. Diese Verwendung standardisierter Schnittstellen ist in heterogenen Teams heterogen durch verschiedene Hersteller jedoch nicht gegeben. Hier müssen dann Ansätze aus einem ganz anderen Bereich der KI greifen, dem Bereich der Computer- Linguistik, der in den vergangenen zwei Jahrzehnten beeindruckende Ergebnisse hervorgebracht hat. Abb. 14: Kommunikation in 4.0-Systemen: computerlinguistische Interpretation für den Informationsaustausch; Bild M. Malcher Aachen Kommunikation ist ein wichtiges Teilgebiet der Intelligenz. Ähnlich wie als Gesamttendenz für die KI in Kap. 3.3 beschrieben, kann Sprachverständnis grundsätzlich auf zwei Weisen erreicht werden: Der top-down orientierte Ansatz sieht eine gemeinsame, standardisierte Hochsprache vor, die dann alle Community-Mitglieder bedienen. Der bottom-up Ansatz hingegen versucht, auf der Basis statistischer oder regelbasierter Analysen einen beliebigen Inhalts selbstständig zu erkennen. 20

21 Natursprache statt Sprachstandards Im Internet wurde der top-down Lösungsweg unter dem Titel Semantic Web [29] um 2005 durch den Internetpioneer und heutigen Direktor des W3C (World Wide Web Consortium) Tim Berners-Lee vorgeschlagen. Auf der Basis des RDF-Frameworks (Resource Description Framework, [30]) sollten die Webinhalte in standardisierter Weise semantisch angereichert werden. Es gehört zu den vielleicht besten Treppenwitzen der Internet-Ära, dass dieser Ansatz überhaupt nicht funktioniert hat, wie Berners-Lee 2006 bekennen musste, dass dessen Ziel jedoch, nämlich die Daten des Internets durchsuchbar zu machen, auszuwerten, Schlussfolgerungen zu ziehen usw., in exzellenter Weise erreicht wurde! Anstatt nämlich darauf zu setzen, dass alle Nutzer die Standards bedienen würden, völlig klar dass sie das nie tun würden, kamen aus der Computerlinguistik völlig neue Methoden des automatisierten Textverständnisses: Insbesondere der Bereich der natursprachlichen Analyse NLP [31] konnte in den vergangenen zwei Dekaden eine stürmische Erfolgsgeschichte verzeichnen. Die heutigen beeindruckenden Ergebnisse der Big Data Technologie sind keinesfalls das Ergebnis des Einhaltens effizienter Standards, sondern zeugen im Gegenteil von unserer Kompetenz, auch mit nicht-standardisierten Inhalten umzugehen. Ein zentrales Element dieser Entwicklung sind die auf neuronalen Netzen basierenden Deep Learning Algorithmen (vergl. S. 12 und Kap. 4.4) Biologische und Soziale Modelle als Vorbild Hierin zeigt sich einmal mehr die immer stärker werdende Tendenz, für effiziente technische Lösungen auf bestehende biologische Modelle, teilweise sogar auf menschliche Vorgehensweisen, zurückzugreifen, je intelligenter die Systeme werden bzw. werden sollen. Dieses Vorgehen wird in der Informatik als Organic Computing [32] [33] oder biologically-inspired computing bezeichnet und kann in diesem Sinne auch auf die gesamte Automatisierungstechnik übertragen werden. Denn auch die menschliche Kommunikation schreibt nur Eckdaten (Grammatik, Vokabular) der Sprachverwendung vor ein und derselbe Zusammenhang kann aber auf unbegrenzt viele Weisen äquivalent repräsentiert werden. Ambiguitäten sind eher die Regel als die Ausnahme, und Ungenauigkeiten etwa durch nicht-muttersprachliche Schreiber werden trotzdem verstanden. Der Sieg des Offenheitsparadigmas Abb. 15: Organic Computing, hier in Bezug auf die Gestalt: Kofferfisch als Designvorlage für Autos mit großem Innenraum und optimalen Strömungseigenschaften Bild Fotomontage: SigNatur, Fotos: DaimlerChrysler Die Übertragung der oben beschriebenen Geschichte des WWW auf die Automatisierungstechnik jedenfalls bedeutet: Weder werden sich langfristig die proprietären Herstellersprachen halten, noch werden alle Hersteller je eine gemeinsame Standardsprache verwenden. Mehr und mehr Hersteller insbesondere aus China und Korea drängen zudem auf den Markt. Offene Sprache auf allen Ebenen, auf der der Ansteuerung ebenso wie auf der des Informationsaustauschs unter den Systemen 21

22 werden mehr und mehr zur Regel: Deutsche Hersteller beginnen bereits, ihre Systeme für moderne, etwa objektorientierte Programmiersprachen wie z.b. Java zu öffnen, um so die Durchlässigkeit der Systeme zu unterstützen. Dabei handelt es sich natürlich um einen trade-off: Einerseits bedeutet die Öffnung der Systeme eine verstärkte Gefahr, dass Kunden nicht mehr Komplettsysteme beziehen, sondern Systeme kombinieren, wobei insbesondere auch Preisvorteile ausgenutzt werden können. Andererseits besteht bei Nichtöffnung die Gefahr, vollständig vom Markt verdrängt zu werden, wenn andere Systeme diese Fähigkeiten beherrschen. Zusätzlich zur Öffnung der Systeme gegenüber offenen Sprachstandards ist aber auch in der Robotik langfristig eine Entwicklung zu erwarten, die vergleichbar zum WWW-Kommunikation stärker auf der Ebene der natursprachlichen Analyse angeht als über Sprachstandardisierung überhaupt. Ein Babelfish für Roboter! 4.3 Modellierungen dezentraler Systeme durch Multiagenten Zentrales Mittel der Modellierung dezentraler Systeme sind die sogenannten Multiagentensysteme. Aufgrund des zunehmenden Interesses für dezentrale Steuerungsansätze ist das Paradigma der multiagenten-basierten Modellierung und Simulation (MABS) ein viel versprechendes und aktuell rasch wachsendes Forschungsgebiet, das inzwischen auch industrielle Anwendungen findet: Das Modell Ein Multiagentensystem besteht immer aus einer Anzahl selbstständig agierender Softwaremodule, die die verschiedenen Komponenten des Gesamtsystems vertreten. So wird in einem Team von Robotern typischerweise jeder Roboter durch einen eigenen Agenten vertreten. Agenten müssen jedoch nicht zwingend physikalisch getrennte Einheiten repräsentieren, sondern können auch verschiedene Aufgaben innerhalb eines komplexen Organismus übernehmen: Ein Mehr-Arm-Roboter könnte etwa jeden seiner Arme durch einen eigenen Agenten modellieren, was konzeptionell z.b. bei dem Halbhumanoiden Justin des DLR realisiert wird, der auf zwei nachgiebigen Leichtbauarmen basiert [34]. Agenten werden auch in Systemen mit nichtkörperbehafteten Entitäten eingesetzt, wie etwa zur Modellierung des Zusammenspiels einer Gruppe von Webservices, virtuellen Agenten also. Abb. 16: Mehr-Arm-Roboter Justin, DLR: die Arme verfügen über eigene, getrennte Logiken; Bild DLR, CC-BY 3.0 Funktionsweise Die Agenten vertreten eine Entität oder eine bestimmte Aufgabe in dem Gesamtsystem. Sie handeln autonom miteinander die Lösung aus, typischerweise ohne Masterbrain. Sie haben die Fähigkeit, Umgebungsinformationen aufzunehmen und damit in einer sich verändernden Umgebung zu agieren [35]. Dabei haben sie stets eine lokale Perspektive, d.h. kein Agent hat die volle Abb. 17: Team Humanoiden modelliert als Multiagentensystem, RoboCup Standard League Bild Röfer et al

23 Systemübersicht. Der Ansatz geht davon aus, dass in Systemen hoher Komplexität und einer Vielzahl dynamischer Veränderungen eine globale Systemkenntnis weder möglich noch sinnvoll ist stattdessen müssen die Träger der lokalen Informationen miteinander kommunizieren und in Verhandlungen treten. In der Regel liegt kein gemeinsamer Speicher der Einzelentitäten vor. Die einzelnen Agenten nehmen im Gesamtsystem verschiedene Rollen ein: In symmetrischen Multiagentensystemen haben alle Agenten die gleichen Rechte, in asymmetrischen sind bestimmte aufgrund ihrer Rolle ausgezeichnet. Auch eine Kombination eines Multiagentensystems mit einem Masterbrain für bestimmte Kompetenzbereiche ist möglich in diesem Fall handelt es sich um ein hybrides System (vergl. S. 15). Die Fähigkeiten der Agenten können sehr unterschiedlich realisiert sein [36]: Einfache Multiagentensysteme beherbergen rein reaktive Agenten, die auf der Basis von Stimulus- Response-Mustern in geeigneter Weise auf veränderte Bedingungen reagieren. Komplexere Ansätze umfassen Komponenten von Proaktivität hier sollen die Agenten in der Lage sein, durch zielgerichtetes Verhalten eine Eigeninitiative zu übernehmen. Für die Realisierung kreativer Lösungen in komplexen Situationen ist zweifellos die zweite Ausrichtung klar wünschenswert, in eher wohlstrukturierten Situationen ist die erste häufig ausreichend. Diskussion Der Unterschied von Agenten Systemen zu herkömmlicher Softwareentwicklungen liegt damit darin, dass der Sourcecode in selbstständige Teile gegliedert ist. Hier handelt es sich konzeptionell um eine Erweiterung des objektorientierten Programmierparadigmas, in dem Code zwar auch nach klaren Regeln in Teilen zerlegt wird, Klassen und deren Objekte diese jedoch in der Regel nicht als selbstständig handelnde Einheiten zu bezeichnen sind. Multiagentensysteme realisieren den Kerngedanken der Kybernetik, weil sie grundsätzlich nach einem bottom-up Ansatz funktionieren: Das Verhalten der einzelnen Agenten bestimmt das Gesamtsystemverhalten (in Abgrenzung zu zentralistischen Ansätzen, bei denen das gewünschte Gesamtsystemverhalten vorgegeben wird, welches dann rückwärts und top-down das notwendige Verhalten der Komponenten festlegt). Sie sind ebenso wie die Kybernetik ein sehr interdisziplinäres Konzept und stark durch soziale und biologische Modelle inspiriert: Vorbilder sind z.b. menschliches Teamverhalten, Sozialverhalten staatenbildender Insekten oder Schwarmverhalten von Fischen je nach Einsatzzweck (vergl. S. 21). Abb. 18: Multiagentensystem, nach J. Lin et al., 2010; Bild M. Malcher Aachen 23

24 Erste Multi-Agenten-Systeme entstanden in den Siebziger Jahren des 20. Jahrhunderts und zeigen bereits dort ihre Mächtigkeit zur Lösung spezialisierter Probleme. Ihr Potential wird aber, ähnlich zur Technologie neuronaler Netze, erst mit der Leistungssteigerung und der Miniaturisierung von Hardware wirklich deutlich (vergl. S. 12). Es kommen verschiedene Programmiersprachen zum Einsatz, die FIPA (Foundation for Intelligent Physical Agents) ist das wichtigste Standardisierungsgremium, um eine Kommunikationsgrundlage für heterogene, interagierende Agentensysteme zu schaffen. Robustheit Abb. 19: Asymmetrisches Multiagentensystem am Beispiel einer dezentralen Schuhfabrikation, Idee nach Diss. D. Ewert 2013, RWTH Multiagentensysteme haben in einer Vielzahl von Studien und Demonstratoren ihre hohe Stabilität und Verlässlichkeit demonstriert (vergl. auch Kap ). In Systemen mit dynamischen Communities sind sie deutlich weniger fehleranfällig als monolithischere Architekturen. Insgesamt gilt, dass die Überlegenheit der Multiagentensysteme umso höher wird, je größer die Dynamik und die Turbulenz der Umgebung sind: So ist beispielsweise im Fall von Massenproduktion einfacher Produkte in stabilen Umwelten eine zentrale Produktionssteuerung durchaus sinnvoll, während in turbulenten Umwelten und bei innovativen Produkten dezentrale Organisationsformen eher von Vorteil sind (Powell 1990, [37]). Multiagentensysteme zeigen als klare Realisierung des kybernetischen Prinzips emergentes Verhalten. Dieses spontane Auftreten neuer Verhaltensmuster ist im Grundsatz erwünscht emergentes Verhalten ist in der Regel positiv für das System, seine Stabilität, seinen Energieverbrauch, usw. Nichtsdestotrotz führt genau die Emergenzeigenschaft beim menschlichen Beobachter oft zunächst zu Befremden, weil dieses Verhalten nicht erwartet wurde. Emergentes Verhalten kann durch den Einsatz zusätzlicher stimulierender Methoden, etwa genetischer Algorithmen [38], noch forciert werden. Verwandte Konzepte Abb. 20: Modellierung eines Ameisenhaufens via Multiagenten die multiplen Wege konvergieren zu den kürzesten Verbindungen, Bsp. nach U. Pape 2003 Ein wichtiger Verwandter und sogar Vorgänger der Multiagentensysteme sind die Aktorenmodelle [39] [40], die 1973 von C. Hewitt [40] eingeführt wurden. Analog zu Multiagentensystemen wird im Aktorenmodell eine komplexe Aufgabe in Teilaufgaben zerlegt, die hier von sogenannten Aktoren durchgeführt werden. Diese Aktoren kommunizieren ausschließlich über Nachrichtenaustausch. 24

25 Hier liegt der ganz spezielle Ansatz des Aktorenmodells: Parallelisierung und anschließendes Multithreading von Programmen kann dazu führen, dass Speicherzustände sich dynamisch verändern, das Programm aber die Daten zu einem bestimmten Zeitpunkt aus der Vergangenheit benötigt. Bei gemeinsamen Speichersystemen werden die Daten ständig von anderen Threads überschrieben, komplizierte Locking-Mechanismen sind notwendig um dies gegebenenfalls zu verhindern. Aktoren vermeiden diese Problematik, indem sie zwar als nebenläufige Einheiten arbeiten, aber nicht über einen geteilten, sondern über einen eigenen persönlichen Speicher verfügen. Sie arbeiten ihre eingehenden Nachrichten sequentiell ab. Weil kein anderer nebenläufiger Prozess den internen Speicherbereich eines Aktors beeinflussen darf, gelten die Zustände immer genau in der Form, in der sie eingegangen sind. Aktoren werden meist in funktionalen Programmiersprachen (wie Haskell, Lisp, ) formuliert, der wichtigster Vertreter dieser Klasse für die Programmierung von Aktoren ist Erlang. Abb. 21: Veranschaulichung des Die Sprache wurde 1987 bei Ericsson von J. Armstrong Aktorenmodells; Bild M. Malcher Aachen entwickelt [41] und spezeill auf Industriebedürfnisse im Telekommunikationsbereich ausgerichtet von Hause aus ein Gebiet mit hoher Komplexität des zu modellierenden Systems. Aktorenmodelle sind aufgrund des multiplen Speicherbedarfs nicht immer ressourcenschonend, sie sind jedoch äußerst stabil und wenig fehleranfällig. Im Vergleich zu Multiagentensystemen ist die Selbstständigkeit von Aktoren in der Regel wesentlich weniger oder gar nicht vorhanden. 4.4 Architekturen für dezentrale Steuerungen Dezentrale Systeme sind Systeme großer Flexibiltät. Entsprechend sind auch die Architekturenmodelle mannigfach. Eine Neuerung liegt dabei insbesondere in dem umfassende Einzug probabilistischer Komponenten, wie ihn die Kybernetik voraussagt: Weil das Verhalten von Viel-Komponenten-Systemen entsprechend auch sehr viele Varianten zuläßt, sind rein deterministische Steuerungsansätze kaum möglich. Eine andere Neuerung liegt in der aktiven Einbeziehung der Idee eines ständigen Gestaltwandels des Gesamtsystems durch hohe Dynamik seiner Komponenten- Community, die die Cyber Physical Systems gerade charakterisieren (vergl. Kap. 3.2). Die folgende Übersicht ist keineswegs eine vollständige, sondern orientiert sich der Konkretheit halber an verschiedenen ausgewählten erfolgreichen Fallstudien: WATSONS PROBABILISTISCHE DEEPQA ARCHITEKTUR Im Februar 2011 gewann IBMs Supercomputer Watson die amerikanische Quizsendung Jeopardy gegen zwei frühere Champions des Spiels. Jeopardy präsentiert ein inverses Frage-Antwort-Spiel : Auf die Vorgabe Sie ist Physikerin und regiert Deutschland 25

26 müsste man etwa mit Wer ist Angela Merkel? antworten. Die Vorgaben sind vollständig natursprachlich und ohne Rücksicht auf einen Computer-Spieler formuliert, ebenso muss die Frage (die Antwort des Spielers also) in einwandfreier Sprache formuliert werden. Thematische umfasst das Spiel alle denkbaren Wissensgebiete. Diese Anforderung macht zusammen mit der inversen Formulierung des Spiels die zentrale Herausforderung aus: Uneindeutigkeiten, aber auch die Verwendung von Worten in einem übertragenen Sinn, Komponenten wie Ironie usw. sind Teil des Spiels. Watsons Sieg war ein sehr sichtbarer Durchbruch in der KI und ein fulminanter Beweis der Steigerung der Leistungsfähigkeit natursprachlicher Analyse unstrukturierter Daten (vergl. Kap. 4.2, S. 21). Der IBM-Supercomputer Watson besteht aus zehn Racks mit je zehn Power 750 Servern unter SUSE Linux. Der Rechnerverbund besteht aus 90 Power 750 Servern mit 16 TB RAM. Die 8-Kern-Prozessoren der Server können bis zu 4 Threads gleichzeitig ausführen. Watson baut auf der Basis aller Informationen, deren er irgendwie habhaft werden kann, eine interne Wissensrepräsentation auf (er ist während des Spiels nicht mit dem Internet verbunden, kann also nicht in Realzeit auf dem Web suchen). Auf dieser Wissensbasis agiert dann eine Massively Parallel Probabilistic Evidence-Based Architecture, kurz DeepQA"[42]: Abb. 22: man versus machine der IBM Supercomputer Watson gewinnt das knifflige Jeopardy Quiz, 2011 In einem ersten Schritt generiert ein verteiltes Computersystem eine Vielzahl möglicher Antwortkandidaten. Diese erste Einschätzung ist eine sehr grobe. In einem zweiten Schritt wird jeder einzelne dieser möglichen Kandidaten in ein verteiltes System eingespielt, das versucht, Evidenzen für und gegen diesen Kandidaten zu finden und auf dieser Basis eine Wahrscheinlichkeit für die Richtigkeit des Kandidaten zu bestimmen. Das Zusammenfassen der Ergebnisse pro Kandidat liefert dann einen internen Score der Kandidaten mit der höchsten internen Punktzahl wird als Antwortkandidat ausgewählt. Für den Gesamtprozess stehen lediglich 30 Sekunden zur Verfügung. Die Architektur baut damit auf einem Abb. 23: Deep QA High-Level Architecture, Watson/IBM, Ferucci et al geschachtelten verteilten System auf. Die Serverkomponenten haben ihrerseits schon eine hohe Parallelisierungsfähigkeit, das System generiert mehrere Antworten und versucht diesen Wahrscheinlichkeiten zuzuweisen, indem es Evidenzen zählt: Massively Parallel Probabilistic Evidence-Based Architecture. 26

27 Anders als der Name es nahelegt handelt es sich bei DeepQA NICHT um ein Deep Learning Verfahren (vergl. S. 12 und Kap. 4.3). Vielmehr liegt ein konkurrierender Ansatz vor [43], bei dem Schlüsse aus bestehenden Fakten gezogen werden, statt diese Fakten ohne Vorgaben selbst zu erlernen. Damit handelt es sich hier um einen hybriden Architekturansatz im Sinn von Kap. 3.3: top-down existieren Fakten, bottom-up werden Schlussfolgerungen gezogen. Ein Punkt ist wichtig, weil hier massive Fragen für die weitere Entwicklungen solcher Systeme liegen: Watson erzielt zwar sehr gute Ergebnisse und schlägt seine menschlichen Gegner das System besitzt, jedenfalls bisher, aber keinerlei internes Verständnis seiner Lösungen. Um in dem oben angeführten Beispiel zu bleiben, er kann zwar ermitteln, dass Angela Merkel die Bundeskanzlerin Deutschlands ist, er hat aber keine Vorstellung davon, was es für ein Individuum bedeuten könnte, Bundeskanzler zu sein. Der probabilistische Ansatz ist erfolgreich, funktioniert aber rein auf der Basis enormer Rechenpower und den fast uneingeschränkten Zugang zu Informationen, und setzt kein Verständnis im engen Sinn voraus. Diese Architekturen sind außerordentlich machtvoll gerade im Big Data Kontext, sie erzeugen jedoch bisher noch keine Systeme mit Weltverständnis. In der Zukunft sind hier Veränderungen zu erwarten LOGISTIK 4.0: BEISPIEL EINER HYBRIDEN 3-LAYER-ARCHITEKTUR In der Logistics League des RoboCups [44] [45] wird flexible Logistik eines Produktionsszenarios im Sinne der Industrie 4.0 simuliert: Ziel ist die Optimierung des Warenflusses innerhalb einer cyber-physischen Produktionsumgebung durch autonome mobile Transportroboter. Die Roboter kooperieren als Team nach dem Vorbild menschlicher Teamarbeit und müssen intelligent und flexibel auf verschiedenste Ereignisse und Störungen reagieren. Dazu treten je zwei Teams von je drei Transportrobotern auf einem einer Produktionshalle nachempfundenen Spielfeld gegeneinander an: Rohstoffe müssen in flexiblen Reihenfolgen innerhalb eines mehrstufigen Produktionsprozesses zu verschiedenen Bearbeitungsstationen transportiert werden, um schließlich als fertiges Produkt im Warenausgang zu landen. Die Maschinen bestehen aus einer Signalampel und einem RFID-Leser, der die einzelnen Produkte anhand eines RFID-Tags identifiziert. Dabei sind die Maschinentypen zu Beginn Abb. 24: Robocup Logistics League, Robocup Federation eines Spieles unbekannt und müssen in einer vierminütigen Explorationsphase identifiziert und gelernt werden, bevor anschließend die 15-minütige Produktionsphase beginnt. Als Plattform werden Robotinos der Firma Festo genutzt, die von den Teams durch weitere Sensorik und Laptops erweitert werden können. 27

28 Die hier beschriebene Architektur geht auf den Lösungsansatz des Teams Carologistics Aachen [46] [47] zurück, das 2014 in Brasilien den Weltmeistertitel erringen konnte 1 : Das Team ist als Multiagentensystem entworfen und realisiert (vergl. Kap. 4.3). Zum Einsatz kommt eine hybride Architektur [48] [49], d.h. ein Architekturansatz, der topdown und bottom-up Ansätze wie in Kap 3.3 diskutiert verbindet. Dazu wird ein 3-Layer- Ansatz verwendet: 1. Deliberative Planungsschicht: Ein regelbasiertes Expertensystem bildet die Spielelogik und die Handlungsalternativen ab. Es umfasst außerdem eine Faktenbasis, die die jeweils aktuelle Spielsituation bzw. den Zustand der umgebenden Welt abbildet. Die ständig aktualisierte Faktenbasis bildet im Sinne eines Weltmodells die Entscheidungsgrundlage des Agenten. Die Planungsschicht realisiert auf diese Weise High-Level Pläne in Abhängigkeit des aktuellen Spielstands. Durch eine globale Kostenfunktion koordiniert sie die Agenten untereinander so, dass Gesamtlösungen mit geringstem Aufwand bevorzugt werden, um zu verhindern dass Agenten nur auf eigene Ziele optimieren, das Gesamtziel jedoch nicht berücksichtigen. In diesem Sinne repräsentiert die Planungsschicht sowohl Abb. 25: Hybride 3-Layer Architektur für die Elemente einer bottom-up als auch einer top-down-steuerung. Robocup Logistics League, Team Carologistics Aachen 2. Skill-Schicht die Verhaltensengine: Skills sind die zur Lösung notwendigen konkreten Teilschritte wie etwa Rohmateriallager anfahren Rohmaterial aufnehmen Maschine M1 anfahren Rohmaterial in Maschine einlegen usw. Die Skills werden also in Abhängigkeit der aktivierten Regel der Planungsebene ausgeführt. Die Skills bilden die möglichen Zustände ab, die das System einnehmen kann, und beschreiben alle Handlungsalternativen. Mögliche Fehler bzw. undefinierte Situationen werden nach oben eskaliert und durch das Expertensystem behandelt. Die Skills sind in der Skriptsprache Lua im Sinne einer State-Machine, einem endlichen Automaten [50], implementiert, die die Zustandsübergänge zwischen den verschiedenen states beschreibt. 3. Reaktive Schicht: Die unterste Ebene bilden robotische Basis-Funktionen wie die Pfadplanung, Kollisionsvermeidung, Lokalisierung, Umfelderkennung und Inter- 1 Seit nunmehr drei Jahren engagiert sich das Institutsclusters IMA/ZLW & IfU der RWTH Aachen (S. Jeschke, Maschinenbau) gemeinsam mit Kollegen des Lehr- und Forschungsgebiet für Wissensbasierte Systeme der RWTH Aachen (Prof. G. Lakemeyer, Informatik) und der Arbeitsgruppe Robotik (A. Ferrein, Elektrotechnik, FH Aachen) im Roboterteam Carologistics. Im Rahmen der Kooperation integrieren die Wissenschaftler dort die Ergebnisse ihrer Forschung im Bereich der Mobilen Robotik und dezentralen Automatisierungstechnik auf einer gemeinsamen Roboterplattform. 28

29 Roboter Kommunikation. Hier liegt auch die unmittelbare Ansteuerung der Aktuatoren. An dieser Stelle wird die Austauschbarkeit der Komponenten des Systeme deutlich: Würden für das Szenario andere robotische Systeme mit vergleichbaren Fähigkeiten eingesetzt, so würden die notwendigen Änderungen nur diese Schicht betreffen, die beiden oberen wären unberührt. Im Fall sehr starker Veränderungen der Hardware, die völlig andere Skills der Systeme zu Folge hat etwa wenn man die rollenden durch fliegende Roboter ersetzen würde so würden die Änderungen die beiden unteren Ebenen umfassen, die obere bliebe dennoch unberührt. Auf diese Weise erlauben gelayerte Architekturen eine hohe Wiederverwendbarkeit ihrer Komponenten auch bei Austausch der beteiligten Teilsysteme KOGNITIVE ARCHITEKTUREN Die Kognitionspsychologie erforscht die Entstehung und die Wirkungsweisen kognitiver Fähigkeiten von Mensch und Tier und beschreibt sie in formalen Modellen. Auf diesen Modellen setzen kognitive Architekturen auf: Sie fungieren als Implementierungsvorschrift für technische kognitive Systeme. Damit machen sie die Erkenntnisse der Kognitionswissenschaften für die Entwicklung künstlichintelligenter Systeme zugänglich. Per Konstruktion sind kognitive Architekturen auf die Modellierung von Systemen mit breiten, komplexen und flexiblem Verhaltens ausgerichtet, und weniger zur Lösung isolierter Spezialprobleme (obwohl sie auch dort funktionieren). In den vergangenen 50 Jahren wurde eine Vielzahl kognitiver Abb. 26: Modellierung eines kognitiven Prozesses nach Putzer & Onken 2001; Architekturen vorgeschlagen, implementiert und evaluiert Bild M. Malcher Aachen [51]. Während die früheren Modelle stärker auf die internen Vorgänge bei Problemlösungsstrategien oder Planungsalgorithmen eines intelligenten Agenten fokussieren, richten sich moderne Architekturen zusätzlich auf das Verständnis von internen Erkenntnisprozessen aus und beinhalten auch Aspekte wie selbstständige Zielgenerierung, Motivation, Emotionen usw. [52] [53]. Auch im Design kognitiver Architekturen spiegelt sich der Wandel von symbolischer zu subsymbolischer KI deutlich wider (vergl. Kap. 3.3). Die Majorität moderner kongnitiver Architekturen ist heute hybrid, d.h. die Designs beinhalten Kompenenten beider Konzepte. Wichtige Vertreter sind ACT-R [54], Soar [55], Cyc/OpenCyc [56], CLARION [57] [58], DUAL [59], und OpenCog [60] [60]. Ein exzellenter Überblick über die verschiedenen Ansätze wird in Goertzel et al [61] und Duch et al [62] gegeben. Inzwischen hat der Einzug kognitiver Architekturen in einer Vielzahl hochautomatisierter Prozesse wie etwa der Produktion oder auch der Steuerung autonomer Fahrzeuge oder Flugzeuge begonnen. Derzeit ist der praktische Einsatz weitgehend noch auf die 29

30 Forschungsabteilungen der Firmen beschränkt. Die folgenden Beipiele skizzierten die Kernelemente exemplarisch: Baugruppenmontage Im Team von C. Brecher, WZL der RWTH, wird in der Arbeit von T. Kempf ein kognitives Steuerungsframework für robotergestützte Handhabungsaufgaben beschrieben [63]. Die Arbeit entstand im Rahmen des DFG- Exzellenclusters Produktionstechnik [64]. Das System basiert auf der kognitiven Architektur Soar. Die Aufgabe der Demonstrator-Zelle besteht aus Abb. 27: Schematischer Aufbau einer mehrschichtigen einer Baugruppenmontage. Ein umlaufendes Steuerungsarchitektur in Soar, Kempf 2012 Fördersystem umfasst vier individuell ansteuerbare lineare Bandstrecken. Zur Detektion von Bauteilen sind mehrere Lichtschranken angebracht. Zwei Weichen ermöglichen das Um- bzw. Ausleiten von Bauteilen. Zwei Roboter sind zur Handhabung der Bauteile vorgesehen, wobei einer der beiden entlang einer Schiene verfahrbar ist und über einem flexiblen Mehrfingergreifer und eine Farbkamera verfügt. Mehrere Bereiche zur statischen Lagerung von Bauteilen bzw. zur Erstellung der Baugruppe sind vorgesehen. Ein Bereich dient der möglichen Zuarbeit durch einen menschlichen Bediener. Der Materialfluss ist selbstgesteuert so zu koordinieren, dass am Ende nur die fertige Baugruppe auf dem Montagetisch plaziert ist. Automatisierte Montagezelle Für die flexible Montage in einer automatisierten Montagezelle (Gruppe Schlick, IAW, RWTH) wurde auf Basis der kognitiven Architektur Soar eine kognitive Steuerung (Cognitive Control Unit, CCU) für den o.g. Demonstrator entwickelt, die in der Lage ist, sich autonom an Änderungen in der Produktionsumwelt anzupassen [65]. Die CCU berücksichtigt dabei eine beliebige Bauteilzuführung und kann fehlerhafte Zustände des Montageobjekts erkennen. Abb. 28: Modell der Demonstrator-Zelle, WZL und IAW der RWTH Aachen, Kempf 2012 und Faber 2014 Trotz weitreichender Automatisierung wird aber auch in Zukunft der Mensch an der Montage beteiligt sein, um z.b. biegeschlaffe Bauteile zu montieren oder komplexe Aufgaben zu lösen, die ein gewisses Maß an Kreativität erfordern. Zur Unterstützung der hierdurch entstehenden Mensch-Roboter-Kooperation wurde daher die CCU um eine Graph-basierte Planungskomponente erweitert, die es ermöglicht, ergonomische Kriterien bereits in der Planung der Montagesequenz zu berücksichtigen [66]. Dies geschieht, wie die Sequenzplanung selbst, während der Montage, sodass die Planung dynamisch an den aktuellen Systemzustand angepasst werden kann. 30

31 Der Planung liegt ein gewichteter Graph zugrunde, der alle gültigen Montagesequenzen enthält und laufend an den aktuellen Systemzustand angepasst wird. Die Montageschritte, die die beste Bewertung erhalten, werden zusammen mit ihrer Bewertung an die CCU übergeben. Dies ermöglicht der CCU, auf Basis ihres lokalen Wissens und des globalen Wissens des Graph-basierten Montagesequenzplaners die optimalen Entscheidungen in Bezug auf die Mensch-Roboter-Kooperation zu treffen. Auch diese Arbeit entstand im Rahmen des DFG-Exzellenclusters Produktionstechnik [1]. Greifaufgaben Abb. 29: Architektur der erweiterten Cognitive Control Unit, nach Faber et al. 2014; Bild M. Malcher Aachen Im DFG-Projekt Hybrid Reasoning for Intelligent Systems (Gruppe Lakemeyer, RWTH Aachen) werden ebenfalls robotergestützte Handhabungsaufgaben auf der Basis kognitiver Modelle untersucht [67]. Mobile Roboter, die auch in weniger strukturierter Umgebungen eingesetzt werden, müssen die ihnen zugeteilten Aufgaben erledigen können, obwohl sich die Umgebungen ständig verändern und nicht alle Informationen im vorhinein gegeben sein können. Das betrifft sowohl Industriefelder als auch Roboter etwa im häuslichen Bereich. So kann etwa ein Bringdienst eines bestimmten Objekts ausgestattet mit genauen Umgebungskarten erst auf dem Weg feststellen, ob Türen offen oder geschlossen sind oder ob Wege passierbar oder etwa durch andere Agenten versperrt sind. Außerdem ist nicht unbedingt bekannt, wo genau im Zielraum sich das Objekt befindet, sodass ein Durchsuchungsplan notwendig wird, dessen Design wiederum stark vom Raumlayout und den im Raum vorhandenen Komponenten abhängt. Schließlich ist die genaue Position des Objekts in Bezug auf die Greifaktion nicht bekannt für den eigentlichen Greif-Task kann erst vor Ort ein möglichst sicherer Griff ermittelt werden. Hier verknüpft die Aktionssteuerung des Roboters fortlaufend aktive Perzeption und Handlungsplanung mit der eigentlichen Ausführung von Aktionen. Qualitative Aktions- und Weltbeschreibungen werden mit Unsicherheiten und quantitativen Daten der Aktorik und Sensorik durch die Verknüpfung von Perzeption, Handlungsplanung und Aktionsausführung zu einer kognitiven Struktur vernetzt. Die Evaluation der zu entwickelnden Methoden erfolgt auf Roboterplattformen wie dem Humanoiden Roboter PR2. Abb. 30: Demonstrator-PR2, Greifaufgaben im komplexen Umfeld Bild Lakemeyer 2014, RWTH Bilderkennung Der Einsatz kognitiver Architekturen ist naturgemäß breit. So finden sie auch Anwendungen in dezidierten Teilaufgaben intelligenter Systeme wie etwa der automatischen Bilderkennung. 31

32 Im November 2014 wurde von Google und Wissenschaftlern der Universität Stanford die Deep Visual-Semantic Alignments for Generating Image Descriptions" Software vorgestellt [68]. Das System erkennt vollständig autonom Bildinhalte und erzeugt kurze Beschreibungen der Inhalte. Die Software stellt alle bekannten Systeme zu Autogenerierung von Bildbezeichnungen in den Schatten. Das tiefe Kontextverständnis der Software wird in den Beschreibungen deutlich, die Nähe zu menschenähnlichen Fähigkeiten ist nicht zu übersehen. Das System basiert auf Deep Learning Ansätzen, im Kern also auf neuronalen Netzen (vergl. Kap. 4.2). Es verwendet den das Bild Abb. 31: auto-generierte Beschreibung der umfließende Text sowie das Bild selber zur Analyse, nutzt also die Deep Visual-Semantic Engine des o.s. Bildes: multimodale Einbettung. Die Bilder werden mit Convolutional Neural "construction worker in orange safety vest is Networks untersucht, einer Variante mehrschichtiger neuronaler Netze, working on road." Karpathy & Fei 1014 die sich eng am Aufbau des visuellen Cortex biologischer Systeme und dessen komplexer Anordnungsstruktur orientieren. Auf den Texten kommt eine andere Spezialform neuronaler Netze zum Einsatz, sogenannte bidirektionale rekurrente (rückgekoppelte) Neuronale Netze [69], die sich im Gegensatz zu den klassischen Feedforward-Netzen durch Verbindungen von Neuronen einer Schicht zu Neuronen derselben oder einer vorangegangenen Schicht auszeichnen. Das Modell orientiert sich an der Verschaltungsweise des Neocortex, einem Teil der Großhirnrinde von Säugetieren. 4.5 Transparenz in Systemen dezentraler Steuerung Eine zentrale Schwierigkeit dezentraler Steuerungen liegt in der schwierigen bis fehlenden Voraussagemöglichkeit ihres Verhaltens in einer konkreten Situation. Der probabilistische Charakter der Prozesse macht eine absolute Vorhersage unmöglich. Obwohl eine Vielzahl von Studien, Simulationen und Experimenten die Mächtigkeit dieser Ansätze und ihre Überlegenheit in vielen Szenarien zeigen konnten (vergl. Kap. 4.3), fällt es schwer, diesen Systemen zu vertrauen. Ein anschaulicher Vergleich zum Verständnis dieses Dilemmas aus einem völlig anderen Bereich wäre etwa der zwischen den beiden Staatsformen Demokratie und Monarchie: In einer Monarchie wird der Prozess top-down gesteuert. Es steht eindeutig fest, wer am kommenden Montag das Land regiert, und selbst wenn der Regent verstürbe, so wäre das Ergebnis per Erbfolge noch immer klar. In einer Demokratie hingegen wird das Staatsoberhaupt bottom-up von der Bevölkerung gewählt. Wenn also am kommenden Sonntag Wahlen wären, dann ist heute unbekannt, wer am kommenden Montag das Regierungsmandat haben wird. Und diese Unklarheit liegt nicht etwa an einer unvollständigen Regelung des Systems, sondern ist die zwingende Konsequenz des bottom-up getriebenen Ansatzes einer Demokratie. Nun werden wohl die meisten von uns trotz dieser Unsicherheit das Leben in einer Demokratie dem in einer Monarchie vorziehen Akzeptanzprobleme sind die Folge. Diese Aussage gilt nicht nur für dezentrale Steuerungsparadigmen, sondern auch für die damit durchaus verwandten autonomen 32

33 Systeme insgesamt. Insbesondere in der Industrie besteht der Wunsch nach absoluter Prozess- und Systemtransparenz. Durch extreme Kapselung und hohe Sicherheitsbestimmungen, hohe Präzision, langfristige Erfahrungen, hohe Konstanz der Komponenten usw. erfüllen die aktuellen Systeme dieses Bedürfnis in zufriedenstellender Weise. Bei allem was sie durchaus an Wünschen offen lassen durch diese Erwartungshaltung einer maximalen Nachvollziehbarkeit des Verhaltens wird der Paradigmenwechsel für die Industrie erheblich erschwert. IT-nahe Branchen, die stärker von der Internet of Things Perspektive als von den eher komponentenorientierten Sichtweise der Cyber Physical Systems getrieben sind (vergl. S. 14), tun sich hier etwas leichter: Die Community ist eng mit der Internetcommunity verzahnt, deren virtuelle Services von jeher einem anderen Anspruch unterlagen. Wenn ein Webservice, der ein Dokument ausliefern oder eine Primzahl berechnen soll, etwas länger braucht als erwartet, so ist das in dem meisten Fällen höchstens ärgerlich, selten aber systembedrohend oder gar gefährlich. In der realen Welt ändert sich jedoch die Situation: Betrachten wir je eine Entität auf den beiden Seiten (IoT vs. CPS, virtuelle vs. reale Welt). Wenn beiden reden könnten, dann wäre das Statement eines Roboterarms bei einem Auftrag etwa OK, ich machs in 4,2 Sekunden, das des Webservices hingegen OK, ich machs so schnell ich kann! Da letzteres für virtuelle Services, umsomehr bei der heute gegebenen Rechnerpower, praktisch immer ausreichend ist, stört eine solche unscharfe Aussage kaum. Bei der Interaktion mit der realen Welt jedoch ist diese Information nicht ausreichend: Wenn etwa zwei Roboterarme gemeinsam eine schwere Last heben und einer von beiden auch nur leicht zu früh oder zu spät zugreift, lastet das Gewicht für einen gewissen Zeitraum auf nur einem der beiden Arme mit eventuelle großen Schäden für die Anlage. Notwendig ist hier eine absolute Pünktlichkeit, also in beide Zeitrichtungen, um die Prozesse nicht zu destabilisieren. Weder ein zu langsam noch ein zu schnell ist tolerierbar. Das Problem ist nicht vollständig lösbar, weil die Ursache der fehlenden Prognose gleichzeitig die Ursache der Mächtigkeit des Ansatzes ist. Ein Zurückdrängen des bottomup Anteils der Lösung erhöht wieder die Transparenz, verliert aber in Bezug auf die angestrebten Flexibilität deshalb aber vollziehen wir doch den ganzen Wandel! In der Forschung werden aktuell unterschiedliche Herangehensweise untersucht, um das oben skizzierte Dilemma, wenn auch nicht aufzulösen, so immerhin abzuschwächen. Dazu zählen: 33

34 Neue Visualisierungstechniken werden erprobt, um einen tieferen Einblick in die dezentralen Systemprozesse zu nehmen. Auf diese Weise ist das System zwar noch immer dezentral organsiert und nicht ohne weiteres vorhersagbar seine Strategie wird aber nachvollziehbarer. Augmented und Virtual Reality spielen hier eine zentrale Rolle, weil Aspekte sichtbar gemacht werden müssen, die sich den unmittelbaren Zugriff entziehen. Die virtuelle Produktionsmodellierung stellt die konsequente Fortsetzung des o.g. Ansatzes dar: Sie Abb. 32: Neue Visualisierungstechniken - Cave an der bringt Transparenz und ganzheitlichen Zugang in die RWTH Aachen; Bild VR Group RWTH vielfältigen, dezentralisiert organisierten Planungsprozesse [70] [71]. Ziel einer solchen VPI- Engine ( virtual production intelligence ), die Handlungsoptionen des Systems detailreich und vor allem physikalisch präzise abzubilden. Die vollständige Virtualisierung eng am realen Modell eröffnet zudem ein neues Experimentierfeld, weil die Umsetzung neuer, alternativer Lösungsstrategien strafffrei realisier werden kann, ohne Eingriff und Zeitverluste in bzw. für die tatsächliche reale Abb. 33: Komponenten einer Virtual Production Intelligence, Produktion. Alternativen können von Hand Exzellenzcluster Produktionstechnik RWTH Aachen generiert und getestet werden, sie können aber auch durch Automatismen wie genetische Algorithmen und andere random-basierte Optimierungsverfahren generiert und getestet werden. Während der erste Ansatz den Experten erlaubt, ihre Ideen für Prozessoptimierungen zu erproben und in realistischer Umgebung deren Konsequenzen zu beobachten, bietet der zweite Ansatz den zusätzlichen Vorteil, auch Alternativen neutral zu explorieren, auf die ein Mensch aus verschiedenen Gründen überhaupt nicht verfallen wäre. Auf diese Weise ist sogar ein fast vollständiges Durchlaufen des gesamten grundsätzlichen Lösungsraums möglich. Die Anlehnung an biologische und soziale Prozesse liegt nahe, weil diese bekannt und vertraut sind. Ein robotisches Team, das grundsätzlich ähnliche Lösungsstrategien und Arbeitsaufteilungen verfolgt wie ein Mensch oder ihm vertraute Systeme, erscheint transparent weil seine Vorgehensweise Prognosen zuläßt. Das bedeutet keineswegs, dass robotische Systeme notwendigerweise humanoid sein müssten, oder dass Arbeitsteilungen zwischen einer Gruppe klassischer 6-Achs-Robotern genau einer menschlichen Aufteilung entsprechend müssten, sondern, dass die Aufteilungslogik ähnlich und nachvollziehbar sein sollte. 34

35 Die neuartige Integration von Software- und Hardwaremodellen wie etwa von E. Lee (Berkeley, [72]) in seinen Projekten PTIDES [73] und PTARM [74] vorgeschlagen fokussieren auf die Implementierung eines strikten Zeitkonzepts für die Durchführung von Computerprozessen. Ziel ist die Implementierung eines Zeitbegriffs, der virtuelle Prozesse und den Zeitbegriff der realen Welt verbindet. Der Ansatz bedeutet Veränderungen auf Hard- und Softwareseite: Auf der Hardwareseite setzt der Ansatz am Instruction-set (ISA) an, auf der Softwareseite wird ein globales Zeitmodell durch einen aktorenbasierten Ansatz (vergl. Kap. 4.3) realisiert. Abb. 34: Perspektiven von Realer und virtueller Welt treffen aufeinander; nach Jeschke/Meisen

36 5. PERSPEKTIVEN INNOVATIONSPOTENTIALE UND EINSATZGEBIETE 5.1 Vernetzte Automatisierungstechnik in der Industrie Der umfassende Einsatz von Cyber Physical Systems und dem Internet auf Things ist nicht auf spezielle Brachen oder Einsatzszenarien beschränkt. Vielmehr haben industrielle Revolutionen in der Vergangenheit stets umfassende gesellschaftliche Umwälzungen aller Lebensbereiche hervorgerufen (vergl. Kap. 5.2). In einer Industrienation wie Deutschland liegt ein besonders wichtiger Schwerpunkt der Umsetzung im industriellen Bereich, insbesondere in seiner sehr leistungsfähigen Produktionstechnik. Vor diesem Hintergrund hat sich das konzept Industrie 4.0 als ein deutscher Terminus der Begriff ist außerhalb Deutschlands noch wenig verbreitet, obwohl die vierte industrielle Revolution weltweit als zentrales Thema gehandelt wird als Zukunftsprojekt in der Hightech-Strategie der Bundesregierung entwickelt. Innovationen im Bereich der Smart Production werden in Summe mit bis zu 200 Mio. Euro gefördert [75]. Auch auf europäischer Ebene ist der Forschungsbedarf erkannt: Über die öffentlich-private Partnerschaft Factories of the Future werden 1,2 Mrd. Euro in die Entwicklung neuer und nachhaltiger Technologien für die produzierende Industrie investiert (EC, 2010 [76]). Kap. 4.2 hat die zu erwartenden Veränderungen der Automatisierungstechnik in der Industrie entlangt ihrer zentralen Charakteristiken beschrieben. Aufbauend darauf haben Kap. 4.3 und 4.4 mögliche Architekturmodelle entsprechender Systeme exemplarisch 36

37 skizziert. Das nun folgende Kapitel setzt den Schwerpunkt auf Einsatzmodelle und Optimierungspotentiale, die sich aus einer dezentralen Logik und der Entstehung von Cyber Physical Systems im industriellen Kontext ergeben LOSGRÖßEN UND INDIVIDUALISIERTE FERTIGUNG Die zweite industrielle Revolution brachte den Durchbruch der Massenproduktion und damit eine zuvor völlig unbekannte Kapazität in der Produktion von Gütern. Die Automatisierung löste das bis dato praktizierte Handwerk in der Produktion ab. Eine wesentliche Grundlage für den Erfolg des Ansatzes war und ist in bestimmtem Umfang auch heute noch die hohe Standardisierung, also die Einheitlichkeit des zu fertigenden Produkts: Je größer die Stückzahl ein und desselben Produkts, desto stabiler die Prozesse und desto höher die Gewinne. Im Modell reiner Massenproduktion werden deshalb Variantenbildungen vermieden. Deshalb ist die hier zum Einsatz kommende Systemarchitektur zentralistisch und top-down organisiert, weil so unerwünschte Vielfalten unterdrückt werden. Die Entwicklung trug massiv zur Demokratisierung des Konsums bei: Wären etwa Autos weiterhin in rein handwerklicher Herangehensweise gefertigt worden, hätte das Auto aus Kostengründen niemals den Siegeszug in praktisch jedermanns privaten Haushalt antreten können. Nun trifft der Massenproduktionansatz auf lange Sicht aber nur begrenzt den Kundenwunsch: Zwar ist dieser interessiert an günstigen Preisen. Gleichzeitig aber hat er durchaus Interesse an verschiedenen Varianten desselben Produkts hier spielen verschiedene Nutzungskontexte, aber auch emotionale Aspekte wie Geschmack oder die Darstellung individueller Persönlichkeitsmerkmale eine wichtige Rolle. Abb. 35: Prominentes Zitat Henry Fords um 1909 inhaltlich geschuldet der Tatsache, dass zu diesen Zeitpunkt maschinelle Fertigung keinerlei Programmierlogik beinhalten konnte Mit dem Siegeszug der Computertechnik ab den fünfziger Jahren hielt diese schrittweise Einzug auch in andere Systeme: Mit verhältnismäßig einfachen Erweiterungen der Automatisierungstechnik konnten verschiedene Varianten innerhalb derselben Anlage gefertigt werden. Maschinen, die bis zu diesem Zeitpunkt über keinerlei Programmierlogik verfügten, interpretierten plötzlich Befehlskette von Typ if x then do Plan-1, but if y then do something else (Pseudocode-Notation). Auch einfache Sensoriken, z.b. von Typ warte bis, hielten allenorts Einzug. Abb. 36: Polylemma der Produktionstechnik; Bild Schuh et al Mit diesen und weiteren grundätzlichen Elementen von Programmlogiken wurde die Grundlage für eine neuartige Flexibilität der Produktion geschaffen, die die dritte industrielle Revolution um 1970 kennzeichnen. In der Konsequenz entwickelte sich die 37

38 Mass Production zu Mass Customization (vergl. S. 39): Die Berücksichtigung von Varianten wurde jedenfalls bis zu einem gewissen Umfang kostengünstig möglich. Der Wunsch nach einer höheren Flexibilität und Adaptivität zu vernünftigen Preisen (scalescope-dilemma) konnte damit jedoch noch keineswegs vollständig erfüllt werden: Die Modelle der Mass Customization lassen i.d.r. nur eine eher eingeschränkte Auswahl von Optionen zu. Aus Kundensicht erfordern bestimmte Produkte aber in intrinsischer Weise die Spezialfertigung, etwa dann wenn sich wie im Textilbereich oder im Bereich von Inneneinrichtungen jedes Anforderungsprofil per Konstruktion von jedem anderen unterscheidet. Eine ähnliche Situation liegt in Abb. 37: Von Losgröße-1 zu Massenproduktion und wieder zu Bezug auf Geschmack und Losgröße-1 durch 4.0? - Bild angelehnt an Boer & Dulio 2007 sowie Individualisierungswünschen vor. Insbesondere Jeschke/Meisen 2013 in Hochlohnländern bilden diese Anforderungen heute ein kaufentscheidendes Qualitätskriterium. Vor diesem Hintergrund diskutieren wir heute einen neuen, durch die vierte industrielle Revolution initiierten Wandel, den von der Mass Customization zu Individual Customization. Durch die Verwendung von Programmierlogiken hat sich die Anzahl der Varianten erhöhen lassen. Umgekehrt gilt genauso, dass mehr Varianten eine umfassendere, hochflexible Programmierung erforden. Hier zeigen die dezentralen Ansätze deutliche Vorteile (vergl. S. 24). Die Entwicklung hin zu individualisierter Produktion wird durch die rasante Entwicklung additiver Fertigungsverfahren dem sogenannten 3D-Druck nochmals beschleunigt DIE REVOLUTION DES RAMP-UP PROZESSES Bestehende Produktionssysteme arbeiten wirtschaftlich, sofern sie auf die Produktion von Großserien ausgelegt werden. Dann wird eine optimale Ausnutzung von Skaleneffekten, den sogenannten economies of scale [77] erreicht. Grundlegend ist hier der sogenannte Ramp-Up das Anlaufmanagement einer Produktion bzw. eines Produkts: Hier wird eine Produktionsstätte aufwändig dahingehend optimiert, dass ein angefordertes Produkt möglichst schnell und effizient produziert werden kann. Das Ramp-up-Management umfasst die Koordination aller Aktivitäten von der Planung über die Vorbereitung und der Fertigung erster Prototypen bis zur Produktion stabiler Produkte. Damit geht der klassische Ansatz von einer zeitlich abgrenzbaren Phase mit definiertem Start- und Endpunkt aus. Die 4.0-Entwicklung verändert nun den Ramp-up Prozess erheblich: Bereits in den vergangenen Jahrzehnten ist die oben skizzierte Perspektive durch den Übergang von 38

39 Mass Production zu Mass Customization ins Wanken geraten: Ein einzelnes Fahrzeug- Modell besitzt heute oft mehrere hundert Optionen, die durch den Kunden frei gestaltbar sind. Dazu zählen die vielen Designauswahlen (Außenfarbe, Material der Sitzbezüge, Gestaltung des Amaturenbretts usw.) ebenso wie Karosserieeigenschaften (Langversionen, Schiebedächer usw.) und die Auswahl zwischen verschiedenen technischen Optionen (Getriebetyp, Wahl verschiedener Assistenzsysteme usw.). Vor diesem Hintergrund kann heute längst nicht mehr von der Ramp-Up Phase eines einzelnen, scharf umgrenzten Produkts gesprochen werden. Vielmehr entsteht entlang der Anzahl der möglichen Varianten eine multiple Ramp-Up Phase, ein Bündel einzelner Ramp-Up Prozesse entlang der verschiedenen Varianten also, die kürzer ausfallen, weil Teil-Ergebnisse früherer Tests für die neue Variante übernommen werden können (etwa: Warum sollte man die komplette Karosseriemontage neu testen obwohl in einem komkreten Abb. 38: Quo vadis Ramp-Up? - Ramp-Up im Übergang von Fall nur die Lackfarbe verändert werden soll?). Sie können Mass Production zu Mass Customization, die Ramp-up nicht nur übernommen werden sie müssen auch. Phasen werden mehr, verkürzen sich aber Anderenfalls wäre der Aufwand nicht leistbar, die Durchsätze der Systeme viel zu gering, um die Bedarfe zu befriedigen: Der Wettbewerb um Marktanteile und attraktive Nischenmärkte zwingt Automobilhersteller und Zulieferer gleichermaßen, Modelllebenszyklen zu verkürzen und stärker als je zuvor die Modellpalette mit neuen Fahrzeugvarianten zu erweitern. Serienanläufe sind daher nicht nur häufiger, sondern auch in kürzeren Zeitabständen zu bewältigen. (aus Schuh et al. [78]) Mit einer Automatisierungstechnik der Losgröße-1 zu vergleichbaren oder mindestens konkurrenzfähigen Preisen verändert sich dieses Bild nochmal: Jedes Produkt ist dann per Konstruktion ein Einzelstück. Der Ramp-Up verschmilzt damit vollständig mit dem Produktionsprozess selber. Das erfordert eine komplett neue Theoriebildung: Der gesunde Menschenverstand legt nahe, dass zur Realisierung eines Produkts immer eine Vorbereitungsphase notwendig ist. Die Auffassung des Ramp-Up als in sich abgeschlossenes und in diesem Sinne auch getrennt zu behandelndes Konzept läßt sich jedoch nicht länger halten. Vielmehr geht die Theorie der Ramp-Up Phase als eine mit der Produktion selber hochgradig vernetzte Teilkomponente in deren Theoriebildung über. Die wiederum wird von den Paradigmen dezentraler Intelligenz aufgespannt, wie wir gesehen haben PERSONALISIERUNG DER SMART OBJECTS Der Wandel zu einem 4.0-Paradigma erfordert eine neue Konzeptualisierung der Identifikation der beteiligten Komponenten: Solange Systeme im Wesentlichen ohne Kenntnis ihrer Umgebung und ihrer Aufgaben die Anweisungen einer zentralen Steuerungsintelligenz ausführten, mussten Namensgebungen nur im lokalen Kontext eindeutig sein. 4.0 bewirkt einen Wandel hin zu kommunikationsorientieren, dezentralen Steuerungsparadigmen, bei denen die beteiligten Komponenten eine Art Community 39

40 bilden, die kontext- und zeitabhängig großen Veränderungen unterliegen kann, und die über das Internet Informationen austauschen (vergl. Kap. 3.2). Damit stellt sich die Herausforderung einer weltweit gültigen eindeutigen Identifikation, und das über einen hinreichend langen Zeitraum. In der Internettechnologie ist die Diskusssion um hinreichend große name spaces für die eindeutige Identifikation bereits seit vielen Jahren hochaktuell. Die Ablösung des Internet Protocol Version 4 IPv4 (seit 1981) durch IPv6 (seit 1998 in der Diskussion, seit 2011 intensiviert) ist Konsequenz der Erkenntnis, dass die Mächtigkeit des IPv4-name space schlicht nicht ausreicht, um allen Teilnehmern IP-Adressen zuzuweisen, umgekehrt also auch, um sie eindeutig auszuzeichnen 2. Eine ähnliche Stoßrichtung verfolgt der Elektronische Produktcode (EPC), der ab 2005 eingeführt wurde 3. Das Konzept fokussiert seinem Namen entsprechend enger auf die an der Produktion beteiligten Komponenten, vor allem Produktionssysteme, Produkte und Logistik. Der EPC ist weltweit gültig; zur Kompatibilität mit dem Internet of Things und dessen (künftigem) IPv6-Protokoll wird der 96-Bit-EPC in den 128-Bit-IPv6-Code gewandelt, damit jedes der mit EPC gekennzeichneten Smart Objects mit jedem anderen kommunizieren kann. Abb. 39: Zur Entwicklung eindeutiger Identifikationssysteme Zur Auszeichnung der realweltlichen Komponenten kommt vor allem RFID ( radio frequenz identifikation, also Identifizierung mit Hilfe elektromagnetischer Wellen ) zum Einsatz. Verschiedene Frequenzbänder stehen abhängig von der Einsatzart und der notwendigen Reichweite zur Verfügung. Die Technologie besteht aus zwei Komponenten: Ein Transponder, der sich an den entsprechenden Objekten befindet, identifiziert sich mit einer eindeutigen Kennung nach außen. Sein Gegenstück sind Lesegräte, die die Codes auswerten können. Für beide Komponenten gibt es unterschiedliche Realisierungen: Die Transponder müssen heute nur reiskorn- bis staubkorngroß sein, sehr neue Entwicklungen betten den Chip unmittebar im Produktionsprozess also in Materialkomponenten ein. RFID wird ältere Technologien wie etwa Barcodes mutmaßlich in den kommenden Jahren weitgehend ablösen: Zum einen setzen Barcodes die optische Lesbarkeit und damit Sichtkontakt voraus, sie können deshalb nur in engeren Nutzungskontexten eingesetz 2 IPv4 verwendet eine 32-Bit-Kodierung und bietet damit einen Adressraum von etwas über vier Milliarden IP-Adressen (2 32 = 4, ), eine Adresse lautet etwa IPv6 hingegen arbeitet mit einer 128-Bit- Kodierung und kommt so auf 340 Sextillionen (2 128= 3, ), Adressen haben die Struktur 2001:0db8:85a3:08d3:1319:8a2e:0370:7344. Durch den Wechsel von IPv4 zu IPv6 kommt es zu einer Vergrößerung des Adressraums um den Faktor 2 96 ( 7, ). 3 EPC verwendet eine 96-Bit-Kodierung, liegt also oberhalb von IPv4 aber unterhalb von IPv6. Eine Adresse hat hier die Struktur urn:epc:id:sgtin:

41 werden. Zum anderen wird die Konvergenz mit den Internettechnologien immer wichtiger für die Durchgängigkeit der Gesamtprozesse in Unternehmen: Der RFID-Chip ist ein Datenspeicher, auf dem Produktdaten hinterlegt werden können, und er ist automatisiert durch Gates lesbar, was den aufwendigen Handscanprozess ersetzt. Alternativen zu RFID werden häufig genannt, sie sind technologisch betrachtet jedoch meist nur RFID-Varianten, weil sie ebenfalls auf der Aussendung elektromagnetischer Wellen basieren (also insbesondere berührunsgfrei und auch ohne Sichtkontakt funktionieren), unterscheiden sich jedoch etwa im Energieverbrauch (z.b. Bluetooth, [79] [80]) eine für autonome Systeme zentrale Größe und im Anspruch an die Umweltgegebenheiten (RuBee, u.a. unterwassertauglich, [81] [82]). Abb. 40: Erweiterte Wirtschaftslichkeitsrechnung für RFID- Technologien in dezentral organisierten Strukturen, Projekt PRoFID Stuttgart Das Forschungsprojekt des Stuttgarter International Performance Research Institute (IPRI), M. Seiter, hat bereits vor mehreren Jahren den Einsatz von RFID-Techniken zur eindeutigen und stabilen Identifikation von Systemkomponenten in hybriden und dezentralen Strukturen untersucht. Teil der Analyse waren neben technischer Belastbarkeit auch erweiterte Wirtschaftslichkeitesbetrachtungen. Das Projekt PRoFID gewann 2008 den MuM-Award, einen Preis für Innovationen im Mittelstand, für die Übertragbarkeit seiner dezentralen Produktionssteuerung via RFID für unterschiedliche Branchen [83] DEZENTRALE STEUERUNGEN IN DER MENSCH-MASCHINE-KOOPERATION Mit der zunehmenden Entwicklung hin zu hybriden (d. h. aus Menschen, Robotern und virtuellen Agenten bestehenden) lernenden Systemen bieten sich neue Chancen für die deutsche Industrie: Hybride lernende Systeme steigern Effizienz und Effektivität der Produktion, weil die Vorteile einer Economy of Scale (sinkende Durchschnittskosten bei steigenden Stückzahlen) und die der Economy of Scope (zunehmende Variantenvielfalt und Flexibilität für den Kunden) verbunden werden. Die mithilfe von Multi-Agenten-Technologien modellierten Systeme erlauben wirtschaftliche Lösungen bei kleinsten Losgrößen. Eine Vorstufe einer kognitiven Architektur für hybride Systeme ist die am IMA/ZLW & IfU der RWTH Aachen [47] vorgestellte Kooperation von Robotern und Menschen, die im Rahmen des Exzellenzclusters Produktionstechnik [64] und Abb. 41: kooperative Montage einer Duplo-Pyramide der Dissertation Ewert [84] entstand. Montageaufgaben zwischen Mensch und Roboter; Bild IMA/ZLW & IfU RWTH werden hier in Abhängigkeit von Fähigkeiten und Zuständen einzelner Ressourcen zwischen Roboter und Werker aufgeteilt. Die Softwarearchitektur basiert auf einer hybriden Dreischichtarchitektur [85]: 41

42 1. In der obersten deliberativen Planungsschicht sind die höheren Intelligenzen des Systems verankert. Dazu gehören einerseits die Menschen, die über Vorgaben in die Verhaltensplanung einwirken und mit der Umwelt auf unterster Ebene interagieren können. Andererseits befindet sich dort der Montageplaner, der das Erreichen eines langfristigen Planungsziels sicherstellt. Auf Grundlage des aktuellen Montagezustandes und der Materialverfügbarkeit erstellt dieser einen High-Level Montageplan mit einem geeigneten Ablauf von Baugruppenzuständen. 2. In der mittleren Verhaltensschicht sind die Fähigkeiten und Zustände der im System existierenden Ressourcen in einem lernenden Planungsgraphen abgebildet. Abb. 42: Hybride Dreischichtarchitekur für die kooperative Montage zwischen Mensch und Roboter; Die Lernfähigkeit resultiert aus sich iterativ optimierenden Kantengewichten, in Bild IMA/ZLW & IfU RWTH dem die tatsächlichen Ausführungszeiten bereits getätigter Montageoperation durch Sensorik gemessen, von einer Informationsaufbereitung statistisch ausgewertet und in den Verhaltensplaner zurückgeführt werden. In dieser Vorform einer kognitiven Steuerung lernt das System die Fähigkeiten der Werker und der Roboter kennen und initiiert eine kompetenzorientierte Ressourcenzuteilung für die darunterliegende Schicht. 3. Auf der untersten Ebene, der reaktiven Schicht, werden die Montagesequenzen unter Berücksichtigung der Umweltdynamik ausgeführt. Dazu werden aus dem Verhaltensplan detaillierte Instruktionen für die einzelnen Betriebsmittel abgeleitet und mittels Benutzerschnittstellen oder der Roboter-Aktorik in den ausführenden Entitäten umgesetzt. Diese sind wiederum Bestandteil eines kontinuierlichen Regelkreises mit der Umwelt und stellen so das reaktive Verhalten der Roboter sicher. Abb. 43: Klassische Industrieproduktion, Mensch in schwer-automatisierbaren Aufgabenbereichen; In In-The-Box-Arbeitssystemen interagieren Menschen, Bild F. Welter Aachen virtuelle Agenten und Roboter als Teil eines hybriden lernenden Systems gemeinsam. Die resultierende Flexibilität äußert sich in der Kommunikation und der Kooperationsfähigkeit von Teams aus menschlichen Fachkräften, Robotern und Assistenzsystemen, die sich 42

43 kompetenzorientiert unter Berücksichtigung der Fähigkeiten einzelner Akteure für einzelne Arbeitsschritte zusammensetzen. Neue, kreative Problemlösungsmodelle entstehen. Ein hybrides, lernendes System folgt einer bottomup-modellierung anstelle zentraler Vorgaben, und es lernt im Prozess Entscheidungen zu treffen, um die Produktion und Fertigung zu optimieren. Mithilfe einer vernetzten, symmetrischen Intelligenz zwischen den verschiedenen Akteuren besteht die Chance, klassische Technikzentrierungen zu überwinden, indem die kontinuierliche, gemeinsame Weiterentwicklung der Abb. 44: Wandel zur In-The-Box-Arbeitssystemen mit Fähigkeiten von Menschen, virtuellen Agenten und Robotern Menschen, virtuellen Agenten und Robotern als forciert wird. Neuartige Arbeitssysteme entstehen, Aufgaben hybrides System; Bild F. Welter Aachen und Abläufe, Betriebs- und Arbeitsmittel entwickeln sich nach noch weitgehend unbekannten Gesetzmäßigkeiten: So lehnt sich die In-The-Box- Fertigung an die kreativen Arbeitsmodelle vorindustrieller handwerklicher Verfahren an, die u. a. durch gemeinsame Zielorientierung, dem Voneinander-Lernen und umfassende Formen vielfältiger Kooperationsszenarien charakterisiert waren. In hybriden lernenden Systemen können neue und völlig andere, mutmaßlich befriedigendere, Arbeitsplätze für den Menschen konzipiert werden, auf die es sich gesamtgesellschaftlich vorzubereiten gilt [86] VON SMART FACTORIES UND FABRICS OF THE FUTURE Factories of the Future, kurz FoF, werden seit 2009 massiv im Horizon-2020-Programm [87] der Europäischen Union propagiert, außerhalb ist der Terminus bis heute noch eher wenig verbreitet. Infolgedessen ist sein Konzept eher unscharf umrissen. Der Terminus versteht sich grundsätzlich als ein Modellansatz, um den in Kap skizzierten Entwicklungen und Herausforderungen zu begegnen. Kernelemente sind Modularität, Mobilität und Flexibilität letzteres in Bezug auf die Produkte ebenso wie auf die am Prozess beteiligten Komponenten: Abb. 45: Factory of the Future mit mobilen Transporteinheiten nach Diss. D. Ewert 2013 Eine mögliche Implementierung einer Factory of the Future ist eine modulare Fertigungsstätte in Form eines Produktionsnetzwerks wie in Abb. 44 skizziert. Sie besteht aus mehreren kleinen, voneinander unabhängigen Fertigungseinheiten, die in einem bestimmten Handlungsrahmen autonom agieren können. 43

44 Innerhalb des Produktionsnetzwerks ist ein Materialfluss von jeder Fertigungseinheit zu allen anderen Einheiten möglich, es existieren keinerlei Einschränkungen in Form starrer Fließbänder oder vergleichbarer Transportmedien. Um trotzdem Materialien und Produkte zwischen einzelnen stationären Fertigungseinheiten transportieren zu können, werden mobile Transporteinheiten eingesetzt, die die gewünschten Materialflüsse realisieren. Eine Factory of the Future adressiert damit den Prozess der Intralogistik in einer neuartigen Weise, das in Kap skizzierte Robotino-Szenario orientiert sich genau an dieser Vision Intralogistik 4.0! Eine Einheit eines solchen Produktionsnetzwerks verfügt über spezifizierte Fähigkeiten innerhalb definierter Grenzen. So kann eine Fräseinheit Objekte durch Spahnabnahme transformieren, eine Fügeeinheit kann Objekte zusammenfügen, eine Transporteinheit kann Objekte zwischen anderen Einheiten verfahren, usw. Jede dieser Fähigkeiten ist grundsätzlich mit Beschränkungen versehen, so ist z.b. die Zuladung für eine Transporteinheit oberhalb eines gegebenen Maximalgewichts unzulässig, eine Montageeinheit kann nur Objekte bis zu einem bestimmten Durchmesser greifen, eine Fräseinheit ist u. A. beschränkt auf bestimmte Materialien und Fräsgeometrien. Abb. 46: Factory of the Future nach einer Impression des Fraunhofer Chemnitz, E3-Research Factory Resourceefficient Production ; Bild Fraunhofer IWU Diese oben skizzierten Fähigkeiten bringen bestimmte Laufzeiteigenschaften wie Taktzeiten oder Energiebedarf mit sich. Diese Eigenschaften können sowohl zwischen Instanzen der gleichen Einheit als auch über die Zeit variieren. Z.B. wird der Energiebedarf einer Maschine aufgrund von Verschleiß im Laufe der Zeit zunehmen. Eine allgemeine Fertigungseinheit ist also charakterisiert über eine Menge an Fähigkeiten, wobei jeder Fähigkeit eine Menge von Beschränkungen und Laufzeiteigenschaften zugeordnet werden [84]. Factories of the Future umfassen die in den vorausgegangenen Kapiteln diskutieren Teilaspekte. Vielfach werden noch weitere Schwerpunkte wie etwa die Energieeffizienz der Anlagen als Teil des Konzepts begriffen. Factories of the Future bilden ein Metakonzept moderner Produktionstechnik, in dessen Rahmen sich dezentrale Steuerungsansätze aufgrund der hohen Anforderungen an Flexibilität und Adaptivität unmittelbar zur Umsetzung anbieten. 5.2 Vernetzte Automatisierungstechnik erobert den Alltag Eine weitere große Entwicklung in der Robotik zeichnet sich ab: Aktuell befindet sich die Mehrheit bestehender Automatisierungstechnik in hochspezialisierten industriellen Umgebungen. Sie sind umgeben von speziell für die hier anstehenden Aufgaben ausgebildeten Mitarbeitern. Das ändert sich zunehmend: Roboter erobern den Alltag. Dabei fallen zunächst Systeme wie Staubsaug-, Rasenmäh-, Fensterputzroboter und andere Assistenten auf, die sich seit einigen Jahren zunehmend größerer Beliebtheit erfreuen laut World Robotics -Bericht wuchs der Absatz privat genutzter 44

45 Servicerobober von 2012 auf 2013 um 28%. Im Kontext hoher Intelligenz und dezentraler Steuerungen aber spielen diese Systeme jedenfalls bisher eine eher unbedeutende Rolle. Zentrale Impulse für eine vernetze Intelligenz gehen stattdessen insbesondere von den Themen Mobilität, Gesundheit und Energiemanagement aus, die in den folgenden Abschnitte beschrieben werden (vergl. Kap ). Hier entstehen robotische und/oder teilautonome Systeme in unmittelbarer Nähe des Menschen, und ihre Nutzung ist keinesswegs mehr auf Spezialisten beschränkt: Vielmehr sind hier Durchbrüche zu erwarten, die an die Ausbreitung des Mobiltelefons und heute des Smartphones für jeden erinnern. Die zu erwartenden teils bereits im Einsatz befindlichen Systeme sind keine monolithischen Intelligenzen, sondern vielmehr dezentral organiserte Strukturen, also verteilte Intelligenzen. Weil sie in den unmittelbaren Wirkungsradius des Menschen erobern und nicht ausschließlich mit geschulten Personen interagieren, spielen Sicherheitsaspekte beim Einsatz dieser Systeme eine besonders große Rolle. Eine Automatisierungtechnik des Alltags muss sich durch die Kompetenz auszeichnen, unerwünschte Systemzustände ohne menschlichen Eingriff zu identifizieren und entsprechende Gegensteuerungen einzuleiten. Gleichzeitig geben Konzepte wie crowd wisdom gegeben eine komplett offene Umgebung auch völlig neue Ansätze zur Systemüberwachung und -kontrolle. Roboter und andere automatisierte Systeme können sich über das Internet vernetzen, miteinander kommunizieren und voneinander lernen. Im Internet of Skills (R. Dillmann, 2012, [88]) werden solche Konzepte des Wissenstransfers zwischen verschiedenen partizipierenden Objekten analysiert und weiterentwickelt. Ein weiterer Schwerpunkt liegt in der Interaktion und Kommunikation von Mensch und Maschine: Einem Laien ist eine Programmierung solcher Systeme, wie sie in der Industrierobotik durchaus üblich ist, nicht zuzumuten. Vielmehr haben die jüngsten Durchbrüche im Bereich der Smartphones die Bedeutung der einfachen Usability für die Akzeptanz und Verbreitung solcher Systeme deutlich gemacht. Gleichzeitig werden die Systeme komplexer, weil erweiterte Funktionalitäten erwünscht werden die Zugewinne der Marktanteile von Samsung ab ca gegenüber Apple, dem eigentlichen Erfinder eines jedermann-tauglichen Smartphones, liegen u.a. in der größeren Gestaltungsfähigkeit ihrer Modelle begründet, die auch ein Resultat einer offenen Politik auf Basis des offenen Betriebssystems Android ist (vergl. S. 21). Wichtige Entwicklungen liegen deshalb in neuen Ansätzen für Mensch-Maschine-Schnittstellen, die nicht einfach komplexitätsreduzierend wirken, dabei aber den persönlichen Gestaltungsfreiraum im Umgang mit solchen Systemen reduzieren, sondern vielmehr umfassende Funktionalitäten enabeln (vergl. Kap ). 45

46 5.2.1 VEHICLE2INFRASTRUCTURE COMMUNICATION Eine zentrale Entwicklung bei Verkehr und Mobilität liegt im Bereich autonomer Fahrzeuge. Inzwischen haben verschiedene Hersteller autonome Autos bzw. LKW vorgestellt, darunter das Google Driverless Car 2012 [89], die Daimler Bertha-Benz-Fahrt 2014 [90], Volvo DriveMe 2013 [91], im Bereich der LKW u.a. das deutsche Konvoi- Projekt 2009 [92] und der Daimler Future Truck 2014 [93]. Diese Systeme agieren vollständig im öffentlichen Raum und de facto ohne räumliche oder geographische Beschränkungen. Die Herausforderungen der Fahrzeuge in solchen Infrastrukturen sind erheblich, weil sich der öffentliche Verkehr in weitgehend unstrukturierten Umgebungen abspielt. Entsprechend robust müssen die Systeme sein. Abb. 47: Das Google Driverless Car, auf der Basis eines Toyota Prius, Erstvorstellung 2012; Bild Google.com Dieselbe Herausforderung gilt allerdings für einen menschlichen Fahrer. Die kognitiven Fähigkeiten des Menschen sind nicht pauschal im Vorteil: So ermüdern computergestützte Systeme nicht, sie können das Fahrzeugumfeld in einem 360-Grad-Winkel erfassen, ihre Reaktionsgeschwindigkeit, etwa im Fall einer notwendigen Vollbremsung, ist deutlich höher als die des Menschen, weshalb die Sicherheit für alle Verkehrsteilnehmer durch Abb. 48: LKWs in Kolonnen, Konvoi-Projekt , RWTH mit Industriepartnern autonome Fahrzeuge stark erhöht werden kann, Bild RWTH Verhaltensaspekte menschlicher Fahrer ergeben weitere Pluspunkte: Computergestützte Systeme streiten sich nicht mit dem Beifahrer während der Fahrt, sie sind nicht durch paralleles Benutzen des Mobiltelefons abgelenkt, sie fahren nicht bewusst über eine dunkelgelbe Ampel, weil sie es eilig haben, usw. Ein weiteres Argument des autonomen Fahrers ist die Energieeffizienz der Systeme. Durch sehr gleichmäßiges oder vorausschauendes Fahren sinkt der Benzinverbrauch. Eine noch höhere Kraftstoffersparniss kann erzielt werden, wenn beispielsweise in perfekt abgestimmten Kolonnen gefahren wird, wie etwa im Konvoi-Projekt bereits 2009 gezeigt werden konnte [92] (Fortsetzung im Rahmen des EU-Projekts Sartre [94]). Bei einer Kopplung auf zehn Meter entsteht eine Reduktion des Dieselverbrauchs um rund 10%. Das Projekt Energy IST aus Japan konnte mit einer Kopplungsdistanz von nur vier Metern ein hochstabiles Kolonnenverhalten und eine Energieeinsparung von bis zu 20% nachweisen [95] [96]. In Deutschland forscht insbesondere die Daimler AG umfassend an teil- und vollautonomen LKW, sie stellte im Juni 2014 einen ersten Prototyp in Madgeburg unter dem Namen Daimler Future Truck 2014 vor [90] [93]. 46

47 Der flächendeckende Einsatz autonomer Fahrzeuge ist und zwar gerade vor dem Hintergrund erhöhter Verkehrssicherheit nur noch eine Frage der Zeit. Bereits jetzt diskutieren Versicherungskonzerne Auswirkungen auf die Tarife: Bei geringeren Unfallquoten wird künftig wohl eine S-Klasse mit automatischem Stauassistent, Notbremssystem und Spurhalte-Funktion [ ] billiger versichert werden als ein Kleinwagen ohne solche Helfer (Statement eines Branchenvertreters, [97]). Eine entsprechende verschärfte Aussage dürfte dann für autonome Autos gelten. Google geht inzwischen von einer Abb. 49: Daimler Future Truck, Magdeburg 2014; Serienreife autonomer Autos in 2018 aus. Die Hersteller Bild Daimler AG etablierter Marken äußern sich zurückhaltender, allerdings wird auch hier von einer eher übersichtlichen Anzahl von Jahren ausgegangen. Audi etwa gibt für pilotiertes Fahren das Jahr 2018 an [98]. Damit zum Bezug zur verteilten Intelligenz und zur dezentralen Steuerung: Auch wenn solche Fahrzeuge im Grundsatz in der Lage sein müssen, ihre Fahrleistung komplett autonom, d.h. ohne Hilfe ihrer Roboterkollegen, zu meistern die Zukunft liegt auf der Vernetzung dieser Entitäten miteinander, und mit der Verkehrsinfrastruktur, um auf dieser Basis zu einem noch stabileren weil durch mehr Perspektiven bereicherten Fahrverhalten zu gelangen. Es ist offensichtlich, dass ein System, das um die Ecke schauen kann und Kenntnisse über seine eigene Zukunft hat, über eine deutlich höhere Robustheit verfügen wird als das effizienteste Einzelsystem. Das Stichwort lautet car2car communication bzw. vehicle2infrastructure communication, das unterliegende Protokoll ist das Internet. Hier entsteht ein System kooperierender Roboter, das gleichzeitig ein Cyber Physical Abb. 50: CAR2CAR, 2011 und ConnectSafe, 2011 System im Sinne des Internet of Things darstellt. Die Entwicklung autonomer Fahrzeuge zeigt ein typisches Charakteristikum früherer industrieller Revolution, den sogenannten vendor change, die Veränderungen der Produzenten- und Anbieterstruktur also. In Umbruchsituationen erhalten neue Hersteller eine Chance, bestehende Unternehmen verlieren Marktsegmente, verändern sich und/oder ihre Technologie umfassend, oder verschwinden sogar vollständig vom Markt. Dass der Datenkrake Google das erste vollautonome Auto auf die Straße stellte und seit rund zwei Jahren mit einer voll-autonomen Flotte von Fahrzeugen durch die San- Francisco-Bay-Area kreuzt, ist kein Zufall: Vendor changes kommen zustande, weil eine aufstrebende Technologie andere Kenntnisse benötigt als die bestehende. Um ein autonomes Auto zu konstruieren, ist die Kompetenz im klassischen Automobilbau im Sinne von Hardware nicht mehr alleine entscheidend, sie kann gegebenenfalls dazugekauft werden zentral ist die Kompetenz in komplexer, echtzeitfähiger Datenanalyse. Auf diesem Gebiet hat der Suchmaschinen- Hersteller Google einen 47

48 erheblichen Vorsprung auch vor anderen Suchmaschinen-Anbietern, sicher aber vor Automobilherstellern. Die deutsche Industrie steht an dieser Stelle vor großen Herausforderungen. Die großen Konzerne zusammen mit den vielen kleineren und mittelgroßen Zulieferern bilden eine der zentralen wirtschaftlichen Größen Deutschlands, die Produkte sind derzeit weltweit führend. Im Bereich des autonomen Fahrens hingegen ist der Vorsprung nicht so deutlich. Hersteller wie etwa Volvo (seit Jahren mit exzellenter Technik im Bereich von Fahrerassistenzsystemen) und Toyota (ein Konzern mit natürlicher Affinität zur Robotik wie bspw. auch die Entwicklung des humanoiden Roboters Asimo [99] zeigt) sind dagegen hier sehr gut aufgestellt. Neue Marken aus China und Korea haben ähnlich wie Google wenig zu verlieren und müssen kaum auf bestehende Strukturen Rücksicht nehmen. Eine massive, schnelle Abb. 51: Vendor change? Prototyp des eigenes Autos aus Weiterentwicklung der Fahrzeug-IT in Richtung Volldem Hause Googles, Erstvorstellung Mai 2014; Autonomie anstelle lediglich assistiver Technologien ist Bild Google.com notwendig, um den Vorsprung zu halten SMART GRID, SMART BUILDINGS, SMART METERING Die drei eng verflochtenen Gebiete Smart Grids, Smart Metering und Smart Home adressieren die Vernetzung und automatisierte Steuerung vor allem von Energie und Energiemanagement im häuslichen Umfeld. Der Fokus der Technik liegt auf der Energieeffizienz und der Netzstabilität. Das Gebiet betrachtet Energieerzeuger, technologische Zwischeninstanzen und Endkunden als ein komplexes dezentrales verteiltes System: Smart Grids ( intelligente Stromnetze ): Smart Grids fokusieren auf die effiziente, ressourcenschonende Energieversorgung und die Aufrechterhaltung der Netzstabilität. Sie umfassen Stromerzeuger, Speichersysteme, Verteiler und Verbraucher. Der Trend hin zu dezentralen Energieerzeugungsanlagen insbesondere in Deutschland ist ein wesentlicher Treiber der Entwicklung. Smart Metering ( Intelligenter Zähler ): Eng mit dem Konzept des smart grid verbunden ist der intelligente Zähler. Primär als Zähler für Energie wie Strom oder Gas aufgefasst, wird der Begriff auch bisweilen für intelligente Zähler etwa für Wasser- und Wärmeverbrauch etc. erweitert. Verbrauch kann damit sehr exakt abgerechnet werden, auch kann die Zeit des Verbrauchs als wichtiger Parameter für eine bedarfsgerechte Ressourcenbereitstellung verwendet werden. Smart Home ( Intelligentes Zuhause ): Das Konzept steht für umfassende intelligente Netzwerktechnik im häuslichen Bereich. Die o.g. Konzepte von smart grid und smart metering sind Teil des Ansatzes, der darüber hinaus auch die Netzwerkanbindungen für Unterhaltungselektronik, Internet, TV und Radio sowie weitere Komponenten einer Heimautomatisierung wie etwa Türsensoren, 48

49 Bewegungsmelder etc. umfasst. Der Begriff beinhaltet auch die aktive Nutzung der Vernetzung durch den Bewohner, etwa durch Remote-Kontrollen seiner Systeme. Perspektivisch werden die Systeme immer intelligenter, d.h. sie schließen selbstständig aus den Benutzerdaten auf geeignete Aktionen (etwa: Heizung anschalten 30 min vor Dienstschluss ). Die Systeme ermöglichen eine Optimierung und Überwachung der miteinander verbundenen Bestandteile. Eine Konsequenz von smart grid/metering/home ist damit eine umfassende Transparenz des Nutzerverhaltens der Bewohner. Die Systeme ermöglichen im Grundsatz die Beantwortung von Fragen angefangen bei Wann ist jemand zu Hause, wann nicht? über Welche Geräte werden benutzt und wie lange? bis hin zu Welche Fernsehengewohnheiten haben die Hausbewohner?. Seit Einführung der smart metering Systeme in einigen Ländern (umfassend etwa in Italien und Schweden, Deutschland aktuell: Pilotversuche, Niederlande: Einführung zunächst gestoppt) ist deshalb eine intensive Debatte um diese Systeme entbrannt. Abb. 52: Smart Grid - Connected, Efficient and Sustainable Energy, Bild PGE/Flickr/CC-BY-ND-2.0 Die Gefahr, dass die hier entstehenden Daten von den Energiekonzernen gesammelt und weiterverkauft werden, um dann von anderen Stellen zu verbesserten Prognosen individueller Profile zu gelangen, stellt die wohl zentrale Befürchtung dar. Hier sind klare gesetzliche Regelungen notwendig. Es ist allerdings umgekehrt ebenfalls anzumerken, dass ein sehr großer Teil dieser Daten bereits heute auf anderen Wegen gewonnen werden kann. Hinzu kommt, dass die Steuerung der eigenen vier Wände für die Besitzer z.b. aus finanziellen Gründen (Energieeinsparung) sehr attraktiv sein kann. Die Abwägung von Vor- und Nachteilen gestaltet sich schwierig, weil die jeweiligen Argumente völlig unterschiedliche Aspekte in den Vordergrund stellen. Die wirtschaftliche Effektivität des Ansatzes steht außer Frage: Bei 100% Ausstattung der Netze mit intelligenten Messsystemen müssten anstatt der geplanten 16,1 GW lediglich 10,0 GW neuer Gas- Kraftwerksleistung bis 2032 hinzugebaut werden [100]. Mittelfristig besteht damit wenig Zweifel daran, dass sich diese Systeme aufgrund ihrer zahlreichen Vorteile durchsetzen werden, ähnlich wie sich online-shopping durchgesetzt hat, mit ähnlicher Konsequenzen hinsichtich eines gläsernen Kunden. Eine weitere wichtige Thematik liegt wie bei allen Systemen, die Menschen und ihrem persönlichen Umfeld sehr nahe kommen in möglichen Hackerattacken. Eine besondere Gefahr liegt hier in der Attacke hochsensibler Strukturen wie etwa der Gesundheits- aber auch der Energieversorgung. Ein beauftragter Hacker hat es dieses Jahr innerhalb von zwei Tagen geschafft, die Kontrolle über die Stadtwerke Ettlingen (BW) zu übernehmen [101]. In diesem Gebiet liegt hoher Forschungsbedarf. Per Konstruktion ist ein netzwerktechnisches Abschotten solcher Systeme wie in der Vergangenheit für strikt- 49

50 lokale sicherheitskritische Einrichtungen wie Atomkraftwerke praktiziert kein probater Ansatz. Im Umkehrschluss heißt das, dass das System selber den Angriff erkennen und abwehren muss. Hier steht die KI vor Herausforderungen, die tief in die Vergangenheit der Kybernetik eintaucht: Ziel einer kybernetischen Regelung ist die nachhaltige Stabilität des Systems (Autopoiesis S. 10). Um diese zu erreichen, muss das System für seinen Fortbestand, und damit auch für Selbstschutz sorgen. Eine Forschungsrichtung geht hier in die Imitation biologischer Modelle: Biologische Systeme wehren Angriffe ab, indem sie sie a) entlarven und b) mit einer geeigneten Gegenstrategie bekämpfen. Diese Aufdeckung setzt ein komplexes Verständnis des eigenen Systems und Aufbaus voraus. In Teilen mündet der Ansatz damit wiederum in der Embodiment-Theorie (vergl. Kap. 3.4): Ein Körper, der sich und seine Möglichkeiten kennt, verfügt über eine wesentlich stabilere Basis für die Erkennung von Schäden oder Schädigungsversuchen und die Entwicklung wirksamer Gegenmaßnahmen, wie der Bongard sche Vierbeiner [28] beweist; als ein rein Regel-basiert agierendes System versucht er, seine Stabilität entlang einer Anzahl von Parametern zu kontrollieren. Der Ansatz ist vielversprechend aber noch weit entfernt von abgeschlossen : Eine zentrale Schwierigkeit geht von der Bewertung einer gegebenen Situation aus. Während etwa bei einem autonomen Auto vergleichweise klar ist, dass einem massiven Gegenstand auf der Straße unter allen Umständen auszuweichen ist, ist für eine gesamtheitliche Hausautomatik deutlich schwieriger zu beantworten, welche Meldungen korrupt sein könnten und welche Systemzustände vermieden werden müssen. Die Erweiterung des Ansatzes mit einem offenen Kommunikationsaustausch zwischen verschiedenen Anlagen ([88], Internet of Skills ) könnte hier zu einer wichtigen Lösungsstrategie werden EHEALTH Im Bereich ehealth lassen sich die Anwendungen grob in zwei Bereiche unterteilen: Der erste wichtige Einsatzbereich liegt in der Notfallmedizin, der zweite genau umgekehrt in der Prävention: Notfallmedizin In der Notfallmedizin ist Zeit die alles entscheidende Größe. Lebenswichtige Minuten können gewonnen werden, wenn die Behandlung des Patienten bereits vor Eintreffen des Arztes durch die Sanitäter oder hilfwillige Laienhelfer beginnen kann. Die Ausrüstung moderner Notarztwagen, aber auch die Einbeziehung von Systemen am Körper des Patienten wie smart watches, Fitness Armbänder, smarth clothes etc. bildet ein verteiltes System. Dadurch entsteht die Möglichkeit, Vitaldaten, Bild- und Videodaten zu bündeln und entweder durch das System selber bewerten zu lassen oder sie unmittelbar an eine Telenotarzt-Zentrale zu übertragen. Ein erfahrener Notarzt in der Zentrale kann dann von außen die Situation beurteilen und die Hilfsmaßnahmen koordinieren. Der Bereich der Notfallmedizin umfasst nicht ausschließlich den klassischen Notdienst, sondern geht fließend in Einsatzszenarium im Katastrophenschutz über. 50

51 Perspektivisch ergeben sich hier weiterführende Fragen: 1. Kann das verteilte System, bestehend aus den Systemen am Körper des Patienten und weiteren Systemen der Umgebung, etwa Kameras, selbstständig zu Hypothesen und intelligenten Erkenntnissen kommen? Welche Rolle spielt hier die Anwendung von Techniken aus den Bereichen des Data Mining, Machine Learning, und Profiling? Solche Erkenntnisse könnten den Arzt in seiner Beurteilung unterstützen, und sie wären von extremer Relevanz, wenn etwa in Abb. 53: Das telemedizinische Rettungsassistenzsystem TemRas einer Krisensituation wie einer Bild IMA/ZLW & IfU RWTH & UKA Aachen Naturkatastrophe auch die Anwesenheit des Notarzts in der Zentrale nicht mehr sichergestellt werden kann. 2. Welche Visualisierungstechniken auf der Seite des Notarzts in der Zentrale sind notwendig, um rein auf Basis von Vital- und Bilddaten den Zustand der Patienten zu beurteilen? Welche Diskrepanzen zu einer Vor-Ort-Betrachtung bestehen, und wie können insbesondere Konzepte von Virtual/Augmented Reality eingesetzt werden um die Informationen maximal transparent zu gestalten? Welche Rolle können weitere Informationsprodukte wie z.b. Kennzahlensysteme, Dashboards und Abfrageschnittstellen spielen? 3. Welche Informationen haben welche Aussagekraft? Insbesondere bei größeren Katastrophen ist davon auszugehen, dass die Infrastruktur massiv in Mitleidenschaft gezogen ist und Kommunikationskänale zusammenbrechen. a. Vor diesem Hintergrund ist einerseits der schnelle Ausbau von Mesh- und Adhoc-Netzwerken durch die noch verfügbaren Devices notwendig. b. Gleichzeitig ist entscheidend, dass bei Engpässen die relevantesten Informationen gesendet werden, um das Netz nicht weiter zu belasten. Damit wird eine lokale Vorbewertung durch die dezentralen Systemkomponenten notwendig. (Eine vergleichbare Strategie finden wir z.b. bei uns selber: längst nicht alle Informationen, die auf unsere Retina treffen, werden an das Hirn weitergeleitet, vielmehr findet auf der Retina selber eine intelligente Vorverarbeitung statt, analoges gilt für andere Sinnesorgane.) Die meisten dieser oben genannten Herausforderungen können nur durch eine ganzheitliche, interdisziplinäre Forschung gemeistert werden. Wichtige Arbeiten auf diesem Gebiet sind gerade in NRW entstanden: 51

52 Das Aachener Forschungsprojekt TemRas Telemedizinisches Rettungsassistenzsystem [102] [103] [104] eine Kooperation von RWTH und UKA, begegnet steigenden Einsatzzahlen des Rettungsdienstes und zunehmendem Ärztemangel mit einem innovativen Konzept zur Qualitätssteigerung in der Notfallversorgung. Es basiert auf dem Vorgängerprojekt [105] [106]. Seit 2012 verfügen fünf ausgewählte Rettungsdienstbereiche in Nordrhein-Westfalen über einen telemedizinisch ausgestatteten Rettungswagen und sind an die Telenotarzt- Zentrale angeschlossen. Als eines von sieben Teilprojekten des Aachener Medizin-Technik-Clusters in.nrw" wurde TemRas bis Juli 2013 vom Ministerium für Innovation, Wissenschaft und Forschung des Landes Nordrhein-Westfalen (MIWF) sowie der EU über den EFRE-Fonds gefördert 4. Abb. 54: Arbeitsplatz eines Telenotarztes, Einstieg in die Virtual/Augmented Reality, Projekt Temras Das ebenfalls in Aachen angesiedelte Forschungsprojekt EMuRgency [107] [108] [109] ist ein soganntes Volontär Notifikation System (VNS). Das Notifikationssystem stellt über ein umfangreiches Netzwerk freiwilliger Erst- und Laienhelfer schnellstmögliche medizinische Ersthilfe in Notfallsituationen sicher. Ziel ist die deutliche Erhöhung der Häufigkeit begonnener Reanimationsmaßnahmen noch vor Eintreffen eines professionellen Rettungsdienstes. Das System führt Ersthelfer, die sich aktuell in unmittelbarer Nähe des Betroffenen befinden, per App auf dem kürzesten Weg und mit aktuellem Kartenmaterial zum Unglücksort. Die Neuartigkeit dieses den "Social Media" zuzuordnenden Instruments ist die umfassende Implementation eines intelligenten Entscheidungssystems: Mit verschiedenen Verfahren aus der KI werden die optimalen Ersthelfer durch verschiedene geometrische Abstandsbegriffe und andere Metriken identifiziert. Selbst wenn keine aktuellen Livedaten der Kandidaten vorliegen, generiert das System Abb. 55: Poster EMuRgency, Aufruf zur Lösungsvorschläge auf der Basis vergangenheitsbasierter Suche von Volunteers Muster. Ein Prototyp des VNS wird aktuell in den Niederlanden getestet, eine weitere Testphase in Belgien für Anfang 2015 in Vorbereitung. Das Projekt wurde durch Ziel2-Mittel der Europäischen Union gefördert, im November 2014 wurde es mit dem Preis der Software AG für die Präsentation auf der Cebit 2015 ausgezeichnet. 4 Gemeinsam mit dem UKA engagiert (R. Rossaint) sich das Institutsclusters IMA/ZLW & IfU der RWTH Aachen (S. Jeschke, Maschinenbau) seit vielen Jahren im Bereich telemedizinsicher Systeme. Die beiden hier vorgestellten Projekte gehören zu den gemeinsamen Forschungsaktivitäten der letzten 6 Jahre. 52

53 Präventive Medizin Verbunden mit dem wirtschaftlichen Aufstiegs hat sich in den vergangenen Jahrzehnten die Medizin immer stärker weg von der ausschließlichen Behandlung akuter Krankheitszustände hin zur deren Früh- und Frühsterkennung verschoben. In der aktuellen Digitalisierungswelle kommen nun zusätzlich verschiedene Self-Tracker zum Einsatz und generieren einen umfassenden Datenpool für eine intelligente Analyse von Lebensgewohnheiten und beginnenden Krankheitszuständen: Neue Systeme wie verhaltensorientierte Apps, die gleichzeitig die Sensorik des Smartphones für Datenerhebungen verwenden, Tools am Körper des Patienten wie smart watches, Fitness Armbänder, smart clothes etc., medizinische Systeme wie Insulinpumpen mit WLAN- Anschluss (Cellnovo, [110]) oder blutzuckermessenden Kontaktlinsen (Novartis und Google, [111]) bis hin zu Implantattechnologien wie Herzschrittmachern mit WLAN (Medtronic, [112]) sind auf dem Vormarsch. Sie werden ergänzt durch externe Systeme wie vernetzte Waagen, kommunizierende Fitnessgeräte, mit Vital-Sensoriken ausgestattene Autositze und vieles mehr. Ein Health 4.0-Szenario entsteht, das auf einem verteilten System medizinischer und Fitnessorienierter Geräte aufbaut. Auf dieser Basis hat die Entwicklung hin zu verteilten Systemen eine nochmalige Beschleunigung hin zu einer präventiv-orientierten Medizin bewirkt. So ist etwa in den vergangenen Jahren eine große Bewegung mit dem Namen quantified self [113] [114], deren Mitglieder sich dem Erkenntnisgewinn zu sportlichen, gesundheitlich- und gewohnheitsspezifischen Fragestellungen auf der Basis der eigenen Vitaldaten und Verhaltensmuster verschrieben haben. Viele vergleichbare wenn auch etwas wenig konsequente Ansätze lassen sich täglich in der Presse finden. Abb. 56: Digital_Health_Infographic Bild Paul Sonnier/Wikipedia Commons/CC-BY-1.0 Vergleichbar zum oben skizzierten Notfallsszenario liegt eine zentrale Herausforderung für den immer breiter werdenden Einsatz solcher Systeme in ihrer Fähigkeit zur Selbstdiagnose. Wenn gleich Ärzte das ungerne hören und vor möglichen Konsequenzen unkontrollierter Selbstversuche warnen: Die Mehrheit der Menschen, die Abb. 57: Quantified Self und verwandte Entwicklung in Google Trends, solche Systeme benutzen, tun dies bewusst nicht im Rahmen eines medizinischen Therapieprogrammes (eines der häufigsten 53

54 Einsatzgebiete sind Systeme zu Gewichtskontrolle, Adipositas-Bekämpfung), sondern alleine oder im Rahmen eines sozialen Netzwerks Gleichgesinnter via Internet. Die Erfolge solcher crowd- und community-orientierten Zugänge ist in vielen Bereichen durchaus bemerkenswert. Hier ist die intelligente vollautomatisierte Auswertung also ein notwendiger und zentraler Bestandteil des Gesamtsystemdesigns. Die Analysen werden immer mächtiger und präziser i.w. deshalb weil sie auf immer mehr Daten zugreifen und statistische oder systematische Fehler so immer besser erkannt und korrigiert werden können. Die Vielzahl der zur Verfügung stehenden Daten führt zu einem weiteren Effekt: Weil plötzlich sehr viele sehr sauber dokumentierte Verläufe, etwa von Krankheiten, breit verfügbar werden, entstehen Alternativen zu teuren klinischen Studien. So konnte z.b. eine big-data basierte medizinische Studie zeigen, dass ein spezielles Anti-Depressivum in Kombination mit einem bestimmten Cholesterinsenker Pravastin zu einem erhöhtem Blutzuckerspiegel führt [115], eine Analyse die anderenfalls aufgrund geringer Fallzahlen äußerst schwierig wäre. Der dahinterstehende Algorithmus basiert auf Daten der amerikanischen Food and Drug Administration [116]. Zudem macht die sogenannte personalisierte Medizin [117] [118] riesige Leistungssprünge: Dabei stützt sich die Wahl einer bestimmten medikamentösen Therapie nicht nur auf eine genaue Krankheitsdiagnose, sondern zusätzlich auf Charakteristika des Patienten wie Alter, Geschlecht, spefizische Lebensumstände, Verhaltensgewohnheiten, usw., die die Wirksamkeit, Verträglichkeit oder optimale Dosierung des in Betracht kommenden Medikaments beeinflussen können. Die Verfügbarkeit einer großen Anzahl individueller Profile bildet die Datengrundlage für die Einsatz- bzw. Dosierungsempfehlungen. Ein weitere Effekt dieser Entwicklung ist, dass Medikamente damit einem völlig neuen, hochgradig diversifiziertem Evaluationsverfahren ausgesetzt werden. Der gesamte Hintergrund dazu ist ebenso komplex wie lehrreich: Medikamente werden vorzugsweise an jungen gesunden Männern getestet. Frauen werden wegen möglicher Schwangerschaften und der Gefahr von Schädigungen des Ungeborenen ebenso ungerne eingesetzt wie ältere oder kranke Menschen, bei denen die Gefahr eventueller Nebenwirkungen massiv wäre. Im Ergebnis können medizinische Tests vielfach nicht ausreichend unter Diversitykriterien gespreizt werden. Der umfassende Datenpool, der durch die neuen Vitaldatenmesser entsteht, hat das Potential, das Defizit zu überwinden und eine wesentlich genauere Prognostik und Therapie entlang von Kriterien wie Age und Gender, aber auch entlang allgemeiner Lebensumstände, zu ermöglichen. Auch hat er das Potential, Fehler und unwirksame Mittel effizient und neutral aufzudecken. 54

55 Die Sicherheitsthematik ist wenn möglich noch brisanter als in Kap zu smart grids skizziert. Der Schaden, der etwa durch eine externe Manipulation egal, ob gezielt oder durch eine Fehlfunktion ausgelöst einer Insulinpumpe oder eines vernetzten Hernschrittmachers entstehen könnte, ist unmittelbar lebensbedrohend. Zusätzlich zu den in Kap skizzierten Ansätzen spielen hier auch moderne und sehr leistungsstarke Kryptographieverfahren eine zentrale Rolle Techniken also, die auf eine sehr saubere Überprüfung der Anweisungs-sendenden Einheit abzielen. Eine zweite Gefahr liegt im Missbrauch von Daten durch staatliche oder kommerzielle Einrichtungen: So könnten z.b. Krankenkassen systematisch Kunden automatisiert analysieren, um sie bei vorliegenden Vorerkrankungen auszuschließen oder sie nur unter teuren Tarifen zu akzeptieren. Hier liegen mögliche Lösungen eher in grundsätzlichen politischen Strukturen, die das Zusammenleben in der Gesellschaft regeln, als in der Vermeidung der Datenpools: So formulierte Michael Seemann in seinem 2014 erschienen Buch zum möglichen Umgang mit den aus der Transparenz der Daten resultierenden Gefahren [119]: In einem Gesundheitssystem, das solidarisch für alle funktioniert, wäre es weniger bedrohlich, wenn meine Gesundheitsdaten in fremde Hände fallen. Abb. 58: aus dem Forschungsprojekt High-Performance In- Memory Genome Data Analysis zur Personalisierten Medizin, am HPI, mit besonderem Fokus auf Datensicherheit NEUE MENSCH-MASCHINE-SCHNITTSTELLEN Natursprachbasierte Kommunikation War in der Vergangenheit die Kommunikation zwischen Mensch und Maschine maßgeblich tastaturgesteuert, haben in den vergangenen Jahren die sprachbasierten Systeme stark an Bedeutung gewonnen. Eine der Ursachen liegt darin, dass die Anwendungen immer mobiler werden in mobilen Szenarien aber häufig die Interaktion per Tastatur erschwert ist, man denke an das Autofahren. Eine weitere ist darin begründet, dass die sprachbasierte Interaktion die primäre Interaktion zwischen Menschen deutlich natürlicher und vor allem schneller ist als schriftbasierte (auch wenn es ihr bisweilen an deren Präzision und Nachvollziehbarkeit mangelt). Die neuen Generationen von Smartphones sowie Tools, die spezielle Applikationen unter mobilen Bedingungen realisieren, wie etwa Navigationssysteme, können heute auch sprachgestützt gesteuert werden. Wieder einmal war Apple ein Vorreiter, nicht das erste Mal im Bereich hoher Usability : Die Sprachsoftware Siri, verfügbar ab iphone 4s 2011, erkennt natürlich gesprochene Sprache und steuert auf dieser Basis verschiedene Funktionen das Smartphones. Die eigentliche Sprachverarbeitung ist cloudbasiert, die Daten werden via Internet an einen Apple-Server übertragen, dort verarbeitet und das 55

56 Ergebnis an das Endgerät zurückgemeldet [120] [121]. Inzwischen sind zahlreiche Hersteller, allen voran Samsung, diesem Modell gefolgt. Technologisch sind die Fortschritte in diesem Bereich wiederum dem Bereich des Deep Learning, einer Erweiterung der neuronalen Netze, zuzuordnen (S. 12 und Kap. 4.4). In der Zukunft ist der Einsatz sprachbasierter Steuerung in einem deutlich breiteren Umfang bis hin zur Industrierobotik zu erwarten: Zum einen stellt es in vielen Situationen eine massive Entlastung eines Werkers dar, wenn dieser die Hände nicht frei hat. Zum anderen führen die durch die 4.0-Entwicklung eingeleiteten neuen Modelle von Mensch- Maschine-Kooperationen in der Industrie zur Notwendigkeit neuer Kommunikationsmodelle, Multimodale Kommunikation wird zur Normalform. Emotionen in der Mensch-Maschine-Interaktion Emotionale Roboter erobern den Markt, das Forschungsgebiet emotional robotics ist im Wachstum begriffen. Dahinter steht, dass Emotionen als essentieller Teil der nonverbalen Kommunikation eine zentrale Rolle in der Kommunikation zwischen Menschen spielen. In den Technikdisziplinen und hier vor allem im Feld der Mensch- Maschine-Kommunikation rücken Emotionen vielfach unter dem Stichwort Affective Computing erst in jüngerer Zeit ins Blickfeld: Das sich ständig erweiternde Feld der Assistenzsysteme tritt immer häufiger in eine direkte und auch persönliche Interaktion mit dem Nutzer. Zukünftig werden Emotionen bei der Gestaltung intelligenter, d.h. flexibler, kontextsensitiver und adaptiver Mensch-Maschine-Schnittstellen eine zentrale Rolle einnehmen. Die Ursachen dafür liegen im Wesentlichen in zwei zentralen Forschungserkenntnissen der vergangenen Jahre: Zum einen sind Emotionen nicht als ein add-on oder gar komplementär zu rationaler Intelligenz aufzufassen wie lange vermutet wurde, sondern stellen einen zentralen, intrinsischen Teil der Intelligenz selbst dar [122]. Zum anderen bilden Emotionen einen wichtigen Teil der Kommunikation, sie sind auch hier kein add-on, sondern übernehmen z. B. die Aufklärung sprachlicher Ambiguitäten, die Unterscheidung von Akteuren oder die Vermittlung von Prioritäten.[123] Vor diesem Hintergrund wird immer offensichtlicher, dass eine intelligente Interaktion von Menschen und technischen Systemen nur gelingen kann, wenn emotionale Komponenten in diese Interaktion integriert werden. Abb. 59: Mimik und Gestik bei humanoiden Robotern, stilisiert; Bild M. Malcher Aachen Die Einbeziehung von Emotionen in die Mensch-Maschine-Kommunikation führt nicht nur zu einer Verbesserung bestehender Mensch-Maschine-Schnittstellen, sondern auch zu grundsätzlich neuen Möglichkeiten des Schnittstellendesigns. Auf Nutzerseite ermöglicht sie dem Individuum einen intuitiven, dem menschlichen Miteinander entsprechenden Umgang mit technischen Systemen. Auf Systemseite ermöglicht die Berücksichtigung des emotionalen Zustandes des Nutzers eine dem situativen Kontext angemessenere und effizientere Reaktion. Die Notwendigkeit solcher Intelligenz der Mensch-Maschine-Interaktion, die aus dieser grundsätzlichen Erkenntnis folgt, wird durch die großen gesellschaftlichen Veränderungen 56

57 und Herausforderungen unserer Zeit noch erhöht: Der demografische Wandel und die Globalisierung führen unter anderem dazu, dass die Bevölkerung vieler Industrienationen nicht nur immer älter ( age diversity ), sondern unter dem Einfluss der Globalisierung auch immer stärker diversifiziert wird ( cultural diversity ). Gleichzeitig kommt es in modernen Gesellschaften zu einem grundlegenden sozialen Wandel hin zu einer Individualisierung und damit Pluralisierung sozialer Lebensstile ( social diversity ). Drei Voraussetzungen sind für die Realisierung emotionsbasierter Interaktion entscheidend: Erstens müssen technische Systeme Emotionen zuverlässig erkennen und interpretieren können, zweitens müssen sie in der Lage sein, das eigene Verhalten entsprechend anzupassen, und drittens müssen sie selber emotionale Handlungskomponenten imitieren können. Für die Analyse von Emotionen aus Mimik und Gestik sind inzwischen vielfältige Ansätze entstanden (z.b. [124] [125]). Auch im Bereich der Verwendung von Vitaldaten (Pulsfrequenz, Herzschlag, Augenbewegungen) liegen erste Ergebnisse vor (z.b. [126]). Diese beziehen sich bisher jedoch mehrheitlich auf spezielle Nutzungskontexte, etwa Fahrerassistenzsysteme. Die Emotionsanalyse gesprochener Sprache ist ein weit schwächer untersuchtes Gebiet, in dem in den vergangenen Jahren jedoch einige wichtige Ergebnisse erzielt werden konnten [127]. In der Künstlichen Intelligenz sind erste Ansätze entstanden, die auf der Basis von Emotionen Zufriedenheit mit dem von einer Maschine gezeigten Verhalten messen, um damit das System zu konditionieren [126]. Einen solchen Ansatz macht auch das imotion-projekt der RWTH, Demonstrator ist ein emotionales Navigationssystem [128]. Multimodale Kommunikationskonzepte auf der Basis eines nutzerzentrierten Designs unter Einbindung vom Emotionen sind auf dem Vormarsch [129]. Abb. 60: alternativer Einsatz von Emotionen: die Roboter- Robbe Paro des AIST/Japan wird in der Therapie Demenzkranker eingesetzt Bild Aaron Biggs/Wikipedia Commons/CC-BY-SA-2.0 Insgesamt kann also festgestellt werden, dass Emotionen in den Technikwissenschaften und hier vor allem im Feld der Mensch-Maschine-Kommunikation gerade umfassend an Bedeutung gewinnen. Die Anwendungsgebiete für emotionale Mensch-Maschine- Schnittstellen sind nahezu unbegrenzt und reichen etwa von computergestützten Benutzerschnittstellen bei Service-Robotern über Fahrerassistenzsysteme bis hin zur Pflege- und Rescue-Robotik. Brain-Computer-Interfaces Brain-Computer-Interfaces (deutsch auch Gehirn-Computer-Schnittstelle [130] [131], kurz BCI) messen die Hirnaktivitäten und steuern darüber technische Systeme. Das Konzept ist auf die Fernsteuerung von Robotern ebenso anwendbar wie auf die Steuerung einer Prothese. BCIs basieren auf der Erkenntnis, dass schon die Vorstellung eines Verhaltens messbare Veränderungen der elektrischen Hirnaktivität auslöst. Somit reicht es, sich eine Handlung vorzustellen um sie umsetzen zu können, ggf. durch externe Tools. 57

58 Die Forschung zu BCIs startete in den siebziger Jahren in den USA, in den letzten Jahren sind entscheidende Durchbrüche gelungen. Die wichtige US-amerikanische Kybernetik- Sektion, die System, Man and Cybernetics Community der IEEE [132] machte das Thema in diesem Jahr auf seiner flagship Konferenz zum einem Hauptthema. Die Systeme unterscheiden grundsätzlich zwischen invasiven und nicht-invasiven Ansätzen: Bei invasiven Techniken werden Mikroelektroden in das Gehirn implantiert, bei nichtinvasiven kommen badekappenartige Ansätze zum Einsatz. Dabei handelt es sich um einen schwierigen trade-off: Die Genauigkeit implantierter Systeme ist wesentlich genauer, weil diese die drei-dimensionale Struktur des Gehirns voll ausnutzen können es ist nicht nur die Stärke der Hirnaktivität sondern zusätzlich das genaue Zentrum ihrer elektrischen Anregung entscheidend für die Interpretation des Signals. Diese drei-dimensionale Auflösung können auf der Kopfoberfläche sitzende Systeme bisher nicht leisten, sie nehmen das Gehirn i.w. nur als eine zwei-dimensionale Struktur war. Gleichzeitig ist der nicht-invasive Ansatz der in den meisten Fällen ausschließlich gewünschte und allein praktikable. Vor diesem Hintergrund kommen Brain- Computer-Interfaces aktuell nur in sehr schwerwiegenden Fällen, meist Kranken mit einem sogenannten lock-in Syndrom, zum Einsatz, bei Menschen also, die ohne diese Systeme keine Möglichkeit mehr haben, aktiv am Leben teilzuhalten [133]. Abb. 61: Feedbackloop eines Brain-Computer-Interfaces Bild Wikipedia Commons/CC-BY-SA-3.0 Abb. 62: Forschungsprojekt, Rothschild Bild: Frontiers Aufgrund der Ungenauigkeit externer BCIs ist ein kommerzieller Einsatz etwa zur Steuerung von Robotern durch einen Werker derzeit noch in weiter Ferne. Diskutiert werden sogenannte passive Systeme, bei denen der Nutzer keine aktiven Steuerungskommandos gibt, das System aber auf der Basis seiner Gehirnwellen Supportfunktionen anbietet. Der Hirnforscher Jan Seifert beschrieb in einem Interview [133] mögliche Einsatzszenarien so: "So könnte das Fahrzeug eines Berufskraftfahrers zusätzliche Sicherheitssysteme aktivieren, wenn der Fahrer unaufmerksam wird. Der Vorteil ist, dass solche Anwendungen meist weniger zeitkritisch sind und man auch Daten über längere Zeiträume sammeln kann. Dadurch erreicht man eine höhere Genauigkeit." An der Verbesserung externer BCIs wird derzeit intensiv gearbeitet. 58

Von künstlicher Intelligenz und Big Data

Von künstlicher Intelligenz und Big Data Von künstlicher Intelligenz und Big Data gesprochene und geschriebene Sprache als zentraler Gegenstand moderner Informationstechnik LingUnite Tag der Sprachforschung an der RWTH Aachen, 11. Univ.-Prof.

Mehr

Lösungsvorschlag für das Übungsblatt 1. Aufgabe 1.

Lösungsvorschlag für das Übungsblatt 1. Aufgabe 1. Lösungsvorschlag für das Übungsblatt 1. Aufgabe 1. Zusammengefasst aus Ihren Beiträgen Wie bewerten sie das System ingesamt? Das Watson System verdeutlicht den Fortschritt der Künstlichen Intelligenz Forschung/Computerlinguistik/Informatik

Mehr

Aufbruch in die Digitale Wirtschaft: Wertschöpfungskonzepte und Sicherheitsperspektiven

Aufbruch in die Digitale Wirtschaft: Wertschöpfungskonzepte und Sicherheitsperspektiven acatech DEUTSCHE AKADEMIE DER TECHNIKWISSENSCHAFTEN Aufbruch in die Digitale Wirtschaft: Wertschöpfungskonzepte und Sicherheitsperspektiven Henning Kagermann WELT-Konferenz Wirtschaft_digital Berlin, 12.

Mehr

Arbeiten 4.0. Cyber-physikalische Systeme revolutionieren unsere Arbeitswelten und Leitmärkte. Margit Noll Corporate Strategy

Arbeiten 4.0. Cyber-physikalische Systeme revolutionieren unsere Arbeitswelten und Leitmärkte. Margit Noll Corporate Strategy Arbeiten 4.0 Cyber-physikalische Systeme revolutionieren unsere Arbeitswelten und Leitmärkte Margit Noll Corporate Strategy Cyber-physische Systeme bezeichnet den Verbund informatischer, softwaretechnischer

Mehr

Wenn Roboter Steuern zahlen

Wenn Roboter Steuern zahlen // Startseite // Experten-Blog // Wenn Roboter Steuern zahlen Wenn Roboter Steuern zahlen Reflektionen zu einer Society 4.0 ( Christian Langerek/shutterstock) Ein Gastbeitrag von Prof. Dr. Sabina Jeschke

Mehr

Das Internet der Dinge

Das Internet der Dinge Das Internet der Dinge Peter Mengel 15. September 2015 Definition IoT Geprägt wurde der Begriff 1999 vom britischen Technologie-Pionier und Mitbegründer des Auto-ID-Centers des Massachusetts Institute

Mehr

Cloud-Computing Seminar - Vergleichende Technologien: Grid-Computing Hochschule Mannheim

Cloud-Computing Seminar - Vergleichende Technologien: Grid-Computing Hochschule Mannheim Sven Hartlieb Cloud-Computing Seminar Hochschule Mannheim WS0910 1/23 Cloud-Computing Seminar - Vergleichende Technologien: Grid-Computing Hochschule Mannheim Sven Hartlieb Fakultät für Informatik Hochschule

Mehr

nicht wissen macht auch nichts

nicht wissen macht auch nichts Prof. Dr. Hans-Günter Lindner Schmalenbach Institut für W irtschaftswissenschaften Forschungsschwerpunkt W issensmanagement FH Köln hans-guenter.lindner@fh-koeln.de LiNKiT M ittagstisch Köln 2 4. April

Mehr

Industrie 4.0 Grundlagen und Überblick mainproject am 15.07.2014

Industrie 4.0 Grundlagen und Überblick mainproject am 15.07.2014 Grundlagen und Überblick mainproject am 15.07.2014 Gliederung 2 1. Vorstellung 2. Initiatoren und Ziel 3. Die Geschichte der Industrie 4. Technologische Grundlage 5. Folgen und Potenziale für die Industrie

Mehr

INDUSTRIE 4.0. Sind Sie gewappnet für die nächste industrielle Revolution? Vortragsprotokoll Handelskammer Bremen 25. Februar 2015

INDUSTRIE 4.0. Sind Sie gewappnet für die nächste industrielle Revolution? Vortragsprotokoll Handelskammer Bremen 25. Februar 2015 INDUSTRIE 4.0 Sind Sie gewappnet für die nächste industrielle Revolution? Vortragsprotokoll Handelskammer Bremen 25. Februar 2015 LECLERE SOLUTIONS 2015 Protokoll vom 25.2.2015 1 Ablauf der Veranstaltung!

Mehr

Chancen und Herausforderungen durch Digitalisierung

Chancen und Herausforderungen durch Digitalisierung Chancen und Herausforderungen durch Digitalisierung Prof. Dr. Henning Kagermann CONNECTED LIVING CONFERENCE Berlin, 4. September 2013 0 CONNECTED LIVING CONFERENCE, 4. September 2013 Vor welcher Aufgabe

Mehr

Verteilte Systeme CS5001

Verteilte Systeme CS5001 CS5001 Th. Letschert TH Mittelhessen Gießen University of Applied Sciences Einführung Administratives Unterlagen Verwendbar: Master of Science (Informatik) Wahlpflichtfach (Theorie-Pool) Unterlagen Folien:

Mehr

Industrie 4.0 und der Mittelstand

Industrie 4.0 und der Mittelstand a.tent.o-zeltsysteme 16. September 2015 Classic Remise Düsseldorf Industrie 4.0 und der Mittelstand Fraunhofer Seite 1 INDUSTRIE 4.0 FÜR DEN MITTELSTAND Dipl.-Ing. H.-G. Pater Industrie 4.0 : ERP und KMU

Mehr

Cluster IKT.NRW. NRW gestaltet IKT- Industriell. Integriert. Innovativ. Mittelstand-Digital Synergie-Workshop, 14.5.2013

Cluster IKT.NRW. NRW gestaltet IKT- Industriell. Integriert. Innovativ. Mittelstand-Digital Synergie-Workshop, 14.5.2013 Cluster IKT.NRW NRW gestaltet IKT- Industriell. Integriert. Innovativ. Mittelstand-Digital Synergie-Workshop, 14.5.2013 Inhalt Informations- und Kommunikationstechnologie in Nordrhein-Westfalen IKT in

Mehr

Industry 4.0 smarte Maschinen, smarte Industrie. Basel, 20. Oktober 2015 dieter.fischer@fhnw.ch IBE - Institut für Business Engineering der fhnw

Industry 4.0 smarte Maschinen, smarte Industrie. Basel, 20. Oktober 2015 dieter.fischer@fhnw.ch IBE - Institut für Business Engineering der fhnw Industry 4.0 smarte Maschinen, smarte Industrie Basel, 20. Oktober 2015 dieter.fischer@fhnw.ch IBE Institut für Business Engineering der fhnw Inhalt meines Beitrages Ziel: Ist Industry 4.0 nur ein «smarter»

Mehr

23.01.2014. IKT.NRW Roadmap 2020. Kommunikationsnetze für CPS im Horizon 2020 Forschungsprogramm. Ausgangspunkt der Betrachtung: IKT.

23.01.2014. IKT.NRW Roadmap 2020. Kommunikationsnetze für CPS im Horizon 2020 Forschungsprogramm. Ausgangspunkt der Betrachtung: IKT. CPS-Expertennetzwerk NRW IKT.NRW Roadmap 2020 Kommunikationsnetze für CPS im Horizon 2020 Forschungsprogramm Prof. Christian Wietfeld Technische Universität Dortmund (CNI) Cyber Physical NRW Ausgangspunkt

Mehr

Einführung: Internet der Dinge Eine Bestandsaufnahme

Einführung: Internet der Dinge Eine Bestandsaufnahme Einführung: Internet der Dinge Eine Bestandsaufnahme Hochschule Offenburg Professur für Embedded Systems und Kommunikationselektronik Leiter Steinbeis Transferzentrum Embedded Design und Networking 1 Internet

Mehr

Sie automatisieren die Welt von morgen Wir sorgen für die optimale Verbindung Let s connect. Gerätehersteller

Sie automatisieren die Welt von morgen Wir sorgen für die optimale Verbindung Let s connect. Gerätehersteller Sie automatisieren die Welt von morgen Wir sorgen für die optimale Verbindung Let s connect. Gerätehersteller Wie verändert der Megatrend Urbanisierung die industrielle Welt? Maschinenbau 3,9 Industrie

Mehr

paluno Software & CPS Matthias Book Innovationsworkshop Horizon 2020 ICT 23.01.2014

paluno Software & CPS Matthias Book Innovationsworkshop Horizon 2020 ICT 23.01.2014 Impulse aus dem CPS-Netzwerk NRW Software & CPS Matthias Book Innovationsworkshop Horizon 2020 ICT 23.01.2014 Cyber Physical NRW Überblick: Software-technische Herausforderungen Cyber Physical Systems

Mehr

Verhandlungsbasierte Planung der Zustellung von (Mehrwertdienst-)Leistungen bei KEP-Diensten durch ein Multiagentensystem

Verhandlungsbasierte Planung der Zustellung von (Mehrwertdienst-)Leistungen bei KEP-Diensten durch ein Multiagentensystem Mitglied der Otto von Guericke Mitglied der Verhandlungsbasierte Planung der Zustellung von (Mehrwertdienst-)Leistungen bei KEP-Diensten durch ein Multiagentensystem Patrick Wader Bonn, 09.03.2004 EUROPEAN

Mehr

Large Scale Data Management

Large Scale Data Management Large Scale Data Management Beirat für Informationsgesellschaft / GOING LOCAL Wien, 21. November 2011 Prof. Dr. Wolrad Rommel FTW Forschungszentrum Telekommunikation Wien rommel@ftw.at Gartner's 2011 Hype

Mehr

Industrie 4.0: Die nächste industrielle Revolution? Konsequenzen für die berufliche Bildung

Industrie 4.0: Die nächste industrielle Revolution? Konsequenzen für die berufliche Bildung Institut für Bildung, Beruf und Technik Abteilung: Technik und ihre Didaktik 6. Engineering- und IT-Tagung Die digitale Arbeitswelt gestalten! am 9.-11. September 2014, Rüsselsheim Industrie 4.0: Die nächste

Mehr

Spezialisierter Anbieter von User Interface Design Services User Interfaces für Productivity Tools Gesamter User Centered Design Life Cycle

Spezialisierter Anbieter von User Interface Design Services User Interfaces für Productivity Tools Gesamter User Centered Design Life Cycle UNTERNEHMEN KURZVORSTELLUNG Ergosign GmbH Spezialisierter Anbieter von User Interface Design Services User Interfaces für Productivity Tools Gesamter User Centered Design Life Cycle Gründungsjahr: 2000

Mehr

- Cyber Physical Systems (CPS) - Smart Factory - Cloud Computing - IT-Security und Datenschutz - Netzwerke und Mobile Computing

- Cyber Physical Systems (CPS) - Smart Factory - Cloud Computing - IT-Security und Datenschutz - Netzwerke und Mobile Computing Industrie 4.0: Die vierte industrielle Revolution Schwerpunkte, Entwicklungen und Herausforderungen Christian Zwickl-Bernhard www.mcp-zwickl-bernhard.at Verfolgt man die aktuelle Diskussion der Wirtschafts-,

Mehr

Der Gartner Hype Cycle als. prognostischer Hintergrund

Der Gartner Hype Cycle als. prognostischer Hintergrund Der Gartner Hype Cycle als 2 prognostischer Hintergrund Die Digitale Revolution steht nicht bevor, sondern sie entfaltet in vielen Bereichen schon die Kraft der schöpferischen Zerstörung. Eine wichtige

Mehr

Industrie 4.0 Ein Konzept für die Implementierung der Echtzeit-Kommunikation in Produktionssteuerung und Materialfluss

Industrie 4.0 Ein Konzept für die Implementierung der Echtzeit-Kommunikation in Produktionssteuerung und Materialfluss Industrie 4.0 Ein Konzept für die Implementierung der Echtzeit-Kommunikation in Produktionssteuerung und Materialfluss Vortrag auf dem Seminar ebusiness-lotse in Karlsruhe 24. Oktober 2013 Wolf-Ruediger

Mehr

ShopBot, ein Software-Agent für das Internet

ShopBot, ein Software-Agent für das Internet Software-Agenten p.1/20 ShopBot, ein Software-Agent für das Internet Eine Einführung in (Software-)Agenten Madeleine Theile Software-Agenten p.2/20 Aufbau des Vortrags grundlegende Theorie Definition Autonomy,

Mehr

Industrie 4.0! Intralogistik 4.0? Wie ändern sich die Anforderungen an die Intralogistik unter der Vision Industrie 4.0?

Industrie 4.0! Intralogistik 4.0? Wie ändern sich die Anforderungen an die Intralogistik unter der Vision Industrie 4.0? Industrie 4.0! Intralogistik 4.0? Wie ändern sich die Anforderungen an die Intralogistik unter der Vision Industrie 4.0? Themen: 1 Vision "Industrie 4.0" 2 Wieviel Intralogistik braucht Industrie 4.0?

Mehr

INDUSTRIE 4.0 AUS SICHT EINES IKT-INSTITUTS. Dr.-Ing. Mike Heidrich BICCnet OpenLabs am Fraunhofer ESK, München, 17.

INDUSTRIE 4.0 AUS SICHT EINES IKT-INSTITUTS. Dr.-Ing. Mike Heidrich BICCnet OpenLabs am Fraunhofer ESK, München, 17. INDUSTRIE 4.0 AUS SICHT EINES IKT-INSTITUTS Dr.-Ing. Mike Heidrich BICCnet OpenLabs am Fraunhofer ESK, München, 17. September 2014 Inhalt des Vortrages Einleitung Innovationen durch Informations- und Kommunikationstechnik

Mehr

Industrie 4.0 durchgängig vom Sensor bis zum ERP-System, ein neuer Ansatz

Industrie 4.0 durchgängig vom Sensor bis zum ERP-System, ein neuer Ansatz Industrie 4.0 durchgängig vom Sensor bis zum ERP-System, ein neuer Ansatz Ausgangslage: Der klassische Ansatz der Automatisierung-Pyramide hat bisher nicht zu einer standardisierten und durchgängigen Vernetzung

Mehr

Sozionik: Programmatik und Anwendungsperspektiven. Dr. Ingo Schulz-Schaeffer TU Hamburg-Harburg

Sozionik: Programmatik und Anwendungsperspektiven. Dr. Ingo Schulz-Schaeffer TU Hamburg-Harburg Sozionik: Programmatik und Anwendungsperspektiven eines neuen Forschungsfeldes Dr. Ingo Schulz-Schaeffer TU Hamburg-Harburg Sozionik: Zielsetzung: Erforschung und Modellierung künstlicher Sozialität Leitidee:

Mehr

Migrationsstrategien für Industrie 4.0

Migrationsstrategien für Industrie 4.0 Industrie 4.0 IT als Innovationstreiber von Maschinenbau und Automatisierung Migrationsstrategien für Industrie 4.0 Dr.-Ing. Gunther Kegel Vorsitzender der Geschäftsführung Pepperl+Fuchs, Mannheim Mittelständisches

Mehr

PIWIN II. Praktische Informatik für Wirtschaftsmathematiker, Ingenieure und Naturwissenschaftler II. Vorlesung 2 SWS SS 08

PIWIN II. Praktische Informatik für Wirtschaftsmathematiker, Ingenieure und Naturwissenschaftler II. Vorlesung 2 SWS SS 08 PIWIN II Kap. 3: Verteilte Systeme & Rechnernetze 1 PIWIN II Praktische Informatik für Wirtschaftsmathematiker, Ingenieure und Naturwissenschaftler II Vorlesung 2 SWS SS 08 Fakultät für Informatik Technische

Mehr

Presse-Information Seite: 1 / 5

Presse-Information Seite: 1 / 5 Seite: 1 / 5 Weidmüller gibt Antworten zu Industrie 4.0 während der Hannover Messe auf seinem Messestand in Halle 11, Stand B 60 vom 08.04.2013 bis 12.04.2013. Weidmüller Industrie 4.0 Weiterdenken für

Mehr

Bildverarbeitung in der Medizintechnik

Bildverarbeitung in der Medizintechnik Bildverarbeitung in der Medizintechnik Aufgrund einer Zusammenarbeit mit Würth Elektronik im Gebiet der Medizintechnik ist eine Arbeit aus dem Gebiet der Bildverarbeitung in der Medizintechnik ausgeschrieben.

Mehr

Ideenaustausch. ReAdy 4 the big bang. 24. September 2015 Alte Papierfabrik, Steyrermühl

Ideenaustausch. ReAdy 4 the big bang. 24. September 2015 Alte Papierfabrik, Steyrermühl Ideenaustausch 4.0 ReAdy 4 the big bang 24. September 2015 Alte Papierfabrik, Steyrermühl Ready for the next Industrial Revolution Die Vernetzung von roboterbasierten Systemen mit unterschiedlichen Diensten

Mehr

Einsatz von CPS und Bedeutung von Big Data in der Produktionspraxis

Einsatz von CPS und Bedeutung von Big Data in der Produktionspraxis Einsatz von CPS und Bedeutung von Big Data in der Produktionspraxis Von der Vision von Industrie 4.0 zur Umsetzung konkreter Projekte am Campus-Cluster Logistik Prof. Dr.-Ing. Volker Stich 05.06.2014,

Mehr

Effizienzsteigerungen in der Logistik - dank CPS

Effizienzsteigerungen in der Logistik - dank CPS Effizienzsteigerungen in der Logistik - dank CPS Wenn die Dinge wissen was sie tun... Cyber Physical Systems in der Logistik Dortmund, 25. April 2013 Dipl.-Inform. Martin Fiedler Fraunhofer IML Agenda

Mehr

Zukunftswerkstätten Technologie und Qualifikation. Zukunftstechnologien im Internet der Dinge in der industriellen Produktion

Zukunftswerkstätten Technologie und Qualifikation. Zukunftstechnologien im Internet der Dinge in der industriellen Produktion Zukunftswerkstätten Technologie und Qualifikation Zukunftstechnologien im Internet der Dinge in der industriellen Produktion Dr. Leif Brand Tel: 0211-6214516 E-Mail: brand@vdi.de www.zt-consulting.de 24.6.2013,

Mehr

BEST PRACTICE DAYS 2015

BEST PRACTICE DAYS 2015 UWS BUSINESS CONSULTING BEST PRACTICE DAYS 2015 LOS1 Echzeitsteuerung einer Lean Production Fertigung Uwe Zylka, Ubisense GmbH Agenda Herausforderungen in der Fertigung Die Idee des Layout Based Order

Mehr

Zuverlässige Kommunikationsverbindungen

Zuverlässige Kommunikationsverbindungen Peter Dorfinger Zuverlässige Kommunikationsverbindungen 7. IT-Businesstalk Die 90er Getrennte Netze für Telefonie und Internet Oft eigene Verkabelung für Internet / Telefonie / Fernsehen Eigene Komponenten

Mehr

Industrie 4.0 - die intelligente Fabrik der Zukunft

Industrie 4.0 - die intelligente Fabrik der Zukunft www.smartfactory-kl.de Industrie 4.0 - die intelligente Fabrik der Zukunft Prof.Dr. Detlef Zühlke Direktor Innovative Fabrik Systeme IFS Deutsches Forschungszentrum für Künstliche Intelligenz, DFKI GmbH

Mehr

Die Waschmaschine, der Elektroherd,

Die Waschmaschine, der Elektroherd, 36 Ihre Zukunft DREI VIERTEL DER GERÄTE REDEN MIT Michael Nilles, Schindler Ich wette, dass in zehn Jahren 75 Prozent aller Industrieprodukte im Internet of Things kommunizieren. Die Waschmaschine, der

Mehr

Multi-Agent Systems. Agentensysteme. Industry 4.0 Machine Learning. Energy and Smart Grids

Multi-Agent Systems. Agentensysteme. Industry 4.0 Machine Learning. Energy and Smart Grids Multi-Agent Systems VDI/VDE-Gesellschaft Mess- und Automatisierungstechnik (GMA) Fachausschuss 5.15 Agentensysteme Industry 4.0 Machine Learning Material Handling Energy Management Production Control Operations

Mehr

M2M-Kommunikation_. Der Erfolgsfaktor für Industrie 4.0 und das Internet der Dinge

M2M-Kommunikation_. Der Erfolgsfaktor für Industrie 4.0 und das Internet der Dinge M2M-Kommunikation_ Der Erfolgsfaktor für Industrie 4.0 und das Internet der Dinge Kurs auf ein neues Zeitalter_ 2005 2013 Unser leistungsstarkes Netz_ 20 Mrd. Investitionen in Telefónica Deutschland bis

Mehr

acatech DEUTSCHE AKADEMIE DER TECHNIKWISSENSCHAFTEN Cloud Computing und der Weg in die digitale Gesellschaft

acatech DEUTSCHE AKADEMIE DER TECHNIKWISSENSCHAFTEN Cloud Computing und der Weg in die digitale Gesellschaft acatech DEUTSCHE AKADEMIE DER TECHNIKWISSENSCHAFTEN Cloud Computing und der Weg in die digitale Gesellschaft Henning Kagermann Fachtagung Future Business Clouds Berlin, 6. Juni 2013 Zwei konvergente Technologieentwicklungen

Mehr

Gesellschaft für Informatik e.v. (GI) www.gi.de. Was ist Informatik?

Gesellschaft für Informatik e.v. (GI) www.gi.de. Was ist Informatik? Gesellschaft für Informatik e.v. (GI) www.gi.de Was ist Informatik? Was ist Informatik? Der Mensch hat seit jeher das Bedürfnis, seine Erkenntnisse anderen nicht nur in der direkten Ansprache über das

Mehr

Internet of Things wesentlicher Teil der Industrie 4.0 Strategie

Internet of Things wesentlicher Teil der Industrie 4.0 Strategie Products & Systems Processes & Software DI Werner Schöfberger, Leiter Business Unit Process Automation; Siemens AG Österreich Internet of Things wesentlicher Teil der Industrie 4.0 Strategie Inhalt Herausforderungen

Mehr

Business Process Brunch. BearingPoint, Microsoft und YAVEON laden Sie ein zum. am 17. und 23.09.2013, von 08:30 13:00 Uhr

Business Process Brunch. BearingPoint, Microsoft und YAVEON laden Sie ein zum. am 17. und 23.09.2013, von 08:30 13:00 Uhr BearingPoint, Microsoft und YAVEON laden Sie ein zum Das Event am 17. und 23.09.2013, von 08:30 13:00 Uhr Agenda am 17. und 23.09.2013, von 08:30 13:00 Uhr Agenda 08:30 Uhr 09:15 Uhr 10:00 Uhr 11:00 Uhr

Mehr

Optimieren von Requirements Management & Engineering

Optimieren von Requirements Management & Engineering Xpert.press Optimieren von Requirements Management & Engineering Mit dem HOOD Capability Model Bearbeitet von Colin Hood, Rupert Wiebel 1. Auflage 2005. Buch. xii, 245 S. Hardcover ISBN 978 3 540 21178

Mehr

UR:BAN Forum 2012. Projektpräsentation CONVERGE. Titelmasterformat durch Klicken bearbeiten

UR:BAN Forum 2012. Projektpräsentation CONVERGE. Titelmasterformat durch Klicken bearbeiten COmmunication Network VEhicle Road Global Extension Vorschlag für einen Car2X Systemverbund UR:BAN Forum 2012 Titelmasterformat durch Klicken bearbeiten Projektpräsentation CONVERGE Formatvorlage des Untertitelmasters

Mehr

Intelligenz und Vernetzung in der Fertigung

Intelligenz und Vernetzung in der Fertigung CHANCEN DURCH VERTIKALE INTEGRATION UND VERNETZTE PRODUKTIONSSYSTEME Intelligenz und Vernetzung in der Fertigung Perspektiven aus der Forschung Prof. Dr.-Ing. Michael Weyrich Universitäten Stuttgart und

Mehr

Internet der Dinge (Internet of Things, IoT)

Internet der Dinge (Internet of Things, IoT) Internet der Dinge (Internet of Things, IoT) 6. Thema (im Zeithorizont vier bis fünf Jahre) Detlef Krömker Institut für Informatik Sprecher des Vorstandes studiumdigitale Claudia Bremer (Moderation) (

Mehr

Die wahre Entdeckung besteht nicht darin, Neuland zu finden, sondern die Dinge mit neuen Augen zu sehen. Marcel Proust

Die wahre Entdeckung besteht nicht darin, Neuland zu finden, sondern die Dinge mit neuen Augen zu sehen. Marcel Proust Dynamische Rollen Dreh- und Angelpunkt von perbit.insight ist ein intuitiv bedienbares HR Solution Center. Hier stehen alle personalwirtschaftlichen Anwendungen zusammengeführt unter einer einheitlichen

Mehr

Technologieförderschwerpunkt des BMWi

Technologieförderschwerpunkt des BMWi Forschungsbereich Konvergente IKT - Technologieförderschwerpunkt des BMWi Überblick, Trends, Perspektiven Future Internet PPP 22.5.2013 Dr. Alexander Tettenborn Referatsleiter Entwicklung konvergenter

Mehr

Master-Untertitelformat bearbeiten

Master-Untertitelformat bearbeiten Arbeitsgestaltung und Qualifizierungspolitik Industrie 4.0 Gesundheit und Leistung in hybriden Systemen Master-Titelformat bearbeiten Untertitel Vortrag auf der 4. Fachtagung Arbeitsplanung und Prävention:

Mehr

Cloud Computing in Industrie 4.0 Anwendungen: Potentiale und Herausforderungen

Cloud Computing in Industrie 4.0 Anwendungen: Potentiale und Herausforderungen Cloud Computing in Industrie 4.0 Anwendungen: Potentiale und Herausforderungen Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science (B.Sc.) im Studiengang Wirtschaftsingenieur der Fakultät

Mehr

Frieder Nake: Information und Daten

Frieder Nake: Information und Daten Frieder Nake: Information und Daten Mit Grundlagen der Zeichentheorie nach Morris Seminar 31120: Information Philosophische und informationswissenschaftliche Perspektiven, SS 2004 Frieder Nake: Information

Mehr

Reaktive Systeme und synchrones Paradigma

Reaktive Systeme und synchrones Paradigma Sascha Kretzschmann Freie Universität Berlin Reaktive Systeme und synchrones Paradigma Einführung in das Seminar über synchrone Programmiersprachen Worum geht es? INHALT 2 Inhalt 1. Einleitung - Wo befinden

Mehr

6 Architektur-Mittel (WOMIT)

6 Architektur-Mittel (WOMIT) 6 Architektur-Mittel (WOMIT) Abb. 6-1: Positionierung des Kapitels im Ordnungsrahmen. Dieses Kapitel befasst sich mit der WOMIT-Dimension des architektonischen Ordnungsrahmens, indem es grundlegende Konzepte

Mehr

Sensorik 4.0 auf dem Weg zu Industrie 4.0. www.pepperl-fuchs.com

Sensorik 4.0 auf dem Weg zu Industrie 4.0. www.pepperl-fuchs.com Sensorik 4.0 auf dem Weg zu Industrie 4.0 www.pepperl-fuchs.com Agenda Das Unternehmen Sensorik in der Welt der Industrieautomation Sensorik 4.0, auf dem Weg zu Industrie 4.0 www.pepperl-fuchs.com 2 Ein

Mehr

Die digitale Transformation von Wirtschaft und Gesellschaft - die nächsten 5 Jahre

Die digitale Transformation von Wirtschaft und Gesellschaft - die nächsten 5 Jahre Die digitale Transformation von Wirtschaft und Gesellschaft - die nächsten 5 Jahre www.futuristgerd.com www.gerdleonhard.de www.gerdtube.com www.gerdcloud.com @gleonhard ENG @derfuturist DE Wir sind am

Mehr

Der Rechner. Grundbegriffe. Aufbau. Funktionsweise. Betriebssystem. Kategorisierung. PC-Komponenten. Prof. Dr. Aris Christidis

Der Rechner. Grundbegriffe. Aufbau. Funktionsweise. Betriebssystem. Kategorisierung. PC-Komponenten. Prof. Dr. Aris Christidis Der Rechner Grundbegriffe Aufbau Funktionsweise Betriebssystem Kategorisierung PC-Komponenten Auf der Grundlage eines Programms kann ein Computer Daten mit seiner Umgebung austauschen, mathematische und

Mehr

Zellulare Transportsysteme neue Wege für die Intralogistik. Forum Junge Spitzenforscher und Mittelstand 9. November, Petersberg bei Bonn

Zellulare Transportsysteme neue Wege für die Intralogistik. Forum Junge Spitzenforscher und Mittelstand 9. November, Petersberg bei Bonn Zellulare Transportsysteme neue Wege für die Intralogistik Dipl.-Ing. Andreas Kamagaew Forum Junge Spitzenforscher und Mittelstand 9. November, Petersberg bei Bonn Folie 0 Übersicht Aktuelle Anforderungen

Mehr

Software Innovations BPM M2M BRM

Software Innovations BPM M2M BRM Intelligente Geräte. Intelligente Prozesse. Intelligent vernetzt. So starten Sie erfolgreiche Projekte im Internet of Things and Services. Die IoTS Edition im Überblick Software Innovations BPM M2M BRM

Mehr

Projekt im Sommersemester 2008. Complex and Distributed IT-Systems TU Berlin

Projekt im Sommersemester 2008. Complex and Distributed IT-Systems TU Berlin Virtuelle Systeme Projekt im Sommersemester 2008 Complex and Distributed IT-Systems TU Berlin Beispiel: VMWare 24.10.2007 CIT, Einführung Projekt Virtualisierung 2 Virtualisierung 24.10.2007 CIT, Einführung

Mehr

Beschränkte Menschen unbeschränkte Technologie: Wie entwickelt sich das digitale Ökosystem

Beschränkte Menschen unbeschränkte Technologie: Wie entwickelt sich das digitale Ökosystem SFS Innovationsfachtagung Logistik 2015, Das Zelt Zürich Beschränkte Menschen unbeschränkte Technologie: Wie entwickelt sich das digitale Ökosystem Dr. David Bosshart l 1102 GDI Mittwoch, 15. April 2015

Mehr

Anbieter. Hochschule. Zittau/Görlitz. (FH) - University. of Applied. Sciences. Angebot-Nr. Angebot-Nr. 00095232. Bereich. Studienangebot Hochschule

Anbieter. Hochschule. Zittau/Görlitz. (FH) - University. of Applied. Sciences. Angebot-Nr. Angebot-Nr. 00095232. Bereich. Studienangebot Hochschule Mechatronik (Master) in Zittau Angebot-Nr. 00095232 Bereich Angebot-Nr. 00095232 Anbieter Studienangebot Hochschule Termin Permanentes Angebot Hochschule Zittau/Görlitz 3 Semester Tageszeit Ganztags Ort

Mehr

Gestengesteuerte Visualisierung digitaler Bestandsdaten

Gestengesteuerte Visualisierung digitaler Bestandsdaten Verteidigung der Masterarbeit Gestengesteuerte Visualisierung digitaler Bestandsdaten Mo, 11 NOV 2013 (SLUB Dresden, R0.46) In Kooperation mit der Sächsischen Landes- und Universitätsbibliothek (SLUB)

Mehr

pimoto - Ein System zum verteilten passiven Monitoring von Sensornetzen

pimoto - Ein System zum verteilten passiven Monitoring von Sensornetzen pimoto - Ein System zum verteilten passiven Monitoring von Sensornetzen Rodrigo Nebel Institut für Informatik Lehrstuhl für Rechnernetze und Kommunikationssysteme (Informatik 7) Friedrich-Alexander-Universität

Mehr

Neuro-Soft GmbH. Ihre Referent: Ingo Wolf Chefredakteur der Science-TV GmbH und Geschäftsführer der Neuro-Soft GmbH

Neuro-Soft GmbH. Ihre Referent: Ingo Wolf Chefredakteur der Science-TV GmbH und Geschäftsführer der Neuro-Soft GmbH Neuro-Soft GmbH Ihre Referent: Ingo Wolf Chefredakteur der Science-TV GmbH und Geschäftsführer der Neuro-Soft GmbH Neuro-Soft GmbH LRC-AI, Wo steht die Entwicklung der künstlichen Intelligenz heute? Cognitive

Mehr

White Paper. Embedded Treiberframework. Einführung

White Paper. Embedded Treiberframework. Einführung Embedded Treiberframework Einführung White Paper Dieses White Paper beschreibt die Architektur einer Laufzeitumgebung für Gerätetreiber im embedded Umfeld. Dieses Treiberframework ist dabei auf jede embedded

Mehr

SO INTELLIGENT KÖNNEN PRODUKTE SEIN

SO INTELLIGENT KÖNNEN PRODUKTE SEIN it s OWL Clustermanagement GmbH Zukunftsmeile 1 33102 Paderborn Tel. 05251 5465275 Fax 05251 5465102 info@its-owl.de www.its-owl.de/einfach-intelligent GEFÖRDERT VOM BETREUT VOM DAS CLUSTERMANAGEMENT WIRD

Mehr

Die virtuelle Welt: Vision und Wirklichkeit

Die virtuelle Welt: Vision und Wirklichkeit Die virtuelle Welt: Vision und Wirklichkeit September 2015 Peter.moser1@swisscom.com Virtualität ist die Eigenschaft einer Sache, nicht in der Form zu existieren, in der sie zu existieren scheint Quelle:

Mehr

Industrie 4.0 umsetzen Wie Modelle der strategischen Organisationsgestaltung dabei unterstützen können

Industrie 4.0 umsetzen Wie Modelle der strategischen Organisationsgestaltung dabei unterstützen können Industrie 4.0 umsetzen Wie Modelle der strategischen Organisationsgestaltung dabei unterstützen können Wien, 12. März 2015 Mag. (FH) Lukas Schober KALUCON GmbH Zukunft vorausdenken und in der Organisation

Mehr

Termine: Freitag 19. Januar 2007, 13-20 Uhr Samstag 20. Januar 2007, 10-18 Uhr

Termine: Freitag 19. Januar 2007, 13-20 Uhr Samstag 20. Januar 2007, 10-18 Uhr 1 Termine: Freitag 19. Januar 2007, 13-20 Uhr Samstag 20. Januar 2007, 10-18 Uhr Ort: Gebäude Harmath & Weilinger Alpenstr. 75, 5020 Salzburg 2 1 A Inhalte: 1. Die Lehrveranstaltung beschäftigt sich mit

Mehr

Wie man mit Change Management IT-Projektkosten senken kann

Wie man mit Change Management IT-Projektkosten senken kann Wie man mit Change Management IT-Projektkosten senken kann ein Artikel von Ulrike Arnold Kaum ein Projekt wird in der vorgegebenen Zeit und mit dem geplanten Budget fertiggestellt. Und das, obwohl die

Mehr

Scope-Camp Hamburg 27. Mai 2008. learning to change changing to learn

Scope-Camp Hamburg 27. Mai 2008. learning to change changing to learn Scope-Camp Hamburg 27. Mai 2008 learning to change changing to learn Scope-Camp Hamburg 27. Mai 2008 Angelehnt an die Idee eines Barcamps. Der Unterschied zur herkömmlichen Konferenz besteht darin, dass

Mehr

Trends und Entwicklungen in der ICT Branche Chancen und Herausforderungen. Urs Schaeppi CEO Swisscom AG

Trends und Entwicklungen in der ICT Branche Chancen und Herausforderungen. Urs Schaeppi CEO Swisscom AG Trends und Entwicklungen in der ICT Branche Chancen und Herausforderungen Urs Schaeppi CEO Swisscom AG «Ich sehe eine Schweiz, in der auch besondere Orte das beste Netz haben.» Mehr Möglichkeiten fu r

Mehr

Club of. Logistics 23. TAGUNG AM 10. UND 11. NOVEMBER 2014 IN BREMEN PARKHOTEL. Industrie 4.0 = Logistik 4.0

Club of. Logistics 23. TAGUNG AM 10. UND 11. NOVEMBER 2014 IN BREMEN PARKHOTEL. Industrie 4.0 = Logistik 4.0 23. TAGUNG AM 10. UND 11. NOVEMBER 2014 IN BREMEN PARKHOTEL Club of Logistics Industrie 4.0 = Logistik 4.0 Industrie 4.0: Geförderte Zukunft 2 Wettbewerbsfähigkeit entscheidet Deutschlands Zukunft Deutschland

Mehr

Kompetenzmodell für Informatik

Kompetenzmodell für Informatik Kompetenzmodell für Informatik als Grundlage des Lehrplans für den Pflichtgegenstand Informatik in der 5. Klasse und für den Wahlpflichtgegenstand Informatik in der 6. bis 8. Klasse Das Kompetenzmodell

Mehr

Kybernetik Einführung

Kybernetik Einführung Kybernetik Einführung Mohamed Oubbati Institut für Neuroinformatik Tel.: (+49) 731 / 50 24153 mohamed.oubbati@uni-ulm.de 24. 04. 2012 Einführung Was ist Kybernetik? Der Begriff Kybernetik wurde im 1948

Mehr

Big Data/ Industrie 4.0 Auswirkung auf die Messtechnik. 16.07.2015 Jochen Seidler

Big Data/ Industrie 4.0 Auswirkung auf die Messtechnik. 16.07.2015 Jochen Seidler Big Data/ Industrie 4.0 Auswirkung auf die Messtechnik 16.07.2015 Jochen Seidler Die Entwicklung zur Industrie 4.0 4. Industrielle Revolution auf Basis von Cyber-Physical Systems Industrie 4.0 2. Industrielle

Mehr

HR Strategy & Human Capital Management. Prof. Dr. Christian Scholz 2013/2014

HR Strategy & Human Capital Management. Prof. Dr. Christian Scholz 2013/2014 HR Strategy & Human Capital Management Prof. Dr. Christian Scholz 2013/2014 Aktueller Bezug Die Fragen: Globale Wirtschafts- und Finanzkrise? Klimakatastrophe? Zusammenbruch von Bildungssystemen? Politische

Mehr

Big Data in der Forschung

Big Data in der Forschung Big Data in der Forschung Dominik Friedrich RWTH Aachen Rechen- und Kommunikationszentrum (RZ) Gartner Hype Cycle July 2011 Folie 2 Was ist Big Data? Was wird unter Big Data verstanden Datensätze, die

Mehr

Ingenieur- Informatik NTB. Interstaatliche Hochschule für Technik Buchs. Ingenieurstudium Systemtechnik. Studiendokumentation

Ingenieur- Informatik NTB. Interstaatliche Hochschule für Technik Buchs. Ingenieurstudium Systemtechnik. Studiendokumentation Ingenieurstudium Systemtechnik Studiendokumentation NTB Interstaatliche Hochschule für Technik Buchs FHO Fachhochschule Ostschweiz Studienrichtung Ingenieur- Informatik FASZINATION INGENIEURINFORMATIK

Mehr

Centre of Excellence for High Performance Computing Erlangen Kompetenzgruppe für Supercomputer und Technisch-Wissenschaftliche Simulation

Centre of Excellence for High Performance Computing Erlangen Kompetenzgruppe für Supercomputer und Technisch-Wissenschaftliche Simulation 1 Centre of Excellence for High Performance Computing Erlangen Kompetenzgruppe für Supercomputer und Technisch-Wissenschaftliche Simulation Dr. G. Wellein, Regionales Rechenzentrum Erlangen Supercomputer

Mehr

Das Internet der Dinge - Von Bedeutung für eine moderne Verwaltung? Norbert Ender, IBM Schweiz AG, Smarter Cities Leader

Das Internet der Dinge - Von Bedeutung für eine moderne Verwaltung? Norbert Ender, IBM Schweiz AG, Smarter Cities Leader Das Internet der Dinge - Von Bedeutung für eine moderne Verwaltung? Norbert Ender, IBM Schweiz AG, Smarter Cities Leader 1 Einführung 2 Lösungen und Beispiele 3 Schlussfolgerungen für egovernment 1 Einführung

Mehr

Smart City als Vision:

Smart City als Vision: Smart City als Vision: Mehr als Technik dank Technik IG Smart Cities Workshop 06.09.2013 Eine Smart City steigert die Effizienz, die Produktivität, das ökologische Bewusstsein, sie reduziert die Verschmutzung

Mehr

Big Data Herausforderungen für Rechenzentren

Big Data Herausforderungen für Rechenzentren FINANCIAL INSTITUTIONS ENERGY INFRASTRUCTURE, MINING AND COMMODITIES TRANSPORT TECHNOLOGY AND INNOVATION PHARMACEUTICALS AND LIFE SCIENCES Big Data Herausforderungen für Rechenzentren RA Dr. Flemming Moos

Mehr

Über dieses Buch. Kapitel 1. 1.1 Einleitung

Über dieses Buch. Kapitel 1. 1.1 Einleitung Kapitel 1 Über dieses Buch 1.1 Einleitung Dieses Buch behandelt das Vorgehensmodell Kanban und seinen Einsatz in Softwareentwicklungsprojekten. Kanban ist ein Vorgehensmodell der schlanken Softwareentwicklung

Mehr

Industrie 4.0 - Herausforderungen und Chancen in der Elektronikproduktion

Industrie 4.0 - Herausforderungen und Chancen in der Elektronikproduktion Agenda Industrie 4.0 - Herausforderungen und Chancen in der Elektronikproduktion Tägliche Herausforderungen & Chancen Industrielle Revolution Detailbeispiele Industrie 4.0 in der Elektronikproduktion Effizienzsteigerung

Mehr

Industrie 4.0 Forum Business Software & Management Steyr 2014 Herbert Jodlbauer

Industrie 4.0 Forum Business Software & Management Steyr 2014 Herbert Jodlbauer Industrie 4.0 Forum Business Software & Management Steyr 2014 Herbert Jodlbauer Industrie 4.0 Was ist das? Folie 2 Industrie 4.0 Internet der Dinge Werkstücke, Werkzeuge, Maschinen, Transportmittel, speichern,

Mehr

Die Realtime Big Data Architektur @ OTTO im Kontext von Process Excellence

Die Realtime Big Data Architektur @ OTTO im Kontext von Process Excellence Die Realtime Big Data Architektur @ OTTO im Kontext von Process Excellence Conny Dethloff Bonn, 28. Januar 2015 Process Excellence im Kontext Big Data bedeutet, Komplexität in internen Prozessen nicht

Mehr

abas360 Änderungen vorbehalten 2013 ABAS Software AG

abas360 Änderungen vorbehalten 2013 ABAS Software AG Themen Zahlen, Daten, Fakten Trends Zukunft ABAS Software AG Umsatz 2012 tsd. 15.000 14.000 13.000 12.000 11.000 10.000 9.000 10.100 10.700 12.000 12.900 (+ 8%) 8.000 2009 2010 2011 2012 Umsatzverteilung

Mehr

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden Jens Kaminski ERP Strategy Executive IBM Deutschland Ungebremstes Datenwachstum > 4,6 Millarden

Mehr

Spezialisierungskatalog

Spezialisierungskatalog Spezialisierungskatalog Inhaltsverzeichnis: 1. Friedrich Schiller Universität 2. TU Ilmenau 3. FH Erfurt 4. FH Jena 5. FH Nordhausen 6. FH Schmalkalden 7. BA Gera 8. BA Eisenach 1. Friedrich-Schiller-Universität

Mehr

Grüezi Mein Name ist Susanne Bandi und ich begrüsse Sie herzlich zum Kurzreferat: So richten Sie ihr Configuration Management auf die Zukunft aus!

Grüezi Mein Name ist Susanne Bandi und ich begrüsse Sie herzlich zum Kurzreferat: So richten Sie ihr Configuration Management auf die Zukunft aus! Grüezi Mein Name ist Susanne Bandi und ich begrüsse Sie herzlich zum Kurzreferat: So richten Sie ihr Configuration Management auf die Zukunft aus! SIE sind hier, weil sie Potential sehen für ihr Configuration

Mehr

Unternehmen wissen zu wenig über ihre Kunden! Ergebnisse der Online-Umfrage. Management Summary

Unternehmen wissen zu wenig über ihre Kunden! Ergebnisse der Online-Umfrage. Management Summary Unternehmen wissen zu wenig über ihre Kunden! Ergebnisse der Online-Umfrage Management Summary Management Summary Kunden - Erfolgsfaktor Nummer 1 Es ist mittlerweile ein offenes Geheimnis, dass Unternehmen

Mehr