Beitrag zur Kopplung von Meridian- und Gitterströmung in Entwurfsverfahren für mehrstufige Turbomaschinen

Größe: px
Ab Seite anzeigen:

Download "Beitrag zur Kopplung von Meridian- und Gitterströmung in Entwurfsverfahren für mehrstufige Turbomaschinen"

Transkript

1 Kai Becker Beitrag zur Kopplung von Meridian- und Gitterströmung in Entwurfsverfahren für mehrstufige Turbomaschinen kassel university press

2 Die vorliegende Arbeit wurde vom Fachbereich Maschinenbau der Universität Kassel als Dissertation zur Erlangung des akademischen Grades eines Doktors der Ingenieurwissenschaften (Dr.-Ing.) angenommen. Erster Gutachter: Zweiter Gutachter: Univ.-Prof. Dr.-Ing. Martin Lawerenz Univ.-Prof. Dr.-Ing. Reinhard Mönig Tag der mündlichen Prüfung 16. Juli 2009 Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar Zugl.: Kassel, Univ., Diss ISBN print: ISBN online: URN: , kassel university press GmbH, Kassel Printed in Germany

3 Kurzfassung III Kurzfassung In dieser Arbeit wird ein gekoppeltes Strömungslösersystem vorgestellt, das sich aus einem 3D- RANS-Strömungslöser und einer Throughflow-Rechnung zusammensetzt. Innerhalb der automatischen aerodynamischen Optimierung von Verdichterschaufeln lassen sich so die 3D-Randbedingungen an den jeweiligen Geometrieentwurf besser anpassen. Dabei wird zunächst der Einsatz der Evolutionsstrategie in der Multi-Objective-Optimierung beschrieben, und es werden verschiedene Antwortflächen im Hinblick auf ihre Beschleunigung des Optimierungsprozesses vorgestellt. Durch die Kopplung der beiden Strömungsrechnungen eröffnen sich weitere Optionen für den Aufbau der Zielfunktionen. Neben den Strömungsgrößen der optimierten Gitter können nun auch die das Gesamtverhalten beschreibenden Kenngrößen verwendet werden, um einzelne Kandidaten der Optimierung zu bewerten. Das Potential des gekoppelten Lösers in Zusammenhang mit der Multi-Objective Optimierung wird an einem dreistufigen Verdichter mit Vorleitrad gezeigt, wobei ein Gitter für die 3D-Optimierung freigegeben ist. Abstract In this work, a linked flow solver is introduced combining 3D-Reynolds-averaged-Navier-Stokes and an inviscid through flow method modeling losses and deviation. The linking implies the exchange of flow information between both CFD codes, so that the 3D boundary conditions can be adjusted for each individual design. An asynchronous multi-objective evolutionary algorithm is applied as optimization strategy, accelerated additionally by various response surface models. New options configuring the fitness functions evolve from the linked solver. Besides the flow parameters of the optimized cascades, the flow characteristics describing the performance of the full axial compressor i.e. the overall efficiency are also used for the optimization. The potential of the linked CFD-solver in connection with the multi-objective optimization is demonstrated at a 3-stage axial compressor with inlet guide vane.

4 IV Vorwort Vorwort Die vorliegende Arbeit entstand während meiner Tätigkeit als wissenschaftlicher Mitarbeiter am Fachgebiet Strömungsmaschinen des Instituts für Thermische Energietechnik der Universität Kassel. An dieser Stelle möchte ich mich herzlich bei Herrn Univ.-Prof. Dr.-Ing. Martin Lawerenz bedanken. Seine freundliche Unterstützung und sein jederzeit in mich gesetztes Vertrauen haben wesentlich zum Zustandekommen dieser Arbeit beigetragen. Herrn Univ.-Prof. Dr.-Ing. Reinhard Mönig danke ich für die Übernahme des Korreferats. Teile der Arbeit entstanden im Rahmen des Verbundforschungsprojekts AG Turbo in Zusammenarbeit mit dem Institut für Antriebstechnik des DLR in Köln sowie den Industriepartner MAN Turbo, MTU AeroEngines und Siemens. Stellvertretend für das DLR möchte ich mich bei Herrn Dr.-Ing. Eberhard Nicke und Herrn Dr.-Ing. Christian Voß für die gute und vertrauensvolle Zusammenarbeit bedanken. Ganz besonders danke ich auch allen derzeitigen und ehemaligen Mitgliedern des Instituts für Thermische Energietechnik für das gute Arbeitsklima, die schöne Zusammenarbeit und für viele wertvolle Diskussionen.

5 Inhaltsverzeichnis V Inhaltsverzeichnis Nomenklatur Bildverzeichnis VII XIII 1 Einleitung Problemstellung Stand der Wissenschaft und Technik Stochastische Optimierungsstrategien Antwortflächen Multidisziplinäre Optimierung Meridianströmungsverfahren Ziele und Inhalte dieser Arbeit Aerodynamische und mechanische Modelle Meridianströmungsverfahren MAGELAN FINE/Turbo Korrelationen zur Bestimmung der Verluste und Abströmwinkel Verluste Minderumlenkung D Navier-Stokes Verfahren Kopplung des dreidimensionalen Verfahrens mit Throughflow-Modellen Konvergenzverhalten des gekoppelten Strömungslösers Restriktionen für den Abströmwinkel und die Verluste innerhalb der Throughflow Rechnung Optimierungsstrategie Evolutionärer Algorithmus Ein-Ziel-Optimierung (Single-Objective) Mehr-Ziel-Optimierung (Multi-Objective) Beschleunigungsmethoden innerhalb des evolutionären Algorithmus Implementierung Testverdichter Beschleunigungsmethoden der Optimierung 42

6 VI Inhaltsverzeichnis 4.1 Versuchspläne Klassische Versuchspläne für Modelle 2. Ordnung d-optimale Versuchspläne Latin Hypercube Verfahren Schwerpunkt-Voronoi-Diagramme (CVT) Anwendungsmöglichkeiten Polynomiale Antwortflächen Implementierung Mehrdimensionale Zielfunktion Anwendungsmöglichkeiten Neuronale Netze Grundlagen künstlicher Neuronaler Netze Lernverfahren Implementierung Anwendungsmöglichkeiten Kriging Zielfunktionsmodellierung in der Verdichterauslegung Bestandteile der Zielfunktion Zielfunktionsgrößen Nebenbedingungen Parameter der Optimierung Zielfunktionen von Mehr-Ziel-Optimierungen und ihre Auswertung (Paretofront) Unterschiedliche Ziele bei einem Betriebspunkt Einfluss der Beschleunigungstechniken auf die Optimierung MagOpti Betrachtung mehrerer Betriebspunkte Optimierung mittels des gekoppelten Strömungslösers Ziele der Optimierung Diskussion der Optimierungsergebnisse Validierung der Optimierungsergebnisse Zusammenfassung 110 Literaturverzeichnis 113

7 Nomenklatur VII Nomenklatur Lateinische Symbole Symbol a a a ax b c c C DE d D DF e E f f f f f act f R F F F h Bedeutung Ausgabevektor des Neuronalen Netzes Polynomialkoeffizienten axialer Gitterabstand Überdeckungsexponent Parameter der Sigmoidalfunktion Strömungsgeschwindigkeit Schwellwert innerhalb von Differential Evolution Profildicke Zahl der Freiheitsgrade der Optimierung Diffusionszahl Eingabevektor des Neuronalen Netzes Abweichung der Ausgabe von den gewünschten Werten bei Neuronalen Netzen Frequenz Skalierungsfaktor Regressionsvektor Steuerungsvektor bei Differential Evolution Transferfunktion innerhalb des Neuronalen Netzes Rosenbrockfunktion Flat-Spot-Eliminationsparameter Regressionsmatrix Regressionsmodell Schaufelhöhe

8 VIII Nomenklatur Symbol h m i k K δsh K δt l L m ṁ ṁ red M Ma MSE n n s N N fix net o p p p P P Q r r R R r m s Bedeutung mittlere Gitterhöhe Inzidenz Anzahl der Kontrollpunkte pro Gitter Korrekturfaktor für abweichende Dickenverteilung Korrekturfaktor für abweichende maximale Profildicke Sehnenlänge Lernrate Anzahl der Stufen Massenstrom korrigierter Massenstrom Momentumterm Machzahl bezogene mittlere quadratische Fehlerfunktion n. Generation innerhalb der Evolutionsstrategie ganzzahliger Faktor Zahl der Stützstellen Zahl der vorgegebenen Stützstellen Nettoeingangswert eines Neurons Ausgabe eines Neurons Druck Hyperparameter innerhalb Kriging Zahl der Profilschnitte Basisfunktion Straffunktionsterm Zielfunktion radiale Koordinate Zufallszahl Korrelationsmatrix Korrelationsmodell mittlerer geometrischer Radius Teilung

9 Nomenklatur IX Symbol S 2m T t w w q w p x, y, z X z z Bedeutung repräsentative Meridianstromfläche Temperatur Teilung Netzgewicht Gewichtungsfaktor der Zielfunktion Gewichtungsfaktor der Straffunktion Individuen innerhalb der Evolutionsstrategie Versuchsmatrix, Koordinatenmatrix Schaufelzahl axiale Koordinate Griechische Symbole Symbol Bedeutung α Gewichtungsfaktoren α, β Strömungswinkel α s ˆβ β 1m β 2m δ δ δ 2 ǫ η θ θ λ λ Staffelungswinkel Erwartungswert innerhalb Kriging Metallwinkel der Vorderkante Metallwinkel der Hinterkante Fehlersignal eines Neurons Deviationswinkel, Minderumlenkung Impulsverlustdicke Reynoldszahlkorrektur Wirkungsgrad Hyperparameter innerhalb Kriging Metallumlenkung (Differenz der Metallwinkel an Ein- und Austritt) Anzahl der Nachkommen in der Evolutionsstrategie Hyperparameter innerhalb Kriging µ Elternanzahl in der Evolutionsstrategie π Druckverhältnis

10 X Nomenklatur Symbol σ τ ω ω Bedeutung Anzahl der Eltern für die Rekombination in der Evolutionsstrategie Standardabweichung, Überdeckung Spaltweite Totaldruckverlustbeiwert Singulärwert Indizes Symbol Bedeutung 0 Eintrittsebene in einen Gitterblock 0, 10 ungewölbtes NACA-Profil mit einem Dickenverhältnis von 10% 1 Schaufelvorderkante 2 Schaufelhinterkante 3 Austrittsebene aus einem Gitterblock abs absolute Größe ax axial Gn bezogen auf das n. Gitter ink inkompressibel Inz Inzidenz is isentrop ist Ist-Zustand kompr kompressibel krit kritisch lim Grenzwert m mittel max obere Schranke min untere Schranke pol polytrop r radial Rn bezogen auf alle Gitter außer dem n. Gitter rel relative Größe

11 Nomenklatur XI Symbol Bedeutung Sek sekundär soll Sollwert Spalt auf den Spalt bezogen Sto Verdichtungsstoß t totale Größen W Seitenwand x, y, z Koordinatenrichtung Abkürzungen Kürzel BBD CCD CVT CVTn DE EA HK LATINn LSM MO MPI OPn Optin PR PVM RANS RSM Ref Rotn SO Bedeutung Box-Behnken Design Central Composite Design Schwerpunt-Voronoi-Diagramm (Centroidal Voronoi Tessellation) CVT-Versuchsplan mit n Stützstellen Differential Evolution Evolutionärer Algorithmus Hinterkante Versuchsplan auf Basis von Latin Hypercube mit n Stützstellen Methode der kleinsten Quadrate (Least Squares Method) Mehr-Ziel(Multi Objective)-Optimierung Message Passing Interface n. Betriebspunkt Optimierte Verdichterkonfiguration n Pareto-Rang Parallel Virtual Machine Reynolds gemittelte Navier-Stokes Antwortflächen, Ersatzmodelle (Response Surface Method) Ausgangskonfiguration n. Rotor des Verdichters Ein-Ziel(Single Objective)-Optimierung

12 XII Nomenklatur Kürzel Stan SVD VK ZFn Bedeutung n. Stator des Verdichters Singulärwertzerlegung (Singular Value Decomposition) Vorderkante Zielfunktion n

13 XIII Bildverzeichnis 2.1 Prozesskette von MAGELAN Prozesskette von FINE/Turbo Netzgenerierung bei FINE/Turbo Datenaustausch zwischen 3D- und 2D-Strömungsrechnung Kopplung zwischen der 3D- und 2D-Strömungsrechnung Konvergenzverhalten des gekoppelten Strömungslösers Restriktionen für gekoppelten Löser Prinzip der allgemeinen Evolutionsstrategie Konzepte zur Bestimmung des Pareto-Ranges Sternförmige Prozessstruktur Prozesskette in der Optimierung Axialschnitt des Versuchsverdichters IDAC Auszug aus dem Verdichterkennfeld Latin Hypercube Verfahren Verfeinertes Latin Hypercube Verfahren Schwerpunkt-Voronoi-Diagramm Optimale Paretofront bei MMR Verschiedene Versuchspläne zu MMR Gewichtung der Zielfunktionen Ergebnisse der Polynomialen Antwortfläche bei MMR Ergebnisse der Polynomialen Antwortfläche bei ZDT Arbeitsweise eines Neurons Feedforward-Netzwerk mit zwei verborgenen Schichten Beispielhafter Konvergenzverlauf der Fehlerfunktion Approximationsgüte bei ZDT Beispiele zum Aufbau der Straffunktionsterme P j Geometrieparameter der Schaufelprofile Zielfunktionsraum für FineOpti Zielfunktionsraum für FineOpti1 nach 4000 Membern Vergleich der relativen Machzahlen für FineOpti Optimierungsparameter für MagOpti

14 XIV Bildverzeichnis 5.7 Zielfunktionsraum für MagOpti Vergleich verschiedener Paretofronten für MagOpti Versuchspläne als Startverteilung für MagOpti Vergleich der Paretofronten für MagOpti Zielfunktionsraum für MagOpti Vergleich der spezifische Entropien für MagOpti Vergleich verschiedener Optima von MagOpti3 - Wirkungsgrad Vergleich verschiedener Optima von MagOpti3 - Diffusionszahlen Vergleich verschiedener Optima von MagOpti3 - Druckverlauf entlang Stromlinien Vergleich verschiedener Optima von MagOpti3 - radiale Druckverlauf für OP Vergleich verschiedener Optima von MagOpti3 - radiale Druckverlauf für OP Zielfunktionsdiagramm Entwicklung der Paretofront Vergleich der Entropieentwicklung Vergleich radialer Verteilungen verschiedener Strömungsgrößen Rotor 3 bei 10% Kanalhöhe Rotor 3 bei 90% Kanalhöhe Strömungsvorgänge für Ausgangskonfiguration Strömungsvorgänge für Opti Strömungsvorgänge für Opti Strömungsvorgänge für Opti Rechennetz der 3D-Simulation Vergleich der Wirbelstärken in der 3. Stufe

15 1 Einleitung 1 1 Einleitung In die Auslegung moderner Verdichter fließen die Ergebnisse aus unterschiedlichen Disziplinen ein. Steigerungen in Leistung und Wirkungsgrad können daher nur erzielt werden, wenn viele verschiedene geometrische und physikalische Größen sowie Nebenbedingungen in den Verdichterentwurf zusätzlich eingehen. Die Anforderungen sind vielschichtig und führen in bestimmten Bereichen zu widersprüchlichen Zielvorgaben, so dass einzelne Aspekte gegeneinander abgewogen werden müssen. Nur so kann eine Verdichterkonfiguration gefunden werden, die den verschiedenen Gesichtspunkten gerecht wird. In der Optimierung werden mehrere Betriebspunkte berücksichtigt, damit die modifizierte Geometrie im gesamten gewünschten Arbeitsbereich eine Verbesserung darstellt. Abhängig vom Betriebspunkt ergeben sich unterschiedliche Bewertungen, beispielsweise hinsichtlich der Wirkungsgrade und der aerodynamischen Belastungen. Daneben sind andere Rand- bzw. Nebenbedingungen wie das Druckverhältnis oder der Massendurchsatz zu berücksichtigen. In der Optimierung können diese Aspekte über die Modulierung der Zielfunktion erfasst werden. 1.1 Problemstellung Die moderne Computertechnik und ausgereifte Simulationswerkzeuge werden immer stärker in den Prozess der Verdichterauslegung eingebunden. Auf diese Weise können die Kosten für teure Versuche und Messungen reduziert werden. In Verbindung mit Optimierungsstrategien lassen sich die CFD-Anwendungen zur Verbesserung des Verdichterdesigns einsetzen. Häufig werden genetische oder evolutionäre Algorithmen eingesetzt. Sie orientieren sich am Vorbild der Natur und gehören zu den stochastischen Suchmethoden. Es werden keine Informationen über die Ableitungen benötigt. Für ihre Anwendung reicht es aus, wenn jedem Datensatz nur genau ein Zielfunktionswert bzw. -vektor zugeordnet werden kann. Diese Eigenschaften machen die Evolutionsstrategie bezüglich Störungen der Zielfunktionen unempfindlich. Im Gegensatz zu Gradientenverfahren können lokale Optima auf der Suche nach dem globalen Optimum auch wieder verlassen werden. Allerdings erfordern stochastische Optimierungsverfahren eine große Zahl an Zielfunktionsaufrufen. Bei zeitaufwendigen Prozessketten ist ihr Einsatz daher auch nur zu befürworten, wenn keine bzw. nur wenige Informationen über die Ableitungen der Zielfunktion und über die Topologie des Lösungsraums vorliegen, wenn die Zahl der Optimierungsparameter sehr hoch ist oder wenn schnellere Alternativen wie z.b. Gradientenmethoden

16 2 1 Einleitung aufgrund einer gestörten Zielfunktion mit hoher Wahrscheinlichkeit in ein lokales Optimum konvergieren, das schlechter als das globale ist. Das Konzept der Evolutionsstrategie lässt sich effektiv parallelisieren. Zum einen müssen neue Datensätze, Member, erzeugt werden. Dazu müssen Zufallszahlen generiert werden, Eltern miteinander rekombiniert werden und die einzelnen Parameter mutiert werden. Zum anderen müssen zu den neuen Membern die Zielfunktionen bestimmt werden, indem die aerodynamische Prozesskette durchlaufen wird. Der zeitliche Aufwand der erstgenannten Aufgaben ist im Vergleich zur Zielfunktionsauswertung vernachlässigbar. Daher bietet sich eine sternförmige Prozessstruktur an, bei der in den Unterprozessen die Zielfunktionsevaluierungen simultan durchgeführt werden. Ein höherer Parallelisierungsgrad kann erreicht werden, wenn die Bedingung einer panmiktischen Gesamtpopulation entfällt, d.h. wenn der Austausch genetischen Materials nicht mehr zwischen allen Individuen der Population, sondern zum Beispiel nur noch innerhalb von Teilpopulationen oder zwischen benachbarten Individuen möglich ist. Zwei unterschiedliche, frei verfügbare Software-Konzepte werden oft zur Parallelisierung von ähnlichen Optimierungsprozessen genutzt, indem Cluster aus mehreren Rechnern eines Netzwerks zu einem einzigen, virtuellen Parallelrechner mit verteiltem Speicher zusammengefasst werden. Zum einen handelt es sich um die Plattform Parallel Virtual Machine, kurz PVM, und zum anderen um das Software-Paket Message Passing Interface (MPI). Im Rahmen des Verbundvorhabens GuD-Kraftwerk, 500 MW auf einer Welle wurde am Fachgebiet Strömungsmaschinen der Universität Kassel bereits von [Ahmed 2001] eine parallele Optimierung auf Basis der Evolutionsstrategie aufgesetzt. Das heterogene Rechnersystem des Fachgebietes, bestehend aus unterschiedlichen Workstations und PCs, ließ sich durch die Software-Plattform PVM zusammenfassen. Aufgrund der unterschiedlichen Rechnerarchitekturen werden die Daten für die Kommunikation untereinander kodiert. Der Datentransfer wird zudem intensiv überwacht, so dass Änderungen im Rechnersystem durch z. B. den Ausfall eines Computers und dessen Ersetzen im laufenden Betrieb möglich sind. Diese Kontrollmöglichkeiten sind bei MPI nicht vorhanden, dessen Vorteile liegen in der Performance, wenn sehr viele Prozessoren eingebunden werden und damit der Aufwand für die Prozessverwaltung und die Kommunikation steigt. Daher wird es auf homogenen Clustern hauptsächlich eingesetzt. In der Optimierung kommt dem Aufbau der Zielfunktion bzw. Zielfunktionen eine besondere Bedeutung zu. Üblicherweise werden die Zielfunktionen als Minimierungsprobleme aufgebaut, so dass eine optimale Kombination der freigegebenen Parameter gefunden ist, wenn der Zielfunktionswert minimal ist. Die Zielfunktionen setzen sich aus mehreren Termen zusammen, die sich in Hauptziele und Nebenbedingungen einteilen lassen. Durch die Nebenbedingungen wird die Menge der zulässigen Lösungen eingeschränkt. Vordringliche Ziele in der aerodynamischen Optimierung von Verdichterschaufeln sind z. B. die Reduzierung der Verluste oder die Verbesserung der Wirkungsgrade bzw. des Arbeitsbereiches. Die Nebenbedingungen sind als Straffunktionen in den Aufbau der Zielfunktion eingebunden. Dadurch sollen z. B. aerodynamische Belastungen in der Optimierung berücksichtigt werden. Diese Zielfunktionsabschläge

17 1 Einleitung 3 lassen sich aus Kennzahlen der Gitterbelastung wie z. B. der Diffusionszahl, den DeHaller- Koeffizienten oder den Inzidenzen berechnen. Auch das Stromdichteverhältnis und die relative Eintrittsmachzahl können von Bedeutung sein. Durch die Integration konstruktiver und mechanischer Gesichtspunkte neben den aerodynamischen Aspekten werden multidisziplinäre Ziele verfolgt. Hierzu gehören u. a. die Festigkeit der Profile hinsichtlich der auf sie wirkenden Schaufelkräfte sowie das Schwingungsverhalten der Schaufeln. Es müssen geeignete Zielfunktionsabschläge modelliert werden, so dass kritische Resonanzen der Gitter vermieden werden können. Daneben können auch konstruktive Maßnahmen wie z. B. die problemlose Fertigung der optimierten Schaufeln berücksichtigt werden. Auch die Anforderungen durch den Einbau und die Wartung müssen erfüllt werden. Dazu sind insbesondere Bedingungen an die geometrischen Abmessungen der Schaufeln und der Einspannung zu definieren. Optimierungen mit stochastischen Methoden erfordern eine hohe Zahl an Zielfunktionsauswertungen, die in der Verdichterauslegung sehr hohen Aufwand verlangen. Daher ist es von Interesse, die Zahl der aufwendigen physikalischen Simulationen zu reduzieren. Es bieten sich verschiedene mathematische Methoden zur Approximation an. Zur Kategorie der Antwortflächen zählen beispielsweise polynomiale Antwortflächen, Kriging-Verfahren sowie Neuronale Netze. Diese Verfahren sind in der Optimierung nicht vorgegeben sondern werden innerhalb der Optimierung trainiert und dann im weiteren Verlauf zur Approximation der Simulationsrechnungen eingesetzt. Die verschiedenen Strategien lassen sich durch Studien hinsichtlich der Approximationsgüte, der Robustheit und ihres Potentials zur Beschleunigung des Optimierungsprozesses miteinander vergleichen. Mit heutigen Rechenleistungen lassen sich mehrstufige Axialverdichter im Rahmen des industriellen Auslegungsprozesses zeitnah nicht vollständig dreidimensional optimieren. In der Regel ist man auf einzelne Gitter oder Stufen beschränkt. Die Ein- und Austrittsbedingungen für die 3D-Rechnungen werden dabei den Daten des Ausgangsentwurfs entnommen und über die Optimierung konstant gehalten. Es stellt sich daher die Frage, welche Wechselwirkungen mit den übrigen strömungsführenden Bauteilen das Gesamtverhalten bei der Optimierung einzelner Komponenten beeinflussen und inwieweit sich die Randbedingungen der 3D-Rechnung verändern. Vor diesem Hintergrund wird in dieser Arbeit ein gekoppelter Strömungslöser vorgestellt, der sich aus einem 3D Navier-Stokes-Strömungslöser und einem Meridianströmungsverfahren zusammensetzt. Durch die Kopplung der beiden Strömungsrechnungen eröffnen sich weitere Optionen zum Aufbau der Zielfunktionen. Neben den Strömungsgrößen der optimierten Gitter können nun auch die das Gesamtverhalten beschreibenden Kenngrößen wie z. B. der Gesamtwirkungsgrad verwendet werden, um die einzelnen Entwürfe zu bewerten.

18 4 1 Einleitung 1.2 Stand der Wissenschaft und Technik Bis heute sind viele mathematische Verfahren zur Lösung von Optimierungsaufgaben in der Auslegung von Turbomaschinen entwickelt worden. Bereits in [Spiegel und Rist 1995] werden sieben verschiedene direkte Methoden und vier übergeordnete Strategien an unterschiedlichen Auslegungsbeispielen getestet und auf ihre Eignung geprüft. Hauptarbeitspunkte sind hier die Entwicklung der Bewertungsfunktion und die mathematische Formulierung der physikalischen Zusammenhänge. Unterteilen lassen sich die verschiedenen Optimierungsstrategien beispielsweise in deterministische und stochastische Verfahren. In [Müller-Töws 2000] und [Uelschen 2000] sind am Fachgebiet Strömungsmaschinen vergleichende Studien zum Einsatz von Optimierungsverfahren im Rahmen der aerodynamischen Auslegung durchgeführt worden. Die deterministischen Methoden stellen hohe Anforderungen an die Zielfunktion. Denn die Zielfunktion muss zur Bestimmung der für die Optimierungsrichtung benötigten Informationen über den Gradienten stetig differenzierbar sein. Manche Algorithmen wie das Newton- Verfahren erfordern darüber hinaus noch Krümmungsinformationen. Die größere Informationsbasis über die Zielfunktion kann im Vergleich zu stochastischen Methoden zu einer schnelleren Optimumsuche führen. Gauger beschreibt in [Gauger 2006] Adjungiertenverfahren zur aerodynamischen Formoptimierung, unterschieden in kontinuierliche und diskrete Ansätze. Über Adjungiertenverfahren lassen sich effizient die Ableitungen der Zielfunktionen der Optimierungsaufgabe bestimmen. Im Vergleich zu den herkömmlichen Finite-Differenzen-Verfahren hängt der numerische Aufwand nicht von der Anzahl der Entwurfsvariablen ab. Zur Auswertung sind bei Adjungiertenverfahren nur eine Strömungs- und eine adjungierte Strömungsberechnung notwendig. Gerade bei sehr vielen Entwurfsvariablen verringert sich der Rechenaufwand deutlich durch die drastische Reduzierung an numerisch aufwendigen Strömungsberechnungen. Ein kontinuierliches Adjungiertenverfahren wird in [Giannakoglou und Papadimitriou 2006] im Zusammenhang mit Beispielen aus dem Bereich der Aerodynamik vorgestellt. Die Suche nach dem Optimum wird hier mit dem Verfahren des steilsten Abstiegs durchgeführt, stellvertretend für gradientenbasierte Methoden. Bei [Gauger 2006] werden darüber hinaus auch so genannte One-Shot Verfahren erwähnt, bei denen die Optimierung in die Iteration des Strömungslösers miteingebunden ist. Im Vergleich zu der konventionellen Methode kann die Rechenzeit auf diese Weise stark reduziert werden. Bei [Wang und He 2008] wird ein kontinuierliches Adjungiertenverfahren zur Designoptimierung mehrstufiger Turbomaschinen propagiert. Es wird ein adjungiertes Mixing-Plane Verfahren vorgestellt, das auf die Arbeit von [Denton 1992] zurückgeht. So können die Gradienten einer einzelnen Zielfunktion leicht bestimmt werden, die sich aus der gewichteten Summierung mehrerer Ziele und Restriktionen zusammensetzt. Mittels des Gradientenverfahrens wird dann die Suche nach dem optimalen Design im Zielfunktionsraum fortgesetzt. Der Adjungiertenlöser und das Mixing-Plane Verfahren sind durch den Vergleich mit Ergebnissen aus Finite Diffe-

19 1 Einleitung 5 renzen Verfahren und einer Inversen Designstudie für 2D Fälle verifiziert worden. Basierend auf diesem Optimierungspaket werden in [Wang et al. 2008] erste Beispiele betrachtet. Es handelt sich dabei um den NASA Rotor 67 und eine transsonische Verdichterstufe, entwickelt vom DLR, sowie eine Betrachtung der ersten anderthalb Stufen sowie aller Stufen des ATC Verdichters. In allen Fällen wurde der isentrope Wirkungsgrad unter Einhaltung der gegebenen Einschränkungen verbessert. Diese vorgestellten Testfälle zeigen, dass der gewählte adjungierte Ansatz in der Verdichteroptimierung zu vielversprechenden Ergebnissen führen kann Stochastische Optimierungsstrategien Zwei verwandte Klassen stochastischer Optimierungsmethoden, die genetischen Algorithmen und die Evolutionsstrategien, werden in der Literatur unter dem Oberbegriff evolutionäre Algorithmen zusammengefasst. Mit ihrer Anwendung im Bereich aerodynamischen Designs beschäftigen sich zahlreiche Veröffentlichungen. Einen Überblick gibt hierzu z.b. [Périaux et al. 2000]. Die stochastischen Verfahren benötigen im Gegensatz zu deterministischen Methoden nur die Zielfunktionswerte. Die Abstiegsrichtung wird über Tastschritte in der näheren Umgebung ermittelt. Nebenbedingungen werden über Lagrange sche Multiplikatoren oder über Straffunktionen berücksichtigt, so dass eine Verletzung einer Nebenbedingung zu einem Abschlag in der Zielfunktion führt. In vergleichenden Studien zum Einsatz von Optimierungsverfahren für die aerothermodynamische Auslegung (siehe z.b. [Müller-Töws 2000], [Shahpar 2000] und [Sasaki et al. 2001]) haben sich stochastische Verfahren gegenüber den deterministischen Verfahren als besser geeignet gezeigt, insbesondere bei großen Parameteranzahlen. Bei gradientenbasierten Verfahren besteht die Gefahr, dass die Optimierung in einem lokalen Minimum hängen bleibt, während stochastische Methoden aufgrund der Zufallssteuerung aus diesen lokalen Minima wieder herausfinden können. Zudem bieten diese Verfahren Vorteile bei restringierten Entwurfsräumen und verrauschten Daten und besitzen einen hohen Parallelisierungsgrad. [Ahmed 2005] verdeutlicht beispielhaft den durch die Parallelisierung erzielten Geschwindigkeitsvorteil. Innerhalb der Evolutionären Algorithmen gibt es viele Erweiterungen und Weiterentwicklungen der von [Rechenberg 1994] und [Schwefel 1995] publizierten Evolutionsstrategie, dessen Grundprinzipien Mutation, Rekombination und Selektion sind. Price und Storn veröffentlichten bereits 1995 ihren Ansatz Differential Evolution (DE). Die entscheidende Idee von [Price et al. 2005] ist ein einfacher aber eleganter Mutationsoperator. Dabei wird der gewichtete Differenzvektor zweier zufällig aus der Population ausgewählter Parametersätze zu einem dritten Vektor hinzuaddiert. In vielen Beispielen, bei denen DE mit anderen Evolutionären Algorithmen und gradientenbasierten Optimierungsstrategien verglichen wird, wird die Effektivität der Strategie gezeigt. Es gibt zahlreiche Veröffentlichungen, die auf Differential Evolution basieren. So wird in [Rai 2006] eine Erweiterung für Mehr-Ziel Optimierungen vorgestellt, die trotz kleiner Populationsgrößen gute Näherungen liefert. Andere Erweiterungen der Evolutionären Algorith-

20 6 1 Einleitung men sind verteilte bzw. hierarchische Strukturen. [Giannakoglou und Karakasis 2006] geben dazu eine Übersicht. Um der realen Evolution näher zu kommen, wird die Population z. B. in mehrere Teilpopulationen aufgeteilt, die in festzulegenden Intervallen Informationen miteinander austauschen. Die Steuerung erfordert im Vergleich zu konventionellen Evolutionären Algorithmen mehr Parameter, die Strategie ist aber auch deutlich effizienter. Der Einsatz genetischer Algorithmen zum automatisierten 2D-Entwurf von Schaufelprofilen für Dampfturbinen wird in [Trigg et al. 1999] beschrieben. Der optimierte Entwurf transsonischer Profile mit Hilfe genetischer Algorithmen ist in [Oyama 2000] dargestellt. Die aerodynamische Bewertung erfolgt hier mit einem 3D-Navier-Stokes-Code. Die extrem zeitaufwändigen Strömungsberechnungen wurden auf einem hochleistungsfähigen Parallelrechner, dem Numerical Wind Tunnel (NAL, Japan) durchgeführt. Ziel der Untersuchungen von [Benini und Toffolo 2001] ist die Minimierung von Profilverlusten in Axialpumpen. Auch die Evolutionsstrategie ist erfolgreich zur Auslegung von Turbomaschinen verwendet worden. [Lawerenz 1995] und [Baier 1998] optimieren zum Beispiel die Geometrie des Ringraums bzw. der Schaufelprofile. Den Ansatz einer Mehrzielfunktionsmodellierung für den Profilentwurf wählen [Naujoks et al. 2000] sowie [Glas und Jaberg 2001]. Zur Maximierung des Wirkungsgrades einer mehrstufigen Axialturbine verwenden [Petrovic et al. 2000] eine Hybridmethode, die im Programmverlauf zwischen verschiedenen deterministischen und stochastischen Optimierungsalgorithmen hin- und herwechselt. Optimiert werden die Gehäusekontur sowie die Ein- und Austrittsbedingungen jedes Gitters Antwortflächen [Pierret und van den Braembussche 1999] betten zum Profilentwurf ein durch Simulationsrechnungen trainiertes Neuronales Netz als Approximation des aerodynamischen Modells in eine Optimierung ein. Diese Approximationen werden Antwortflächen (engl. Response Surfaces) genannt und können auf unterschiedlichen Ansätzen wie z.b. Neuronalen Netzen, Polynomen oder Kriging basieren, vgl. [Myers und Montgomery 2002,Emmerich et al. 2003]. Künstliche Neuronale Netze sind an die Funktionsweise des menschlichen Gehirns angelehnte informationsverarbeitende Systeme. Eine Übersicht der verschiedenen Typen Neuronaler Netze wird z. B. in [Zell 1997] gegeben. Zu den wichtigsten Eigenschaften Neuronaler Netze gehören ihre Lernfähigkeit, die Parallelität und ihre Robustheit aufgrund der verteilten Repräsentation von Information. Damit eignen sie sich vor allem zum Einsatz in der Mustererkennung und in der Klassifizierung, aber auch zur Prognose und Approximation. Zahlreiche Veröffentlichungen beschäftigen sich mit der Verwendung Neuronaler Netze als Antwortflächen in der Turbomaschinenauslegung, z.b. in der Entwicklung von Triebwerkskomponenten wie bei [Vaidyanathan et al. 2000]. Einen umfassenden Überblick geben [Shyy et al. 2001]. Im Vergleich zu polynomialen Antwortflächen haben Neuronale Netze Vorteile bzgl. der Größe des Approximationsbereichs, vor allem aber steigt beim polynomialen Ansatz der Rechenauf-

21 1 Einleitung 7 wand stark mit der Parameterzahl. Eine Kombination beider Varianten zur Formoptimierung einer Überschallturbine untersuchen [Papila et al. 2002]. Dabei wird durch das Neuronale Netz die Approximationsgüte der polynomialen Antwortfläche erhöht. Die große Zahl der von evolutionären Algorithmen benötigten Simulationsrechnungen zur Bestimmung des Zielfunktionswertes motiviert eine von [Giotis und Giannakoglou 1999] präsentierte Methode zum beschleunigten Profilentwurf. Dabei wird ein Neuronales Netz während des Optimierungslaufs zunächst trainiert und dann zur Vorhersage des Zielfunktionswerts verwendet. Die Antwortfläche ersetzt hier allerdings nicht die exakten Strömungsrechnungen, sondern verringert vielmehr ihre Anzahl auf die bezüglich der Prognose vielversprechendsten Parametersätze. Einen ähnlichen Ansatz verfolgt auch [Ahmed 2005]. Hier werden Neuronale Netze zur Vorhersage des Zielfunktionswertes genutzt, und nur die danach besten Member einer Generation werden an die Strömungssimulation weitergereicht. Ein weiteres, erfolgreich getestetes Approximationsverfahren ist das Kriging-Modell. Kriging liefert eine gute globale Approximation des Entwurfsraums. Um die Anzahl der Evaluationen innerhalb eines Genetischen Algorithmus zu verringern, koppeln [Chung und Alonso 2004] die Optimierungsstrategie mit dem Kriging-Verfahren, so dass die Funktionen effizient mit dem Approximationsverfahren ausgewertet werden können. Zudem wurde untersucht, inwieweit Gradienteninformationen aus dem Kriging-Modell die Optimierung beschleunigen können. Das Verfahren wurde von Chung und Alonso zur Optimierung des Designs eines Business Jets, der bei geringen supersonischen Mach-Zahlen operiert, erfolgreich getestet und validiert. Bei [Swoboda et al. 2008] wird das Kriging-Modell von [Lophaven et al. 2002] in einen Prozess für den aerodynamischen Schaufelentwurf integriert. Am Beispiel einer Leitschaufel aus einem Hochdruckverdichter wird die starke Konvergenzbeschleunigung gegenüber einer Optimierungsstrategie ohne jegliche Beschleunigungstechnik gezeigt. Das Kriging-Modell wird während des Verlaufs mehrmals aktualisiert Multidisziplinäre Optimierung Bereits in der Arbeit von [Ahmed und Lawerenz 2003] wird innerhalb der Optimierung die aerodynamische 2D-Strömungssimulation mit einem Schaufelvibrationsmodell gekoppelt, mit dessen Hilfe kritische Resonanzfrequenzen bestimmt werden können. Die Optimierung berücksichtigt charakteristische geometrische Parameter sowohl des Strömungskanals als auch der Schaufeln. Als Validierungsplattform wurde ein 15-stufiger Axialverdichter verwendet. Die jüngsten Fortschritte in verschiedenen Feldern der Simulationstechnik wie z. B. CFD oder Strukturmechanik erlauben einen multidisziplinären Ansatz bei der 3D-Optimierung von Verdichterschaufeln. [Pierret et al. 2007] koppeln daher den aerodynamischen Optimierungsprozess mit einer Finite-Element-Methode. Am NASA Rotor 67 als Testfall sind 35 freie Parameter und drei Betriebspunkte berücksichtigt. In die Optimierung gehen neben den aerodynamischen Größen, Wirkungsgrad, Druckverhältnis und Massenstrom auch aeromechanische

22 8 1 Einleitung Größen wie die von Mises Spannung und die Eigenfrequenzen ein. Detailliert wird das multidisziplinäre Optimierungssystem und seine Anwendung im Turbomaschinenbereich bei [Van den Braembussche 2008] beschrieben, das am von Kármán Institut entwickelt wurde. Der Kernoptimierer setzt sich aus einem genetischen Algorithmus und neuronalen Netze sowie Versuchsplänen zusammen. In der Optimierung werden mehrere Betriebspunkte berücksichtigt, damit die modifizierte Geometrie im gesamten Arbeitsbereich eine Verbesserung darstellt. Erweitert wird das System um eine FEM-Analyse, so dass die aeromechanischen Restriktionen bei der Optimumsuche mitberücksichtigt werden können. In [Siller et al. 2009] wird ebenfalls ein gekoppeltes Optimierungssystem beschrieben, das sowohl aerodynamische als auch aeromechanische Anforderungen berücksichtigt. Dabei werden die am DLR entwickelte Optimierungsumgebung zur aerodynamischen Kennfeldoptimierung von Verdichtern und Fans, AutoOpti, ein Kriging-Verfahren als Beschleunigungsverfahren sowie die frei verfügbare FEM-Software CalculiX eingesetzt. Als Testbeispiel dient eine Stufe eines hoch belasteten, transsonischen Axialverdichters, die sich aus einem Rotor und zwei Statoren zusammensetzt. Im Optimierungsbeispiel sind insgesamt 231 Parameter freigegeben, und es werden zudem vier verschiedene Betriebspunkte berücksichtigt. Obwohl die Anzahl der exakt ausgewerteten Zielfunktionen im Vergleich zur Zahl der freigegebenen Parameter und der zu berücksichtigenden Betriebspunkte gering ist, kann das Design der Verdichterstufe mit Bezug auf den Pumpgrenzabstand und die Arbeitskennlinie deutlich verbessert werden. Folglich zeigt sich, dass das hier implementierte Kriging-Modell einen deutlichen beschleunigenden Effekt auf die Optimierung hat Meridianströmungsverfahren Mit Hilfe von Throughflow-Methoden können Meridianströmungen berechnet werden. Die Verfahren basieren in der Regel auf der Kontinuitätsgleichung, der Energiegleichung mit Berücksichtigung dissipativer Vorgänge und dem vollständigen radialen Gleichgewicht (siehe [Cumpsty 2004]). Durch das von [Wu 1952] eingeführte Stromflächenkonzept kann die Strömung auch innerhalb der Beschaufelung berechnet werden. Das eigentlich dreidimensionale Strömungsproblem lässt sich auf ein zweidimensionales Problem reduzieren, wenn die Gestalt der Stromfläche bekannt ist. Oft werden daher zur Approximation der S2-Fläche zwischen Nabe und Gehäuse die Skelettlinien der Beschaufelung verwendet. Die Grundgleichungen werden mit Hilfe von Vereinfachungen so umgeformt, dass nur noch eine partielle DGL numerisch gelöst werden muss. Basierend auf diesem Ansatz sind viele Throughflow-Verfahren entwickelt worden. In [Hirsch und Denton 1981] findet sich eine umfangreiche Zusammenstellung dazugehöriger Arbeiten. Neben diesen Stromlinienkrümmungsverfahren und anderen Methoden [Waldtke 1995] existieren Verfahren, die auch auf den Eulergleichungen basieren. Bereits 1980 veröffentliche [Spurr 1980] ein Throughflow-Verfahren, das mit Hilfe eines Zeitschrittverfahrens die Eul-

23 1 Einleitung 9 ergleichungen löst. Das Verfahren erfordert die Schaufelgeometrie und ist daher nur für die Auswertung geeignet. [Damle et al. 1995] entwickelten einen Algorithmus, der sowohl für Analysen (Vorgabe des Strömungswinkels) als auch zur Auslegungen (Vorgabe des Dralls) geeignet ist und auf dem von [Jameson et al. 1981] entwickelten Runge-Kutta-Zeitschrittverfahren basiert. Der Algorithmus wurde erfolgreich für die rotationssymmetrische Meridianströmung eines Überschallaxialverdichters und einer transsonischen Turbine eingesetzt. Um die Berechnung mehrstufiger Maschinen realisieren zu können, müssen diese Meridianströmungsverfahren mit Korrelationen gekoppelt werden, die Entropiezunahme und Minderumlenkung der Gitter, abhängig von Geometrie und Aerodynamik, beschreiben. Für die Verluste, bestehend aus Profil-, Spalt-, Stoß- und Wandverlusten, existiert eine Vielzahl empirischer Modelle. Eine Zusammenstellung dieser Ansätze findet sich u. a. in [Watzlawick und Fottner 1992] und [Hübner und Fottner 1996]. Seit einigen Jahren wird den Gradienten in Umfangsrichtung zunehmend Beachtung geschenkt, um zu einer Beschreibung der Meridianströmung zu kommen, die der Realität besser entspricht. Durch Integration der Erhaltungsgleichungen in Umfangsrichtung und mit Hilfe von Mittelwerten der Strömungsgrößen kann ein zweidimensionales Gleichungssystem der repräsentativen Meridianströmung entwickelt werden. Durch diese Vorgehensweise entstehen in den Erhaltungsgleichungen Zusatzterme, die den Einfluss der dreidimensionalen Strömung wiedergeben. [Baralon 2000] und andere haben ein Verfahren entwickelt, das die reibungsbehaftete Strömung berücksichtigt. Es handelt sich um ein Finite-Volumen Verfahren, das mit einem expliziten Runge-Kutta-Schema gelöst wird. Neben einem Modell für die Schaufelkraft, wird eine die viskosen Einflüsse beschreibende Volumenkraft eingeführt. Die Viskosität folgt aus einem Ansatz für die Mischungsweglänge. Die Oberflächenreibung an Nabe und Gehäuse wird durch eine wandparallele Kraft berücksichtigt, deren Größe sich aus einer vorgegebenen Verteilung eines Reibungskoeffizienten ergibt. Eine gezielte Netzverfeinerung zur verbesserten Auflösung der Grenzschichten wird nicht vorgenommen. In einem weiteren Verfahren von [Sturmayr 2004], das die umfangsgemittelten Gleichungen löst, wird ein TVD-Schema eingesetzt. Wie auch bei [Baralon 2000] wird die Impulsgleichung in Umfangsrichtung auch im beschaufelten Bereich gelöst und die Schaufelkraft durch eine zusätzliche, zeitabhängige Gleichung berücksichtigt. Neben der Berechnung der transsonischen Strömung im NASA Rotor 67 ist ein vierstufiger Verdichter erfolgreich unter Zuhilfenahme eines Multigrid-Verfahrens berechnet worden. Weiterhin haben die Autoren die Auswirkung verschiedener Schaufelkraftmodelle auf die Stoßlagenverteilung im Gitter untersucht. Zur Berechnung der reibungsbehafteten Meridianströmung wird in [Lawerenz 1993] ein Verfahren erläutert, dessen Grundgleichungen aus einer Umfangsmittelung der dreidimensionalen Beziehungen entstehen. Die Zusatzterme werden jedoch in der praktischen Anwendung vernachlässigt. Gegenüber den reibungsfreien Meridianströmungsmodellen werden hier durch Berücksichtigung der Schubspannungen die Grenzschichten an Nabe und Gehäuse erfasst. Verluste aufgrund von Profilgrenzschichten, Sekundär- und Spaltströmungen werden mit Hilfe

24 10 1 Einleitung empirischer Korrelationen über eine entgegen der Strömung wirkende Schaufelkraft berücksichtigt. Mit dem Ziel, auch transsonische Axialverdichter analysieren zu können, wird in [Lawerenz et al. 2002] ein Throughflow-Verfahren vorgestellt, dessen strömungsmechanische Modellgleichungen sich aus den umfangsgemittelten Navier-Stokes-Gleichungen ergeben. Dadurch verringern sich die Unterschiede zu 3D-Navier-Stokes-Rechnungen in den Randzonen, da die Grenzschichten an Nabe und Gehäuse hier direkt berechnet werden. Im Hinblick auf transsonische Verhältnisse in den Frontstufen von Axialverdichtern wird das DGL-System mit Hilfe eines Zeitschrittverfahrens gelöst, das sich an dem von [Jameson et al. 1981] entwickelten Modell orientiert. Die viskosen Terme der Bilanzgleichungen werden berücksichtigt und damit auch die Seitenwandgrenzschichten aufgelöst. Die Eignung des Verfahrens wird u. a. am Beispiel des NASA Rotors 67 dargestellt. [Simon 2007] präsentiert in seiner Arbeit ebenfalls ein Throughflow-Verfahren, das auf den Navier-Stokes-Gleichungen basiert. Darüber hinaus wird ein Ansatz beschrieben, mit dessen Hilfe eine repräsentative Meridianströmungslösung eines instationären Strömungsvorgangs erzielt werden kann. Als Ergebnis erhält man ein (quasi-)stationäres Strömungsfeld, das die instationären Effekte unter Verwendung des Average-Passage Modells von [Adamczyk et al. 1986] gemittelt enthält. Die Verbesserungen werden am Beispiel eines einstufigen Verdichters gezeigt. Es kann nicht erwartet werden, dass Meridianströmungsverfahren die Details einer realen Strömung abbilden können. Ein wichtiger Bestandteil sind die eingebetteten empirischen Korrelationen, die einen entscheidenden Einfluss auf die Güte der Simulationsergebnisse haben. Mit geeigneten Korrelationen lassen sich jedoch die Resultate aus 3D CFD-Simulationen gut wiedergeben. So wird z. B. in [Casey und Robinson 2008] ein aktualisiertes Stromlinienkrümmungsverfahren für Radialmaschinen vorgestellt und an verschiedenen Beispielen verifiziert. Durch ihre Einfachheit und ihre Konvergenzgeschwindigkeiten im Sekundenbereich eignen sich Throughflow-Verfahren für die frühe Phase im Auslegungsprozess. Moderne 3D CFD-Verfahren für die spätere detaillierte Auslegung können sie hingegen nicht ersetzen. 1.3 Ziele und Inhalte dieser Arbeit Die Hauptaspekte dieser Arbeit liegen in der Optimierung von Axialverdichtern und der Reduzierung der dazu notwendigen exakten Zielfunktionsauswertungen. Durch das Analysieren und Berücksichtigen komplexer physikalischer Zusammenhänge ist das Design moderner Verdichterschaufeln mittlerweile sehr vielschichtig. Die geometrische Auslegung erfordert dabei eine hohe Zahl an Freiheitsgraden, so dass sich Optimierungsstrategien für die Designfindung anbieten. Im Gegensatz zur klassischen Auslegungsmethodik von Turbomaschinen verspricht der Einsatz automatischer Optimierungsmethoden,

25 1 Einleitung 11 Ideen für neue bisher nicht in Betracht gezogene Oberflächenformen zu finden, vorhandene Beschaufelungen zu verbessern, neben dem Auslegungspunkt weitere Betriebspunkte zu berücksichtigen, andere Fachdisziplinen einzubeziehen und durch die Integration in die industrielle Prozesskette Entwicklungszeit und -kosten zu sparen. Diese Aufgabenstellung führt zu einem auf der Evolutionsstrategie basierenden Optimierungsansatz. So lassen sich auf der Suche nach dem globalen Optimum lokale Minima einer gesuchten Zielfunktion überwinden. Durch einen modularen Aufbau werden zusätzliche Schnittstellen im Programm geschaffen, um eine wachsende Zahl an Forderungen aus weiteren Fachdisziplinen (z.b. Bauteilmechanik, Fertigung) später in die automatische Optimierung einbinden zu können. Antwortflächen Stochastische Verfahren wie die Evolutionsstrategie erfordern allerdings viele Zielfunktionsauswertungen und damit auch kosten- und zeitintensive CFD-Rechnungen. Daher werden verschiedene Beschleunigungsmethoden im Zusammenhang mit den Strömungslösern in den Optimierungsprozess eingebettet und getestet. Dazu zählen polynomiale Antwortflächen, Kriging-Verfahren und Neuronale Netze. Weiterhin sind die Einsatzmöglichkeiten verschiedener Versuchspläne in dem Zusammenhang untersucht worden. Um die Verfahren miteinander vergleichen zu können, werden in der Arbeit nicht nur mathematische Testfunktionen verwendet sondern auch mehrere 2D-Optimierungsbeispiele eingesetzt. Gekoppeltes Strömungslösersystem Ein Schwerpunkt dieser Arbeit ist das Einbeziehen des Gesamtverdichterverhaltens in die 3D- Optimierung. Die dreidimensionale Berechnung der Strömung in einem mehrstufigen Axialverdichter ist mit heutigen Rechnerleistungen zeitnah in einem Auslegungsprozess nicht möglich. Stattdessen werden die Verdichterschaufeln einzelner Gitter bzw. einer Stufe dreidimensional optimiert. Nur die Strömungsveränderungen der untersuchten Gitter werden dabei berücksichtigt und nicht Änderungen im Verhalten des gesamten Verdichters. Zur Beantwortung dieser Frage wird mit dieser Arbeit das Ziel verfolgt, einen gekoppelten Strömungslöser aufzubauen, der sich aus einem 3D-Navier-Stokes-Strömungslöser und einer reibungsfreien aber verlustbehafteten Throughflow-Rechnung des Gesamtverdichters zusammensetzt. Es sollen Kriterien und Vorschläge für die Aufstellung der Zielfunktionen, den Kernpunkt jeder programmtechnisch ausgeführten Optimierung, erarbeitet werden und das Potential des gekoppelten Lösers aufgezeigt werden.

26 12 2 Aerodynamische und mechanische Modelle 2 Aerodynamische und mechanische Modelle Bisherige dreidimensionale Optimierungen von Verdichterschaufeln verwenden für den Optimierungsprozess nur die Strömungsveränderungen der untersuchten Gitter. Daher können die Auswirkungen auf das Verhalten des gesamten Verdichters in der Optimierung nicht berücksichtigt werden. Bei mehrstufigen Verdichtern sollten die Wechselwirkungen jedoch nicht vernachlässigt werden. Den gesamten Verdichter dreidimensional zu rechnen, würde den Optimierungsprozess mit den heutigen Rechnerleistungen dagegen stark verzögern. Aus diesem Grund wird hier ein gekoppelter Strömungslöser eingesetzt, bestehend aus einem Meridianströmungsverfahren und einem 3D-Strömungslöser. In das Meridianströmungsverfahren wird zusätzlich ein Modell zur Schwingungsanalyse integriert. 2.1 Meridianströmungsverfahren Als Meridianströmungsverfahren kommen sowohl das Throughflow-Verfahren im FINE/Turbo- Paket der Firma Numeca in Frage als auch ein am Fachgebiet entwickeltes Druckkorrekturverfahren namens MAGELAN, das im Gegensatz zum Verfahren von Numeca auch in der Lage ist, die Grenzschichten aufzulösen (vgl. [Fay 2002]) MAGELAN Innerhalb des Druckkorrekturverfahrens werden die parabolisierten Navier-Stokes-Gleichungen verwendet. Der numerische Algorithmus orientiert sich an den Arbeiten von [Moore 1985] und [Rhie 1986]. Die allgemeine Vorgehensweise bei dem hier eingesetzten Verfahren besteht aus der Vorgabe einer Startverteilung des Druckfeldes, der Vorgabe der Randbedingungen am Eintritt sowie des Massenstroms, dem Bestimmen der stromabliegende Strömungsgrößen durch vorwärtsschreitende Integration der Bewegungsgleichungen und der Energiegleichung und der Korrektur des Druckfeldes zum Gewährleisten der Kontinuität.

27 2 Aerodynamische und mechanische Modelle 13 Netzgenerierung Strömungsrechnung - Ringraumgeometrie - Schaufelkanten (netgen) Berechnen des Strömungszustands am Eintritt Schaufeldaten, Viskosität, Spannungen der Ebene i Verdichtergeometrie, Netzparameter und Randbedingungen Ebene i Kontinuität erfüllen Berechnung der Geschwindigkeit mit vorgegebenem Druckfeld Globale Druckkorrektur aus Massenbilanz Lokale Druckkorrektur innerhalb der Ebene i Elliptische Druckkorrektur Datenaustausch und - konvertierung zwischen 2Dund 3D-Strömungsrechnungen Aktualisierung der Strömungsgrößen und Ausgabe der aerodynamischen Ergebnisse (Magelan) Bild 2.1: Struktur der Prozesskette mit dem Druckkorrekturverfahren MAGELAN Numerisches Modell Die Korrektur des Druckfeldes gliedert sich in drei Schritte. Zuerst wird zur Erhaltung des integralen Massenstroms das Druckniveau auf der nächsten Rechenebene in Strömungsrichtung korrigiert. Durch diese globale Korrektur wird ein zunächst vorhandener Massenstromdefekt beseitigt. Anschließend wird innerhalb der Ebene durch korrigierende Druckgradienten lokal ein radialer Ausgleich erzielt. Diese unphysikalischen Korrekturterme müssen jedoch wieder eliminiert werden. Aus diesem Grund schließt sich nach dem Durchlaufen des gesamten Ringraums eine elliptische Druckkorrektur an, durch die sich das Druckfeld weiter verbessert und die zusätzlichen Druckgradienten aus der parabolischen Korrektur verschwinden. Dieser Vorgang wird iterativ wiederholt, bis die Druckkorrekturen eine vorgegebene Fehlerschranke unterschreiten. Innerhalb der Prozesskette wird das Programm MAGELAN aufgerufen, nachdem das Rechennetz in der Meridianebene erzeugt wurde. Wesentliche Eingabegrößen sind neben dem aerothermodynamischen Zustand am Eintritt Parameter zur Bestimmung der Gittercharakteristik.

28 14 2 Aerodynamische und mechanische Modelle Aus ihnen werden mit Hilfe von Korrelationen die Verluste und Minderumlenkungen berechnet. Diese Daten liegen unter Umständen als Ergebnis der dreidimensionalen Rechnung direkt vor. Es folgt anschließend die vorwärtsschreitende Integration der Strömungsgleichungen mit dem oben erläuterten Druckkorrekturalgorithmus. Das Programm schließt mit der Berechnung und Ausgabe relevanter Gitter- und Maschinengrößen und den daraus abgeleiteten Zielfunktionstermen. Netzgenerierung Die Berechnung der umfangsgemittelten Meridianströmung stellt an die Diskretisierung Bedingungen, die von der Geometrie der Turbomaschine und dem Berechnungsvorgang diktiert werden: Um Fehler in den Geschwindigkeitsdreiecken zu vermeiden, decken sich die Netzlinien in Spannweitenrichtung mit den Gitterkanten. Die Parabolisierung der Bewegungsgleichungen erfordert in Verbindung mit der Diskretisierung ein Rechennetz, das näherungsweise den Stromlinien der Meridianströmung folgt. Rückströmungen können daher nicht erfasst werden und große Normalkomponenten führen unter Umständen zu Konvergenzproblemen. Die geometrischen Randbedingungen der Meridianströmung und die genannten Bedingungen für Berechnung der umfangsgemittelten Strömung führen zur Auswahl eines strukturierten Ansatzes der Netzgenerierung, weil die zweidimensionale Geometrie des Meridianschnittes relativ einfach ist und keine verwinkelten Strukturen aufweist. Im Netzgenerator wird der Ringraum in einem einzelnen Block mit einem strukturierten H-Netz diskretisiert. Durch die Stützstellen der Seitenwandkonturen können wahlweise Splines, Polygone oder gemischte Konturen gelegt werden. Die Übereinstimmung zwischen Gitterkanten und jeweils einer Netzlinie wird automatisch gewährleitstet. Der Netzgenerator erfordert nur die Angabe der axialen Koordinate des Gitterein- und -austritts, jeweils an der Nabenkontur und an der Gehäusekontur. Der Netzerzeugung ist ein elliptisches Transformationsverfahren (vgl. [Thompson et al. 1985]) nachgeschaltet. Dies liefert eine gleichmäßige Verteilung der Knoten. Zudem werden Knicke der Netzlinienschar in Merdianrichtung an den Gitterkanten vermieden, so dass sie in guter Näherung den Meridianstromlinien folgen. Die Qualität des Netzes kann zusätzlich durch manuelle Vorgaben verbessert werden. So lässt sich zum Beispiel die Verteilung der Knoten auf die Gitter und schaufelfreien Ringräume steuern. Daneben kann der seitenwandnahe Bereich gezielt durch zusätzliche Knoten in Spannweitenrichtung feiner aufgelöst werden.

29 2 Aerodynamische und mechanische Modelle 15 Verdichtergeometrie, Netzparameter und Randbedingungen Netzgenerierung - Ringraumgeometrie - Schaufelkanten (IGG) Strömungsrechnung Startlösung mit vorgegebenen Verlusten und Abströmwinkeln iterative Bestimmung der Verluste und Abströmwinkel Konvergenzkriterium Korrelationen für Minderumlenkung und Verlustbeiwerte aerodynamische Ergebnisse für alle Gitter des Verdichters (EURANUS) Datenaustausch und -konvertierung zwischen 2D- und 3D-Strömungsrechnungen Bild 2.2: Struktur der Prozesskette mit dem Throughflow-Modell in FINE/Turbo FINE/Turbo Das Throughflow-Verfahren von Numeca ist in den Strömungslöser EURANUS aus dem FI- NE/Turbo-Paket [Numeca 2006] integriert. Es basiert auf den zweidimensionalen stationären rotationssymmetrischen Euler-Gleichungen mit einem speziellen Modell für die Schaufelreihen. Das Verfahren ist vollständig in den 3D-Euler/Navier-Stokes Code integriert, so dass auch hybride 3D-Throughflow Euler-Modelle in einer Simulation berechnet werden können. Numerisches Modell In Euler-Throughflow Verfahren liegt der Schwerpunkt in der Modellierung der Umlenkung und der dazugehörigen Verteilung der Schaufelkräfte. Zur Berechnung der Strömung stehen neben Kontinuitäts- und Energiegleichung die drei Komponenten der Impulsbilanz zur Verfügung. Da in den Meridianströmungsverfahren Rotationssymmetrie vorausgesetzt wird, vereinfacht sich im schaufelfreien Bereich die Impulsgleichung in Umfangsrichtung auf die Erhaltung des Dralls. Innerhalb der Gitter enthält die Beziehung zusätzlich die Schaufelkraft, die sich aus der vorgegebenen Stromflächengeometrie berechnen lässt. In diesem Euler-Throughflow Verfahren wird nach der Idee von [Baralon et al. 1997] die Umfangskomponente durch eine zusätzliche zeitabhängige Gleichung beschrieben, in die der vorgegebene Abströmwinkel eingeht. Details finden sich auch in [Sturmayr 2004]. Die bei-

30 16 2 Aerodynamische und mechanische Modelle Block 2 x I Block 1 P1 P3 J K P2 z P1 - Inlet P2 - Blade P3 - Outlet y Bild 2.3: Netzgenerierung des Throughflow-Moduls in FINE/Turbo den anderen Komponenten können dann unter der Voraussetzung bestimmt werden, dass die Schaufelkraft orthogonal zur Stromfläche orientiert ist. Zur Abbildung der Verluste im Euler- Verfahren wird eine viskose Schaufelkraft eingeführt, die entgegen dem relativen Geschwindigkeitsvektor verläuft. Ihre Größe ist abhängig von den vorgegebenen Verlustkoeffizienten. In Bild 2.2 ist die Prozesskette für das Throughflow Verfahren dargestellt. An die Netzgenerierung schließt sich die Strömungsrechnung an. Für die Meridianrechnung müssen die Verlustverteilungen und Abströmwinkel der einzelnen Gitter bekannt sein. Im Rahmen der Optimierung sind diese Informationen zunächst nicht verfügbar, sondern es werden externe Korrelationen verwendet, die in Kapitel 2.2 erläutert sind. Ausgehend von einer Anfangsrechnung werden Minderumlenkungen und Verlustbeiwerte dabei über die Korrelationen iterativ bestimmt. Netzgenerierung Zunächst wird ein zweidimensionales Netz erzeugt. Wie bei der Netzgenerierung des Druckkorrekturverfahrens sind dabei Vorder- und Hinterkanten der Schaufeln Gitterlinien des Netzes. Für jede Schaufelreihe wird allerdings ein eigenes Netz erzeugt, das wiederum durch Vorderund Hinterkante in drei Bereiche (Inlet, Blade und Outlet) unterteilt ist. Durch eine Flächenrotation werden dann, wie in Bild 2.3 gezeigt, die Blöcke erzeugt. Da das Throughflow-Modell in den 3D-Strömungslöser EURANUS integriert ist, muss das

31 2 Aerodynamische und mechanische Modelle 17 zugehörige Rechennetz auch quasi dreidimensional sein. Daher besteht das Netz aus einer einzelnen Zelle in Umfangsrichtung, ohne die Schaufelgeometrie genau wiederzugeben. Der Öffnungswinkel der Zelle soll laut [Numeca 2006] im Bereich zwischen 0, 1 und 10 liegen. Die Rotationssymmetrie wird durch periodische Randbedingungen hergestellt. Innerhalb der Netzgenerierung mit IGG muss hierzu der Parameter Periodizität passend zum Öffnungswinkel der Zelle eingestellt werden und orientiert sich deshalb nicht an der Schaufelzahl. Für einen Öffnungswinkel der Zellen von z. B. 1 muss die Periodizität folglich auf 360 gesetzt werden, um einen Vollkreis (360 1 = 360 ) zu beschreiben. 2.2 Korrelationen zur Bestimmung der Verluste und Abströmwinkel In den Prozessketten beider Meridianströmungsverfahren werden die gleichen Korrelationsansätze für die Verlustbeiwerte und die Minderumlenkungen genutzt. In das Druckkorrekturverfahren sind sie integriert, wohingegen beim Throughflow Verfahren von Numeca die Korrelationen extern angekoppelt werden müssen. Zur Berechnung der Korrelationen werden neben den Strömungsdaten an Vorder- und Hinterkante der Schaufeln geometrische Daten wie Schaufeldicke, Sehnenlänge und Winkel der Skelettlinie an Vorder- und Hinterkante benötigt Verluste Durch Sekundärströmungen und Grenzschichten an Profilen und Seitenwänden entstehen Verluste in der Strömung. Die umfangsgemittelten, reibungsbehafteten Gleichungen können die in den Gittern entstehenden Verluste nur teilweise direkt erfassen. Um den Einfluss der Profilgrenzschicht und Sekundärströmungen wiederzugeben, sind zusätzliche Korrelationen erforderlich. Die Basis der meisten Verlustkorrelationen stammt aus Versuchen an ebenen Gittern. Daneben sind Korrelationen aus umfangreichen experimentellen Untersuchungen in Turbomaschinen entwickelt worden. In der Praxis hat sich zur Berechnung der Verluste eine separate Modellierung der einzelnen Anteile durchgesetzt, die dann in Verbindung mit einer Verteilung in Spannweitenrichtung superponiert werden. Für die Beschreibung der Verluste wird innerhalb des Verfahrens der Totaldruckverlustbeiwert ω = p t1 p t2 p t1 p 1 (2.1) herangezogen. Die Berechnung des integralen Totaldruckverlustes setzt sich zusammen aus Modellen für den Profilverlust ω P, die Seitenwandverluste ω W, die Sekundärverluste ω Sek und

32 18 2 Aerodynamische und mechanische Modelle die Spaltverluste ω Spalt. Die Profilverluste ω P werden aus einem inkompressiblen Anteil ω ink, einem kompressiblen Anteil ω kompr, einem durch Fehlanströmung entstehenden Anteil ω Inz und einem Stoßanteil ω Sto ω P = ω ink + ω kompr + ω Inz + ω Sto (2.2) gebildet. Die Höhe der Verluste ist zudem abhängig vom Strömungszustand. Reynoldszahleffekte werden durch folgende Korrekturen berücksichtigt, so dass für den Gesamtverlust folgt ( ) 0.2 ( ) ε Re Re ω = (ω ink + ω kompr + ω W ) + (ω Re Sek + ω Spalt) + ω Re Sto (2.3) Die Reynoldszahl Re = basiert auf der Reynoldszahl der NASA-Messungen. Der Exponent ε für die Reynoldszahlkorrektur der Sekundär- und Spaltverluste wird von [Grieb et al. 1975] mit ε = 0.06 angegeben. Die Korrelationen führen zu einem Totaldruckverlustbeiwert, der in eine äquivalente, der Strömung entgegen gerichtete Schaufelkraft umgewandelt werden muss. Die Umwandlung ist z. B. in [Fay 2002] ausführlich beschrieben. Im Rahmen der hier durchgeführten Untersuchungen werden die angesprochenen Verlustmechanismen mit Hilfe der im Folgenden beschriebenen Modelle erfasst. Demgegenüber bleiben Schubspannungen in den Bewegungsgleichungen unberücksichtigt. Profil- und Inzidenzverluste Die Profilverluste sowie eventuell auftretende Stoßverluste werden an Stützpunkten über dem gesamten Kanalquerschnitt berechnet. Es besteht die Möglichkeit, im Design- oder Off-Design- Status zu rechnen. Im Fall einer Auslegungsrechung stehen die endgültigen Profilwinkel noch nicht fest, und die Rechnung wird die Profilverluste für eine inzidenzfreie Anströmung bestimmen. Im Falle einer Nachrechnung ermittelt das Modell die Profilverluste für einen vorgegebenen Referenzanströmwinkel, bei dem die Verluste minimal sind. Die inkompressiblen Profilverluste werden nach [Çetin et al. 1987] und [Cumpsty 2004] berechnet. Der Verlustanteil ( δ2 ω ink = f l, t ) l,β 1,β 2 (2.4) ist dann eine Funktion der auf die Sehnenlänge bezogenen Impulsverlustdicke δ 2 /l, des Teilungsverhältnisses t/l sowie der An- und Abströmwinkel β 1 und β 2. Der Einfluss der Kompressibilität wird über die Beziehungen in [Çetin et al. 1987] als Funktion des inkompressiblen Verlustanteils ω ink sowie der Eintrittsmachzahl Ma 1 und der kritischen Machzahl Ma krit ω kompr = f (ω ink,ma 1,Ma krit ) (2.5)

33 2 Aerodynamische und mechanische Modelle 19 erfasst. Bei Eintrittsmachzahlen Ma 1 > 1 werden zusätzlich Verluste ω Sto durch einen senkrechten Verdichtungsstoß berücksichtigt. Zur Bestimmung der Inzidenzverluste wird der Arbeitsbereich eines Gitters durch die Vorgabe der Inzidenzwinkel definiert, bei dem sich die minimalen Profilverluste verdoppeln. Es findet dabei eine Differenzierung zwischen druck- und saugseitiger Fehlanströmung statt, und die Korrelation berücksichtigt eine Abhängigkeit dieser Winkel von der Machzahl. ω Inz = f (ω ink,i,ma 1 ). (2.6) Seitenwandverluste In den hier durchgeführten Strömungsrechnungen werden die Seitenwandgrenzschichten nicht aufgelöst. Daher müssen die Wandverluste durch Korrelationen berücksichtigt werden. Dem Ansatz von [Grieb et al. 1975] folgend, wird der Wandverlust über die Strömungsgeschwindigkeiten c 1 und c 2, die zugehörigen Strömungswinkel β 1 und β 2 sowie das Schaufelhöhen- Sehnenverhältnis h/l bestimmt ( ω W = f c 1,c 2,β 1,β 2, h ). (2.7) l Sekundärverluste Im Rahmen der Arbeit werden Sekundärverlustkorrelationen nach [Hübner und Fottner 1996] und [Bauermeister 1963] verwendet. Die Korrelationen beschreiben die Abhängigkeit von den Strömungsverhältnissen c u /c m und c 1 /c 2 sowie dem Schaufelhöhen-Sehnenverhältnis h/l ( cu ω Sek = f, c 1, h ). (2.8) c m c 2 l Spaltverluste Die Spaltverlustkorrelationen basieren auf den gleichen Strömungs- und Geometriegrößen wie die Korrelationen für die Sekundärverluste ( [Hübner und Fottner 1996]). Zusätzlich geht jedoch die Spaltweite τ in die Gleichung ( cu ω Spalt = f, c 1, h c m c 2 l, τ ) l ein. Mit steigender Spaltweite wachsen die Verluste linear. (2.9)

34 20 2 Aerodynamische und mechanische Modelle Minderumlenkung Die Umlenkung der Strömung entspricht nicht der Metallumlenkung. Daher können die Abströmwinkel nicht direkt berechnet werden, weil zunächst die Minderumlenkung bestimmt werden muss. Hier werden die Ergebnisse aus [Lieblein 1965] verwendet. Wie die Untersuchungen dort zeigen, kann der tatsächliche Deviationswinkel δ = δ + dδ (i i ) (2.10) di durch eine lineare Abweichung von der Referenzminderumlenkung δ ausreichend genau berechnet werden. Die Steigung dδ/di in Gl. (2.10) hängt von der Fehlanströmung der Schaufel ab. Für die Experimente wurden NACA65-Profile mit einem Dickenverhältnis von (d/l) = 0, 1 verwendet. Dies muss in die Berechnung der Referenzminderumlenkung und der Steigung einfließen. Die Referenzminderumlenkung für das Profil wird ebenfalls linear approximiert. i=i δ = K δsh K δt δ 0,10 + m σ=1φ σ b (2.11) Ausgehend von der Minderumlenkung des vergleichbaren ungewölbten Profils, das sich aus dem Produkt zweier Korrekturfaktoren K δsh und K δt mit der Minderumlenkung des untersuchten, ungewölbten NACA-Profils δ0,10 zusammensetzt, wird der Deviationswinkel δ entlang der Geraden mit der Steigung m σ=1 /σ b in Abhängigkeit der Metallumlenkung φ = β 1m β 2m berechnet. Der Korrekturfaktor K δsh beschreibt die Abweichung der Dickenverteilung des zu bewertenden Profils vom untersuchten NACA-Profil. Hier wird für den Koeffizienten der Wert K δsh = 1, 0 (2.12) angenommen. In K δt werden alle Korrekturen aufgrund einer anderen maximalen Dicke mit ( t l) K δt = 0, 1 (2.13) berücksichtigt. Die Werte für die Minderumlenkung δ 0,10 sind zudem den Kurvenverläufen in [Lieblein 1965] entnommen, in denen die Minderumlenkung des ungewölbten NACA- Profils δ 0,10 = f (σ,β 1 ) (2.14) in Abhängigkeit von der Überdeckung σ und dem Eintrittswinkel β 1 der Strömung dargestellt ist.

35 2 Aerodynamische und mechanische Modelle 21 Die Steigung der Geraden setzt sich nach [Lieblein 1965] zusammen aus dem Faktor m σ=1 für eine Überdeckung von σ = 1 und dem Überdeckungsexponenten b. In dieser Arbeit werden die Werte verwendet. Die Steigung der Deviationskurve aus Gl. (2.10) dδ di m σ=1 = 0, 2 (2.15) i=i b = 0, 9 (2.16) = f (σ,β 1 ) (2.17) lässt sich in [Lieblein 1965] in Abhängigkeit von der Überdeckung σ und dem Anströmwinkel β 1 graphisch bestimmen D Navier-Stokes Verfahren Zur Simulation der dreidimensionalen, turbulenten Strömung wird das Programm TRACE des DLR eingesetzt. Es handelt sich dabei um einen Reynolds-gemittelten Navier-Stokes Löser, der auf einem zellenzentriertem Finite-Volumen Verfahren basiert und ein k-ω-modell zur Bestimmung der turbulenten Viskosität nutzt. Nähere Angaben zum Verfahren finden sich z. B. in [Kügeler et al. 2001] und [Nürnberger 2004]. 2.4 Kopplung des dreidimensionalen Verfahrens mit Throughflow-Modellen In praxisnahen Optimierungen ist die Gesamtrechenzeit ein wesentlicher Faktor. Der Entwurf eines mehrstufigen Verdichters ist daher zurzeit auf der Basis dreidimensionaler Navier-Stokes Verfahren nicht möglich. Vor diesem Hintergrund wird in den hier durchgeführten Untersuchungen die dreidimensionale Rechnung auf ein Gitter beschränkt. Damit wird gleichzeitig die Zahl der Entwurfsparameter auf ein akzeptables Maß reduziert. Aufgrund der Wechselwirkung zwischen den einzelnen Schaufelreihen sowie dem daraus resultierenden Einfluss auf die aerodynamische Belastung der Nachbargitter und den Gesamtwirkungsgrad wird die dreidimensionale Einzelgitterrechnung in eine Meridianströmungsrechnung für den Gesamtverdichter integriert. Diese Througflow-Rechnung liefert nicht nur Informationen über die Veränderungen des Gesamtverdichterverhaltens sondern ermöglicht es zugleich, die Ein- und Austrittsbedingungen der 3D-Rechnung an die verschiedenen Geometrien der

36 22 2 Aerodynamische und mechanische Modelle Optimierung anzupassen. ( r ), ( r ) p( r3) p ( r ), Tt ( r ), ( r ), ( r ) t Bild 2.4: Austausch der Strömungsdaten zwischen der 3D- und 2D-Strömungsrechnung (Die Indizes 0 und 3 beziehen sich hier auf Ein- und Austrittsebene des 3D-Netzes.) Wenn die beiden Strömungslöser gekoppelt werden, so müssen Informationen untereinander ausgetauscht werden. In Bild 2.4 ist der Datenfluss schematisch dargestellt. Aus der Throughflow-Rechnung werden die 3D-Randbedingungen an Eintritt und Austritt ermittelt. Dazu sind am Eintritt die radialen Verteilungen des Totaldrucks p t (r 0 ), der Totaltemperatur T t (r 0 ) und der beiden Strömungswinkel α(r 0 ) und β(r 0 ) erforderlich. Am Austritt muss die radiale Verteilung des statischen Drucks p(r 3 ) vorgegeben werden. Im Gegenzug liefert die 3D-Rechnung Informationen über die Strömung innerhalb der dreidimensional berechneten Gitter, durch die dann die Korrelationen innerhalb der Throughflow-Rechnung ersetzt werden können. Dazu werden aus den Strömungsinformationen durch eine Umfangsmittelung die radialen Verteilungen der Gitterverluste ω(r 2 ) und Abströmwinkel β(r 2 ) bestimmt. Die Indizes 1 und 2 repräsentieren hier Vorder- und Hinterkante der Schaufeln. In Bild 2.5 ist die Prozesskette des gekoppelten Strömungslöser schematisch dargestellt. Ausgehend von einer gegebenen Verdichterkonfiguration werden zunächst die notwendigen Rechennetze für die beiden Strömungslöser aufgebaut. Anschließend erfolgt dann die Strömungssimulation in iterativer Form. Netzerzeugung Das Generieren der Netze wird in zwei Schritten durchgeführt. Die S1- und S2-Netze werden durch eine Erweiterung des Programms G3DMESH der Firma CFD Norway erzeugt, beschrie-

37 2 Aerodynamische und mechanische Modelle 23 Verdichtergeometrie S1 und S2 Netzgenerator 3D Netzgenerator Initiale MAGELAN-Rechnung Bestimmen der 3D-Randbedingungen MAGELAN Verwenden der 3D-RANS Daten für die 3D-Schaufeln anstelle der Korrelationen Aktualisieren der 3D-Randbedingungen TRACE Übergeben der 3D-Randbedingungen Bestimmen der Verluste und Abströmwinkel Postprocessing Bild 2.5: Schematische Darstellung der Kopplung zwischen der 3D- und 2D-Strömungsrechnung ben in [Weber 2004]. Aus den Informationen über die Geometrie wird zudem das Rechennetz für das Throughflow-Verfahren aufgebaut. Es muss beachtet werden, dass zum einen Vorderund Hinterkanten Netzlinien des S2m-Netzes der 3D-Netzgenerierung sind (vgl. Kapitel 2.1) und zum anderen die Ein- und Austrittsebene der 3D-Rechengebiete Netzlinien des Meridianströmungsnetzes sind. Der Austausch der Strömungsinformationen, wie er im vorherigen Abschnitt beschriebenen ist, wird so vereinfacht. Wenn das Erstellen der zweidimensionalen Rechennetze erfolgreich war, wird ausgehend von den S1- und S2-Netzen das 3D-Rechennetz unter Verwendung von G3DMESH erzeugt. Die existierenden S1-Rechennetze für den Nabenund Gehäuseverlauf sowie das vorhandene S2-Netz werden dabei automatisch zum vollständigen 3D-Netz verbunden.

38 24 2 Aerodynamische und mechanische Modelle Austausch der Strömungsdaten Der gekoppelte Strömungslöser startet mit einer Throughflow-Rechnung für den Gesamtverdichter, in der für alle Strömungsgitter die beschriebenen Korrelationen benutzt werden. Da im Vergleich zu 3D-Rechnungen diese sehr schnell ablaufen, lässt man die Throughflow Rechnungen auskonvergieren. Falls diese Anfangsrechnung erfolgreich ist, werden die 3D-Randbedingungen, in Bild 2.4 dargestellt, extrahiert und an die 3D-Rechnung übergeben. Mit diesen Randbedingungen wird die 3D-Rechnung gestartet. Nach einer festgelegten Iterationszahl wird die Rechnung angehalten und aus den Daten werden durch Umfangsmittelung die Informationen über Verluste und Abströmwinkel berechnet, wie es in Bild 2.4 gezeigt ist. Es schließt sich nun eine weitere Throughflow-Rechnung an. Anstelle der Korrelationen werden jetzt für das zu optimierende Gitter die Daten aus der 3D-Rechnung verwendet. Für die restlichen, nicht dreidimensional berechneten Gitter werden weiterhin die Korrelationen benutzt. Ist der Durchlauf erfolgreich, werden die Randbedingungen der 3D-Rechnung wieder aktualisiert und das dreidimensionale Navier-Stokes Verfahren fortgesetzt. Dieser Zyklus wiederholt sich so lange, bis sowohl die 3D-Rechnung konvergiert ist und die 3D-Randbedingungen sich nicht mehr verändern. In diesem Fall ist der gekoppelte Löser konvergiert. Falls jedoch ein Schritt in diesem iterativen Prozess fehlschlägt, gilt die gekoppelte Rechnung als nicht konvergiert Konvergenzverhalten des gekoppelten Strömungslösers Für die Bewertung des Konvergenzverhaltens müssen drei Aspekte betrachtet werden, die Konvergenzverläufe des 3D-Strömungslösers und des Meridianströmungslösers sowie die wechselseitige Beeinflussung beider Strömungslöser. In den durchgeführten Untersuchungen wurde der 3D-RANS-Strömungslöser TRACE mit dem Meridianströmungslöser MAGELAN verknüpft. Die im Folgenden beschriebenen Konvergenzkriterien und Einschränkungen beziehen sich daher auf die Kopplung dieser beiden Strömungslöser. Im dreidimensionalen Verfahren werden das mittlere Residuum, der isentrope Wirkungsgrad und die Massenstromdifferenz zwischen der Ein- und Austrittsebene als Konvergenzkriterien verwendet. Beim Merdianströmungslöser wird üblicherweise der Betrag der Druckkorrektur als Konvergenzindikator genutzt wird. In Voruntersuchungen zeigte sich jedoch, dass dieses Kriterium im gekoppelten Löser zu eng gefasst ist. Kleine Änderungen der Geometrie und die Übergabe der Strömungsinformationen aus der 3D-Rechnung haben bewirkt, dass viele Designvariationen als divergent gewertet wurden. Daher werden hier die Änderungen des Druckverhältnisses und des polytropen Wirkungsgrads in den letzten Iterationen als Kriterium verwendet. Wenn beide Größen innerhalb einer vorgegebenen Toleranz liegen, gilt die Rechnung als konvergiert. Das Konvergenzverhalten des gekoppelten Lösers ist in Bild 2.6 erläutert. Als Verdichter wurde hier der 3-stufige Axialverdichter der RWTH Aachen verwendet, und das Laufrad der 3. Stufe

39 2 Aerodynamische und mechanische Modelle 25 Massenstrom [kg/s] 14 13, ,5 (a) (b) 1 normierte Radius [-] 0,8 0,6 0,4 Eintritt Austritt Statischer Druck am Austritt 0, Statischer Druck [kpa] Zyklus 0 Zyklus 1 Zyklus 2 Zyklus 3 11, Anzahl der Iterationen [-] Bild 2.6: Konvergenzverhalten des gekoppelten Strömungslösers: (a) Massenstromverlauf in Ein- und Austrittsebene der 3D-Simulation; (b) radiale Verteilung des statischen Austrittsdrucks in der 3D-Rechnung wurde mit dem 3D Navier-Stokes Verfahren berechnet. Dargestellt ist in Bild 2.6a die Entwicklung des Massenstroms am Ein- und Austritt des dritten Rotors. Wie bereits erwähnt, startet der gekoppelte Löser mit einer Meridianströmungsrechnung, die auch die 3D-Randbedingungen liefert. Die Entwicklung des Eintrittsmassenstroms gestaltet sich sehr glatt und wird nicht durch geänderte Randbedingungen gestört. Beim Austrittsmassenstrom zeigen sich hingegen Sprünge im Verlauf, deren Ursache in der Aktualisierung der Randbedingungen liegt. Im kleineren Fenster (Bild 2.6b) ist für jede Iteration der radiale Verlauf des statischen Drucks am Austritt aufgetragen. Der große Spalt zwischen dem Ausgangsdaten und der ersten Aktualisierung resultiert aus dem Einsatz der 2D-Korrelationen in der initialen Meridianströmungsrechnung. Die Differenz zwischen der 2. und 3. Aktualisierung ist schon so gering, dass die beiden Linien sehr nah beieinander liegen. Nach knapp 1300 Iterationen konvergiert auch die 3D-Rechnung. Der Konvergenzverlauf ist folglich nicht langsamer als bei einzelnen 3D-Rechnungen ohne Kopplung.

40 26 2 Aerodynamische und mechanische Modelle 1 normierte Höhe r rel [-] 0,8 0,6 0,4 0,2 Originaldaten modifizierte Daten (a) (b) ,1 0,2 0,3 0,4 Abströmwinkel [ ] Verlustbeiwert [-] rel,rot3 Bild 2.7: Restriktionen für den Abströmwinkel (a) und die Verluste (b) innerhalb der Throughflow Rechnung Restriktionen für den Abströmwinkel und die Verluste innerhalb der Throughflow Rechnung Aufgrund der unterschiedlichen physikalischen Basis der beiden hier verwendeten CFD Strömungslöser können die umfangsgemittelten radialen Verteilungen für Abströmwinkel und Verluste nicht direkt in der Meridianrechnung verwendet werden. In der 3D Navier-Stokes Rechnung führen die Grenzschichten an Nabe und Gehäuse in Verbindung mit dem Druckgradienten in Umfangsrichtung zu ausgeprägten Sekundärströmungen, die im Gehäusebereich noch durch die Spaltströmung beeinflusst wird. Diese Vorgänge haben starke Gradienten in den Strömungsgrößen zur Folge, die in dem Throughflow-Modell nur begrenzt berücksichtigt werden können, da in diesem Verfahren Schubspannungen in den Impulsgleichungen nicht enthalten sind. Um Probleme mit extremen Änderungen des Abströmwinkels in den Randschichten zu vermeiden, wird bei der Übergabe der umfangsgemittelten Ergebnisse aus der 3D-Rechnung der Gradient des Abströmwinkels begrenzt. In Bild 2.7a ist die Änderung des Abströmwinkels im Vergleich zu den Daten der ursprünglichen Verteilung dargestellt. Die Verläufe unterscheiden sich nur im Blattspitzenbereich.

41 2 Aerodynamische und mechanische Modelle 27 Eine ähnliche Situation ergibt sich auch hinsichtlich des Totaldruckverlustbeiwertes, der im seitenwandnahen Bereich sehr groß wird. Beim direkten Übertragen dieser Werte in eine äquivalente Widerstandskraft in der Throughflow Rechnung führt dies unter Umständen zu Ablöseerscheinungen, die einen Abbruch der Rechnung zur Folge haben. Aufgrund der fehlenden Schubspannungen im Meridianströmungsmodell müssen daher die Totaldruckverluste ebenfalls limitiert werden. In den durchgeführten Untersuchungen wurde ein Maximalwert von ω pt = 0, 40 benutzt. In Bild 2.7b ist exemplarisch die radiale Verteilung des umfangsgemittelten Totaldruckverlustes als Ergebnis der 3D-Rechnung zusammen mit dem Grenzwert dargestellt.

42 28 3 Optimierungsstrategie Evolutionärer Algorithmus 3 Optimierungsstrategie Evolutionärer Algorithmus Die Optimierung technischer Systeme ist ein klassisches Anwendungsgebiet der Mathematik. Der Begriff Optimierung umfasst dabei eine Vielzahl unterschiedlicher Ansätze und der dahinter stehenden mathematischen Verfahren. Die Methoden können in unterschiedlicher Weise klassifiziert werden. So lassen sie sich in Verfahren zur Optimierung von Parametern bzw. Funktionen unterteilen. Weiterhin können sie in deterministische und stochastische Algorithmen unterschieden werden. Die Auswahl der Optimierungsstrategie hängt vom zugrunde liegenden technischen Problem ab. Das Verfahren sollte zuverlässig, schnell und möglichst genau zu einer Lösung führen. Zudem sollte das Verfahren robust sein, d. h. unempfindlich gegenüber einem gestörten Signal, und lokale Extrema überwinden können. Aus diesen Gründen und in Verbindung mit den bestehenden Erfahrungen wurde für den optimierten Entwurf von Verdichterschaufeln die Evolutionsstrategie ausgewählt. Am Fachgebiet Strömungsmaschinen der Universität Kassel wurde unter anderem im Rahmen des Verbundvorhabens GuD-Kraftwerk, 500 MW auf einer Welle eine derartige Strategie zur Optimierung der Meridianströmung von [Ahmed 2001] aufgebaut. Diese Ergebnisse und Erfahrungen wurden innerhalb des Verbundvorhabens COOREFF mit dem Institut für Antriebstechnik des DLR ausgetauscht und flossen in die Optimierer AutoOpti des DLR ein, die in [Voß et al. 2006] beschrieben ist und deren Kern die Evolutionsstrategie bildet. Innerhalb der Evolutionsstrategie entspricht jeder Verdichterentwurf einem Individuum der Population, das seinen Parametersatz mit dem anderer Individuen rekombinieren und an Nachkommen weitergeben kann. Ein solches Individuum wird auch als Member bezeichnet. Im weiteren Verlauf entsprechen sich die Begriffe Individuum, Parametersatz und Member in ihrer Bedeutung. 3.1 Ein-Ziel-Optimierung(Single-Objective) Die Evolutionsstrategie geht auf [Rechenberg 1994] zurück und ist nach dem Vorbild der Natur angelegt. Wie bereits erwähnt, handelt es sich um eine stochastische Suchmethode, die

43 3 Optimierungsstrategie Evolutionärer Algorithmus Legende Parametersatz eines Individuums Gesamtpopulation dieser Generation zufällige Auswahl unter den Eltern Q Q Q Q Q Mutation Q Q Q Evaluation der Zielfunktion Selektion der Eltern für die nächste Generation Bild 3.1: Das Prinzip der allgemeinen Evolutionsstrategie, [Ahmed 2005] keine Gradienteninformationen benötigt. Über den zufallsgesteuerten Ansatz der Methode ist es möglich, bei der Suche nach dem globalen Minimum aus lokalen Minima wieder herauszufinden. Das Verfahren ist unempfindlich gegenüber Störungen der Zielfunktion. Der große Nachteil stochastischer Verfahren liegt in der durchschnittlich hohen Anzahl an benötigten Zielfunktionsaufrufen. Es kann folglich sehr lange dauern, bis das Optimum bzw. eine gute Lösung gefunden ist. Im Allgemeinen werden diese Verfahren in folgenden Fällen eingesetzt keine bzw. nur unzureichende Informationen über die Topologie des Lösungsraums und die Ableitungen der Zielfunktion sehr hohe Zahl an Optimierungsparametern lokale Optima, in denen schnellere Verfahren wie z. B. Gradientenverfahren hängen bleiben würden gestörte bzw. rauhe Zielfunktionen Für einen Überblick sei auf [Bäck und Schwefel 1996] verwiesen. Die allgemeine (µ/, λ)-evolutionsstrategie ist in Bild 3.1 dargestellt. In Anlehnung an die biologische Evolution basiert die Methode auf einem Generationenmodell, in dem gute Eigenschaften an die nachfolgende Generation vererbt werden. Dabei wird die Zahl der Eltern einer Generation mit µ bezeichnet und die Zahl der Nachkommen mit λ, die größer als die Zahl der Eltern ist. Zum Erzeugen eines Nachkommen werden aus den Eltern Eltern ausgewählt. Bild 3.1 zeigt demnach eine 2/1, 5-Strategie. Von den µ = 2 Eltern werden jeweils immer = 1 Individuen ausgewählt. Durch Mutation der einzelnen Parameter werden die λ = 5 neuen Individuen erzeugt. Aus den Nachkommen werden im Anschluss die µ = 2 besten Individuen

44 30 3 Optimierungsstrategie Evolutionärer Algorithmus als Eltern gewählt, und der Zyklus wiederholt sich für die nächste Generation. Wenn die einzelnen Nachkommen nicht nur durch Mutation eines einzelnen Parametersatzes erzeugt werden sondern mit Hilfe mehrerer, zufällig ausgewählter Eltern gebildet werden, verbessert sich nach [Hammel und Bäck 1994] die Konvergenzgeschwindigkeit der Optimierung. In der biologischen Evolution wird in diesem Fall vom Prinzip der Rekombination gesprochen. Für jeden einzelnen Parameter des neuen Nachkommens wird aus der Zahl der potentiellen Kandidaten zufällig der Parameter eines Individuums kopiert. So setzt sich dann durch Kombination der Eltern ein neuer Nachkomme zusammen. Alternativ können die Parameter auch durch Mittelung der zugehörigen Parameter aller ausgewählten Eltern erzeugt werden. In den Arbeiten von [Ahmed 2005] sind eingehende Untersuchungen mit der allgemeinen Evolutionsstrategie durchgeführt worden. Eine Abwandlung dieses Verfahrens wird Crossover genannt. Hier werden die Eigenschaften zweier Eltern zufällig mit einander kombiniert, um einen neuen Parametersatz zu erzeugen. An die Rekombination schließt sich eine Mutation der Parameter an. Das Generationenprinzip der (µ/, λ)-strategie kann dazu führen, dass Zielfunktionswerte einer Generation gegenüber ihrer Elterngeneration schlechter sind. Durch die gewollte Verschlechterung der Zwischenergebnisse wird eine größere Robustheit des Verfahrens erwartet. Der Optimierer soll besser aus lokalen Optima wieder herausfinden können. Andere Strategien verfolgen das Populationsprinzip. Zur Selektion der nächsten Elterngeneration werden nicht nur die neu erzeugten λ Individuen betrachtet sondern auch die Eltern, so dass gute Zwischenlösungen mitgenommen werden. Die Konvergenzgeschwindigkeit steht dabei im Vordergrund. Beim von Price und Storn Mitte der 90er Jahre entwickelten Verfahren Differential Evolution (DE) handelt es sich um eine populationsbasierte Evolutionsstrategie. Verschiedene vergleichende Untersuchungen wie [Storn und Price 1996] zeigen die guten Konvergenzeigenschaften des Verfahrens gegenüber anderen Evolutionären Algorithmen und gradientenbasierten Optimierungsstrategien. Daneben weisen [Price et al. 2005] auf die einfache Struktur und die leichte Bedienbarkeit des Verfahrens hin. In Anwendungen aus der Designoptimierung wie in [Rai 2006] ist der Algorithmus bereits erfolgreich eingesetzt worden. Die Grundidee bei DE liegt in der Art, wie neue Versuchsparametersätze generiert werden. Dabei wird der gewichtete Differenzvektor zweier zufällig aus der Population ausgewählter Parametersätze zu einem dritten Vektor hinzuaddiert. Am Beispiel der Parametersätze der n-ten Generation wird das Prinzip von DE erläutert. Mit x j,n = [x 1,j,n,x 2,j,n,...,x D,j,n ] (3.1) wird der j-te Member der Generation n bezeichnet. Das Problem umfasst D Entwurfsvariablen. Aus der Population werden über einen Zufallsgenerator drei vom j-ten Member verschiedene Individuen x a,n, x b,n und x c,n ausgewählt. Aus diesen drei Parametersätzen werden die Elemente

45 3 Optimierungsstrategie Evolutionärer Algorithmus 31 des Versuchsvektors y mit y i = x i,a,n + f i (x i,b,n x i,c,n ) (3.2) berechnet. Dabei ist f ein dem Problem angepasster Vektor. Im vorliegenden Fall werden die einzelnen Komponenten f i über einen Zufallsgenerator zwischen 0 und 1 bestimmt. Der potentielle Kandidatenvektor z wird durch die Rekombination von x j,n und y z i = { y i für r i C DE x i,j,n für r i > C DE (3.3) generiert. r i steht dabei für eine normal verteilte Zufallszahl zwischen 0 und 1 für den i- ten Parameter, und die Konstante C DE ist ebenfalls als Schranke im Bereich zwischen 0 und 1 festzulegen. In der vorliegenden Arbeit ist die Konstante auf C DE = 0, 6 gesetzt. Der potentielle neue Kandidat wird nur in die neue Generation aufgenommen, wenn der zugehörige Zielfunktionswert Q( z) besser ist als Q( x j,n ) { x j,n+1 = z falls Q( z) Q( x j,n ) x j,n falls Q( z) > Q( x j,n ). (3.4) Eine Abwandlung von DE wird Gradient Shot genannt. Die beiden Verfahren unterscheiden sich nur in der Berechnung des Versuchsvektors y. Im Gegensatz zu Gl. (3.2) wird die Differenz nicht zu einem dritten Vektor x a,n hinzu addiert sondern zu einem der beiden Vektoren. So folgt für die einzelnen Elemente y i = x i,b,n + f i (x i,b,n x i,c,n ). (3.5) Die weitere Bestimmung des potentiellen Parametersatzes verläuft analog zu Gl. (3.3) und Gl. (3.4). Die Methoden wurden von [Price et al. 2005] für Ein-Ziel-Optimierungen (SO) entwickelt und getestet. 3.2 Mehr-Ziel-Optimierung(Multi-Objective) In der Verdichterauslegung müssen teilweise konträre Ziele verfolgt werden. Wenn dieser komplexe Zusammenhang in einer Einzeloptimierung (SO) berücksichtigt werden soll, müssen die einzelnen Aspekte gegeneinander gewichtet und zusammengefasst werden. Die Abschätzung muss folglich vor dem Start der Optimierung erfolgen. Der Ansatz der Mehr-Ziel-Optimierung (MO) bietet die Möglichkeit, mehrere Ziele (z. B. Wirkungsgrad und Leistung) zu verfolgen. Dadurch kann z. B. die Abstimmung verschiedener Entwicklungsziele durch alle beteiligten Fachabteilungen erleichtert werden. Nach dem Abschluss der Optimierung wird aus der Menge optimaler Lösungen eine Konfiguration als Kompromiss ausgewählt. Evolutionäre Algorithmen

46 32 3 Optimierungsstrategie Evolutionärer Algorithmus Fitness 2 ( a) Fitness 2 ( b) PR 4 PR 5 PR 3 PR 1 PR 2 PR 1 Fitness 1 Fitness 1 Bild 3.2: Konzepte zur Bestimmung des Pareto-Ranges (PR): (a) Bestimmung über Anzahl der dominierenden Member; (b) Bestimmung über Frontverläufe gelten als besonders geeignet für MO, da sie im Verlauf der Optimierung viele Parametersätze erzeugen und somit eine große Datenbasis für die Bestimmung der Paretofront liefern. Die im vorherigen Abschnitt vorgestellten DE-Methoden lassen sich auch sehr gut bei MO- Problemen anwenden. [Abbas et al. 2001] veröffentlichten als erste eine Erweiterung für DE zum Einsatz bei MO. Die Erweiterung basiert auf einem Pareto-Ansatz, mit dessen Hilfe mehrere nicht dominierte Parametersätze als optimale Lösungen erzeugt werden. Eine ähnliche Strategie wird bei [Madavan 2002] verwendet. Hinter dem Prinzip der Paretofront steckt ein Bewertungskriterium der Parametersätze in der Optimierung. Als Pareto-optimal bzw. nicht dominiert werden bei einem MO-Problem Lösungen betrachtet, wenn der Wert einer der Zielfunktionen nicht verbessert werden kann, ohne mindestens einen anderen Zielfunktionswert zu verschlechtern. Wird die Lösung also von keiner anderen Lösung dominiert, so ist sie als Pareto-optimal zu bezeichnen. Die Menge aller Pareto-optimalen Lösungen wird als Paretofront bezeichnet. MO auf der Basis von evolutionären Algorithmen verwenden innerhalb der Selektionsphase das Dominanzkriterium. Unter den Pareto-optimalen Parametersätzen wird die Auswahl so getroffen, dass die Lösungen möglichst breit gestreut auf der Paretofront liegen. Die Unterteilung aller Parametersätze erfolgt entsprechend ihres Pareto-Ranges. Dabei wird den Pareto-optimalen Lösungen der Pareto-Rang 1 zugewiesen. Für die Bestimmung des Pareto-Ranges der dominierten Member gibt es zwei verschiedene Methoden. Zum einen kann der Rang über die Zahl der Individuen bestimmt werden, die diesen dominieren bzw. in allen Zielfunktionswerten besser sind. Diese Bewertung ist allerdings stark abhängig von der Verteilung der Parametersätze im Zielfunktionsraum. In Bereichen mit hoher Dichte an Membern können diese, wie in Bild 3.2a dargestellt, einen schlechteren Pareto-Rang aufweisen als Pa-

47 3 Optimierungsstrategie Evolutionärer Algorithmus 33 rametersätze, die sich in Gebieten mit einer geringeren Dichte befinden, obwohl sie prinzipiell näher an der Paretofront liegen. Ein alternatives Konzept basiert auf dem Frontverlauf (vgl. Bild 3.2b). Alle Pareto-optimalen Lösungen werden zunächst bestimmt und erhalten Pareto- Rang 1. Danach werden sie aus der Datenbasis herausgenommen. Für die verbleibende Datenmenge werden dann wieder die optimalen Lösungen ermittelt, und ihnen wird der Pareto-Rang 2 zugewiesen. Dieser Prozess wird immer weiter wiederholt, so dass sich hinter der eigentlichen Paretofront weitere Fronten ergeben. Für den schwarz markierten Member zeigt sich, dass beide Methoden unterschiedliche Pareto-Ränge ermitteln. Wenn im grau schattierten Bereich weitere Member liegen würden, würde sich der Pareto-Rang in Bild 3.2a auch erhöhen. Im zweiten Fall erhöht sich der Pareto-Rang nur, wenn sich die Frontverläufe verändern. Die Methode der Paretofronten liefert daher bessere Aussagen über den Stellenwert eines Members in der Optimierung und wird daher auch im weiteren Verlauf benutzt. Für MO-Optimierungen ist es sehr schwer, ein automatisches Abbruchkriterium zu definieren. Aufgrund mehrerer Optimierungsziele gibt es nicht nur eine optimale Lösung sondern eine Vielzahl nicht dominierter Parametersätze. Selbst beim Erreichen der optimalen Paretofront können daher immer neue Parametersätze vom Pareto-Rang 1 produziert werden. Der Optimierungsverlauf muss immer wieder überwacht werden, um Aussagen über das Konvergenzverhalten zu treffen und die Optimierung gegebenenfalls zu stoppen. Eine einfache Methode, die im Code auch implementiert ist, ist die Vorgabe der maximalen Zahl konvergierter Lösungen. 3.3 Beschleunigungsmethoden innerhalb des evolutionären Algorithmus Durch die parallele Berechnung der Zielfunktionen lässt sich die Rechenzeit des Optimierungsprozesses beschleunigen. Die Auswertung der Zielfunktionswerte wird von einem Hauptprozess verwaltet, so dass eine sternförmige Prozessstruktur wie in Bild 3.3 genutzt wird. Der Sterntyp ist aufgrund seiner hierarchisch konzipierten Kommunikation unempfindlicher gegenüber Ausfällen von Unterprozessen als andere Prozessstrukturen wie z. B. der ringförmige Aufbau. Durch die Erhöhung der Prozessorzahl kann der Rechenaufwand reduziert werden, wenn der damit gekoppelte erhöhte Overhead durch die Prozessverwaltung und vor allem durch den Datentransfer nicht zunimmt. In der Evolutionsstrategie hängt die maximal nutzbare Prozessorzahl von der Anzahl der Member ab, die gleichzeitig ausgewertet werden können. Wenn die Generationen aus 10 Membern bestehen, können neben dem Hauptprozess nur höchstens 10 weitere Prozesse laufen. Von [Voß und Nicke 2008] sind weitere Methoden zur Beschleunigung in den Optimierer integeriert worden. Deren Besonderheiten werden im Folgenden kurz erläutert.

48 34 3 Optimierungsstrategie Evolutionärer Algorithmus Bild 3.3: Sternförmige Prozessstruktur Asynchrone Optimierung In der klassischen Evolutionsstrategie wie in [Rechenberg 1994] wird die nächste Generation erst erzeugt, wenn alle Member der vorherigen ausgewertet sind. Im ungünstigsten Fall kann es passieren, dass nur noch die Evaluierung eines Members auf einem Prozess läuft, während alle anderen Prozesse warten müssen. Um diese Probleme zu vermeiden, wird hier das Konzept einer asynchronen Optimierung verfolgt. Das Prinzip der Generationen wird damit ganz aufgegeben. Es werden alle analysierten Parametersätze in einer zentralen Datenbank abgelegt, so dass kein Individuum mehrmals gerechnet werden muss. Immer wenn ein Prozess einen Zielfunktionswert an den Hauptprozess meldet, wird die Datenbasis aktualisiert. Ein nach einem der vorher beschriebenen Verfahren erzeugter Parametersatz wird dann an den Prozess zurückgesendet. Im Vergleich zur Dauer einer Strömungsrechnung wird die Erzeugung eines neuen Members überaus schnell durchgeführt. Die Auslastung aller Prozessoren wird dadurch gewährleistet. Es entfällt ein Überwachungskonzept für die Verteilung der Member auf die einzelnen Prozessoren. Zentrale Datenbank Die zentrale Datenbank bietet mehrere Vorteile. Jede ausgewählte Parameterkombination wird nur einmal berechnet. Wenn die Evolutionsstrategie ein Member mit einer bereits ausgewerteten Kombination vorschlägt, wird der Member verworfen und ein neuer Member bestimmt. Im Vergleich zu klassischen Evolutionsalgorithmen entfällt so das Konvergenzkriterium sich verkleinernder Mutationsschrittweiten. Die Entwicklung der Optimierung lässt sich allerdings über die Datenbasis verfolgen und kann jederzeit durch den Anwender abgebrochen werden, ohne dass die aktuellen Ergebnisse verloren gehen. Weiterhin kann die Datenbank für eine auf ihr aufbauende Optimierung als Startverteilung dienen.

49 3 Optimierungsstrategie Evolutionärer Algorithmus 35 Dynamische Parametertiefe Jeder Parameter eines Members besitzt mehrere Attribute wie den Parameterwert als reelle Zahl und diskreten Wert, die zugehörige Varianz, die der zugehörigen Mutationsschrittweite entspricht, und Ober- und Untergrenzen zum Festlegen des Intervallbereichs. Neben der reellwertigen Darstellung gehört folglich zu jedem Parameter eine ganze Zahl. Der Parameterraum ist in diskrete Werte unterteilt und die Parametertiefe wird über eine Variable gesteuert. So bedeutet z. B. eine Parametertiefe von 4, dass der Parameterraum in Stützstellen unterteilt wird. Die zunächst niedrige Parametertiefe wird im Verlaufe der Optimierung sukzessive erhöht. Mit jeder Veränderung der Parametertiefe müssen die zugehörigen ganzen Zahlen der Parameter aller Individuen angepasst werden. Durch die anfänglich grobe Rasterung soll eine möglichst gute und gleichmäßige Abdeckung des Parameterraums erreicht werden. Abspeichern wichtige Strömungsgrößen In der zentralen Datenbank werden neben den Parameter- und Zielfunktionswerten auch wichtige Strömungsgrößen wie z. B. Gesamtdruckverhältnis, Gesamtwirkungsgrad und Massenstrom sowie Stufen- und Gittergrößen abgelegt. Der Speicherbedarf der Datenbank kann sich dadurch erheblich vergrößern. Die Vorteile liegen jedoch in der Möglichkeit, Zielfunktionen in der laufenden Optimierung zu modifizieren. Wenn z. B. im Verlauf deutlich wird, dass aufgrund der verwendeten Zielfunktionen die Optimierung in Problemzonen läuft und die Funktionen verändert werden müssen, kann die Optimierung unterbrochen werden. Nach der Modifikation werden zunächst die Zielfunktionen der bereits berechneten Datenpunkte neu ermittelt und in der Datenbasis überschrieben. Die Optimierung wird dann auf dieser Basis fortgesetzt. Gerade bei aufwendigen 3D-Simulationen ist es sinnvoll, die Optimierung nicht neu zu starten. 3.4 Implementierung Als Software-Plattform wird hier das Programmpaket Message Passing Interface (MPI) verwendet, das die Rechner eines Clusters zu einem einzigen, virtuellen Parallelrechner mit verteiltem und/oder gemeinsamem Speicher zusammenfasst. MPI hat seine Vorteile in der Leistung und Effizienz, wenn sehr viele Prozessoren eingebunden werden und damit der Aufwand für die Prozessverwaltung und die Kommunikation steigt. Es wird ein homogenes Netzwerk vorausgesetzt, und die Zahl der eingebundenen Prozessoren muss zu Beginn der Optimierung festgelegt werden. Der Ausfall einzelner Prozesse kann nicht durch einen anderen Prozess kompensiert werden.

50 36 3 Optimierungsstrategie Evolutionärer Algorithmus Parallelisierbare Komponenten der sequentiellen Evolutionsstrategie sind neben der Bestimmung der Zielfunktion z.b. die Generierung von Zufallszahlen, die Rekombination der Eltern und die Mutation der Parameter. Der Rechenzeitbedarf der letztgenannten Komponenten ist im vorliegenden Fall jedoch gegenüber dem einer Zielfunktionsauswertung zu vernachlässigen. Dies legt eine sternförmige Prozessstruktur (siehe Bild 3.3) mit in den Unterprozessen simultan auszuführender Evaluation nahe. Das Programmpaket des DLR namens AutoOpti besteht aus einem gemeinsamen Code für den Hauptprozess (Master) und die Unterprozesse (Slaves). Anhand der von MPI zugeordneten Prozessnummer können die einzelnen Prozesse unterschieden werden. Ausgehend vom Hauptprozess wird die Optimierungsstrategie verwaltet und die Kommunikation bzw. Überwachung der Unterprozesse gesteuert. Für jeden vom Hauptprozess gesendeten Parametersatz werden die passenden Zielfunktionen berechnet und die Werte an den Hauptprozess zurückgesandt. Für die Implementierung einer neuen Prozesskette müssen daher sowohl der Hauptprozess als auch die Unterprozesse erweitert werden. Im Hauptprozess wird die komplette Verdichterkonfiguration eingelesen. Anhand gesetzter Flaggen werden dabei die zur Optimierung freigegebenen Größen automatisch erkannt. Dementsprechend wird auch der Speicherplatz allokiert. Mittels einer Steuerungsdatei werden die Parameter zur Initialisierung der Optimierung, der Bereich der Parametertiefe, die Steuerungsgrößen der Evolutionsstrategie und das Abbruchkriterium der Optimierung verwaltet. Für die Initialisierung sind drei Möglichkeiten vorgesehen. Neben der Vorgabe einer Startverteilung bzw. eines Startvektors sind auch eine zufällige Startpopulation und die Wiederaufnahme einer Optimierung mit der zusätzlichen Option, durch Veränderungen im Aufbau der Zielfunktionen die einzelnen Member neu zu bewerten. Um weiteren Einfluss auf den Verlauf der Optimierung zu nehmen, ist ein Nebeneingang geschaffen worden, über den manuell neue Parametersätze in die Optimierung integriert werden können. Dazu werden Daten in der Datei NewMembers.input hinterlegt. Dem Anwender wird zum einem die Möglichkeit gegeben, eigene Entwürfe in die Optimierung mit aufzunehmen, und zum anderen können die Ergebnisse externer Ersatzmodelle eingebunden werden. Wie in Kapitel 3.3 geschildert, wird eine dynamische Parametertiefe verwendet. Zur Verfeinerung der Diskretisierung sind hier die Ober- und Untergrenze für die Parametertiefe sowie die dazugehörige Schrittweitenregelung angegeben. In Kapitel 3.1 sind die vier Methoden Mutation, Crossover, Gradient Shot und Differential Evolution erläutert, die in diesem Programm auch zur Verfügung stehen. In der Eingabedatei werden die Wahrscheinlichkeiten festgelegt, anhand derer das Verfahren zum Erzeugen eines neuen Nachkommens ausgewählt wird. Der Begriff Generation ist in dieser Implementierung bedeutungslos. Stattdessen wird hier die Zahl der möglichen Eltern angegeben. Sie umfasst die Member mit Pareto-Rang 1 und weitere entsprechend ihrem Rang, falls die Zahl der Paretooptimalen Lösungen kleiner als die Zahl der möglichen Eltern ist. Außerdem sind hier auch die Mutationsraten und Varianzen definiert. Mit diesen Werten wird der Konvergenzverlauf beeinflusst. Daher müssen sie gegebenenfalls dem Problem angepasst werden. Schließlich wird

51 3 Optimierungsstrategie Evolutionärer Algorithmus 37 Datensatz Schaufelgenerator Geometrische Restriktionen Hauptprozess Netzgenerierung für 2D- und 3D-Rechnung Gekoppelter Strömungslöser Postprocessing Zielfunktionen Bild 3.4: Prozesskette des gekoppelten Strömungslösers innerhalb des Optimierungsprozesses hier als Abbruchkriterium die maximale Anzahl konvergierter Lösungen angegeben. Falls die Optimierung ausreichend konvergiert ist oder absehbar ist, dass sich die Optimierung nicht in die gewünschte Richtung entwickelt, kann sie auch stets vorzeitig beendet werden. Prozesskette des gekoppelten Strömungslösers innerhalb des Optimierungsprozesses In Bild 3.4 ist die Prozesskette des gekoppelten Strömungslösers in der Optimierungsschale dargestellt. Die Prozesskette lässt sich in vier Abschnitte einteilen. An die Veränderungen der Geometrie schließt sich das Erzeugen der 3D-Netze aus S1- und S2-Netzen an. Dem folgt die Strömungssimulation mittels des gekoppelten Lösers. Abschließend müssen die Strömungsda-

52 38 3 Optimierungsstrategie Evolutionärer Algorithmus ten noch für die weitere Verarbeitung ausgewertet werden. Der gekoppelte Strömungslöser inklusive der Netzgenerierung ist in Kapitel 2.4 bereits ausführlich beschrieben und wird daher hier nur kurz angesprochen. Änderungen in der Geometrie Vom Hauptprozess erhält der Slave einen Datensatz in normierter Form. Für das Programm zur Erzeugung der Beschaufelungsoberfläche müssen die Werte zunächst in reale Geometriedaten umgewandelt werden. Der Schaufelgenerator ist als CAD-Werkzeug am Institut für Antriebstechnik des DLR entwickelt worden und basiert auf B-Spline Kurven und B-Spline Tensorprodukten, wie in [Piegl und Tiller 1997] dargestellt. Durch die große Vielfalt möglicher Geometrien kann es schnell zu nicht zulässigen Entwürfen kommen, da sie den mechanischen und strukturellen Anforderungen nicht gewachsen sind. Aus diesem Grund ist dem Schaufelgenerator ein Modul nachgeschaltet, in dem die Entwürfe auf geometrische Restriktionen überprüft werden. Dadurch wird verhindert, dass ungeeignete Geometrien unnötigerweise an die Netzgenerierung weitergegeben werden. Die angewendeten geometrischen Restriktionen basieren auf einer Fortentwicklung der in [Voß et al. 2006] beschriebenen Vorgehensweise. Zunächst werden die einzelnen Profile zweidimensional auf Restriktionen überprüft. Danach wird die gesamte Schaufel untersucht. Überprüft werden dabei der Staffelungswinkel, die Metallwinkel an Ein- und Austritt, der Radius und die Dicke auf Extrema und Monotonie. Die Prozesskette wird abgebrochen, sollten die geometrischen Restriktionen in irgendeinem Punkt verletzt werden. In diesen Fällen erhält der Datensatz eine künstlich schlechte Bewertung, die an den Hauptprozess zurückgesendet wird. Gekoppelter Strömungslöser Die einzelnen Aufgaben des gekoppelten Strömungslösers sind bereits in Kapitel 2.4 ausführlich behandelt worden. Aufgrund der Struktur der Datenbasis innerhalb der Optimierung müssen alle Member bewertet werden, auch wenn die zugehörige Verdichterkonfiguration zu keinen realistischen Ergebnissen führt. Folglich wird das Durchlaufen der Prozesskette abgebrochen, wenn innerhalb der Netzgenerierung oder der Strömungssimulation ein Fehler aufgetreten ist. Analog zur fehlgeschlagenen Überprüfung der Geometrie wird der Datensatz künstlich schlecht bewertet. Zur Unterscheidung der Abbruchgründe wird jedem potentiellen Abbruchgrund ein fester Wert zugewiesen, so dass überprüft werden kann, wie viele Member z. B. bei der Netzgenerierung, der initialen Meridianströmungsrechnung oder während einer Iteration gescheitert sind.

53 3 Optimierungsstrategie Evolutionärer Algorithmus Eintrittsgehäuse Leitradträger Rotor Austrittsgehäuse Strömungsgleichrichter Einlaufkonturring 12 7 Eintrittslagerträger 8 Radiallager 9 Stopfbuchse Diffusor 11 Axial-Radiallager 12 Torquemeter Bild 3.5: Axialschnitt des Versuchsverdichters IDAC3 des Instituts für Strahlantriebe und Turboarbeitsmaschinen an der RWTH Aachen (nach [Bohne 2002]) Postprocessing Unter der Annahme einer konvergierten Strömungsrechnung werden in beiden CFD-Werkzeugen die Daten nachbearbeitet und die relevanten Strömungsgrößen bestimmt, so dass die Zielfunktionen berechnet und an den Hauptprozess zurückgesendet werden können. Auf diese Weise erhält jeder Member eine eigene qualitative Bewertung. Alle Member werden gesammelt und in der globalen Datenbank abgelegt. 3.5 Testverdichter Für die folgenden Verdichteruntersuchungen wurde der dreistufige Axialverdichter mit Vorleitrad des Instituts für Strahlantriebe und Turboarbeitsmaschinen an der RWTH Aachen ausgewählt. Der Verdichter ist detailliert vermessen worden und bietet daher eine gute Grundlage, um zum einen die Ergebnisse des gekoppelten Strömungslösers mit den Messergebnissen zu vergleichen und zum anderen die Resultate der Optimierung besser einschätzen zu können. In Bild 3.5 ist eine Schnittzeichnung des Axialverdichters, kurz IDAC3, dargestellt. Charakteristische Merkmale des IDAC3 sind der konstant bleibende Außenradius und die Controlled Diffusion Airfoils (CDA). Die Schaufelform wurde dabei durch 5 Profile festgelegt, die jeweils

54 40 3 Optimierungsstrategie Evolutionärer Algorithmus Tabelle 3.1: Geometrische Kenngrößen der Beschaufelung (Gittereintritt, Mittelschnitt) [Bohne 2002] IGV Rot1 Sta1 Rot2 Sta2 Rot3 Sta3 Schaufelzahl Sehnenlänge l in [mm] 32, 0 50, 0 30, 0 38, 0 28, 0 31, 0 26, 0 Schaufelhöhe h in [mm] 86, 7 86, 0 71, 1 61, 2 53, 8 47, 8 43, 7 max. Profildicke d/l 0, 096 0, 089 0, 087 0, 085 0, 086 0, 086 0, 085 Schaufelseitenverhältnis h/l 2, 71 1, 72 2, 37 1, 61 1, 92 1, 54 1, 68 Teilungsverhältnis t/l 0, 78 0, 76 0, 83 0, 86 0, 87 0, 87 0, 89 Nabenverhältnis ν 0, 55 0, 56 0, 63 0, 68 0, 72 0, 75 0, 77 mit einem inversen Auslegungsverfahren berechnet worden sind. Der Verdichter ist für ein Totaldruckverhältnis von π t = 2, 03 bei einem Massenstrom von ṁ = 13, 4kg/s und einer Betriebsdrehzahl von n = /min ausgelegt worden. Die geometrischen Kenndaten der Gitterreihen sind in Tab. 3.1 aufgeführt. Die Werte beziehen sich jeweils auf den Mittelschnitt. Dabei ist anzumerken, dass das Teilungsverhältnis am Gehäuse für alle Gitter im Bereich t/l = 1, 0 liegt. Die im Rahmen der Auslegung festgeleg- Totaldruckverhältnis t [-] 2,4 2,2 2,0 Gemessene Drehzahllinien Berechnete Drehzahllinien Betriebspunkt OP1 1,8 100 % 94 % 1, Korrigierte Massenstrom m cor [kg/s] Bild 3.6: Auszug aus dem Verdichterkennfeld des Axialverdichters IDAC3

55 3 Optimierungsstrategie Evolutionärer Algorithmus 41 ten maximalen Profildicken sind an die Erfahrungen der stationären Turbomaschinen-Industrie angelehnt. Detaillierte Informationen zu diesem Verdichter finden sich u. a. in [Bohne 2002] und [Hoynacki 1999]. Mit weiteren experimentellen Untersuchungen instationärer Strömungen beschäftigen sich [Bohne und Niehuis 2004] und [Niehuis et al. 2003]. In Bild 3.6 ist das Verdichterkennfeld des IDAC3 auszugsweise dargestellt. Die experimentellen Daten sind der Arbeit von [Hoynacki 1999] entnommen. Zusätzlich ist der Auslegungspunkt, bezeichnet mit OP1, eingezeichnet, wie es aus der Arbeit von [Bohne 2002] hervorgeht. Die mit MAGELAN berechnete 100%-Drehzahllinie ist zudem auch dargestellt. An dieser Stelle sei darauf hingewiesen, dass die hier benutzten Verlust- und Minderumlenkungsmodelle auf Korrelationen basieren, die nicht speziell für CDA in geeigneter Weise definiert wurden. Der Vergleich mit den Messergebnissen in Bild 3.6 zeigt aber, dass ihr Einsatz die Strömung zufriedenstellend wiedergibt.

56 42 4 Beschleunigungsmethoden der Optimierung 4 Beschleunigungsmethoden der Optimierung Die computergestützte Optimierung ist im Wesentlichen abhängig von den Faktoren Rechenzeit und Rechenleistung. Ein Optimierungsalgorithmus ist daher nur dann interessant, wenn die Ergebnisse in einem annehmbaren Zeitrahmen erreicht werden. Ein guter Algorithmus muss folglich nicht nur den Datenraum zur Optimumsuche sinnvoll abbilden können sondern auch schnell und damit effektiv sein. In der Optimierung von Verdichterschaufeln werden zeitaufwendige Simulationen durchgeführt. Folglich ist eine Bedingung an einen automatischen Optimierer, die Anzahl der Simulationen möglichst gering zu halten. Als Ersatz für die exakte Berechnung der Zielfunktionen können Beschleunigungsmethoden eingesetzt werden. Dazu zählen Verfahren, die die numerische Simulation durch ein nicht so zeit- und kostenintensives Approximationsmodell ersetzen oder anhand der bereits bestimmten Zielfunktionen den Datenraum approximieren und dort die optimale Lage näherungsweise ermitteln. 4.1 Versuchspläne Um komplexe Funktionen approximieren zu können, müssen die Stützstellen sinnvoll gewählt werden. Dazu wird im Allgemeinen ein Versuchsplan aufgestellt. Die Auswahl eines geeigneten Versuchsplans gestaltet sich nicht einfach, weil sie sowohl vom Optimierungsproblem als auch vom Approximationsmodell abhängig ist. Im folgenden Abschnitt werden zunächst klassische Versuchspläne für Modelle 2. Ordnung und ihre Eigenschaften beschrieben, um dann auf raumfüllende Pläne einzugehen Klassische Versuchspläne für Modelle 2. Ordnung In Tab. 4.1 sind drei verschiedene Versuchspläne dargestellt, die für quadratische Ansatzfunktionen geeignet sind. Der umfangreichste Versuchsplan ist 3-level Full Factorial. Hier werden sowohl alle Eckpunkte des Entwurfsraums als auch die Mittelpunkte aller Verbindungslinien als Stützstellen verwendet. Bei einer größeren Anzahl von Entwurfsvariablen muss der Entwurfsraum durch sehr viele Stützstellen abgetastet werden. So ergeben sich zum Beispiel bei 10 Parametern Konfigurationen, und bei 20 steigt die Zahl auf knapp 3,5 Milliarden an.

57 4 Beschleunigungsmethoden der Optimierung 43 Tabelle 4.1: Vergleich der notwendigen Zahl an Stützstellen für die klassischen Versuchspläne 3-level Full Factorial, Box-Behnken Design (BBD) und Central Composite Design (CCD) Bezeichnung Skizzen für (k = 2 und k = 3) Stützstellen k = 10 k = 20 3-level Full Factorial 3 k , Box-Behnken Design 3 k 2 k 2k , Central Composite Design 2 k + 2k + n c , Bei den beiden weiteren Methoden, Box-Behnken Design (BBD) und Central Composite Design (CCD), ist im Vergleich zum voll besetzten Versuchsplan die Zahl der Stützstellen reduziert. Bei BBD werden, wie in Tab. 4.1 dargestellt, die Eckpunkte nicht berücksichtigt sondern nur die mittig auf allen Kanten des k-dimensionalen Würfels platzierten Stützstellen sowie das Zentrum. Es zeigt sich allerdings, dass die Methodik schon bei 10 Optimierungsparametern nur eine geringfügige Anzahl an Stützstellen gegenüber dem vollbesetzten Versuchsplan einspart. Ein Blick auf die Formel zur Berechnung der Stützstellen offenbart auch den Grund, beide sind im Prinzip proportional zu 3 k. Vielversprechender ist hingegen das auf [Box und Wilson 1951] zurückgehende CCD. Für 10 Entwurfsvariabeln werden nur 1045 Stützstellen benötigt. Allerdings steigt auch hier die Zahl der notwendigen Stützstellen mit 2 k, so dass 20 Optimierungsgrößen Stützstellen erfordern. Als Stützstellen werden die Eckpunkte des k-dimensionalen Würfels sowie n c im Bereich des Zentrums verteilte Punkte genutzt. In den Beispielen hier wird nur ein Punkt im Zentrum platziert. Zusätzlich werden noch 2k Punkte berücksichtigt, die in einem definierten Radius α um den Ursprung auf den Hauptachsen liegen. In [Myers und Montgomery 2002] sind beide Verfahren mit zugehörigen Anwendungen ausführlich beschrieben.

58 44 4 Beschleunigungsmethoden der Optimierung d-optimale Versuchspläne Unter optimalen Versuchsplänen werden mathematisch fortgeschrittenere Verfahren zusammengefasst, die die speziellen Gegebenheiten des Optimierungsproblems wie die Auswahl der Terme für die Ansatzfunktion, die wirkliche Berandung des Entwurfsraums und bereits berechnete Stützstellen erfassen. Der Versuchsplan wird demzufolge so an das Problem angepasst, dass der Versuchsaufwand für die vorgegebene Zahl der Stützstellen N minimal gehalten wird. Im Vergleich zu den klassischen Versuchsplänen kann die Zahl der Stützstellen und ihre Position im Entwurfsraum frei gewählt werden. Zum Anpassen des Wertebereichs werden in der Praxis nicht vorkommende oder nicht realisierbare Gebiete des Entwurfsraums auch nicht untersucht. Mit Hilfe des Versuchsplans werden alle Haupteffekte und alle Wechselwirkungen erster Ordnung so aufgelöst, dass der Aufwand möglichst minimal bleibt. Die Versuchspunkte werden in Abhängigkeit vom Problem aus dem Pool der möglichen Stützstellen berechnet. In der Regressionsanalyse wird unter Berücksichtigung der Methode der kleinsten quadratischen Fehler das beste Kandidatenset mit b = ( X T X ) 1 X T y berechnet. Für die Regressionkoeffizienten ist es besonders gut, wenn ( X T X ) 1 möglichst klein, bzw. X T X möglichst groß ist. Bei d-optimalen Versuchsplänen wird als Kriterium verwendet, dass der ausgewählte Versuchsplan die Determinante der Varianz-Kovarianz-Matrix X T X maximiert. Aus dieser Bedingung leitet sich auch der Buchstabe d für Determinante in d-optimal her. Die Determinante ist ein Maß für deren Orthogonalität. Das bedeutet, dass für den Versuchsplan die Stützstellen ausgewählt werden, durch die der größtmögliche Raum abgedeckt wird. Um die N gesuchten Stützstellen für den Versuchsplan auszuwählen, werden in einem ersten Schritt alle interessanten Stützstellen im Entwurfsraum aufgestellt. Üblicherweise werden im Anschluss aus dieser Anzahl N fix fixierte Stützstellen ausgewählt, weil die zugehörigen Konfigurationen z. B. bereits berechnet wurden oder vielversprechend für das Abtasten des Entwurfsraums sind. Aus den anderen Kandidaten werden dann die restlichen N N fix Stützstellen genommen, um die Versuchsmatrix X aufzustellen. Durch die Multiplikation mit der Transponierten wird die Informationsmatrix X T X bestimmt. Ihre Determinante ordnet der Versuchsmatrix ein Gütemaß zu. Die Versuchsmatrix wird so lange variiert, bis der Versuchsplan gefunden wurde, für den die Determinante der Informationsmatrix maximal ist. Der Wertebereich für die einzelnen Optimierungsparameter bewegt sich im Bereich [ 1; 1]. Dadurch werden Stützstellen im Randbereich und besonders in den Ecken für den Versuchsplan bevorzugt ausgewählt.

59 4 Beschleunigungsmethoden der Optimierung Bild 4.1: Darstellung eines Versuchsplans nach dem Latin Hypercube Verfahren mit 2 Entwurfsvariablen und 16 Stützstellen jeweils ein Datenpunkt pro Zeile und Spalte Latin Hypercube Verfahren Das Prinzip von Latin Hypercube gehört zur Klasse sogenannter raumfüllender Versuchspläne. Diese Verfahren werden üblicherweise eingesetzt, wenn keine oder nur wenige Informationen über das Modell bekannt sind. In Bild 4.1 sind die wesentlichen Aspekte von Latin Hypercube an einem Beispiel mit 2 Entwurfsvariablen und 16 Stützstellen dargestellt. Zunächst wird der Entwurfsraum entsprechend der Zahl der Stützstellen (Bild 4.1) diskretisiert. Durch einen Zufallsgenerator werden die Stützstellen dann so im Raum verteilt, dass es pro Reihe und Spalte nur eine Stützstelle gibt. Durch die zufällige Verteilung sind die Stützstellen in Bild 4.1 jedoch sehr ungleichmäßig verteilt. Es gibt verschiedene Möglichkeiten, das Verfahren zu verfeinern und den Entwurfsraum besser abzudecken. Ein möglicher Ansatz ist die Aufteilung des Entwurfsraums in Teilräume, für die dann wiederum Orthogonalität gefordert wird. Pro Teilraum wird dementsprechend die gleiche Anzahl an Punkten gefordert. In Bild 4.2a wird der Versuchsplan aus Bild 4.1 in 16 Teilgebiete zerlegt. Da nicht alle Teilbereiche abgedeckt sind, werden die Stützstellen, wie in Bild 4.2b dargestellt, neu gesetzt. Die Zahl der Punkte ist in diesem Fall nicht mehr frei wählbar sondern muss ein Vielfaches der Zahl der Teilräume sein. Bei steigender Anzahl der Optimierungsparameter erhöht sich damit aber wiederum die erforderliche Anzahl. Eine

60 46 4 Beschleunigungsmethoden der Optimierung 1 ( a ) 1 ( b) Bild 4.2: Verfeinerung des Latin Hypercube Verfahren mit 2 Entwurfsvariablen und 16 Stützstellen: a) Aufteilen des Entwurfsraums in 16 Teilgebiete; b) Nachbehandlung des Plans aus Bild 4.1 zum Erfüllen der Orthogonalitätsbedingung Alternative ist die Vorgabe einer Distanzfunktion. Die Stützstellen werden so besser im Raum verteilt. Weiterführende Arbeiten hierzu finden sich in [Saka et al. 2007] Schwerpunkt-Voronoi-Diagramme(CVT) Die Methodik der Schwerpunkt-Voronoi-Diagramme (CVT), einer Abwandlung der Voronoi- Diagramme, zählt ebenfalls zu den raumfüllenden Verfahren. Voronoi-Diagrammme gehören zu den grundlegenden Datenstrukturen der rechnergestützten Geometrie (vgl. [Aurenhammer 1991]). Mit ihrer Hilfe wird ein gegebener Raum durch eine ebenfalls gegebene Punktmenge so in Regionen zerlegt, dass jedem Punkt genau eine Region zugeordnet werden kann. Die Punkte werden Voronoi-Punkte oder Zentren genannt. Für die Regionen gilt, dass jeder enthaltene Punkt zum zugehörigen Zentrum näher liegt als zu allen anderen Regionszentren. Ausgehend vom Beispiel aus [Okabe et al. 2000], den Briefkästen in der japanischen Stadt Koganei, wird die Funktionsweise der CVT beschrieben. Als Raum wird der zweidimensionale Stadtplan genutzt. Die Zentren werden durch den Standort der Briefkästen im Stadtgebiet festgelegt. Die Regionen symbolisieren den räumlichen Einzugsbereich des zugehörigen Briefkastens. Die Schwerpunkt-Voronoi-Diagramme sind eine Spezialisierung der Voronoi-Diagramme. Die Eigenschaften der Voronoi-Diagramme werden dabei beibehalten. Nur die Voronoi-Zentren sind gleichzeitig auch die Schwerpunkte ihrer Regionen. Das bedeutet, dass alle CVT Voronoi-Diagramme sind, aber nicht jedes Voronoi-Diagramm unbedingt ein CVT sein muss. Zur Bestimmung von CVT wird die Anzahl der Schwerpunkte vorgegeben, und mit Hilfe einer

61 4 Beschleunigungsmethoden der Optimierung 47 ( a) ( b) > < 4 Bild 4.3: Schwerpunkt-Voronoi-Diagramm an einem Beispiel aus [Okabe et al. 2000]: a) optimale Verteilung der Briefkästen; b) Bevölkerungsdichte, Basis der Kostenfunktion Dichtefunktion werden dann die Punkte im Raum verteilt. Angewandt auf die Verteilung der Briefkästen kann CVT benutzt werden, um die Lage der Briefkästen zu optimieren. Als Kostenfunktion ist hier die quadratische Entfernung eines Einwohners zu seinem nächsten Briefkasten unter Berücksichtigung der Bevölkerungsdichte in Bild 4.3b gewählt. Basierend auf der Kostenfunktion ist die optimale Verteilung der Briefkästen in Bild 4.3a dargestellt. Aufgrund der Verteilung der Punkte basierend auf einer Verteilungsfunktion eignet sich das Verfahren für n-dimensionale Räume und damit auch für das Aufstellen von Versuchsplänen. Wenn keine Angaben über den Entwurfsraum bekannt sind, können durch eine konstante Verteilung die Stützstellen gleichmäßig im Raum verteilt werden. Es ist jedoch möglich, Informationen über den Entwurfsraum mittels einer Dichtefunktion zu berücksichtigen Anwendungsmöglichkeiten Der Optimierungsprozesses muss über eine Startverteilung bzw. einen Startvektor initialisiert werden. Wenn sich in Voruntersuchungen interessante Bereiche im Parameterraum herausstellen, können diese Aussagen in einem Versuchsplan verarbeitet werden. Falls jedoch keine Informationen vorliegen, kann der Startvektor nur rein zufällig erzeugt werden. In diesem Fall sind raumfüllende Verfahren wie die hier beschriebenen Methoden Latin Hypercube und CVT interessant. Über Verteilungs- und Dichtefunktionen können innerhalb von CVT darüberhinaus die Ergebnisse der Voruntersuchungen berücksichtigt werden. In [Rai 2004] wird ein einfaches, zwei-dimensionales MO-Problem MMR2 vorgestellt, mit dessen Hilfe sich die Vorteile eines angepassten Versuchsplans verdeutlichen lassen. Die beiden

62 48 4 Beschleunigungsmethoden der Optimierung f M,2 1 (a) 1,5 (b) x 2 1 0,5 0, ,5 f M,1 1-0,5-0,5 0 0,5 1 x 1 1,5 Bild 4.4: Optimale Paretofront des MO-Problems MMR2 dargestellt im a) Zielfunktions- und b) Parameterraum Zielfunktionen MMR2 (f M,1,f M,2 ) = { f M,1 ( x) = 1 2 (x x 2 2 ) f M,2 ( x) = 1 2 (x 1 1) (x 2 1) 2 (4.1) sollen im Wertebereich 2, 0 x 1,x 2 2, 0 minimiert werden. Der zulässige Wertebereich soll sich dabei aus drei nahezu kreisförmigen Unterbereichen (siehe Bild 4.4b) zusammensetzen. Die optimale Paretofront lässt sich, wie in Bild 4.4a gezeigt, im Zielfunktionsraum durch eine Hyperbel darstellen, die in drei Abschnitte geteilt ist. Daher lässt sich die Restriktion folgendermaßen formulieren. g ( x) = 0, 5 3 j=1 exp ( r j 2 ) 0 mit r j 2 = 15 [ (x 1 x Pj,1 ) 2 + (x 2 x Pj,2 ) 2] und x P1 = (0; 0), x P2 = (0, 5; 0, 5) x P3 = (1; 1) (4.2) In Bild 4.5 werden verschiedene Startverteilungen verglichen. Die grau unterlegten Kreise markieren dabei den zulässigen Bereich im Datenraum. Es zeigt sich, dass die nicht zusammenhängenden, zulässigen Gebiete weniger als ein Zwangistel des gesamten möglichen Datenraums einnehmen. In Bild 4.5a sind die ersten 100 Member zweier rein zufällig initiierter Optimierungsprozesse (Random1 und Random3) dargestellt. Der Startvektor wird hier folglich mittels eines Zufallsgenerators aufgestellt. Wenn ausreichend konvergierte Lösungen vorhanden sind, kann dann die Evolutionsstrategie zur Suche nach vielversprechenden Kandidaten benutzt werden. Das Bild zeigt jedoch, dass nach den ersten 100 Datensätzen erst jeweils ein gültiger Daten-

63 4 Beschleunigungsmethoden der Optimierung 49 2 (a) 2 (b) x 2 x (c) x (d) x 1 2 x 2 x x x 1 2 (a) (c) Random1 Random3 (b) LHC100 CVT100 CVT-Poly100 CVT-Poly50 (d) CVT-Circ50 Bild 4.5: Verschiedene Versuchspläne für das Mehr-Ziel Probolem MMR2 mit jeweils 50 bzw. 100 Datenpunkten punkt gefunden wurde. Die Suche nach weiteren erlaubten Membern muss daher rein zufällig fortgeführt werden. Mit den eingestellten Parametern innerhalb der Evolutionsstrategie müssen erst mehr als 400 Member vollkommen zufällig erzeugt werden, bevor die Optimumsuche gestartet werden kann. Bild 4.5b zeigt dagegen zwei raumfüllende Versuchspläne mit jeweils 100 Datenpunkten. Das Latin Hypercube (LHC100) verteilt die Stützstellen auch zufällig aber über den gesamten Raum. Im Vergleich zu den rein zufälligen Startverteilungen ist der Datenraum zwar besser

64 50 4 Beschleunigungsmethoden der Optimierung abgedeckt. Die Streuung der Stützstellen ist allerdings sehr inhomogen. Im Gegensatz dazu ist das Muster des gleichförmig verteilten Schwerpunkt-Voronoi-Diagramms (CVT100) sehr regelmäßig angeordnet. Wie erwartet, stellt sich eine homogene Verteilung im Datenraum ein. Da das zulässige Gebiet im Vergleich zum Datenraum sehr klein ist, eignen sich auch hier nur 2 (LHC100) bzw. 3 (CVT100) Punkte für die Optimierung. In diesem Beispiel führen beide Versuchspläne nicht zu einer deutlichen Beschleunigung der Optimerung. Die Zahl der Startpunkte müsste mehr als verdoppelt werden, um genügend Datenpunkte im erlaubten Bereich zu finden. Die Zahl der Stützstellen eines Versuchsplanes lässt sich jedoch reduzieren, wenn Informationen über interessante Bereiche oder funktionale Zusammenhänge der Zielfunktion bekannt sind. Die Schwerpunkt-Voronoi-Diagramme in Bild 4.5c basieren auf der Annahme, dass sich vielversprechende Kandidaten in der Nähe des Punktes (0, 5; 0, 5) befinden. Es wird daher als Dichtefunktion eine Glockenkurve mit dem Scheitelpunkt bei (0, 5; 0, 5) benutzt. Der Scheitelpunkt fällt mit dem Zentrum des mittleren Kreises zusammen, so dass dort auch ausreichend viele Stützstellen (CVT-Poly100) positioniert sind. Die anderen beiden gültigen Bereiche sind nur unzureichend abgedeckt. In der Optimierung zeigt sich dann auch, dass das mittlere Segment der optimalen Paretofront schnell gefunden wird. Die beiden anderen Abschnitte werden hingegen nicht so schnell erkannt, so dass sich in diesen Bereichen der Paretofront kein signifikanter Beschleunigungseffekt ergibt. Die Formulierung der Dichtefunktion führt dazu, dass selbst ein Versuchsplan mit nur 50 Stützstellen (CVT-Poly50) im Vergleich zu den raumfüllenden Ansätzen besser abschneidet. Wenn aus der Restriktion in Gl. (4.2) eine Dichtefunktion für ein CVT formuliert wird, lassen sich die Stützstellen so verteilen, dass sie nur innerhalb des zulässigen Bereichs liegen. Bild 4.5d zeigt einen Versuchsplan mit 50 Stützstellen. Bedingt durch die Formulierung der Dichtefunktion sind die Datenpunkte ungleichmäßig auf die einzelnen Unterbereiche aufgeteilt. Die Zahl der notwendigen Zielfunktionsaufrufe kann bei der Optimumsuche daher stark reduziert werden. In der Verdichteroptimierung ist die Zahl der Freiheitsgrade deutlich höher als bei diesen einfachen Beispielen, so dass dort auch das Verhältnis zwischen Stützstellen des Versuchsplans und Anzahl der freien Parameter deutlich niedriger gewählt wird. Ein wichtiger Grund für die Einführung der Versuchspläne ist jedoch die Idee, darüber die Stützstellen für die Polynomialen Antwortflächen wählen zu können, so dass die Stützstellen gut über den Raum verteilt werden. Gerade mittels CVT lässt sich der Raum sehr gleichmäßig abdecken. 4.2 Polynomiale Antwortflächen Die polynomialen Antwortflächen gehören zu den Approximationsmethoden. Anhand bereits analysierter Stützstellen wird der Datenraum durch ein Polynom des Grads n approximiert. Als

65 4 Beschleunigungsmethoden der Optimierung 51 Beispiel sei hier ein Polynom 3. Grades angeführt. k k k f( x) = a 0 + a i x i + a ii x 2 i + i=1 i=1 k i=1 (j=i+1) k k a ij x i x j + a iii x 3 i + i=1 i=1 (j i) k a iij x 2 ix j (4.3) Nach der Bestimmung der Polynomialkoeffizienten können die Extrema analytisch oder z.b. mit Gradientenverfahren ermittelt werden. Der so bestimmte Parametersatz mit dem kleinsten Funktionswert wird anschließend mit den Simulationsverfahren überprüft und geht gegebenenfalls als Member in den Gesamtprozess ein. Grundlegende Überlegung für den Einsatz Polynomialer Antwortflächen ist die Einfachheit des Modells. Die Koeffizienten des Polynoms lassen sich durch ein lineares Gleichungssystem berechnen. Die Gewichtung der einzelnen Variablen zeigt sich direkt durch die Koeffizienten des normalisierten Modells. Positiv wirkt sich das Polynom auch durch seine glättende Wirkung auf die Konvergenz bei verrauschten Funktionen aus. Die Simplizität der Polynomialen Antwortfläche schränkt natürlich auch die Einsatzmöglichkeiten ein. Bei komplexen Funktionen kann kein globales Modell aufgebaut werden, und das Polynom wächst mit zunehmendem Abstand von den Stützstellen über alle Grenzen. Die Antwortfläche liefert daher eine lokale Approximation. In diesen Fällen müssen die Stützstellen für das Modell mit besonderer Sorgfalt ausgewählt werden. Weiterhin wird der Einsatz auch durch die Anzahl der notwendigen Stützstellen limitiert. In Tab. 4.2 werden die Anzahlen der notwendigen Koeffizienten für Polynome 2. und 3. Grades aufgeführt. Es zeigt sich, dass schon bei kleinen Mengen freigegebener Parameter sehr viele Datenpunkte benötigt werden, um alle möglichen Kopplungen zu erfassen Implementierung Zum Erstellen einer polynomialen Antwortfläche werden zunächst bereits berechnete Datenpunkte benötigt, anhand derer ein Polynom aufgebaut werden kann. Dieser Zusammenhang dient anschließend zur Bestimmung vielversprechender Entwürfe. Daher lässt sich das Programmmodul in drei wesentliche Bestandteile aufteilen das Aufstellen eines überbestimmten Gleichungssystems, dessen Approximation mittels eines Polynoms und die Suche nach dem Optimum. Für die Berechnung der Polynomialkoeffizienten und die Suche nach dem Optimum werden Routinen aus [Press et al. 2002] verwendet.

66 52 4 Beschleunigungsmethoden der Optimierung Tabelle 4.2: Anzahl der Koeffizienten eines Polynoms 2. und 3. Grades Unbekannte Koeffizienten n = 2 n = Aufstellen eines überbestimmten Gleichungssystems Um gute Approximationseigenschaften zu erreichen, werden weit mehr Datenpunkte benötigt, als für die Bestimmung der Polynomialkoeffizienten notwendig sind. Die Überdeckung sollte das 1,5- bis 2-fache der Koeffizienten ausmachen. Folglich wird ein überbestimmtes Gleichungssystem aus den bereits berechneten Datenpunkten aufgestellt. Die Unbekannten in diesem Gleichungssystem sind die Polynomialkoeffizienten. Zur weiteren Analyse wird das Gleichungssystem durch das Verwenden von Basisfunktionen, wie in Gl. (4.4) dargestellt, P 1 ( x) = 1,P 2 ( x) = x 1,P 3 ( x) = x 2 1,... (4.4) in ein lineares Gleichungssystem der Form X a = y überführt. Die Matrix X steht dabei für die Datenpunkte, der Vektor a für die Koeffizienten und der Vektor y für den zugehörigen Zielfunktionswert. a 1 P 1 ( x 1 ) + a 2 P 2 ( x 1 ) + a 3 P 3 ( x 1 ) + + a k P k ( x 1 ) = y 1 a 1 P 1 ( x 2 ) + a 2 P 2 ( x 2 ) + a 3 P 3 ( x 2 ) + + a k P k ( x 2 ) = y 2 a 1 P 1 ( x 3 ) + a 2 P 2 ( x 3 ) + a 3 P 3 ( x 3 ) + + a k P k ( x 3 ) = y a 1 P 1 ( x m ) + a 2 P 2 ( x m ) + a 3 P 3 ( x m ) + + a k P k ( x m ) = y m (4.5) Approximationsmodell Zur Lösung des überbestimmte Gleichungssystems wird üblicherweise die Methode der kleinsten Quadrate (LSM), das mathematische Standardverfahren für Ausgleichsrechnungen, verwendet. Das überbestimmte Gleichungssystem wird so in das Minimierungsproblem min X a y 2 (4.6)

67 4 Beschleunigungsmethoden der Optimierung 53 überführt, in dem die Matrix X für die Parameter der einzelnen Stützstellen steht. Zur Lösung des Minimierungsproblems wird die Matrix X mit Hilfe der Singulärwertzerlegung (SVD) umgeformt. Mit dem Begriff Singulärwertzerlegung wird die Darstellung einer Matrix als Produkt dreier spezieller Matrizen X = U Ω V T = U [diag (ω j )] V T (4.7) bezeichnet. Es lassen sich so die Singulärwerte der Matrix bestimmen, die vergleichbar zu den Eigenwerten die Eigenschaften dieser Matrix charakterisieren. Im Unterschied zu Eigenwerten können Singulärwerte jedoch für jede Matrix berechnet werden. Jede Matrix der Größe m n mit m > n lässt sich daher in eine unitäre (m m)-matrix U, deren Spalten orthonormal zueinander sind, in eine (m n)-diagonalmatrix Ω, in der alle Werte positiv und dem Betrag nach sortiert sind, und eine unitäre (n n)-matrix V zerlegen. Die Elemente der Diagonalmatrix ω j sind die Singulärwerte. Wenn alle Singulärwerte ungleich Null sind, hat die Matrix folglich ihren vollen Rang r = min(m,n). Falls ein oder mehrere Singulärwerte gleich Null sind, ist die Matrix hingegen singulär, und das Gleichungssystem ist unterbestimmt. Aufgrund der orthogonalen Eigenschaften der Matrizen lässt sich die Pseudo- Inverse der Matrix X sehr leicht mit [ ( )] 1 X 1 = V diag U T (4.8) ω j bestimmen. Die Singulärwerte sind nach ihrem Betrag gewichtet. Kleine Singulärwerte haben daher nur einen geringen Einfluss. In Gl. (4.8) geht jedoch der Kehrwert ein, d. h. die Kehrwerte sind entsprechend groß. Da ihr Einfluss jedoch entsprechend dem Singulärwert gering sein sollte, werden kleine Singulärwerte und auch die Kehrwerte gleich Null gesetzt, um die Stabilität der Zerlegung zu erhöhen. Zu diesem Zweck ist im Verfahren ein Grenzwert festgelegt, der allerdings einen starken Einfluss auf das Ergebnis hat und daher sorgfältig gewählt werden muss. Verwiesen sei hier auf [Press et al. 2002]. Die Polynomialkoeffizienten lassen sich dann bestimmen mit [ ( )] 1 a = V diag U T y. (4.9) ω j Das Verfahren ist sehr robust und kann auch mit schlecht konditionierten Gleichungssystemen umgehen. In vielen Fällen liefert die Singulärwertzerlegung eine Lösung des Problems. Für überbestimmte Gleichungssysteme wird die beste Näherung der LSM berechnet. Ist das Gleichungssystem unterbestimmt, so wird ebenfalls eine Lösung bestimmt, die im Sinne der LSM das beste Ergebnis darstellt. Negativ wirken sich der hohe Speicherbedarf und der vergleichsweise hohe Rechenaufwand aus. Ausschlaggebend für ihren Einsatz bei den meisten linearen Least-Squares Problemen ist aber die bereits angesprochene extreme Robustheit des Verfahrens.

68 54 4 Beschleunigungsmethoden der Optimierung Minimumssuche innerhalb der polynomialen Antwortfläche Nachdem die Polynomialkoeffizienten vorliegen, wird die Antwortfläche analysiert, um Minima zu finden oder Gradienteninformationen daraus abzuleiten. Verschiedene Möglichkeiten sind denkbar, um neue vielversprechende Datenpunkte für die Optimierung zu finden. Zum einen sind lokale Minima des Polynoms interessant, zum anderen können aber auch die Gradienteninformationen an einem bestimmten Datenpunkt hilfreich sein. Für die Suche nach Extrema sind viele mathematische Verfahren anwendbar. In der vorliegenden Arbeit werden sowohl ein restringiertes Newton-Verfahren als auch die Methode von Broyden verwendet. Im Gegensatz zum Newton-Verfahren muss beim Broyden-Verfahren nicht die Jacobi-Matrix bestimmt werden, deren Berechnung bei komplexeren Polynomen aufwendig ist, sondern es werden nur die Funktionsauswertungen und Gradienteninformationen benötigt. Die Anzahl der Funktionsauswertungen verringert sich von n(n + 1) Aufrufen auf n. Trotzdem weist es ähnliche Konvergenzeigenschaften auf wie das Newton-Verfahren. Newton-Verfahren Das Newton-Verfahren, auch als Newton-Raphson-Methode bekannt, ist das Standardverfahren zur Lösung von nichtlinearen Gleichungen und Gleichungssystemen in der Numerik. Das Verfahren basiert auf der Idee, die Funktion in einem Ausgangspunkt zu linearisieren, d. h. ihre Tangente zu bestimmen, und die Nullstelle der Tangente als verbesserte Näherung der Nullstelle der Funktion zu verwenden. Die erhaltene Näherung dient als Ausgangspunkt für einen weiteren Verbesserungsschritt. Diese Iteration erfolgt bis die Änderung in der Näherungslösung eine festgesetzte Schranke unterschritten hat. Das Iterationsverfahren konvergiert im günstigsten Fall asymptotisch mit quadratischer Konvergenzordnung. Die Zahl der korrekten Dezimalstellen verdoppelt sich dann in jedem Schritt. Entscheidend für eine erfolgreiche Suche ist die Wahl des Ausgangspunktes. Falls dieser Punkt nicht in der Nähe der gesuchten Nullstelle liegt, kann das Verfahren auch divergieren. So sind bei der Nullstellensuche Bereiche problematisch, die sich in der Nähe von Extrema befinden. Ausgehend vom aufgestellten Polynom f( x) wird zur Bestimmung der Minima das Problem in eine Nullstellensuche überführt. Mit dem Gradienten der Antwortfläche ergibt sich dann g( x) = grad (f( x)) = 0. (4.10) Wird g( x) in der Nähe von x durch eine Taylor-Reihe entwickelt, ergibt sich mit Einführung der Jacobi-Matrix J g( x + δ x) = g( x) + Jδ x + O ( δx 2). (4.11) In dieser Reihenentwicklung sind schon alle Terme der Ordnung 2 und höher vernachlässigt. Wird nun auch noch g( x + δ x) = 0 gefordert, ergibt sich folgende Beziehung J x = g( x). (4.12)

69 4 Beschleunigungsmethoden der Optimierung 55 Aus diesem Gleichungssystem kann der Korrekturwert bestimmt werden und anschließend zum alten Lösungsvektor x i addiert werden. Mit dem daraus resultierenden neuen Lösungsvektor x i+1 = x i + δ x (4.13) wird diese Schrittfolge so lange wiederholt, bis das Verfahren konvergiert ist. Die hier verwendete Erweiterung beinhaltet die Restriktion des Wertebereichs. So wird nur innerhalb dieses Parameterbereichs nach dem Optimum gesucht. BFGS-Verfahren Quasi-Newton-Verfahren wie dem Broyden-Fletcher-Goldfarb-Shanno-Verfahren (BFGS) nutzen anstelle der Jacobi-Matrix eine Annäherung derselben, hier mit B B i δ x = F (4.14) bezeichnet. Als Bedingung gilt für B i+1 B i+1 δ x = δf i (4.15) Diese Gleichung ist eine Verallgemeinerung des eindimensionalen Sekantenverfahrens und ist nicht ausreichend für die Bestimmung von B i+1. Zusätzlich wird daher im hier beschriebenen Verfahren Broydens Formel verwendet. Beim Sekantenverfahren wird zunächst eine Sekante zwischen zwei Punkten der Funktion gelegt. Der Schnittpunkt der Sekante mit der x-achse wird als verbesserter Startwert für die Iteration verwendet. Mit diesem neuen Wert und dem alten Wert wird dieser Schritt wiederholt. Das einfachere Broyden Verfahren hat gegenüber dem Newton-Verfahren Vorteile. Im Gegensatz zur Newton-Iteration können die Nullstellen jeder beliebigen, hinreichend glatten Funktion auch ohne Kenntnis oder Berechnung der Ableitungen berechnet werden. Es reicht die Berechnung der Funktion. Entscheidender für den Einsatz dieses Verfahrens ist jedoch die mögliche Fokussierung auf ein bestimmtes Intervall. Durch die Vorgabe der beiden Startwerte wird auch die Richtung der Sekante festgelegt. Die Konvergenz kann dadurch allerdings nicht erzwungen werden. Gradientensuche Falls der Vertrauensbereich des Polynoms nur sehr lokal gegeben ist, besteht die Möglichkeit, in einem Punkt den Gradienten zu bestimmen. Mit dieser Information kann anschließend durch eine eindimensionale Suche in Richtung des Gradienten eine Näherung des Minimums gefunden werden. Überprüfen des Optimums Eine der speziellen Eigenschaften des Kernoptimierers ist die Diskretisierung des Optimierungsraums. Der Wertebereich der Eingangsvariablen wird dabei in diskrete (2n + 1)-Stützstellen

70 56 4 Beschleunigungsmethoden der Optimierung Gewichtung der Zielfunktionen ZF 2 1 0,00 0,25 0,50 0,75 1,00 2 1,00 0,75 0,50 0,25 0,00 ZF 1 Bild 4.6: Abtasten der Paretofront bei 2 Zielfunktionen innerhalb der polynomialen Antwortflächen eingeteilt. Im Laufe der Optimierung kann die Anzahl der Stützstellen erhöht werden, um das Suchgebiet zu verfeinern. Die Optima aus der polynomialen Antwortfläche können über den in Kapitel 3.4 beschriebenen Nebeneingang in den Optimierer integriert werden. Weiterhin werden die nächst liegenden, diskreten Punkte gesucht und überprüft, ob dessen Zielfunktion bereits im Verlauf der Optimierung berechnet wurde. Wenn dieser Punkt schon eingegangen ist, wird zunächst überprüft, welchen Rang der Datenpunkt besitzt. In Abhängigkeit davon wird entschieden, ob die Diskretisierung des Datenraums zusätzlich verfeinert werden soll oder ob zunächst noch mehr Datenpunkte in der Nähe des Optimums ausgewertet werden müssen Mehrdimensionale Zielfunktion Im Falle einer Mehr-Ziel-Optimierung wird für jede Zielfunktion ein eigenes Polynom aufgestellt. Zu jedem Polynom kann der Datenpunkt mit dem jeweils besten Zielfunktionswert berechnet werden. Zur Berechnung der gesamten Paretofront muss der Zwischenraum durch weitere Punkte abgetastet werden. Eine Möglichkeit besteht im Bestimmen des Frontverlaufs über die Evolutionsstrategie. Im Vergleich zu den Strömungsrechnungen ist die Auswertung der Antwortfläche signifikant schneller. Es muss allerdings gewährleistet sein, dass die Funktionen eine gute Approximation des Zielfunktionsraums darstellen. Gerade in den Randbereichen können die Polynome jedoch extrem von den Datenpunkten abweichen. Eine andere Methode ist in Bild 4.6 am Beispiel zweier Zielfunktionen dargestellt. In Rot sind die Punkte markiert, die direkt aus den aufgestellten Polynomen berechnet werden können. Die Funktionen zur Bestimmung der grün gefärbten Punkte werden über eine Gewichtung der

71 4 Beschleunigungsmethoden der Optimierung 57 Koeffizienten der beiden Polynome a n,i = α n,1 a ZF1,i + α n,2 a ZF2,i mit 2 α n,j = 1 (4.16) j=1 kombiniert. Für die neue Funktion kann dann das zugehörige (lokale) Minimum berechnet werden. Auf diese Weise kann die Paretofront wie z. B. in Bild 4.6 diskret aufgelöst werden Anwendungsmöglichkeiten Am Beispiel MMR2 aus Kapitel lassen sich gut die Eigenschaften Polynomialer Antwortflächen betrachten. Basierend auf einem Polynom 3. Grades müssen hier 10 Polynomialkoeffizienten bestimmt werden. Wie in Bild 4.7a dargestellt, müssen zunächst 20 gültige Datenpunkte, ausgehend vom Versuchsplan CVT-POLY100, durch die Evolutionsstrategie bestimmt werden. Für den Aufbau der zugehörigen Polynomialen Antwortflächen werden nur die gültigen Member verwendet, da die Restriktion nicht von einem einfachen Approximationspolynom abgebildet werden kann. Die Auswertung führt auf die beiden normierten Polynome f M,1 (x 1,x 2 ) = 4, 0 + 0, 0 x , 0 x , x 1 2 x 2 + 8, 0 x , 0 x 2 2 1, x 1 x 2 2 8, 0 x 1 8, 0 x 2 + 0, 0 x 1 x 2 und 3 f M,2 (x 1,x 2 ) = 9, 0 + 0, 0 x , 0 x 2 1, x 2 1 x , 0 x , 0 x 2 + 1, x 1 x 2 (4.17) mit 12, 0 x 1 12, 0 x 2 + 0, 0 x 1 x 2 x i = xi+2 4 (x i R 0 x i 1). Die beiden Polynome geben sehr gut die Zielfunktionen in Gl. (4.1) wieder. Die Abweichungen zwischen den exakten Lösungen und den Ergebnissen der Approximation sind vernachlässigbar, d. h. das Ersatzmodell ist für die Zielfunktionen dieses Problems gut geeignet. Dies ist auch nicht verwunderlich, da das ursprüngliche Problem auf einem quadratischen Ansatz basiert. Die kleinen Vorfaktoren für die Terme x 1 2 x 2 und x 1 x 2 2 sind auf Rundungsfehler in der Datenübertragung zwischen dem Optimierer und dem Ersatzmodell bzw. der Numerik zurückzuführen und können aufgrund ihrer geringen Größe vernachlässigt werden. Mit Blick auf die Polynomialkoeffizienten wird so deutlich, dass ein quadratischer Ansatz für die Antwortfläche zum einen ausgereicht hätte und zum anderen keine Mischterme der beiden Variablen auftreten. Über die Approximationspolynome können dann zunächst die beiden Datenpunkte mit dem jeweils besten Zielfunktionswert bestimmt werden. In Bild 4.7b sind sie gelb markiert. Mit dem Ansatz aus Kapitel werden 14 weitere äquidistante Stützstellen zum Abtasten der

72 58 4 Beschleunigungsmethoden der Optimierung x 2 2 (b) 1 1,5 (b) x ,5-1 zulässige Member unzulässige Member x 1 0 Punkte mit bestem ZF i gültige Zwischenpunkte verworfene Stützstellen -0,5-0,5 0 0,5 1 1,5 x 1 Bild 4.7: Vorgeschlagene Datenpunkte der Paretofront durch die Polynomiale Antwortfläche bei MMR2 Paretofront zwischen den beiden Extrema ermittelt. Da das Ersatzmodell von einem kontinuierlichen Problem ausgeht, werden die nicht zulässigen Datenpunkte zur Analyse der einzelnen vom Ersatzmodell vorgeschlagenen Stützstellen herangezogen. Im vorliegenden Beispiel werden zunächst die 3 nächsten Nachbarn ermittelt. Befindet sich unter den Nachbarn kein gültiger Datenpunkt, so wird die Stützstelle nicht an den Optimierer weitergegeben. In Bild 4.7b sind die verworfenen Stützstellen grün gekennzeichnet, wohingegen die weitergegebenen Punkte in orange dargestellt sind. Mit diesem einfachen Ansatz lässt sich die Restriktion in guter Näherung in das Ersatzmodell integrieren. Zwar werden in der frühen Phase der Optimierung nicht alle Vorschläge richtig eingeordnet. Es werden aber in allen drei zulässigen Unterbereichen Punkte auf der optimalen Paretofront gefunden. In [Zitzler et al. 2000] werden verschiedene, mit ZDT bezeichnete MO-Optimierungsprobleme beschrieben. Die beiden Zielfunktionen f 1 ( x) = x 1 ZDT = f 2 ( x) = g( x)h (f 1 ( x),g( x)) (4.18) mit g( x) = n n 1 j=2 x j sollen dabei minimiert werden. In den hier vorgestellten Untersuchungen ist die Zahl der freien Parameter auf n = 25 gesetzt. Im Falle des konvexen Beispiels ZDT2 ohne Restriktionen lautet die Funktion h (f 1 ( x),g( x)) in Gl. (4.18) h ZDT2 (f 1 ( x),g( x)) = 1 ( ) f1 ( x). (4.19) g( x)

73 4 Beschleunigungsmethoden der Optimierung 59 ZF 2 (a) ZF 2 1 0,9 0,5 0,7 0 0 CVT100-PolyRSM Random exakter Frontverlauf 0,5 (b) 0,5 1 0,66 0,70 0,74 ZF 1 ZF 1 Bild 4.8: Vergleich der Paretofronten einer zufällig initialisierten Evolutionsstrategie mit einer durch die Polynomiale Antwortfläche beschleunigten Optimierung am Beispiel ZDT2 nach 5000 Zielfunktionsauswertungen Die optimale Paretofront kann durch die Funktion f 2 = 1 f 1 2 (4.20) beschrieben werden. In Bild 4.8a ist sie als schwarze Linie eingezeichnet. Bei der Verwendung eines Approximationspolynoms 2. Grades müssen insgesamt 351 Polynomialkoeffizienten bestimmt werden. Daher müssen mindestens 400 Datensätze ausgewertet sein, bevor eine Polynomiale Antwortfläche aufgebaut werden kann, die alle Wechselwirkungen erfasst. Es zeigt sich, dass die erste Zielfunktion, analog zum ersten Beispiel, exakt gefunden wird. Die zweite Zielfunktion lässt sich hingegen nicht global durch einen quadratischen Ansatz abbilden. Die Abweichungen zwischen den exakten Zielfunktionswerten und den Vorhersagen der Polynomialen Antwortfläche sind zu groß. Das Approximationspolynom lässt nur die Aussage zu, dass Wechselwirkungen zwischen allen freien Parameter zu beobachten sind. Hier kann die Strategie daher nur lokal zur Vorhersage eingesetzt werden. In Bild 4.8 werden die Paretofronten einer zufällig initialisierten Optimierung (Random) und einer beschleunigten Optimierung (CVT100-PolyRSM) nach 5000 ausgewerteten Membern verglichen. Bei CVT100-PolyRSM wird als Startvektor ein CVT-Versuchsplan mit 100 gleichmäßig verteilten Stützstellen verwendet, um eine gute Abdeckung des Datenraums für die Polynomiale Antwortfläche zu gewährleisten. Nach 400 ausgewerteten Membern ist dann zum ersten Mal eine Antwortfläche aufgebaut worden. Mittels der Approximationspolynome wurden 50 potentielle Kandidaten bewertet. Die Datensätze mit den besten Vorhersagen wurden an die Optimierung zurückgesendet. In Intervallen von 200 ausgewerteten Membern ist dieser Prozess wiederholt

74 60 4 Beschleunigungsmethoden der Optimierung worden. Es zeigt sich, dass die erweiterte Optimierung deutlich besser zur exakten Lösung liegt. Einige Punkte befinden sich auf der optimalen Paretofront. In Bild 4.8b ist ein Ausschnitt aus dem Zielfunktionsraum vergrößert dargestellt. Bei der rein stochastischen Optimierung sind auch die Member im Zielfunktionsraum zufällig verteilt. In der erweiterten Optimierung zeigen sich hingegen senkrecht verlaufende Punktketten, die mit fortlaufender Dauer gegen die optimale Paretofront streben. In den Vorhersagen der Polynomialen Antwortflächen werden hier Member bevorzugt, die in der Nähe aktueller Optima liegen und einen besseren 2. Zielfunktionswert haben. Die Abstände zwischen den Membern in der Kette sind vergleichsweise gering, so dass ein langsamer, aber stetiger Fortschritt erzielt wird. Es sei an dieser Stelle daraufhingewiesen, dass die Parameter der Evolutionsstrategie nicht an dieses mathematische Problem speziell angepasst worden sind, sondern es sind die Einstellungen aus der Verdichteroptimierung verwendet worden. In diesem Beispiel soll der Beschleunigungseffekt durch den Einsatz Polynomialer Antwortflächen verdeutlicht werden. 4.3 Neuronale Netze In den 1940er Jahren wurde die Arbeitsweise biologischer Neuronaler Netze wie z.b. dem menschlichen Gehirn untersucht, um künstlich Neuronale Netze zu entwickeln. Ihre Vorteile liegen in der parallelen Verarbeitung vieler Informationen und in der Abbildung von Strukturen mittels eines Lernprozesses. Neuronale Netze können dabei Nichtlinearitäten abbilden, deren Gültigkeit über die Reproduktion der Trainingsdaten hinausgeht, d. h. sie erlauben Aussagen über generelle Zusammenhänge. Weiterhin ist diese Methodik durch ihre verteilte Informationspräsentation äußerst robust. Um Neuronale Netze richtig einsetzen zu können, sind im Allgemeinen große Erfahrungen und umfangreiche Untersuchungen für die Wahl einer geeigneten Netzwerktopologie und die Einstellungen der Verfahrensparameter erforderlich. Darüber hinaus ist es auch kritisch, die Dauer des Lernprozesses zu bewerten. Zum einen steigt die notwendige Trainingszeit mit der Menge der Trainingsdaten und der Anzahl der Freiheitsgrade an. Zum anderen muss aber auch der geeignete Abbruch des Trainings gefunden werden, damit das Neuronale Netz seine globalen Abbildungseigenschaften nicht verliert. Durch die vorher beschriebenen Eigenschaften Neuronaler Netze eignen sie sich zum Beschleunigen der Optimumsuche. Die Ergebnisse der Optimierung können zusätzlich zum Training Neuronaler Netze genutzt werden. Im weiteren Verlauf lassen sich dann die trainierten Netze als Ersatz- bzw. Vorhersagemodell im Optimierungsprozess einsetzen, um weniger aerodynamische Simulationen durchführen zu müssen.

75 4 Beschleunigungsmethoden der Optimierung 61 x 1 w 1 x 2 w 2 w 3 θ y x 3 x 4 w 4 Bild 4.9: Arbeitsweise eines Neurons Grundlagen künstlicher Neuronaler Netze Neuronale Netze bestehen aus einer Vielzahl einfacher Bausteine, genannt Neuronen, und deren Verknüpfungen, die in verschiedenen Schichten gruppiert sind. Für den Anwender sind nur die Ein- und Ausgabeschicht zu sehen. Die Schichten dazwischen bleiben verborgen und lassen sich als Black Box betrachten, d.h. ein direkter Zusammenhang zwischen der Eingabe und der zugehörigen Ausgabe ist nicht zu erkennen. Die Neuronen stellen Knoten in einem Netz dar und die Verknüpfungen sind gerichtete Informationsflüsse. Im Rahmen verschiedener Untersuchungen von [Uelschen 2000] und [Ahmed 2005] sind ausschließlich vorwärtsgerichtete Netztopologien ohne Rückkopplung, sogenannte Feedforward-Netzwerke, betrachtet worden. Sie setzen sich neben einer Eingabeschicht und einer Ausgabeschicht aus beliebig vielen verborgenen Schichten zusammen. Die Propagierung der Information findet hier von Schicht zu Schicht unter Berücksichtigung der topologischen Ordnung statt. Die Arbeitsweise eines einzelnen Neurons j ist in Bild 4.9 skizziert. Die einzelnen eingehenden Signale x i,j (i = 1,...,M) werden mittels eines Gewichtungsvektors w j = (w 1,j,...,w M,j ) aufsummiert. Dabei bezeichnet w ij das Gewicht der Verknüpfung vom Knoten i zum Knoten j. Im Zusammenhang mit dem Schwellwert θ spricht man vom Nettoeingangsgewicht ( M ) net j = w ij x i θ. (4.21) i=1 Falls die Summe den Schwellwert θ überschreitet, sendet das Neuron seinerseits ein Ausgabesignal an die Neuronen der nächsten Schicht. Zur Vereinfachung wird eine zu Gl. (4.21) gleichwertige Definition mit Schwellenwert θ = 0 verwendet. Dazu wird ein zusätzliches Bias- Neuron mit konstantem Eingangswert x 0,j = 1 und Gewicht w 0,j = θ eingeführt, so dass für

76 62 4 Beschleunigungsmethoden der Optimierung den Nettoeingangswert net j = M w i,j x i,j (4.22) folgt. Das Ausgabesignal y j des Knotens j wird mit Hilfe von Transferfunktionen i=0 ( M ) y j = f act (net j ) = f act w ij x i i=0 (4.23) aus dem Nettoeingangswert net j berechnet. Als Transferfunktion kommen oft stetig differenzierbare Funktionen mit Sättigungscharakter wie z.b. der Tangens Hyperbolicus oder die Sigmoidalfunktion f act (x) = tanh(x) (4.24) f act (x) = e cx (4.25) zum Einsatz, da in den meisten Lernverfahren die Abstiegsrichtung des Gradienten bestimmt werden muss. Die beiden Funktionen aus Gl. (4.24) und Gl. (4.25) sind zudem streng monoton steigend und nichtlinear. Bei der Sigmoide kann die Ableitung in Abhängigkeit von der Funktion dargestellt werden, so dass folgt f act(x) = f act (x) ( 1 f act (x) ). (4.26) Die Eingabegrößen werden als Vektor e R m an die m Neuronen der Eingabeschicht angelegt. Der Ergebnisvektor a R n besteht aus den Ausgabesignalen der n Knoten der Ausgabeschicht. Die Neuronen der verborgenen Schichten sind mit allen Neuronen der vorhergehenden und der nachfolgenden Schicht verbunden. Der Informationsfluss ist am Beispiel eines Feedforward- Netzwerkes mit einer Topologie schematisch in Bild 4.10 dargestellt. Durch die verborgenen Schichten können die nichtlinearen Zusammenhänge zwischen der Ein- und der Ausgabe abgebildet werden. Die beste Netztopologie ist schwierig zu bestimmen und abhängig vom jeweiligen Problem. Konkurrierende Anforderungen an z.b. die Approximationsgüte, die Konvergenzgeschwindigkeit oder die Robustheit erschweren die Suche nach dem optimalen Netz. Aufgrund des Einsatzes innerhalb der Evolutionsstrategie ist auch die Verteilung der Trainingsdaten mit Gebieten sehr hoher und sehr niedriger Datensatzdichte im vorliegenden Fall problematisch. Die Literatur unterscheidet zum Teil zwischen dem Aktivierungszustand y j und der Ausgabe o j eines Neurons j. In diesen Fällen wird zusätzlich eine Ausgabefunktion o j = f out (y j ) (4.27)

77 4 Beschleunigungsmethoden der Optimierung 63 Bild 4.10: Feedforward-Netzwerk mit zwei verborgenen Schichten benötigt, die die beiden Größen miteinander verknüpft. Wenn in Gl. (4.27) die Funktion f out (x) = x eingesetzt wird, stimmen allerdings beide Modelle überein Lernverfahren Bevor Neuronale Netze zur Beschleunigung genutzt werden können, müssen sie zunächst trainiert werden. Dies geschieht innerhalb der überwachten Lernverfahren durch die erforderlichen Trainingsdaten. Die Trainingsdaten werden der Datenbasis entnommen und setzen sich aus dem Parametersatz, der Eingabe, und den zugehörigen Zielfunktionswerten als Ausgabe zusammen. Diese Muster werden an das Netz angelegt. Über die Abweichungen zwischen der geforderten Ausgabe und der berechneten Ausgabe können die Gewichte w i,j zyklisch angepasst werden, um eine verbesserte Vorhersage der Ausgabe zu erreichen. Die Korrektur der Netzgewichte wird so lange fortgesetzt, bis der Fehler zwischen errechneter Ausgabe und Sollwert ein Minimum erreicht hat. Beim unüberwachten Lernen erhält das Netz hingegen keine Fehlerinformation. Entscheidungen, die Gewichte zu ändern, müssen hier in einem selbstorganisierenden Prozess getroffen werden. Diese Lernformen sind näher an das biologische Vorbild angelehnt und werden häufig zur Strukturierung einer Datenbasis, zur Klassifizierung und zur Mustererkennung verwendet. Vor dem Beginn des Trainings müssen zunächst alle Gewichte mit kleinen zufälligen Zahlenwerten initialisiert werden. In [Ahmed 2005] sind gute Erfahrungen mit dem Backpropagation-Algorithmus gemacht worden, dem bei Feedforward-Netzen am häufigsten eingesetzten Lernverfahren mit Überwachung.

78 64 4 Beschleunigungsmethoden der Optimierung Für das Training wird zuerst ein Muster als Eingabevektor an das Netzwerk angelegt. Danach werden sowohl die Ausgangssignale y j = a j (j = 1,...,n) der n Knoten in der Ausgabeschicht als auch die Abweichung n E = (ȳ j y j ) 2 (4.28) j=1 von der gewünschten Ausgabe ȳ berechnet. Anschließend wird die Fehlerfunktion in Gl. (4.28) minimiert, indem die Gewichte w i,j nach der Beziehung in negativer Gradientenrichtung w (neu) i,j = w (alt) i,j + w i,j (4.29) w i,j = L E w i,j (4.30) aktualisiert werden. Mit dem Faktor L wird die Lernrate bezeichnet. Unter einem Trainingszyklus versteht man die sukzessive Durchführung dieser Schritte für alle Muster. Die Zyklen werden so lange wiederholt, bis der Fehler eine vorgegebene Schranke unterschreitet oder eine maximale Anzahl von Iterationen erreicht wurde. Anknüpfend an die Ergebnisse aus früheren Arbeiten am Fachgebiet Strömungsmaschinen (vgl. [Ahmed 2001]) wird im weiteren die Sigmoide nach Gl. (4.25) mit c = 1 als Transferfunktion f act benutzt, so dass die Gewichte mit w ij = Ly i δ j (4.31) aktualisiert werden. Dabei gilt für das Fehlersignal δ j des Knotens j f act(net j ) (ȳ j y j ), δ j = f act(net j ) δ k w jk, k falls j Ausgabeknoten; falls j verborgener Knoten. (4.32) Da in Gradientenverfahren wie dem Backpropagation-Algorithmus keine globalen Fehlerinformationen verwendet werden, kann z.b. das Training in einem lokalen Minimum hängen bleiben. Folglich kann nicht gewährleistet werden, dass die gefundene optimale Einstellung der Gewichtung auch dem globalen Optimum entspricht. Ein anderes Problem ist die Wahl einer geeigneten Lernrate. Falls der Fehlerraum steile Schluchten aufweist, können zu große Lernraten die Bereiche ungünstiger Weise überspringen. Auf der anderen Seite führen zu kleine Lernraten zu extrem langsamen Konvergenzgeschwindigkeiten. Daneben sind auch flache Plateaus nachteilig für die Konvergenzgeschwindigkeit. Zur Beschleunigung wird in [Ahmed 2005] ein Flat-Spot-Eliminationsparameter F eingeführt. Durch die Sigmoidalfunktion wird die Fehlersignalberechnung nach Gl. (4.32) gebremst. In den

79 4 Beschleunigungsmethoden der Optimierung 65-1 MSE [log 10 ] Trainingsdaten Testdaten Anzahl der Trainingszyklen [-] Bild 4.11: Beispielhafter Konvergenzverlauf der Fehlerfunktion Randbereichen nahe 0 bzw. 1 ist die Ableitung f act gleich Null. Diese Bereiche werden auch Flat Spots genannt. Durch die Addition einer kleinen Konstanten kann das Training beschleunigt werden. Mit dem Flat-Spot-Eliminationsparameter ergibt sich dann für die Fehlersignale ( yj (1 y j ) + F ) (ȳ j y j ), falls j Ausgabeknoten; δ j = ( yj (1 y j ) + F ) δ k w jk, falls j verborgener Knoten. k (4.33) Zum anderen wird ein Momentumterm M zur Bestimmung der Gewichtsänderungen w i,j berücksichtigt, so dass aus Gl. (4.31) folgt w (neu) i,j = Ly i δ j + M w (alt) i,j. (4.34) Durch den Momentumterm wird die Optimumsuche bei großen Gradienten abgebremst und bei kleinen beschleunigt. Um das Neuronale Netz möglichst gut anzupassen, werden die Daten in Trainings- und Testmuster aufgeteilt. Innerhalb des Trainings werden auch nur die Trainingsdaten berücksichtigt, so dass sich der Fehler in Bezug auf die Trainingsmuster mit fortlaufendem Training auch verkleinern sollte. Im Gegensatz dazu nimmt der Testdatenfehler im Mittel zunächst ab und wird dann wieder ansteigen. In dieser Phase passt sich das Neuronale Netz zu sehr an die Trai-

80 66 4 Beschleunigungsmethoden der Optimierung ningsdaten an und verliert seine globale Approximationsfähigkeit. Daher sollte das Training bei minimalem Testfehler abgebrochen werden. Bild 4.11 zeigt beispielhaft den charakteristischen Konvergenzverlauf der auf die Anzahl der Trainings- bzw. Testdaten bezogenen Fehlerfunktion (MSE). Die optimale Trainingsdauer ist in diesem Beispiel durch eine gestrichelte, senkrechte Linie gekennzeichnet. Der Verlauf des Testdatenfehlers weist bei etwa 600 Trainingszyklen ein lokales Minimum auf. Das globale Minimum befindet sich jedoch bei 2444 Zyklen. Daher wird hier nach Erreichen eines Minimums das Training trotzdem fortgesetzt. Die Einstellungen des bisher besten Neuronales Netzes, bezogen auf den Testdatenfehler, werden zunächst zwischengespeichert. Wenn nach einer festgelegten Anzahl an Trainingszyklen der Testdatenfehler nicht global verbessert werden konnte, wird das Training abgebrochen. Das Neuronale Netz aus dem Zwischenspeicher wird dann für die weiteren Untersuchungen verwendet. So lassen sich auch Trainingsverläufe zu einem geeigneten Zeitpunkt abbrechen, wenn kein glatter Fehlerverlauf vorliegt. Mit der Anzahl der Muster und mit der Größe des Netzes erhöht sich zudem die Trainingsdauer Implementierung Basierend auf dem vorher beschriebenen Verfahren ist ein Programmmodul aufgebaut worden, das im Kern aus einem einfachen Simulator für das Training Neuronaler Netze mit dem in Kapitel beschriebenen, modifizierten Backpropagation-Algorithmus besteht. Als Abbruchkriterium des Lernverfahrens wird eine Verschlechterung des Testdatenfehlers definiert. Zusätzlich wird ein Intervall für die Anzahl der Trainingszyklen festgelegt, in dem die Testdaten analysiert werden. In diesem Fall werden dann die Einstellungen der Gewichte mit dem geringsten Testdatenfehler benutzt. Die Arbeiten von [Ahmed 2005] zeigen, dass es für den Konvergenzverlauf und die Approximationsgüte sinnvoll ist, die Trainingsdaten auf das Intervall [0.1, 0.9] sowohl für die Eingabe als auch die Ausgabe zu skalieren. Das Konvergenzverhalten der Fehlerfunktion lässt sich deutlich verbessern, wenn für jede Komponente der Ein- und Ausgabevektoren jeweils Maximum und Minimum aller Muster bestimmt und anschließend zur Skalierung verwendet wurden. Dieser Ansatz ist innerhalb des Programmmoduls realisiert. Die erfolgreiche Durchführung des Verfahrens hängt stark von den Trainingsdaten und mehreren Parametern ab. Dabei ist die geeignete Wahl der Netzwerktopologie und der Größen L, M und F anwendungsabhängig, sie kann nur experimentell bestimmt werden. Von großem Einfluss sind außerdem die zur Initialisierung der Startgewichte vorgegebenen Intervallgrenzen, die obere Fehlerschranke sowie die Eigenschaften der Evolutionsstrategie. Aufgrund der Untersuchungen mit dem ZDT2-Testproblem durch ein Feedforward-Netzwerk mit einer Topologie werden folgende Werte vorgeschlagen. Lernrate L = 0, 4

81 4 Beschleunigungsmethoden der Optimierung 67 berechneter Funktionswert, normiert 1,0 (a) 0,75 0,5 0,25 0,0 0,0 Training (1000 Sets) Testdaten (1000 Sets) Training (3000 Sets) Testdaten (3000 Sets) 0,25 0,5 0,75 0,25 0,5 0,75 (b) approximierter Funktionswert, normiert 1,0 Bild 4.12: Approximationsgüte des Neuronalen Netzes bei ZDT2: (a) Zielfunktion ZF 1, (b) Zielfunktion ZF 2 Momentumterm M = 0, 3 und Flat-Spot-Eliminationsparameter F = 0, 1 Außerdem ist das Programm so aufgebaut, dass mehrere Netze mit unterschiedlichen, zufälligen Startgewichtungen mit den gleichen Trainings- und Testdaten gleichzeitig trainiert werden, um die in Kapitel angesprochenen Probleme mit der Konvergenzzuverlässigkeit zu vermeiden. Nach dem Training der einzelnen Netze werden sie miteinander verglichen. Das Netz mit dem kleinsten Testfehler wird genommen und mit dem bisher besten Neuronalen Netz verglichen. Nur wenn das neu trainierte Netz einen geringeren Fehler aufweist und zudem unterhalb einer definierten oberen Fehlerschranke liegt, wird es auch verwendet. Ansonsten wird das gespeicherte Netz weiterhin benutzt. Um die Rechenzeit zu beschränken, kann die zulässige Anzahl der Muster auf einen Bereich festgelegt werden, so dass alte Muster im Programmverlauf vergessen werden und die Neuronalen Netze sich von einem globalen hin zu einem lokalen Approximationsmodell entwickeln, analog zur Fokussierung der Evolutionsstrategie auf die nähere Umgebung des gefundenen Optimums. Als problematisch erwies sich außerdem in einigen Fällen die Verwendung der auf die Anzahl der Testdaten bezogenen mittleren quadratischen Fehlerfunktion (MSE) zur Beurteilung der Approximationsgüte eines trainierten Netzes. Auch Netze mit kleinem Fehler konnten manch-

82 68 4 Beschleunigungsmethoden der Optimierung mal eine schlechte, solche mit großem Fehler dagegen eine gute Vorhersagequalität besitzen. Ursache war in diesen Fällen zumeist eine ungleichmäßige Verteilung der skalierten Testmuster im Intervall [0.1, 0.9]. Mit fortschreitender Optimierung nimmt der Anteil der Datensätze mit kleinerem Funktionswert zu. Dadurch verringert sich der Fehler durch Ausreißer mit hohen Zielfunktionswerten. Für Testmuster mit kleinen Zielfunktionswerten wird das Netz zudem besser trainiert. Mit Blick auf das Minimierungsproblem ist dies gewollt, weil hier die Bereiche mit kleinen Ausgabewerten interessant sind. Diese Vorgehensweise wird motiviert durch die Tatsache, dass sie in der erweiterten Evolutionsstrategie nur als Prognosewerkzeug verwendet werden. Im Allgemeinen setzt sich eine Zielfunktion aus mehreren einzelnen Termen zusammen, die über Gewichtungen vom Anwender miteinander verknüpft sind. Anstelle eines Ausgabeknotens für die Zielfunktion kann auch jeder Term der Zielfunktion durch einen eigenen Ausgabeknoten repräsentiert werden. Dadurch wird eine durch die Optimierung ausgegebene Antwortfläche unabhängig von Änderungen der Gewichte. Der Gesamtzielfunktionswert wird dann unter Berücksichtigung der vorgegebenen Gewichte aus diesen approximierten Termen zusammengesetzt. Anstatt eines einzigen Netzes mit mehreren Ausgabeknoten wird hier allerdings für jede Zielfunktion ein Netz mit jeweils nur einem Ausgabeknoten verwendet. Dies ist zwar insgesamt aufwendiger, es lässt sich somit jedoch eine höhere Approximationsgenauigkeit erreichen Anwendungsmöglichkeiten Zum Vergleich mit den Polynomialen Antwortflächen wird hier das mathematische MO-Optimierungsproblem ZDT2 aus Kapitel wieder aufgegriffen. Die Optimierung wird nach der Auswertung von 1000 Membern unterbrochen. Basierend auf diesen Membern wird dann ein Neuronales Netz der Topologie trainiert. Aus den Datensätzen werden die besten 600 Member herausgegriffen, wenn deren Zielfunktionswerte unterhalb eines Schwellwertes liegen, und in Test- und Trainingsdaten aufgeteilt. Das Training wird hier über einen vorher festgelegten Trainingszeitraum durchgeführt, ohne dass das Training vorzeitig beendet werden kann. Im Gegensatz zu Bild 4.11 sind die Konvergenzverläufe deutlich verrauscht und zeigen keinen glatten Verlauf. Zum Einstellen der Gewichte wird die Konfiguration mit dem kleinsten Testdatenfehler verwendet. In Bild 4.12 ist die normierte Approximationsgüte zweier Neuronaler Netze für die beiden Zielfunktionen dargestellt. Es handelt sich dabei um die Neuronalen Netze nach 1000 und 3000 ausgewerteten Membern in der Optimierung. Es zeigt sich, dass die erste Zielfunktion schon sehr früh in guter Näherung durch ein Neuronales Netz approximiert werden kann. Bei der Einfachheit dieser Funktion (vgl. Gl. (4.18)) ist dies allerdings auch zu erwarten. Die zweite Zielfunktion ist deutlich komplexer. Nach 1000 ausgewerteten Membern zeigen sich deutliche Abweichungen für die Testdaten. Die Testdaten werden vom Neuronalen Netz nach 3000 ausgewerteten Membern besser wiedergegeben. Dies wird insbesondere durch die dynamischen

83 4 Beschleunigungsmethoden der Optimierung 69 Anpassung der Wertebereiche für die Ein- und Ausgabegrößen begünstigt. Durch die Annäherung der Optimierung an die optimale Paretofront wird auch der Parameterraum kleiner, im dem sich die besten 600 Member der Datenbasis befinden. Die dynamische Einstellung des Parameterbereichs ist auch für die unterschiedlich abgedeckten Bandbreiten in Bild 4.12 verantwortlich. Im Laufe der Optimierung verbessert sich so zwar die Approximationsgüte des Neuronalen Netzes und die Suche nach der optimalen Paretofront beschleunigt sich. Allerdings wird hingegen der abgedeckte Parameterraum kleiner, so dass die globale Approximationsgüte des Neuronalen Netzes reduziert wird. 4.4 Kriging Der Begriff Kriging beschreibt geostatistische Schätzverfahren, mit denen die Werte an unbekannten Orten durch die Messergebnisse der umliegenden Datenpunkte interpoliert bzw. approximiert werden können. Die Theorie und der zugehörige Name gehen auf die Arbeiten des südafrikanischen Geostatistikers Daniel G. Krige, 1951, zurück. In die verwendete Optimierungsschale AutoOpti ist von [Voß und Nicke 2008] ein Kriging-Verfahren implementiert worden, das in Kapitel 6 zur Beschleunigung der Optimierung eingesetzt wird. In [Lophaven et al. 2002] ist ausgehend von den bereits ausgewerteten Messpunkten, einem Regressionsmodell F und einem Korrelationsmodell R der Aufbau eines Kriging-Modells beschrieben. Wenn D die Anzahl der freien Variablen ist und N für die Anzahl der bewerteten Datenpunkte steht, bezeichnen x i = (x i,1,...,x i,d ) den Parametervektor für den i-ten Datenpunkt und y s = (y 1,...,y N ) alle Zielfunktionswerte einer Zielfunktion. Der Vektor x = (x 1,...,x D ) stellt einen unbekannten Punkt im Parameterraum dar. Das Regressionsmodell besteht aus einer Linearkombination von k Basisfunktionen P, die vom Anwender gewählt werden, so dass für das Regressionsmodell F = f ( x) T β mit f ( x) = (P1 ( x),...,p k ( x)) und F i,: = f ( x i ) T ( ) (4.35) F R m k folgt. Das Korrelationsmodell bezeichnet die Korrelation zweier Member. Für die Auswahl der beiden Modelle steht jeweils eine Vielzahl an verschiedene Funktionen zur Verfügung, aus denen der User passende Ansätze auswählen muss. In [Voß und Nicke 2008] werden z. B. ein Polynom 0. Ordnung, folglich eine Konstante, und eine Schar von Exponentialfunktionen R( x i, x j ) = exp ( ) D Θ l x i,l x j,l pl l=1 (4.36) als Regressions- und Korrelationsmodell verwendet. Die sogenannten Hyperparameter Θ l und

84 70 4 Beschleunigungsmethoden der Optimierung p l werden innerhalb des Trainings an die Daten angepasst. Aufbauend auf Gl. (4.36) ergibt sich dann für die Korrelationsmatrix R i,j ( Θ, p,λ) = R ( x i, x j ) + λ δ i,j, (4.37) in die mit λ ein weiterer Hyperparameter als Diagonalaufschlag einfließt. Dieser Hyperparameter dient zur Regulierung der Korrelationsmatrix. Ist λ = 0, so werden die Funktionswerte interpoliert, ansonsten werden sie approximiert. Das Schätzen eines Funktionswertes bei Kriging-Verfahren setzt sich aus der Summe eines Erwartungswertes f T ˆβ und einer lokal gewichteten Linearkombination der Abweichungen ( y s f T ˆβ) aller Messwerte von diesem Erwartungswert zusammen, so dass für den Funktionswert am Ort x ŷ = f T ˆβ + r T ( x) R 1 ( Θ, ( p,λ) y s F ˆβ ) gilt. Dabei steht r T ( x) für den Korrelationsvektor (4.38) r T ( x) = (R ( x, x 1 ),..., R ( x, x N )) T. (4.39) Der beste Schätzer des Erwartungswertes ˆβ berechnet sich nach ˆβ = F T R 1 ( Θ, p,λ) y s F T R 1 ( Θ, p,λ) F (4.40) unter Berücksichtigung der zugehörigen globalen Modellvarianz σ 2 = 1 ( N y s F ˆβ ) R 1 ( Θ, ( p,λ) y s F ˆβ ). (4.41) Die optimale Wahl der Hyperparameter wird dann über die Minimierung des Problems bestimmt. ψ( Θ, ( p,λ) = σ 2 det R 1 ( Θ, ) 1 N p,λ) (4.42) In Gl. (4.38) liefert der Gewichtungsvektor der Linearkombination g( x) = r T ( x) R 1 ( Θ, p,λ) einen Kompromiss zwischen der großen Gewichtung eines mit dem auszuwertenden Punkt stark korrelierten Messwertes und der räumlichen Korrelation zwischen den Messwerten. Weiterführende Informationen zum Training und der Bestimmung der optimalen Hyperparameter finden sich u. a. in [Lophaven et al. 2002].

85 5 Zielfunktionsmodellierung in der Verdichterauslegung 71 5 Zielfunktionsmodellierung in der Verdichterauslegung Die Qualität jeder Optimierung ist sehr stark abhängig von der Wahl einer geeigneten Zielfunktion, anhand derer verschiedene Konfigurationen gegeneinander bewertet werden können. Zielfunktionen werden üblicherweise so definiert, dass es sich um ein Minimierungsproblem handelt. 5.1 Bestandteile der Zielfunktion Die Zielfunktionen setzen sich oftmals aus verschiedenen Teiltermen zusammen. Dabei ist die klare Trennung zwischen den zu optimierenden Eigenschaften und zusätzlichen Nebenbedingungen bei vielen technischen Fragestellungen nicht möglich. Mit dem Ziel, die Effizienz eines Bauteils oder Systems zu maximieren, sind in der Regel zahlreiche Forderungen verbunden. Hierzu zählen sowohl das Minimieren von Kosten, Gewichten sowie Bauvolumina als auch das Erzielen möglichst großer Wirkungsgrade, Betriebsbereiche und Zuverlässigkeit. Im Entwicklungsprozess muss für eine konkrete Aufgabe aus den verschiedenen Zielen eine sinnvolle Kombination entwickelt werden. Wie in Kapitel 3.2 dargestellt, bieten Mehrziel-Optimierungen dabei die Möglichkeit, die Gewichtung verschiedener Forderungen erst nach der Optimierung festlegen zu müssen. Aus mathematischer Sicht können Zielfunktion und Nebenbedingungen mit Hilfe der Lagrange Multiplikatoren zur Lagrange-Funktion zusammengesetzt werden. Entsprechende Lösungsverfahren wie zum Beispiel der SQP-Algorithmus von [Schittkowski 1985] erlauben dann auch bei komplexen Aufgabenstellungen eine genaue Berücksichtigung von Gleichheits- und Ungleichheitsrestriktionen. Innerhalb der stochastischen Verfahren sind zur Berücksichtigung von Nebenbedingungen andere Vorgehensweisen erforderlich. So besteht die Möglichkeit, eine Verletzung der Restriktion durch einen Straffunktionsterm in der Zielfunktion zu berücksichtigen, oder innerhalb der Evolutionsstrategie wird ein derartiger Member nicht in die Population aufgenommen. Details der hier umgesetzten Vorgehensweise sind im Folgenden dargestellt. Die Zielfunktion ZF ZF = w q,i Q i + w p,j P j (5.1) i j

86 72 5 Zielfunktionsmodellierung in der Verdichterauslegung setzt sich aus Zielfunktionstermen Q i und Nebenbedingungen bzw. Straffunktionstermen P j zusammen Zielfunktionsgrößen Ein Hauptziel der Verdichteroptimierung ist die Maximierung des Wirkungsgrades η. Als Zielfunktionsterm formuliert, ergibt sich Q = 1 η. (5.2) Neben dem Wirkungsgrad sind bei der aerodynamischen Auslegung von Axialverdichtern noch weitere Kennzahlen von Bedeutung. Dies sind vor allem das Gesamtdruckverhältnis, der Massenstrom und der Pumpgrenzabstand. Bei Betrachtung der Meridianströmungen kommen noch die aerodynamischen Belastungen der Gitter in Form der Diffusionszahlen als Optimierungskriterium hinzu. Es werden neben den maximalen Belastungen in einzelnen Gittern auch Mittelwerte berücksichtigt, um so das Belastungsniveau und damit auch den Abstand zur Stabilitätsgrenze näherungsweise zu erfassen Nebenbedingungen Die oben genannten Strömungskennzahlen können ebenfalls als Nebenbedingungen eingesetzt werden. Weiterhin lassen sich auch die Zuström-Machzahlen der einzelnen Gitter, die DeHaller-Koeffizienten, die axialen Stromdichteverhältnisse und die Inzidenzwinkel als Nebenbedingungen formulieren, zum Teil mit einer individuellen Betrachtung der einzelnen Rotoren und Statoren. Nebenbedingungen greifen in der Regel nur, wenn die aufgeführten Größen außerhalb eines zulässigen Bereichs liegen, und fließen dann als Zielfunktionsabschlag in die Bewertung ein. Ein Über- bzw. Unterschreiten der vorgegebenen Grenzwerte um einen Betrag führt jeweils zu einem Straffunktionsterm P ( ). Mit Hilfe des Gewichtungsfaktors w p,j, den der Anwender manuell für jeden Betriebspunkt vorgeben kann, wird der Einfluss von P j in der Zielfunktion gesteuert. Die Terme von P j können linear oder quadratisch mit wachsen. Damit die Abschläge vergleichbar sind, die durch das Verletzen einzelner Nebenbedingungen entstehen, wird P j aus und einem Skalierungsfaktor f j P j = f j R ( ) (5.3) bestimmt. R ( ) kennzeichnet hierbei die lineare oder quadratische Abhängigkeit. Es hat sich als zweckmäßig erwiesen, die Skalierungsfaktoren f j so zu wählen, dass P j bei einem Referenzwert ref gerade zu einem Wirkungsgradabschlag von 0, 01 führt. Zusammenfassend wird

87 5 Zielfunktionsmodellierung in der Verdichterauslegung 73 0,12 Straffunktionsterm P [-] 0,10 0,08 0,06 0,04 0,02 0,00 ṁ soll ṁ ṁ soll ṁ soll + ṁ Massenstrom ṁ 0,40 Straffunktionsterm P [-] 0,30 0,20 0,10 0,00 0,50 0,75 1,00 1,25 1,50 bez. Diffusionszahl DF/DF max [-] Bild 5.1: Beispiele zum Aufbau der Straffunktionsterme P j die Zielfunktion nach Gl. (5.1) aus allen Zieltermen Q i und den Straffunktionstermen P j aller Nebenbedingungen sowie den zugehörigen Gewichtungsfaktoren w q,i und w p,j gebildet. In Bild 5.1 sind mögliche Kurvenverläufe der Straffunktionsterme für den Massenstrom und die Diffusionszahl dargestellt. Im Falle des Massenstroms (Bild 5.1a) ist ein zulässiger Bereich definiert, in dem eine kleine Abweichung vom Soll-Massenstrom zu keiner Bestrafung der Zielfunktion führt. Wenn die Grenzen allerdings überschritten werden, steigt der Abschlag linear an. Bild 5.1b zeigt eine Nebenbedingung für die Diffusionszahlen. Beim Überschreiten der oberen Schranke von DF max steigt der zugehörige Straffunktionsterm quadratisch an. 5.2 Parameter der Optimierung Innerhalb der 2D-Optimierung kommen als Optimierungsparameter sowohl die Ringraumgeometrie, d. h. der Konturverlauf von Nabe und Gehäuse sowie die Verläufe von Vorder- und

88 74 5 Zielfunktionsmodellierung in der Verdichterauslegung Hinterkante im Meridianschnitt als auch einzelne Profilparameter in Frage. (a) (b) l β 2m a ax t h m β 1m d r r m z α s Bild 5.2: Geometrieparameter der Schaufelprofile Die Ringraumkonturen sind innerhalb der Meridianströmungsrechnungen durch Splines definiert. Durch das Verschieben der Kontrollpunkte wird die Geometrie verändert. Daneben umfassen die zu optimierenden Freiheitsgrade Parameter für die einzelnen Schaufelprofile eines Gitters. Dies sind die Winkel der Skelettlinie an der Vorderkante β 1m und an der Hinterkante β 2m, das Teilungsverhältnis t/l und die relative Profildicke d max /l sowie die Schaufelzahl z. Zur Veranschaulichung sind die Größen in Bild 5.2 dargestellt. Der dort eingetragene Staffelungswinkel α s ist kein Optimierungsparameter, da er sich aus den Optimierungsgrößen berechnen lässt. Gleiches gilt für die Sehnenlänge l des Gitters, die durch das Teilungsverhältnis, den Radius und die Schaufelzahl festgelegt ist. Diese sechs Geometrieparameter der Schaufelprofile sind für jedes Schaufelsegment des Gitters definiert. Bei der Optimierung eines m-stufigen Verdichters mit Vorleitrad stehen im Fall von durchschnittlich p Profilschnitten und k Kontrollpunkten pro Gitter damit beispielsweise n = (2m + 1) (5 + 6p + 2k) (5.4) Freiheitsgrade zur Verfügung. Diese Anzahl kann aber dadurch reduziert werden, dass nur einzelne Parameter für die Optimierung freigegeben werden und dann als Stützstellen einer Interpolation der anderen Parameter dienen. Bei den Ringraumgrößen erfolgt diese Interpolation über dem Gitterindex, bei den Profilgrößen eines Gitters erfolgt sie bezüglich der Schaufelseg-

89 5 Zielfunktionsmodellierung in der Verdichterauslegung 75 mente. Diese Vorgehensweise geht zurück auf Arbeiten von [Müller-Töws 2000] und [Ahmed 2005]. Beim Einlesen der Verdichterkonfiguration werden die Optimierungsparameter automatisch erfasst. Zusätzlich zum realen Ist-Wert werden dabei die untere und obere Schranke x i,min und x i,max eingelesen, zwischen denen sich die Parameterwerte x i R (1 i n) bewegen dürfen. In der Optimierung sind die Parameter normiert und müssen daher auf den Wertebereich zwischen 0 und 1 skaliert werden, d.h. x i = x i x i,min x i,max x i,min. (5.5) Somit erfüllt der durch die Optimierungsstrategie berechnete normierte Optimierungsvektor x [0, 1] n nach einer Rückskalierung in x R n gemäß Gl. (5.5) stets diese Gültigkeitsnebenbedingungen. Bei ganzzahligen Optimierungsparametern werden die normierten Werte bei der Rücktransformation auf die nächste ganze Zahl gerundet. 5.3 Zielfunktionen von Mehr-Ziel-Optimierungen und ihre Auswertung(Paretofront) Falls sich die Forderungen einer Auslegung nicht in einer Zielfunktion zusammenfassen lassen, müssen mehrere Zielfunktionen formuliert werden. In der Mehr-Ziel-Optimierung sollten die einzelnen Zielfunktionen so aufgebaut sein, dass sie gegenläufige Ziele verfolgen. Wenn die Zielvorgaben sich zu ähnlich sind, bildet sich keine Paretofront aus und die Optimierung läuft auf einen Punkt zu. So würde das MO-Problem in eine Ein-Ziel-Optimierung übergehen. Es ist daher nicht nur wichtig, jede Zielfunktion sorgfältig zu formulieren sondern auch die Ziele gegeneinander abzuwägen. Wie Tab. 5.1 zeigt, werden in den folgenden Beispielen verschiedene Kombinationen zweier Zielfunktionen diskutiert. Alle Optimierungen beziehen sich auf den in Kapitel 3.5 vorgestellten 3-stufigen Verdichter der RWTH Aachen Unterschiedliche Ziele bei einem Betriebspunkt In der Verdichteroptimierung ist die Verbesserung des Gesamtwirkungsgrades ein wichtiges Ziel. Im interdisziplinären Feld der Verdichterauslegung ist auch der Einschluss konstruktiver und mechanischer Gesichtspunkte interessant. So ist auch die aerodynamische Belastung einzelner Gitter bzw. Stufen als Basis einer Zielfunktion vorstellbar. Auch für die Schaufelgestalt in Verbindung mit z. B. der Gitterbelastung lässt sich eine Zielfunktion formulieren. In den folgenden Beispielen werden aus den Paretofronten drei markierte Optima zur genaueren Analyse herausgegriffen. Die im Weiteren mit Opti1: Member mit bestem ZF1-Wert

90 76 5 Zielfunktionsmodellierung in der Verdichterauslegung Opti2: Member mit geringstem Abstand zum Ursprung Opti3: Member mit bestem ZF2-Wert bezeichnet werden. Optimierung FineOpti1 des 2. Rotors mit Fine/Turbo Die Designparameter beschränken sich auf den Bereich des 2. Rotors. Die Ringraumgeometrie lässt sich über die radiale Verschiebung der Kontrollpunkte der Splines verändern. Die Schaufelgeometrie ist durch drei Konstruktionsprofile an der Nabe und dem Gehäuse sowie bei 50%-Kanalhöhe festgelegt. Für die einzelnen Profile sind die axialen Positionen der Vorderund Hinterkante sowie das Teilungsverhältnis und die Metallwinkel an Vorder- und Hinterkante freigegeben. Zusätzlich kann die Schaufelzahl und die Nabenkontur durch das Verschieben zweier Kontrollpunkte variiert werden. Damit wird die Sehnenlänge der Profile indirekt über die Tabelle 5.1: Übersicht der Optimierungen FineOpti1 MagOpti2 MagOpti3 Strömungslöser Fine/Turbo MAGELAN MAGELAN Parameter Rotor 2 3. Stufe Rotor 2 1. Zielfunktion Wirkungsgrad Wirkungsgrad Wirkungsgrad 2. Zielfunktion Schaufelgeometrie Belastung Betriebspunkt mit reduziertem Durchsatz Tabelle 5.2: Entwurfsparameter der Optimierung FineOpti1 Rotor 2 Freiheitsgrade Schaufelzahl 1 Punkte auf der Nabenkontur (radiale und axiale Verschiebung) 4 Konstruktionsprofile für Rotor 2 Freiheitsgrade axiale Verschiebung des vordersten Profilpunktes 3 axiale Verschiebung des hintersten Profilpunktes 3 Teilungsverhältnis 3 Metallwinkel an der Vorderkante 3 Metallwinkel an der Hinterkante 3 Gesamtzahl der Designparameter 20

91 5 Zielfunktionsmodellierung in der Verdichterauslegung 77 bez. Zielfunktion ZF2 0,95 0,945 Opti1 Z = 29 Z = 30 Z = 31 Z = 32 Ausgewählte Optima 0,94 Opti2 0,935 Opti3 0,96 1,00 1,04 1,08 bez. Zielfunktion ZF1 Bild 5.3: Darstellung der Zielfunktionswerte für die Optimierung FineOpti1 Kombination aus Teilungsverhältnis und Schaufelzahl verändert. In Tab. 5.2 sind die Parameter tabellarisch zusammengefasst. In dieser Beispieloptimierung sind zwei Zielfunktionen aufgestellt worden. Das Hauptziel der ersten Zielfunktion ZF 1 ist die Verbesserung des Wirkungsgrades. Dabei wird allerdings das Einhalten des Betriebspunktes gefordert, und auch die Veränderungen der aerodynamischen Belastung des Verdichters werden beachtet. Die Funktion umfasst Terme für den Wirkungsgrad, den Massenstrom, das Totaldruckverhältnis und die Diffusionszahlen mit einer starken Gewichtung des Wirkungsgrades. Das zweite Optimierungsziel ZF2 zielt auf die Reduzierung des verbauten Schaufelvolumens unter Berücksichtigung der Diffusionszahlen. In Bild 5.3 sind alle Member der Optimierung im Zielfunktionsraum dargestellt. Die Ergebnisse der Ausgangskonfiguration werden hier zur Normierung der Zielfunktionswerte benutzt. Die Werte der Zielfunktion ZF2 liegen im Mittel um 6% besser als die Ausgangslage. Es zeigt sich auch, dass aufgrund der Formulierung der Zielfunktion viele Member mit ähnlichem ZF 2- Wert existieren. Im Bezug auf den ersten Zielfunktionswert sind die Member deutlich verteilter. Die ZF 1-Werte der Paretofront reichen von 95% bis 99% des Ausgangswertes, während die ZF2-Werte nur eine Spanne von 0,5% abdecken. Die erste Zielfunktion ZF1 umfasst Terme für den Wirkungsgrad, den Massenstrom, das Totaldruckverhältnis und die Diffusionszahlen mit einer starken Gewichtung des Wirkungsgrades

92 78 5 Zielfunktionsmodellierung in der Verdichterauslegung w q1,1 = 0, 5. Neben dem Wirkungsgrad beeinflussen Abweichungen vom Solldruckverhältnis und Sollmassenstrom Q 1 = 1 η pol (5.6) Q 2 = 1 5 π ist π soll π soll (5.7) Q 3 = ṁ ist ṁ soll ṁ soll (5.8) die Qualität. Der Term für das Druckverhältnis ist in Gl. (5.7) zusätzlich durch den Vorfaktor 1/5 analog zu Kapitel normiert. Die Diffusionszahlterme { 1 P 1,i = (DF ) 10 maxi DF maxi,lim : DF maxi > DF maxi,lim (5.9) 0 : DF maxi DF maxi,lim { 1 P 2,i = (DF ) 10 i DF i,lim : DF i > DF i,lim (5.10) 0 : DF i DF i,lim und { 1 P 3,Ri = (DF ) 10 maxri DF maxri,lim : DF maxri > DF maxri,lim (5.11) 0 : DF maxri DF maxri,lim { 1 P 4,Ri = (DF ) 10 Ri DF Ri,lim : DF Ri > DF Ri,lim (5.12) 0 : DF Ri DF Ri,lim kommen nur zum Tragen, wenn die festgelegten Grenzwerte überschritten sind. In Gl. (5.9) und Gl. (5.10) zeigt der Index i an, auf welches Gitter sich der Term bezieht, wohingegen sich Ri in Gl. (5.11) und Gl. (5.12) auf alle anderen Schaufelreihen außer dem Gitter i bezieht. Für die Zielfunktion ZF1 folgt dann ZF1 = w q1,1 Q 1 + w q1,2 Q 2 + w q1,3 Q 3 +w p1,1 (P 1,Rot2 + P 2,Rot2 ) + w p1,2 (P 3,Rot2 + P 4,Rot2 ). (5.13) Die zweite Zielfunktion beschreibt indirekt das verbaute Schaufelvolumen durch eine Kombination der Schaufelzahl z sowie der mittleren Schaufelhöhe h und der Sehnenlänge l Q 4 = f ( z,h,l ). (5.14) Als Nebenbedingung ist hier die Einhaltung der Diffusionszahlen (Gl. (5.9) bis Gl. (5.12))

93 5 Zielfunktionsmodellierung in der Verdichterauslegung 79 bez. Zielfunktion ZF2 0,95 0,945 Z = 29 Z = 30 Z = 31 Z = 32 0,94 0,935 0,96 1,00 1,04 1,08 bez. Zielfunktion ZF1 Bild 5.4: Darstellung der ersten 4000 ausgewerteten Member im Zielfunktionsraum für die Optimierung FineOpti1 gefordert, so dass sich für die zweite Zielfunktion ZF2 = w q2,4 Q 4 + w p2,1 (P 1,Rot2 + P 2,Rot2 ) + w p2,2 (P 3,Rot2 + P 4,Rot2 ) (5.15) mit den Gewichtungen w q2,4 = 0, 75, w p2,1 = 0, 125 und w p2,2 = 0, 125 ergibt. Eine entscheidende Größe in der zweiten Zielfunktion ist die Schaufelzahl. Im Gegensatz zum kontinuierlichen Verlauf der anderen freien Parametern führt das Ändern der Schaufelzahl zu Sprüngen in der Zielfunktion. In Bild 5.3 werden die Member farblich nach der Schaufelzahl unterschieden. Wie erwartet zeigt sich, dass bei den Ballungen mit ähnlichen ZF 2-Werten die Schaufelzahl ausschlaggebend ist und eine Barriere darstellt. Die Anhäufung in Bild 5.3 rechts hinter der Paretofront fällt besonders auf und deutet auf ein lokales Minimum im Zielfunktionsraum, das im Laufe der Optimierung überwunden wurde. Um diese Vermutung zu überprüfen, wird in Bild 5.4 die Entwicklung der Paretofront nach den ersten 4000 Membern betrachtet. Hier zeigt sich, dass die Annahme zutreffend ist. Die Optimierung führt zunächst in ein lokales Minimum. Die meisten Member, die zu diesem Zeitpunkt den Paretorang 1 haben, weisen eine Schaufelzahl von z = 32 auf. Nur im linken Teil der Front sind Member mit 31 Schaufeln zu erkennen. Nachdem weitere bessere Member zunächst nur mit einer Schaufelzahl von z = 31 gefunden worden sind, werden auch wieder Member mit z = 32 in der Optimierung

94 80 5 Zielfunktionsmodellierung in der Verdichterauslegung Bild 5.5: Vergleich der relativen Machzahlen für FineOpti1 zwischen (a) der Ausgangskonfiguration, (b) Opti1, (c) Opti2 und (d) Opti3 berücksichtigt. So ergibt sich die Paretofront in Bild 5.3. Die verschiedenen optimalen Verdichterkonfigurationen werden in Bild 5.5 über die Darstellung des Ringraums und die Verteilung der relativen Machzahlen miteinander verglichen. Es zeigt sich, dass aufgrund der freigegebenen Parameter die Verbesserung des ZF 2-Wertes zu einer Verengung des Strömungskanals führt und dadurch die Strömungsgeschwindigkeiten im Nabenbereich stark ansteigen. Die Farbsprünge in Bild 5.5 resultieren aus der in Kapitel beschriebenen Netzstruktur. Sie stehen für die Übergänge zwischen rotierenden Blöcken und sich nicht bewegenden Blöcken. Optimierung MagOpti2 der 3. Stufen mit MAGELAN Für die Untersuchungen mit den bereits vorgestellten Beschleunigungstechniken wird eine Optimierung des 3. Rotors in Verbindung mit einer Anpassung des zugehörigen Stators aufgesetzt. In die Optimierung gehen insgesamt 30 freie Parameter der Ringraum- und Schaufelgeometrie sowie der Profile ein, die in Bild 5.6 dargestellt sind. Mit Grün sind die 6 Punkte markiert, an denen der Ringraum radial verschoben werden kann. In Rot sind die axialen Verschiebungen der Schaufelkanten an insgesamt 9 Positionen gekennzeichnet. Die Schaufelgeometrien von Rotor und Stator der dritten Stufe werden jeweils durch drei Konstruktionsprofile beschrieben,

95 5 Zielfunktionsmodellierung in der Verdichterauslegung 81 Sta2 Rot3 Sta3 radiale Verschiebung axiale Verschiebung Veränderungen des Profils Bild 5.6: Übersicht über die Optimierungsparameter für die Optimierung MagOpti2 ZF2 1,0 0,8 Opti3 Opti23 Opti2 Opti12 (a) ZF2 1,0 0,8 (b) 0,6 0,4 Opti1 Alle Member Pareto Rank 1 Ungültige Member Ausgewählte Optima 0,8 1,0 1,2 1,4 0,8 1,0 1,2 1,4 ZF1 ZF1 0,6 0,4 Bild 5.7: Darstellung der Zielfunktionswerte für die Optimierung MagOpti2: (a) Berücksichtigung der Restriktionen, (b) alleinige Betrachtung der Zielfunktionsgrößen die sich bei 0%, 50% und 100% relativer Kanalhöhe befinden. Für die Profile sind die Metallwinkel an der Vorderkante und die Teilungsverhältnisse sowie für den dritten Rotor zusätzlich die Metallwinkel an der Hinterkante freigegeben. Das Optimierungsziel setzt sich aus zwei Zielfunktionen zusammen. Zum einen sollen der Wirkungsgrad von Rotor 3 und der Gesamtwirkungsgrad verbessert werden. Zum anderen soll der 3. Stator aerodynamisch entlastet werden. Damit der Betriebspunkt vergleichbar bleibt, soll zusätzlich als Nebenbedingung das Druckverhältnis eingehalten werden. Im Gegensatz zu dem Optimierungsbeispiel mit Fine/Turbo ist hier der Massenstrom durch die Randbedingungen schon vorgegeben. Parameterkonfigurationen, die zu einem Totaldruckverhältnis π t < 2, 0 führen, werden abschlägig bewertet. In Bild 5.7 wird das Ergebnis der Optimierung, Bild 5.7a, der Darstellung ohne Restriktionen gegenübergestellt. Bild 5.7b ergibt sich, wenn die beiden Zielfunktionen nur aus den Wir-

96 82 5 Zielfunktionsmodellierung in der Verdichterauslegung kungsgraden bzw. aus den Diffusionszahlen bestehen würden. Die Zielfunktionswerte sind hier bezogen auf die Werte der Ausgangslage dargestellt. Es zeigt sich, dass gerade im unteren Bereich sehr viele Member erzeugt worden sind, die aufgrund des zu geringen Druckverhältnisses nicht PR1-Member sind. In Bild 5.7b werden bei ZF1 nur die Wirkungsgrade und bei ZF2 die Diffusionszahlen verwendet. Im Unterschied zu Bild 5.7a geht hier das Druckverhältnis nicht zusätzlich ein, so dass sich der Rang der rot dargestellten Membern in den beiden Ansichten unterscheidet. Von 5 der Paretofront entnommenen Member sind in Tab. 5.3 die wichtigsten physikalischen Größen der beiden Zielfunktionen den Ergebnissen der Ausgangskonfiguration gegenübergestellt. Es zeigt sich, dass die guten Wirkungsgrade η pol,opti1 = 0, 8932 von Opti1 über ein höheres Totaldruckverhältnis π t,opti1 = 2, 099 erreicht werden. Für die Diffusionszahlen des Stators 3 bedeutet dies jedoch, dass der Maximalwert im Gegensatz zum Mittelwert um 10% höher ist. Auch bei Opti12 ist der Unterschied zwischen maximaler und mittlerer Diffusionszahl sehr deutlich. Neben dem geringeren Totaldruckverhältnis wird auch ein geringerer Gesamtwirkungsgrad η pol,opti12 = 0, 8921 erzielt. Opti2 weist zwar einen höheren Gesamtwirkungsgrad η pol,opti2 = 0, 8921 und eine geringere maximale Diffusionszahl DF maxsta3,opti2 = 0, 467 als Opti12 auf, allerdings ist der Wirkungsgrad des dritten Rotors η polrot3,opti2 um 0, 7% kleiner. In Richtung von Opti3 nehmen das Totaldruckverhältnis und die Wirkungsgrade weiter ab. Gleiches gilt auch für Diffusionszahlen des dritten Stators. Die Wirkungsgrade liegen jedoch immer noch über den Werten der ursprünglichen Konfiguration Einfluss der Beschleunigungstechniken auf die Optimierung MagOpti2 Um den Optimierungsprozess zu beginnen, ist eine Startverteilung bzw. ein Startvektor erforderlich. Diese Startverteilung basiert entweder auf Voruntersuchungen oder muss zufällig erzeugt werden. In diesem Fall bietet sich hier der Einsatz von Versuchsplänen an, um die Startpunkte möglichst über den gesamten Parameterraum zu verteilen. Mittels der Methoden Latin Hypercube und CVT kann eine breite räumliche Verteilung erreicht werden, die sich nur nach der Anzahl der Stützstellen richtet. Tabelle 5.3: Ergebnisse aus der Optimierung MagOpti2 Opti1 Opti12 Opti2 Opti23 Opti3 Ref Totaldruckverhältnis π t 2, , , , , , 0527 Gesamtwirkungsgrad η pol 0, , , , , , 8829 Wirkungsgrad η polrot3 0, , , , , , 9371 Diffusionszahl DF maxsta3 0, , , , , , 5522 Diffusionszahl DF Sta3 0, , , , , , 5217

97 5 Zielfunktionsmodellierung in der Verdichterauslegung 83 Zum Vergleich mit der rein stochastisch initialisierten Optimierung werden insgesamt vier verschiedene Versuchspläne aufgestellt und als Startverteilung verwendet. Im weiteren Verlauf wird die rein zufällige Startverteilung mit Basis bezeichnet und die Optimierungen mit den Versuchsplänen Latin Hypercube mit 100 Stützstellen, Latin Hypercube mit 500 Stützstellen, CVT mit 100 Stützstellen sowie CVT mit 500 Stützstellen als Latin100, Latin500, CVT100 und CVT500. In Bild 5.8 und Bild 5.9 sind die Ergebnisse der verschiedenen Optimierungen im Zielfunktionsraum zu unterschiedlichen Zeitpunkten dargestellt. Bild 5.9a bis Bild 5.9c zeigen den Stand der Paretofront bei 100, 1000 und 2000 Membern. Die Zielfunktionswerte entsprechen den in der Optimierung verwendeten Werten und sind im Gegensatz zu Bild 5.7 nicht normiert. In der Optimierung Basis sind zunächst 10 Member durch Zufallszahlen generiert. Auf diesen aufbauend beginnt dann die Evolutionsstrategie den Optimierungsprozess. Im Vergleich zu den Versuchsplänen, die erst ihre 100 bzw. 500 Datenpunkte abarbeiten müssen, startet daher die Evolutionsstrategie deutlich früher. Nach 500 berechneten Membern stehen jedoch Latin100 und CVT100 erheblich besser, aber nach 1000 Membern ist der Optimierung Basis ein Sprung hin zu besseren Zielfunktionswerten gelungen. Dies basiert allerdings auf der stochastischen Arbeitsweise des Optimierers. Wie Bild 5.8 zeigt, liegen die Paretofronten der Versuchspläne gegenüber der rein zufälligen Zielfunktion ZF 2 0,5 0,45 Basis Latin100 Latin500 CVT100 CVT500 0,4 0,35 0,065 0,07 0,075 0,08 Zielfunktion ZF 1 Bild 5.8: Paretofronten bei verschiedenen Versuchsplänen als Startverteilung in der MAGELAN-Optimierung im Vergleich zu der rein zufälligen Startverteilung für das Beispiel MagOpti2 aus Kapitel 5.3

98 84 5 Zielfunktionsmodellierung in der Verdichterauslegung Startverteilung leicht besser. Nur die Paretofront des Versuchsplans CVT500 liegt deutlich vor den anderen. Gerade im Bereich höhere Diffusionszahlen werden bessere Wirkungsgrade erzielt. Zudem ist zu erkennen, dass die kleineren Versuchspläne Latin100 und CVT100 den jeweiligen größeren Versuchsplänen Latin500 und CVT500 unterlegen sind. Im mittleren Bereich ist die Paretofront der zufälligen Startverteilung Basis schwach besetzt. Die Untersuchung verdeutlicht, dass eine durch einen Versuchsplan erzeugte Startverteilung gegenüber einer rein zufälligen Startverteilung über den Verlauf die Optimierung beschleunigen kann. In dem hier diskutierten Beispiel sind die Grenzen der einzelnen Optimierungsparameter jedoch so gewählt, dass der Anteil unzulässiger Bereiche im Parameterraum sehr gering ist. In der Optimierung von Verdichterschaufeln sind die Grenzen jedoch nicht so enggehalten. Da die Parameter gegenseitigen Einfluss aufeinander haben, ist der Anteil unzulässiger Verdichterkonfigurationen sehr groß. Folglich produzieren Versuchspläne, die keine Rücksicht auf die Topologie des Parameterraums nehmen, viele unzulässige Stützstellen. CVT bietet über die Dichtefunktion die Möglichkeit, die Topologie des Parameterraums zu berücksichtigen. Jedoch sind Aussagen über die Topologie nur sehr eingeschränkt möglich. Im Vergleich zu den vorgestellten Beschleunigungstechniken, Polynomiale Antwortflächen und Neuronale Netze ist ihr Potential gering. Polynomiale Antwortflächen Die Polynomialen Antwortflächen werden hier allerdings zur Vorhersage benutzt. Ausgehend von einem Polynom 2. Grades umfasst das Polynom bei den 30 ausgewählten Optimierungsparametern insgesamt 496 zu bestimmende Polynomialkoeffizienten. Um die notwendigen Stützstellen zu erzeugen, wird auf die Datenbasen der rein zufällig initialisierten Optimierung Basis und der auf dem Versuchsplan CVT500 basierende Optimierung zurückgegriffen. Ausgehend von den ersten 1000 berechneten Membern wird eine Approximation des Zielfunktionsraums mittels der Polynomialen Antwortflächen durchgeführt. 50 Member werden dann im Anschluss erzeugt und durch das Polynomset bewertet. Die 10 besten, aber auf jeden Fall alle dominierenden Member innerhalb des Kandidatenpools werden an die Optimierung weitergegeben. Diese Vorgehensweise wird in Abständen von 200 Zielfunktionsauswertungen wiederholt. In Bild 5.10 werden die Ergebnisse der Optimierungen miteinander verglichen. Ausgehend von der rein stochastischen Evolutionsstrategie zeigt sich kein Unterschied durch den Einsatz der Polynome. Verschiebungen sind jedoch bei der Betrachtung der auf dem Versuchsplan CVT500 basierenden Optimierungen zu erkennen. Besonders in den Randbereichen, in denen eine der beiden Zielfunktionen überwiegt, zeigt die durch Polynomiale Antwortflächen unterstützte Evolutionsstrategie erheblich bessere Ergebnisse. Im mittleren Sektor sind die Vorteile nicht sichtbar. Die Ergebnisse weisen einen deutlichen Abstand zur Paretofront aus.

99 5 Zielfunktionsmodellierung in der Verdichterauslegung 85 0,6 0,5 Basis Latin100 Latin500 CVT100 CVT500 0,4 (a) Zielfunktion ZF 2 0,6 0,5 0,4 (b) 0,6 0,5 0,4 (c) 0,06 0,07 0,08 0,09 0,10 Zielfunktion ZF 1 Bild 5.9: Entwicklung der MAGELAN-Optimierungen für verschiedene Versuchspläne im Vergleich zu der rein zufälligen Startverteilung für das Beispiel MagOpti2: Stand nach (a) 100 Membern, (b) 1000 Membern, (c) 2000 Membern

100 86 5 Zielfunktionsmodellierung in der Verdichterauslegung 2 Zielfunktion ZF 0,5 0,45 0,4 Basis ohne PA CVT500 ohne PA Basis mit PA CVT500 mit PA CVT500 mit NN 0,35 0,065 0,07 0,075 0,08 Zielfunktion ZF 1 Bild 5.10: Vergleich der Paretofronten nach 2500 berechneten Datensätzen für MagOpti2 Neuronale Netze Die eingesetzten Neuronalen Netze weisen zwei verborgene Schichten mit jeweils 16 Neuronen auf. An der Eingabeschicht werden alle 30 Designparameter angelegt. Zum Aufbau der Testund Trainingsdaten werden mit dem Versuchsplan CVT500 zunächst 500 Member generiert. Weitere 500 Member werden dann durch die Evolutionsstrategie erzeugt. Auf diesen berechneten Membern werden parallel mehrere Neuronale Netze trainiert; in diesem Fall sind es drei. Das Training basiert jeweils auf den gleichen Daten aber mit verschiedenen Startgewichtungen. Das Neuronale Netz mit dem kleinsten Testdatenfehler wird für die weiteren Untersuchungen benutzt. Es wird sowohl zur Vorhersage als auch als Ersatzmodell von der Evolutionsstrategie eingesetzt. Im Falle der Vorhersage werden Entwürfe eines Kandidatenpools von 50 Membern untersucht. Die besten Vorschläge aus beiden Varianten werden anschließend aerodynamisch analysiert. In Bild 5.10 sind die Ergebnisse der Optimierung mit Neuronalen Netzen den Resultaten mit Polynomiale Antwortfläche bzw. ohne Approximationsmodell gegenübergestellt. Die Paretofront der Optimierung mit Neuronalen Netzen ist in Grün dargestellt. Es zeigt sich, dass die Ergebnisse im Vergleich zu den anderen Optimierungen am besten liegen. Besonders im mittleren Bereich ist der Abstand der Paretofront besonders

101 5 Zielfunktionsmodellierung in der Verdichterauslegung 87 deutlich Betrachtung mehrerer Betriebspunkte In der Optimierung sollten neben dem Auslegungspunkt weitere Betriebspunkte berücksichtigt werden, damit der Arbeitsbereich der optimierten Verdichterkonfiguration möglichst groß bzw. ausreichend breit ist. Im folgenden Fall MagOpti3 wird deswegen ein zusätzlicher Arbeitspunkt mit leicht gedrosseltem Durchsatz aufgenommen. Durch den reduzierten Massenstrom ṁ OP2 = 13, 25kg/s steigt das zugehörige Totaldruckverhältnis dagegen auf π t,op2 = 2, 2. Die Designparameter entsprechen den freien Variablen des Optimierungsbeispiels MagOpti2. Das Optimierungsziel setzt sich aus 2 Zielfunktionen zusammen, für jeden Betriebspunkt wird eine eigene Zielfunktion verwendet. In die beiden Zielfunktionen gehen ähnliche Terme ein. Als Hauptziel werden der Gesamtwirkungsgrad und der Wirkungsgrad des optimierten 3. Rotors verwendet. Zudem werden Straffunktionsterme für Abweichungen im Totaldruckverhältnis sowie die mittleren und maximalen Diffusionszahlen der einzelnen Gitter berücksichtigt. Darüberhinaus sind hier weitere Abschläge formuliert worden. Zum einen wirkt sich das Auftreten von Resonanz, die durch das Schwingungsmodell nach Montoya (vgl. [Ahmed 2005]) vorhergesagt wird, auf die Zielfunktion negativ aus. Zum anderen wird auch das Stromdichteverhältnis 1,2 2 normierte Zielfunktion ZF 1,1 1,0 0,9 0,8 Opti1 Opti2 Opti3 Alle Member Pareto Rank 1 Ausgewählte Optima 0,7 0,7 0,8 0,9 1,0 1,1 1,2 normierte Zielfunktion ZF Bild 5.11: Darstellung der Zielfunktionswerte für die Optimierung MagOpti3 1

102 88 5 Zielfunktionsmodellierung in der Verdichterauslegung Bild 5.12: Vergleich der spezifischen Entropien im 2. Betriebspunkt für MagOpti3 zwischen (a) der Ausgangskonfiguration, (b) Opti1, (c) Opti2 und (d) Opti3 einbezogen und führt zu einem Abschlag, wenn das Verhältnis im Spalt kleiner als 1 ist. Im Auslegungspunkt, hier OP1, steht die Leistung im Vordergrund, so dass der Wirkungsgrad hier am stärksten gewichtet ist. Im zweiten Betriebspunkt (OP2) liegt der Schwerpunkt durch die stärkere Gewichtung der Diffusionszahlen auf der aerodynamischen Belastung. Aufbauend auf einer gute Startverteilung, bedingt durch vorgelagerte ähnliche Optimierungsläufe, sind im Laufe der abschließende Optimierung nochmals circa 6000 Datenpunkte untersucht worden. In Bild 5.11 zeigt sich die ausgebildete Paretofront. Die Werte sind hierbei auf die Zielfunktionswerte normiert, die sich beim nicht modifizierten Verdichter ergeben. Unter Einbeziehung der Voruntersuchungen sind etwa 20% der Parametersätze während des Optimierungsprozesses gescheitert. Sowohl die Anteile der Diffusionszahlen als auch die Abschläge für Resonanz und Stromdichteverhältnis basieren auf dem in Bild 5.1 dargestellten unteren Funktionsverlauf. Daher entstehen sehr viele Member mit gutem ZF 2-Anteil aber sehr unterschiedlichen Werten für ZF1. In Bild 5.12 sind die unterschiedlichen Geometrien der drei Optima dem Originalverdichter gegenübergestellt. Für alle drei Lösungen zeigt sich, dass sowohl der Nabenverlauf als auch die Gehäusekontur am Eintritt von Rotor 3 nach unten gezogen sind und im hinteren Bereich eine jedoch verschieden starke Gegenbewegung ausführen. Auffällig sind die unterschiedlichen Eintrittsquerschnitte in Stator 3. Weitere Hauptunterschiede machen die Metallwinkel aus, besonders an der Hinterkante im Blattspitzenbereich.

Untersuchungen zum korrelationsbasierten Transitionsmodell in ANSYS CFD

Untersuchungen zum korrelationsbasierten Transitionsmodell in ANSYS CFD Masterarbeit Studiendepartment Fahrzeugtechnik und Flugzeugbau Untersuchungen zum korrelationsbasierten Transitionsmodell in ANSYS CFD Michael Fehrs 04. Oktober 2011 VI Inhaltsverzeichnis Kurzreferat Aufgabenstellung

Mehr

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren Lineargleichungssysteme: Additions-/ Subtraktionsverfahren W. Kippels 22. Februar 2014 Inhaltsverzeichnis 1 Einleitung 2 2 Lineargleichungssysteme zweiten Grades 2 3 Lineargleichungssysteme höheren als

Mehr

Kennfeldverbreiterung eines Radialverdichters für Abgasturbolader durch multidisziplinäre CFD-FEM-Optimierung mit FINE /Turbo

Kennfeldverbreiterung eines Radialverdichters für Abgasturbolader durch multidisziplinäre CFD-FEM-Optimierung mit FINE /Turbo 2011 Kennfeldverbreiterung eines Radialverdichters für Abgasturbolader durch multidisziplinäre CFD-FEM-Optimierung mit FINE /Turbo Th. Hildebrandt, L. Gresser, M. Sievert Inhaltsverzeichnis 01 02 03 04

Mehr

Inhaltsverzeichnis. 4 Lagrange-Funktion und Dualität... 63 4.1 Lagrange-FunktionmitGleichheitsrestriktionen... 63

Inhaltsverzeichnis. 4 Lagrange-Funktion und Dualität... 63 4.1 Lagrange-FunktionmitGleichheitsrestriktionen... 63 1 Einleitung... 1 1.1 Optimierungstypen.............................................. 3 1.2 Motivation und Grundbegriffe der Optimierung........................... 4 1.3 Allgemeine Form des Optimierungsproblems............................

Mehr

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis Unterrichtsmaterialien in digitaler und in gedruckter Form Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis Das komplette Material finden Sie hier: Download bei School-Scout.de

Mehr

6.2 Scan-Konvertierung (Scan Conversion)

6.2 Scan-Konvertierung (Scan Conversion) 6.2 Scan-Konvertierung (Scan Conversion) Scan-Konvertierung ist die Rasterung von einfachen Objekten (Geraden, Kreisen, Kurven). Als Ausgabemedium dient meist der Bildschirm, der aus einem Pixelraster

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme 1 Zwei Gleichungen mit zwei Unbekannten Es kommt häufig vor, dass man nicht mit einer Variablen alleine auskommt, um ein Problem zu lösen. Das folgende Beispiel soll dies verdeutlichen

Mehr

Wenn der Druck aus der reibungsfreien Außenströmung aufgeprägt wird, dann gilt wegen der Bernoulli-Gleichung

Wenn der Druck aus der reibungsfreien Außenströmung aufgeprägt wird, dann gilt wegen der Bernoulli-Gleichung Wenn der Druck aus der reibungsfreien Außenströmung aufgeprägt wird, dann gilt wegen der Bernoulli-Gleichung ρ p ( x) + Uδ ( x) = const Damit kann die Druckänderung in Strömungsrichtung auch durch die

Mehr

Ein neues System für die Allokation von Spenderlungen. LAS Information für Patienten in Deutschland

Ein neues System für die Allokation von Spenderlungen. LAS Information für Patienten in Deutschland Ein neues System für die Allokation von Spenderlungen LAS Information für Patienten in Deutschland Ein neues System für die Allokation von Spenderlungen Aufgrund des immensen Mangels an Spenderorganen

Mehr

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse 11 13. 501322 Lösung 10 Punkte

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse 11 13. 501322 Lösung 10 Punkte 50. Mathematik-Olympiade. Stufe (Regionalrunde) Klasse 3 Lösungen c 00 Aufgabenausschuss des Mathematik-Olympiaden e.v. www.mathematik-olympiaden.de. Alle Rechte vorbehalten. 503 Lösung 0 Punkte Es seien

Mehr

1 Einleitung. 1.1 Motivation und Zielsetzung der Untersuchung

1 Einleitung. 1.1 Motivation und Zielsetzung der Untersuchung 1 Einleitung 1.1 Motivation und Zielsetzung der Untersuchung Obgleich Tourenplanungsprobleme zu den am häufigsten untersuchten Problemstellungen des Operations Research zählen, konzentriert sich der Großteil

Mehr

CFD * in der Gebäudetechnik

CFD * in der Gebäudetechnik CFD * in der Gebäudetechnik * CFD = Computational Fluid Dynamics Innenraumströmung Systemoptimierung Weitwurfdüsen Anordnung von Weitwurfdüsen in einer Mehrzweckhalle Reinraumtechnik Schadstoffausbreitung

Mehr

Institut für Computational Engineering ICE. N ä h e r d ra n a m S ys t e m d e r Te c h n i k d e r Z u ku n f t. w w w. n t b.

Institut für Computational Engineering ICE. N ä h e r d ra n a m S ys t e m d e r Te c h n i k d e r Z u ku n f t. w w w. n t b. Institut für Computational Engineering ICE N ä h e r d ra n a m S ys t e m d e r Te c h n i k d e r Z u ku n f t w w w. n t b. c h Rechnen Sie mit uns Foto: ESA Das Institut für Computational Engineering

Mehr

Anhand des bereits hergeleiteten Models erstellen wir nun mit der Formel

Anhand des bereits hergeleiteten Models erstellen wir nun mit der Formel Ausarbeitung zum Proseminar Finanzmathematische Modelle und Simulationen bei Raphael Kruse und Prof. Dr. Wolf-Jürgen Beyn zum Thema Simulation des Anlagenpreismodels von Simon Uphus im WS 09/10 Zusammenfassung

Mehr

Doing Economics with the Computer Sommersemester 2002. Excel Solver 1

Doing Economics with the Computer Sommersemester 2002. Excel Solver 1 Universität Bern Kurt Schmidheiny / Manuel Wälti Doing Economics with the Computer Sommersemester 2002 Excel Solver 1 Mit dem Solver unterstützt Excel eine Funktion, mit der u.a. komplex verschachtelte

Mehr

Primzahlen und RSA-Verschlüsselung

Primzahlen und RSA-Verschlüsselung Primzahlen und RSA-Verschlüsselung Michael Fütterer und Jonathan Zachhuber 1 Einiges zu Primzahlen Ein paar Definitionen: Wir bezeichnen mit Z die Menge der positiven und negativen ganzen Zahlen, also

Mehr

Kevin Caldwell. 18.April 2012

Kevin Caldwell. 18.April 2012 im Rahmen des Proseminars Numerische Lineare Algebra von Prof.Dr.Sven Beuchler 18.April 2012 Gliederung 1 2 3 Mathematische Beschreibung von naturwissenschaftlich-technischen Problemstellungen führt häufig

Mehr

Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken

Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken Dateiname: ecdl5_01_00_documentation_standard.doc Speicherdatum: 14.02.2005 ECDL 2003 Basic Modul 5 Datenbank - Grundlagen

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Brückenkurs Mathematik TU Dresden 2015 Lineare Gleichungssysteme Schwerpunkte: Modellbildung geometrische Interpretation Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik auf der

Mehr

13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen.

13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen. 13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen. Sie heißt linear, wenn sie die Form y (n) + a n 1 y (n 1)

Mehr

Was sind Jahres- und Zielvereinbarungsgespräche?

Was sind Jahres- und Zielvereinbarungsgespräche? 6 Was sind Jahres- und Zielvereinbarungsgespräche? Mit dem Jahresgespräch und der Zielvereinbarung stehen Ihnen zwei sehr wirkungsvolle Instrumente zur Verfügung, um Ihre Mitarbeiter zu führen und zu motivieren

Mehr

Berechnung der Erhöhung der Durchschnittsprämien

Berechnung der Erhöhung der Durchschnittsprämien Wolfram Fischer Berechnung der Erhöhung der Durchschnittsprämien Oktober 2004 1 Zusammenfassung Zur Berechnung der Durchschnittsprämien wird das gesamte gemeldete Prämienvolumen Zusammenfassung durch die

Mehr

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Vollständigkeit halber aufgeführt. Gehen wir einmal davon aus, dass die von uns angenommenen 70% im Beispiel exakt berechnet sind. Was würde

Mehr

Das große ElterngeldPlus 1x1. Alles über das ElterngeldPlus. Wer kann ElterngeldPlus beantragen? ElterngeldPlus verstehen ein paar einleitende Fakten

Das große ElterngeldPlus 1x1. Alles über das ElterngeldPlus. Wer kann ElterngeldPlus beantragen? ElterngeldPlus verstehen ein paar einleitende Fakten Das große x -4 Alles über das Wer kann beantragen? Generell kann jeder beantragen! Eltern (Mütter UND Väter), die schon während ihrer Elternzeit wieder in Teilzeit arbeiten möchten. Eltern, die während

Mehr

OUTSOURCING ADVISOR. Analyse von SW-Anwendungen und IT-Dienstleistungen auf ihre Global Sourcing Eignung. Bewertung von Dienstleistern und Standorten

OUTSOURCING ADVISOR. Analyse von SW-Anwendungen und IT-Dienstleistungen auf ihre Global Sourcing Eignung. Bewertung von Dienstleistern und Standorten Outsourcing Advisor Bewerten Sie Ihre Unternehmensanwendungen auf Global Sourcing Eignung, Wirtschaftlichkeit und wählen Sie den idealen Dienstleister aus. OUTSOURCING ADVISOR Der Outsourcing Advisor ist

Mehr

Diese Ansicht erhalten Sie nach der erfolgreichen Anmeldung bei Wordpress.

Diese Ansicht erhalten Sie nach der erfolgreichen Anmeldung bei Wordpress. Anmeldung http://www.ihredomain.de/wp-admin Dashboard Diese Ansicht erhalten Sie nach der erfolgreichen Anmeldung bei Wordpress. Das Dashboard gibt Ihnen eine kurze Übersicht, z.b. Anzahl der Beiträge,

Mehr

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen Austausch- bzw. Übergangsrozesse und Gleichgewichtsverteilungen Wir betrachten ein System mit verschiedenen Zuständen, zwischen denen ein Austausch stattfinden kann. Etwa soziale Schichten in einer Gesellschaft:

Mehr

Physik 4, Übung 8, Prof. Förster

Physik 4, Übung 8, Prof. Förster Physik 4, Übung 8, Prof. Förster Christoph Hansen Emailkontakt Dieser Text ist unter dieser Creative Commons Lizenz veröffentlicht. Ich erhebe keinen Anspruch auf Vollständigkeit oder Richtigkeit. Falls

Mehr

Abamsoft Finos im Zusammenspiel mit shop to date von DATA BECKER

Abamsoft Finos im Zusammenspiel mit shop to date von DATA BECKER Abamsoft Finos im Zusammenspiel mit shop to date von DATA BECKER Abamsoft Finos in Verbindung mit der Webshopanbindung wurde speziell auf die Shop-Software shop to date von DATA BECKER abgestimmt. Mit

Mehr

7 Rechnen mit Polynomen

7 Rechnen mit Polynomen 7 Rechnen mit Polynomen Zu Polynomfunktionen Satz. Zwei Polynomfunktionen und f : R R, x a n x n + a n 1 x n 1 + a 1 x + a 0 g : R R, x b n x n + b n 1 x n 1 + b 1 x + b 0 sind genau dann gleich, wenn

Mehr

Behörde für Bildung und Sport Abitur 2008 Lehrermaterialien zum Leistungskurs Mathematik

Behörde für Bildung und Sport Abitur 2008 Lehrermaterialien zum Leistungskurs Mathematik Abitur 8 II. Insektenpopulation LA/AG In den Tropen legen die Weibchen einer in Deutschland unbekannten Insektenpopulation jedes Jahr kurz vor Beginn der Regenzeit jeweils 9 Eier und sterben bald darauf.

Mehr

Markus Demary / Michael Voigtländer

Markus Demary / Michael Voigtländer Forschungsberichte aus dem Institut der deutschen Wirtschaft Köln Nr. 50 Markus Demary / Michael Voigtländer Immobilien 2025 Auswirkungen des demografischen Wandels auf die Wohn- und Büroimmobilienmärkte

Mehr

Zeichen bei Zahlen entschlüsseln

Zeichen bei Zahlen entschlüsseln Zeichen bei Zahlen entschlüsseln In diesem Kapitel... Verwendung des Zahlenstrahls Absolut richtige Bestimmung von absoluten Werten Operationen bei Zahlen mit Vorzeichen: Addieren, Subtrahieren, Multiplizieren

Mehr

Additional Cycle Index (ACIX) Thomas Theuerzeit

Additional Cycle Index (ACIX) Thomas Theuerzeit Additional Cycle Index (ACIX) Thomas Theuerzeit Der nachfolgende Artikel über den ACIX stammt vom Entwickler des Indikators Thomas Theuerzeit. Weitere Informationen über Projekte von Thomas Theuerzeit

Mehr

Rekursionen. Georg Anegg 25. November 2009. Methoden und Techniken an Beispielen erklärt

Rekursionen. Georg Anegg 25. November 2009. Methoden und Techniken an Beispielen erklärt Methoden und Techniken an Beispielen erklärt Georg Anegg 5. November 009 Beispiel. Die Folge {a n } sei wie folgt definiert (a, d, q R, q ): a 0 a, a n+ a n q + d (n 0) Man bestimme eine explizite Darstellung

Mehr

Gasdynamik Die Gasdynamik beschreibt kompressible Strömungen, d.h. Strömungen mit Dichteänderungen:

Gasdynamik Die Gasdynamik beschreibt kompressible Strömungen, d.h. Strömungen mit Dichteänderungen: Gasdynamik Die Gasdynamik beschreibt kompressible Strömungen, d.h. Strömungen mit Dichteänderungen: ρ ρ 0; t x 0;etc. Als Unterscheidungskriterium zwischen inkompressibel und kompressibel wird die Machzahl

Mehr

Lernmaterial für die Fernuni Hagen effizient und prüfungsnah

Lernmaterial für die Fernuni Hagen effizient und prüfungsnah Lernmaterial für die Fernuni Hagen effizient und prüfungsnah www.schema-f-hagen.de Sie erhalten hier einen Einblick in die Dokumente Aufgaben und Lösungen sowie Erläuterungen Beim Kauf erhalten Sie zudem

Mehr

OECD Programme for International Student Assessment PISA 2000. Lösungen der Beispielaufgaben aus dem Mathematiktest. Deutschland

OECD Programme for International Student Assessment PISA 2000. Lösungen der Beispielaufgaben aus dem Mathematiktest. Deutschland OECD Programme for International Student Assessment Deutschland PISA 2000 Lösungen der Beispielaufgaben aus dem Mathematiktest Beispielaufgaben PISA-Hauptstudie 2000 Seite 3 UNIT ÄPFEL Beispielaufgaben

Mehr

CFD-Simulation von Tonal- und Breitbandlärm als Folge u.a. von Schaufelschwingungen in Triebwerken

CFD-Simulation von Tonal- und Breitbandlärm als Folge u.a. von Schaufelschwingungen in Triebwerken www.dlr.de Folie 1 CFD-Simulation von Tonal- und Breitbandlärm als Folge u.a. von Schaufelschwingungen in Triebwerken Simulation von Vibration und Schall im Verkehrswesen Graham Ashcroft Numerische Methoden

Mehr

Künstliches binäres Neuron

Künstliches binäres Neuron Künstliches binäres Neuron G.Döben-Henisch Fachbereich Informatik und Ingenieurwissenschaften FH Frankfurt am Main University of Applied Sciences D-60318 Frankfurt am Main Germany Email: doeben at fb2.fh-frankfurt.de

Mehr

Grundlagen der Theoretischen Informatik, SoSe 2008

Grundlagen der Theoretischen Informatik, SoSe 2008 1. Aufgabenblatt zur Vorlesung Grundlagen der Theoretischen Informatik, SoSe 2008 (Dr. Frank Hoffmann) Lösung von Manuel Jain und Benjamin Bortfeldt Aufgabe 2 Zustandsdiagramme (6 Punkte, wird korrigiert)

Mehr

Tender Manager. Sparen Sie Zeit und Kosten durch eine optimierte Erstellung Ihrer individuellen IT-Ausschreibungen

Tender Manager. Sparen Sie Zeit und Kosten durch eine optimierte Erstellung Ihrer individuellen IT-Ausschreibungen Tender Manager Sparen Sie Zeit und Kosten durch eine optimierte Erstellung Ihrer individuellen IT-Ausschreibungen Tender Manager Der plixos Tender Manager reduziert drastisch den Aufwand bei der Durchführung

Mehr

Stellen Sie bitte den Cursor in die Spalte B2 und rufen die Funktion Sverweis auf. Es öffnet sich folgendes Dialogfenster

Stellen Sie bitte den Cursor in die Spalte B2 und rufen die Funktion Sverweis auf. Es öffnet sich folgendes Dialogfenster Es gibt in Excel unter anderem die so genannten Suchfunktionen / Matrixfunktionen Damit können Sie Werte innerhalb eines bestimmten Bereichs suchen. Als Beispiel möchte ich die Funktion Sverweis zeigen.

Mehr

Welche Unterschiede gibt es zwischen einem CAPAund einem Audiometrie- Test?

Welche Unterschiede gibt es zwischen einem CAPAund einem Audiometrie- Test? Welche Unterschiede gibt es zwischen einem CAPAund einem Audiometrie- Test? Auch wenn die Messungsmethoden ähnlich sind, ist das Ziel beider Systeme jedoch ein anderes. Gwenolé NEXER g.nexer@hearin gp

Mehr

Ist Excel das richtige Tool für FMEA? Steve Murphy, Marc Schaeffers

Ist Excel das richtige Tool für FMEA? Steve Murphy, Marc Schaeffers Ist Excel das richtige Tool für FMEA? Steve Murphy, Marc Schaeffers Ist Excel das richtige Tool für FMEA? Einleitung Wenn in einem Unternehmen FMEA eingeführt wird, fangen die meisten sofort damit an,

Mehr

Konzepte der Informatik

Konzepte der Informatik Konzepte der Informatik Vorkurs Informatik zum WS 2011/2012 26.09. - 30.09.2011 17.10. - 21.10.2011 Dr. Werner Struckmann / Christoph Peltz Stark angelehnt an Kapitel 1 aus "Abenteuer Informatik" von Jens

Mehr

(1) Problemstellung. (2) Kalman Filter

(1) Problemstellung. (2) Kalman Filter Inhaltsverzeichnis (1) Problemstellung...2 (2) Kalman Filter...2 Funktionsweise... 2 Gleichungen im mehrdimensionalen Fall...3 Schätzung des Systemzustands...3 Vermuteter Schätzfehler... 3 Aktualisierung

Mehr

Optimierung und Fertigung eines Bogenmittelteils aus einer Magnesiumlegierung

Optimierung und Fertigung eines Bogenmittelteils aus einer Magnesiumlegierung 363 Optimierung und Fertigung eines Bogenmittelteils aus einer Magnesiumlegierung Jürgen Edelmann-Nusser 1 (Projektleiter), Sándor Vajna 2 & Konstantin Kittel 2 1 Universität Magdeburg, Institut für Sportwissenschaft

Mehr

Maschinenbau Erneuerbare Energien. Bachelorarbeit. Numerische Simulation zur Umströmung einer Photovoltaikanlage. Irmela Blaschke

Maschinenbau Erneuerbare Energien. Bachelorarbeit. Numerische Simulation zur Umströmung einer Photovoltaikanlage. Irmela Blaschke Beuth Hochschule für Technik Berlin University of Applied Sciences Fachbereich VIII Maschinenbau Erneuerbare Energien CFX Berlin Software GmbH Karl-Marx-Allee 90 10243 Berlin Bachelorarbeit Numerische

Mehr

Planen mit mathematischen Modellen 00844: Computergestützte Optimierung. Autor: Dr. Heinz Peter Reidmacher

Planen mit mathematischen Modellen 00844: Computergestützte Optimierung. Autor: Dr. Heinz Peter Reidmacher Planen mit mathematischen Modellen 00844: Computergestützte Optimierung Leseprobe Autor: Dr. Heinz Peter Reidmacher 11 - Portefeuilleanalyse 61 11 Portefeuilleanalyse 11.1 Das Markowitz Modell Die Portefeuilleanalyse

Mehr

Non-Deterministische CFD Simulationen in FINE /Turbo

Non-Deterministische CFD Simulationen in FINE /Turbo Non-Deterministische CFD Simulationen in FINE /Turbo Dipl.-Ing. (FH) Peter Thiel Dr.-Ing. Thomas Hildebrandt NUMECA Ingenieurbüro NUMECA, a New Wave in Fluid Dynamics Überblick 1. Motivation: Warum non-deterministische

Mehr

infach Geld FBV Ihr Weg zum finanzellen Erfolg Florian Mock

infach Geld FBV Ihr Weg zum finanzellen Erfolg Florian Mock infach Ihr Weg zum finanzellen Erfolg Geld Florian Mock FBV Die Grundlagen für finanziellen Erfolg Denn Sie müssten anschließend wieder vom Gehaltskonto Rückzahlungen in Höhe der Entnahmen vornehmen, um

Mehr

Schritt für Schritt zur Krankenstandsstatistik

Schritt für Schritt zur Krankenstandsstatistik Schritt für Schritt zur Krankenstandsstatistik Eine Anleitung zur Nutzung der Excel-Tabellen zur Erhebung des Krankenstands. Entwickelt durch: Kooperationsprojekt Arbeitsschutz in der ambulanten Pflege

Mehr

Approximation durch Taylorpolynome

Approximation durch Taylorpolynome TU Berlin Fakultät II - Mathematik und Naturwissenschaften Sekretariat MA 4-1 Straße des 17. Juni 10623 Berlin Hochschultag Approximation durch Taylorpolynome Im Rahmen der Schülerinnen- und Schüler-Uni

Mehr

Plotten von Linien ( nach Jack Bresenham, 1962 )

Plotten von Linien ( nach Jack Bresenham, 1962 ) Plotten von Linien ( nach Jack Bresenham, 1962 ) Ac Eine auf dem Bildschirm darzustellende Linie sieht treppenförmig aus, weil der Computer Linien aus einzelnen (meist quadratischen) Bildpunkten, Pixels

Mehr

Zahlenoptimierung Herr Clever spielt optimierte Zahlen

Zahlenoptimierung Herr Clever spielt optimierte Zahlen system oder Zahlenoptimierung unabhängig. Keines von beiden wird durch die Wahrscheinlichkeit bevorzugt. An ein gutes System der Zahlenoptimierung ist die Bedingung geknüpft, dass bei geringstmöglichem

Mehr

Fachhochschule Konstanz

Fachhochschule Konstanz Fachhochschule Konstanz Konzeptstudien zur Optimierung von Temperaturverteilung und Wärmeübergang in polymeren Solarabsorbern mittels FEM-Simulation Hannes Franke Diplomarbeit zur Erlangung des akademischen

Mehr

Agile Vorgehensmodelle in der Softwareentwicklung: Scrum

Agile Vorgehensmodelle in der Softwareentwicklung: Scrum C A R L V O N O S S I E T Z K Y Agile Vorgehensmodelle in der Softwareentwicklung: Scrum Johannes Diemke Vortrag im Rahmen der Projektgruppe Oldenburger Robot Soccer Team im Wintersemester 2009/2010 Was

Mehr

Verwendung von LS-OPT zur Generierung von Materialkarten am Beispiel von Schaumwerkstoffen

Verwendung von LS-OPT zur Generierung von Materialkarten am Beispiel von Schaumwerkstoffen Verwendung von LS-OPT zur Generierung von Materialkarten am Beispiel von Schaumwerkstoffen Katharina Witowski (DYNAmore GmbH) Peter Reithofer (4a engineering GmbH) Übersicht Problemstellung Parameteridentifikation

Mehr

Pädagogik. Melanie Schewtschenko. Eingewöhnung und Übergang in die Kinderkrippe. Warum ist die Beteiligung der Eltern so wichtig?

Pädagogik. Melanie Schewtschenko. Eingewöhnung und Übergang in die Kinderkrippe. Warum ist die Beteiligung der Eltern so wichtig? Pädagogik Melanie Schewtschenko Eingewöhnung und Übergang in die Kinderkrippe Warum ist die Beteiligung der Eltern so wichtig? Studienarbeit Inhaltsverzeichnis 1. Einleitung.2 2. Warum ist Eingewöhnung

Mehr

GEVITAS Farben-Reaktionstest

GEVITAS Farben-Reaktionstest GEVITAS Farben-Reaktionstest GEVITAS Farben-Reaktionstest Inhalt 1. Allgemeines... 1 2. Funktionsweise der Tests... 2 3. Die Ruhetaste und die Auslösetaste... 2 4. Starten der App Hauptmenü... 3 5. Auswahl

Mehr

Nichtlineare Optimierung ohne Nebenbedingungen

Nichtlineare Optimierung ohne Nebenbedingungen Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt

Mehr

Mean Time Between Failures (MTBF)

Mean Time Between Failures (MTBF) Mean Time Between Failures (MTBF) Hintergrundinformation zur MTBF Was steht hier? Die Mean Time Between Failure (MTBF) ist ein statistischer Mittelwert für den störungsfreien Betrieb eines elektronischen

Mehr

Aufgabe 1. Zunächst wird die allgemeine Tangentengleichung in Abhängigkeit von a aufgestellt:

Aufgabe 1. Zunächst wird die allgemeine Tangentengleichung in Abhängigkeit von a aufgestellt: Aufgabe 1 1.1. Bestimmung von D max : 1. Bedingung: x >0 ; da ln(x) nur für x > 0 definiert ist. 2. Bedingung: Somit ist die Funktion f a nur für x > 0 definiert und sie besitzt eine Definitionslücke an

Mehr

PTV VISWALK TIPPS UND TRICKS PTV VISWALK TIPPS UND TRICKS: VERWENDUNG DICHTEBASIERTER TEILROUTEN

PTV VISWALK TIPPS UND TRICKS PTV VISWALK TIPPS UND TRICKS: VERWENDUNG DICHTEBASIERTER TEILROUTEN PTV VISWALK TIPPS UND TRICKS PTV VISWALK TIPPS UND TRICKS: VERWENDUNG DICHTEBASIERTER TEILROUTEN Karlsruhe, April 2015 Verwendung dichte-basierter Teilrouten Stellen Sie sich vor, in einem belebten Gebäude,

Mehr

Modellbildungssysteme: Pädagogische und didaktische Ziele

Modellbildungssysteme: Pädagogische und didaktische Ziele Modellbildungssysteme: Pädagogische und didaktische Ziele Was hat Modellbildung mit der Schule zu tun? Der Bildungsplan 1994 formuliert: "Die schnelle Zunahme des Wissens, die hohe Differenzierung und

Mehr

Untersuchung der Auswahl der Hauptfreiheitsgrade zum Import eines Modells von ANSYS nach SIMPACK

Untersuchung der Auswahl der Hauptfreiheitsgrade zum Import eines Modells von ANSYS nach SIMPACK IMW - Institutsmitteilung Nr. 35 (2010) 103 Untersuchung der Auswahl der Hauptfreiheitsgrade zum Import eines Modells von ANSYS nach SIMPACK M. Leng; Z. Liang Die Auswahl der Hauptfreiheitsgrade spielt

Mehr

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 374

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 374 DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN Nr. 374 Eignung von Verfahren der Mustererkennung im Process Mining Sabrina Kohne

Mehr

Abituraufgabe zur Stochastik, Hessen 2009, Grundkurs (TR)

Abituraufgabe zur Stochastik, Hessen 2009, Grundkurs (TR) Abituraufgabe zur Stochastik, Hessen 2009, Grundkurs (TR) Eine Firma stellt USB-Sticks her. Sie werden in der Fabrik ungeprüft in Packungen zu je 20 Stück verpackt und an Händler ausgeliefert. 1 Ein Händler

Mehr

Informationssystemanalyse Problemstellung 2 1. Trotz aller Methoden, Techniken usw. zeigen Untersuchungen sehr negative Ergebnisse:

Informationssystemanalyse Problemstellung 2 1. Trotz aller Methoden, Techniken usw. zeigen Untersuchungen sehr negative Ergebnisse: Informationssystemanalyse Problemstellung 2 1 Problemstellung Trotz aller Methoden, Techniken usw. zeigen Untersuchungen sehr negative Ergebnisse: große Software-Systeme werden im Schnitt ein Jahr zu spät

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Typische Prüfungsfragen Die folgenden Fragen dienen lediglich der Orientierung und müssen nicht den tatsächlichen Prüfungsfragen entsprechen. Auch Erkenntnisse aus den

Mehr

Chemie Zusammenfassung KA 2

Chemie Zusammenfassung KA 2 Chemie Zusammenfassung KA 2 Wärmemenge Q bei einer Reaktion Chemische Reaktionen haben eine Gemeinsamkeit: Bei der Reaktion wird entweder Energie/Wärme frei (exotherm). Oder es wird Wärme/Energie aufgenommen

Mehr

Computational Fluid Dynamics - CFD Overview

Computational Fluid Dynamics - CFD Overview Computational Fluid Dynamics - CFD Overview Claus-Dieter Munz Universität Stuttgart, Institut für Aerodynamik und Gasdynamik Pfaffenwaldring 21, 70550 Stuttgart Tel. +49-711/685-63401 (Sekr.) Fax +49-711/685-63438

Mehr

Professionelle Seminare im Bereich MS-Office

Professionelle Seminare im Bereich MS-Office Der Name BEREICH.VERSCHIEBEN() ist etwas unglücklich gewählt. Man kann mit der Funktion Bereiche zwar verschieben, man kann Bereiche aber auch verkleinern oder vergrößern. Besser wäre es, die Funktion

Mehr

Grundlagen der höheren Mathematik Einige Hinweise zum Lösen von Gleichungen

Grundlagen der höheren Mathematik Einige Hinweise zum Lösen von Gleichungen Grundlagen der höheren Mathematik Einige Hinweise zum Lösen von Gleichungen 1. Quadratische Gleichungen Quadratische Gleichungen lassen sich immer auf die sog. normierte Form x 2 + px + = 0 bringen, in

Mehr

Teambildung. 1 Einleitung. 2 Messen der Produktivität

Teambildung. 1 Einleitung. 2 Messen der Produktivität 1 Einleitung Teambildung In der Entwicklung, speziell bei hohem Softwareanteil, stellen Personalkosten den primären Kostenanteil dar. Daher ist es wichtig, den Personalbedarf optimal zu bestimmen. You

Mehr

Übungsaufgaben. - Vorgehensweise entsprechend dem Algorithmus der schriftlichen Multiplikation

Übungsaufgaben. - Vorgehensweise entsprechend dem Algorithmus der schriftlichen Multiplikation Übungsaufgaben Anmerkung Allen Beispielen soll noch hinzugefügt sein, dass wertvolle Hinweise, also die Tipps und Tricks die der schnellen maschinellen Multiplikation zu Grunde liegen, neben dem toff zur

Mehr

Simulation LIF5000. Abbildung 1

Simulation LIF5000. Abbildung 1 Simulation LIF5000 Abbildung 1 Zur Simulation von analogen Schaltungen verwende ich Ltspice/SwitcherCAD III. Dieses Programm ist sehr leistungsfähig und wenn man weis wie, dann kann man damit fast alles

Mehr

Lösungsmethoden gewöhnlicher Differentialgleichungen (Dgl.)

Lösungsmethoden gewöhnlicher Differentialgleichungen (Dgl.) Lösungsmethoden gewöhnlicher Dierentialgleichungen Dgl) Allgemeine und partikuläre Lösung einer gewöhnlichen Dierentialgleichung Eine Dierentialgleichung ist eine Gleichung! Zum Unterschied von den gewöhnlichen

Mehr

Guide DynDNS und Portforwarding

Guide DynDNS und Portforwarding Guide DynDNS und Portforwarding Allgemein Um Geräte im lokalen Netzwerk von überall aus über das Internet erreichen zu können, kommt man um die Themen Dynamik DNS (kurz DynDNS) und Portweiterleitung(auch

Mehr

Systemen im Wandel. Autor: Dr. Gerd Frenzen Coromell GmbH Seite 1 von 5

Systemen im Wandel. Autor: Dr. Gerd Frenzen Coromell GmbH Seite 1 von 5 Das Management von Informations- Systemen im Wandel Die Informations-Technologie (IT) war lange Zeit ausschließlich ein Hilfsmittel, um Arbeitsabläufe zu vereinfachen und Personal einzusparen. Sie hat

Mehr

Jeopardy and andere Quizformate im bilingualen Sachfachunterricht Tipps zur Erstellung mit Powerpoint

Jeopardy and andere Quizformate im bilingualen Sachfachunterricht Tipps zur Erstellung mit Powerpoint Bilingual konkret Jeopardy and andere Quizformate im bilingualen Sachfachunterricht Tipps zur Erstellung mit Powerpoint Moderner Unterricht ist ohne die Unterstützung durch Computer und das Internet fast

Mehr

Die Finite Elemente Methode (FEM) gibt es seit über 50 Jahren

Die Finite Elemente Methode (FEM) gibt es seit über 50 Jahren Die Finite Elemente Methode (FEM) gibt es seit über 50 Jahren Aber es gibt bis heute kein Regelwerk oder allgemein gültige Vorschriften/Normen für die Anwendung von FEM-Analysen! Es gibt nur sehr vereinzelt

Mehr

Einführung. Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Vorlesungen zur Komplexitätstheorie. K-Vollständigkeit (1/5)

Einführung. Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Vorlesungen zur Komplexitätstheorie. K-Vollständigkeit (1/5) Einführung 3 Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Univ.-Prof. Dr. Christoph Meinel Hasso-Plattner-Institut Universität Potsdam, Deutschland Hatten den Reduktionsbegriff

Mehr

IT-Governance und Social, Mobile und Cloud Computing: Ein Management Framework... Bachelorarbeit

IT-Governance und Social, Mobile und Cloud Computing: Ein Management Framework... Bachelorarbeit IT-Governance und Social, Mobile und Cloud Computing: Ein Management Framework... Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science (B.Sc.) im Studiengang Wirtschaftswissenschaft

Mehr

FAQ 04/2015. Auswirkung der ISO 14119 auf 3SE53/3SF13 Positionsschalter. https://support.industry.siemens.com/cs/ww/de/view/109475921

FAQ 04/2015. Auswirkung der ISO 14119 auf 3SE53/3SF13 Positionsschalter. https://support.industry.siemens.com/cs/ww/de/view/109475921 FAQ 04/2015 Auswirkung der ISO 14119 auf 3SE53/3SF13 Positionsschalter mit https://support.industry.siemens.com/cs/ww/de/view/109475921 Dieser Beitrag stammt aus dem Siemens Industry Online Support. Es

Mehr

Modulabschlussklausur Analysis II

Modulabschlussklausur Analysis II Modulabschlussklausur Analysis II. Juli 015 Bearbeitungszeit: 150 min Aufgabe 1 [5/10 Punkte] Es sei a R und f a : R 3 R mit f a (x, y, z) = x cos(y) + z 3 sin(y) + a 3 + (z + ay a y) cos(x) a) Bestimmen

Mehr

Psychologie im Arbeitsschutz

Psychologie im Arbeitsschutz Fachvortrag zur Arbeitsschutztagung 2014 zum Thema: Psychologie im Arbeitsschutz von Dipl. Ing. Mirco Pretzel 23. Januar 2014 Quelle: Dt. Kaltwalzmuseum Hagen-Hohenlimburg 1. Einleitung Was hat mit moderner

Mehr

Grundlagen der Monte Carlo Simulation

Grundlagen der Monte Carlo Simulation Grundlagen der Monte Carlo Simulation 10. Dezember 2003 Peter Hofmann Inhaltsverzeichnis 1 Monte Carlo Simulation.................... 2 1.1 Problemstellung.................... 2 1.2 Lösung durch Monte

Mehr

Tangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort:

Tangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort: Tangentengleichung Wie Sie wissen, gibt die erste Ableitung einer Funktion deren Steigung an. Betrachtet man eine fest vorgegebene Stelle, gibt f ( ) also die Steigung der Kurve und somit auch die Steigung

Mehr

Optimale Steuerung. Sequentielle Quadratische Programmierung. Kevin Sieg. 14. Juli 2010. Fachbereich für Mathematik und Statistik Universität Konstanz

Optimale Steuerung. Sequentielle Quadratische Programmierung. Kevin Sieg. 14. Juli 2010. Fachbereich für Mathematik und Statistik Universität Konstanz Optimale Steuerung Kevin Sieg Fachbereich für Mathematik und Statistik Universität Konstanz 14. Juli 2010 1 / 29 Aufgabenstellung 1 Aufgabenstellung Aufgabenstellung 2 Die zusammengesetzte Trapezregel

Mehr

Übungsklausur. Bitte wählen Sie fünf Aufgaben aus! Aufgabe 1. Übungsklausur zu Mathematik I für BWL und VWL (WS 2008/09) PD Dr.

Übungsklausur. Bitte wählen Sie fünf Aufgaben aus! Aufgabe 1. Übungsklausur zu Mathematik I für BWL und VWL (WS 2008/09) PD Dr. Übungsklausur zu Mathematik I für BWL und VWL (WS 2008/09) PD Dr. Gert Zöller Übungsklausur Hilfsmittel: Taschenrechner, Formblatt mit Formeln. Lösungswege sind stets anzugeben. Die alleinige Angabe eines

Mehr

Prozessbewertung und -verbesserung nach ITIL im Kontext des betrieblichen Informationsmanagements. von Stephanie Wilke am 14.08.08

Prozessbewertung und -verbesserung nach ITIL im Kontext des betrieblichen Informationsmanagements. von Stephanie Wilke am 14.08.08 Prozessbewertung und -verbesserung nach ITIL im Kontext des betrieblichen Informationsmanagements von Stephanie Wilke am 14.08.08 Überblick Einleitung Was ist ITIL? Gegenüberstellung der Prozesse Neuer

Mehr

Durch die virtuelle Optimierung von Werkzeugen am Computer lässt sich die reale Produktivität von Servopressen erhöhen

Durch die virtuelle Optimierung von Werkzeugen am Computer lässt sich die reale Produktivität von Servopressen erhöhen PRESSEINFORMATION Simulation erhöht Ausbringung Durch die virtuelle Optimierung von Werkzeugen am Computer lässt sich die reale Produktivität von Servopressen erhöhen Göppingen, 04.09.2012 Pressen von

Mehr

Physik 4, Übung 11, Prof. Förster

Physik 4, Übung 11, Prof. Förster Physik 4, Übung 11, Prof. Förster Christoph Hansen Emailkontakt ieser Text ist unter dieser Creative Commons Lizenz veröffentlicht. Ich erhebe keinen Anspruch auf Vollständigkeit oder Richtigkeit. Falls

Mehr

1. Kennlinien. 2. Stabilisierung der Emitterschaltung. Schaltungstechnik 2 Übung 4

1. Kennlinien. 2. Stabilisierung der Emitterschaltung. Schaltungstechnik 2 Übung 4 1. Kennlinien Der Transistor BC550C soll auf den Arbeitspunkt U CE = 4 V und I C = 15 ma eingestellt werden. a) Bestimmen Sie aus den Kennlinien (S. 2) die Werte für I B, B, U BE. b) Woher kommt die Neigung

Mehr

WIE WIRKLICH IST DIE WIRKLICHKEIT WIE SCHNELL WERDEN SMART GRIDS WIRKLICH BENÖTIGT? DI Dr.techn. Thomas Karl Schuster Wien Energie Stromnetz GmbH

WIE WIRKLICH IST DIE WIRKLICHKEIT WIE SCHNELL WERDEN SMART GRIDS WIRKLICH BENÖTIGT? DI Dr.techn. Thomas Karl Schuster Wien Energie Stromnetz GmbH WIE WIRKLICH IST DIE WIRKLICHKEIT WIE SCHNELL WERDEN SMART GRIDS WIRKLICH BENÖTIGT? DI Dr.techn. Thomas Karl Schuster Wien Energie Stromnetz GmbH Agenda Einleitung Historisches zum Thema Smart Definitionen

Mehr

DAS TEAM MANAGEMENT PROFIL IM ÜBERBLICK. Sie arbeiten im Team und wollen besser werden. Das erreichen Sie nur gemeinsam.

DAS TEAM MANAGEMENT PROFIL IM ÜBERBLICK. Sie arbeiten im Team und wollen besser werden. Das erreichen Sie nur gemeinsam. Sie arbeiten im Team und wollen besser werden. Das erreichen Sie nur gemeinsam. Das Team Management Profil: Was haben Sie davon? In Unternehmen, die mit dem Team Management Profil arbeiten, entsteht ein

Mehr

Taylorentwicklung der k ten Dimension

Taylorentwicklung der k ten Dimension Taylorentwicklung der k ten Dimension 1.) Taylorentwicklung... 2 1.1.) Vorgehenesweise... 2 1.2.) Beispiel: f ((x, y)) = e x2 +y 2 8x 2 4y 4... 3 2.) Realisierung des Algorithmus im CAS Sage Math... 5

Mehr