ZUVERLÄSSIGKEITSBEWERTUNG MECHATRONISCHER SYSTEME DURCH MULTIDISZIPLINÄRE UND PROBABILISTISCHE SIMULATION

Ähnliche Dokumente
Zuverlässigkeitsanalyse und zuverlässigkeitsbasierte Optimierung mit probabilistischen Methoden am Beispiel. eines Magnetantriebes

Kostengünstige Entwicklung von Qualitätsprodukten durch probabilistische Simulation und Optimierung

Meta-Modellierung mit OptiY Gewinnung mathematischer Ersatzmodelle aus Messdaten oder komplexen FEA

Zuverlässigkeitsanalyse und zuverlässigkeitsbasierte Optimierung mit probabilistischen Methoden am Beispiel eines Magnetantriebes

Probabilistische Simulation dynamischer Systeme am Beispiel eines Induktionsmotors

Kostengünstige Entwicklung von Qualitätsprodukten durch probabilistische Simulation und Optimierung Vortragender

Einsatz von Simulationswerkzeugen beim Entwurf feinwerktechnischer Systeme. Beispiele aus der Forschung am IFTE

Toleranzanalyse und Optimierung eines Finite-Elemente-Strukturmodells mit OptiY

Effiziente Sensitivitätsanalyse in der industriellen Produktentwicklung. Vorträge. Thomas Most & Johannes Will

Sensitivität in der Statistik

Sensitivitätsanalyse quantitativer Modelle

Meta-Modellierung zur Gewinnung von Ersatzmodellen aus Messdaten und FE- Analysen als Bausteine für die Multidomain-Simulation

Probabilistische Optimierung am Beispiel eines Magnetantriebes

Bauteiloptimierung mit Hilfe von Methoden der Sensitivitäts- und Toleranzanalyse

Bewertung von Optimierungs- und Zuverlässigkeitsalgorithmen für die virtuelle Produktauslegung

Informationen zu den Referenten: Dr.-Ing. The-Quan Pham. Studium und Promotion. Berufliche Karriere. Dr.-Ing. Alfred Kamusella. Studium und Promotion

Probabilistische, strukturmechanische Untersuchung von Rotorscheiben unter Berücksichtigung geometrischer Streuungen

Kosten- und Zeitersparnis durch konstruktionsbegleitende Simulation mit CATIA V5 Die numerische Simulation ist mittlerweile ein fester und nicht mehr

Inhaltsverzeichnis. Bibliografische Informationen digitalisiert durch

Monte-Carlo Tests. Diplomarbeit. Wiebke Werft. Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf

Quantifizierung von Unsicherheiten Uncertainty Quantification

Grundlagen der Probabilistik

Erweiterung eines Verfahrens zur automatisierten Parameteridentifikation eines Fahrzeugmodells

Landau-Theorie. Seminar zur Theorie der Teilchen und Felder. Daniel Schröer

Zuverlässigkeit in der virtuellen Produktentwicklung

1. Automatisierte Lösungssuche mit num. Optimierung. 2. Beispiel: Magnetantrieb (SimulationX und OptiY)

Beitrag zur Untersuchung von passiven planaren Hochgeschwindigkeitsmagnetlagern für die Anwendung in der Mikrosystemtechnik

Modell zur Einflussanalyse Ein Modell zur Einflussanalyse von Methodenänderungen in Entwicklungsprozessen

Dynamische Optimierung

Entwurf E DIN EN (VDE ): FprEN :2008

Probabilistisches Simulationstool - ProSi

Statistik und Wahrscheinlichkeitsrechnung

LEWA Pulsationsstudien. Zur Analyse von Rohrleitungssystemen.

Relevanz moderner Optimierungsmethoden im Strömungsmaschinenbau

Stochastische Approximation des Value at Risk

Statistik und Wahrscheinlichkeitsrechnung

Stochastische Approximation des Value at Risk

Multidisziplinäre Analyse und Optimierung eines elektromagnetischen Ventilantriebs mit Hilfe gekoppelter FE- und Netzwerksimulationen

EU-Projekt MICADO 6.4

1 Einleitung. 1.1 Aufgabenstellung

Simulationsgestützte tzte Auslegung von Lineardirektantrieben mit MAXWELL, SIMPLORER und ANSYS. Matthias Ulmer, Universität Stuttgart

Feld- und Systemsimulation

Grundlagen der Messunsicherheitsanalyse Das ABC der Messunsicherheitsbudgets

Lebensdauerabschätzung von Komponenten für Windenergieanlagen

Software-Engineering

Institut für Entwicklung. Mechatronischer Systeme. 2. Swiss VPE Symposium, 14. April 2011, Hochschule für Technik Rapperswil 1

Probabilistisches Sicherheitskonzept für die brandschutztechnische Bemessung

Methoden zur Visualisierung von Ergebnissen aus Optimierungs- und DOE-Studien

FRAUNHOFER-INSTITUT FÜR PRODUKTIONSTECHNOLOGIE IPT INTEGRIERTE MECHATRONISCHE SYSTEME

Teil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006

Kapitel 1: Grundlagen

Große Simulink-Modelle mit Bus Objects effizienter gestalten

Projekt- und Abschlussarbeiten. Leitfaden zur Durchführung. Prof. Dr. M. Strohrmann, Prof. Dr. K. Wolfrum

Aktuelle Themen für Abschlussarbeiten

Optimierung und Robustheitsbewertung mit OptiSLang bei der Robert Bosch GmbH

DIN EN (VDE ): EN :2010

Untersuchung von Realgaseigenschaften in ANSYS CFX am Beispiel einer Lavaldüsenströmung

Bayesian updating in natural hazard risk assessment

Statistische Versuchsplanung

Legen Sie Wert auf Zeitersparnis, Qualitätsverbesserung und Flexibilität? Dann sind wir Ihr Partner!

Grundlagen der Probabilistik und Zuverlässigkeit

Grundlagen der Probabilistik

Entwicklung einer netzbasierten Methodik zur Modellierung von Prozessen der Verdunstungskühlung

Problemstellung. Anwendungsanalyse. Spezifikationstechniken. Analyse der Problemstellung. Wie komme ich vom Echtzeitproblem zum Echtzeitsystem?

SIMULIA isight Prozessautomatisierung und Parameter Optimierung

Use Cases vs. Funktionale Spezifikation

Legen Sie Wert auf Zeitersparnis, Qualitätsverbesserung und Flexibilität? Dann sind wir Ihr Partner!

Kalmanfiter (1) Typische Situation für den Einsatz von Kalman-Filtern

Planung von Handlungen bei unsicherer Information

Komponenten- HIL und Fahrzeug- HIL sind heute weit verbreitet. i.w. höhere Qualität der Fahrzeuge und Steuergeräte

Seminar Stochastische Unternehmensmodelle Varianzreduzierende Techniken

FEM-gestützte Ableitung von Magnetkreismodellen für elektromagnetische Aktoren

Ermittlung der Messunsicherheit und Anwendung der Monte-Carlo-Methode in GUMsim

Die Geschäftsmodell-Dimensionen sind den Geschäftsmodell-Elementen übergeordnet.

Probabilistische Analyse regionaler Klimasimulationen

Grundlagen der Objektmodellierung

Finite-Elemente-Simulation und Optimierung in der frühen Entwicklungsphase. Isabel Braun 19. April 2018

Nutzung von Systemsimulation in der industriellen Produktentwicklung

Geo 241 Modellierung von Systemen Modulverantwortlicher: Dr. Krause. Sommersemester 2009

WÄRMEPUMPENPLANUNG 4.0 Digitale Ansätze zur Verbesserung des WP-Betriebes. Dr.-Ing. Steffen Robbi 15. FORUM WÄRMEPUMPE

Grundlegende Eigenschaften von Punktschätzern

Statistische Nachweisführung für KMV-Störfälle unter Verwendung von Best-Estimate Plus Uncertainty (BEPU)-Analysen. Simone Palazzo, GRS Garching

Ableitung thermischer Randbedingungen für lineare Antriebseinheiten

Effizienz & Gütekriterien

Robustheitsbewertung in der Akustikberechnung eines LKW-Getriebes

Model-based Development of Hybrid-specific ECU Software for a Hybrid Vehicle with Compressed- Natural-Gas Engine

k-means als Verfahren zur Clusteranalyse basierend auf Repräsentanten bestimmt ein flaches Clustering

22. Schweizer CADFEM ANSYS Simulation Conference 2017 Resonanzfreie Auslegung eines Radialkompressor- Laufrades mit ANSYS und optislang

Bewertung Strukturierter Produkte mittels Value-at-Risk

Einführung in CAE-Systeme

Modellierung und Simulation mechatronischer Systeme. Übung 5 Kontinuierliche Simulationsmodelle (Dymola /Modelica )

Arbeitspaket IV Methoden zur Verifikation von Analog- und Sensorkomponenten

Wechseln Sie zum richtigen Partner

Vom virtuellen Prototyp zum digitalen Zwilling

Technische Universität Chemnitz im März 2015

Software: OptiY-Workflow - Einfache Toleranzkette

Ein neuer Weg zur Überwachung mechatronischer Systeme

Dipl.-Ing. Christoph Erath 10. November FVM-BEM Kopplung. Was gewinnen wir, wenn wir zwei numerische Methoden miteinander koppeln?

SKOPOS Webinar 22. Mai 2018

Technische Raytracer

Transkript:

3.DVM-Tagung "Zuverlässigkeit mechatronischer und adaptronischer Systeme", 14-14 April 2010, Darmstadt ZUVERLÄSSIGKEITSBEWERTUNG MECHATRONISCHER SYSTEME DURCH MULTIDISZIPLINÄRE UND PROBABILISTISCHE SIMULATION The-Quan Pham 1, Holger Neubert 2, Alfred Kamusella 2 1 OptiY e.k. Aschaffenburg 2 Institut für Feinwerktechnik und Elektronik-Design, TU Dresden Zusammenfassung Qualität- und Zuverlässigkeitsprobleme mechatronischer Systeme werden wesentlich durch Unsicherheiten, Streuungen, Fehler und Toleranzen hervorgerufen. Im Entwurf derartiger Systeme sind im Allgemeinen viele Teilkomponenten zu berücksichtigen, deren Wechselwirkungen schwer überschaubar sind. Der Aufsatz beschreibt einen neuen Ansatz zur Zuverlässigkeitsbewertung mechatronischer Systeme in der frühen Entwurfsphase. Die Systemkomponenten werden mit jeweils geeigneten CAE- Programmen abgebildet und daraus Ersatzmodelle abgeleitet. Diese lassen sich zu einem Systemmodell zusammenführen und bilden die Grundlage für eine probabilistische Simulation. Diese berechnet die Verteilungsfunktionen der Produkteigenschaften aus den Parameterstreuungen der Systemelemente. Sind die Ausfallmechanismen der Komponenten bekannt, lassen sich daraus die Ausfallraten der einzelnen Komponenten sowie des Gesamtsystems ermitteln. Stichwörter: Zuverlässigkeitsbasierter Entwurf, Probabilistische Simulation, Multidisziplinäre Optimierung, Sensitivitätsanalyse RELIABILITY ASSESSMENT OF MECHATRONIC SYSTEMS VIA MULTIDISCIPLINARY AND PROBABILISTIC SIMULATION Abstract The problems of reliability and quality for mechatronic systems are caused by uncertainty, variability, randomness and error. In designing mechatronic systems, many components have to be considered, whose interactions are difficult to overlook. The paper presents a new approach for reliability assessment of mechatronic system in the early design stage. The constituent components are modeled by specialized CAE-programs and surrogate models can be extracted from them automatically. These different models can be added into a system mode, which constitutes the basics for a probabilistic simulation. Thereby, the output distributions are calculated from the input distributions. If the failure mechanisms of components are known, the failure probability of single components and of the total system can be computed. Keywords: Reliability based design, Probabilistics, Multidisciplinary optimization, surrogate model, Sensitivity analysis

1. Einleitung Qualität und Zuverlässigkeit sind entscheidende Erfolgsfaktoren für ein Produkt auf dem Markt. Probleme entstehen dabei durch Unsicherheiten, Streuungen, Fehler und Toleranzen, die durch schwankende Einsatz- und Umweltbedingungen, Fertigungsungenauigkeiten, Materialeigenschaften, Prozessunsicherheiten usw. bedingt sind [2]. Beim Entwurf mechatronischer Systeme sind in der Regel viele Teilkomponenten zu berücksichtigen, die sich gegenseitig beeinflussen und deren Wechselwirkungen schwer zu überschauen sind. Sich überlagernde Zuverlässigkeitsprobleme einzelner Komponenten erschweren die Entwicklung und Herstellung komplexer mechatronischer Produkte oft erheblich. Zur Modellierung des Systemverhaltens mechatronischer Produkte werden für die einzelnen Komponenten jeweils geeignete CAE-Programme eingesetzt, da diese eine einfache, schnelle Handhabung und detaillierte Erkenntnisse zum Komponentenverhalten ermöglichen. Zur Modellierung des Systemverhaltens einschließlich der Berücksichtigung der Wechselwirkungen werden die in verschiedenen Simulationssystemen erzeugten Modelle in Form automatisch generierter Ersatzmodelle zu einem Modell des Gesamtsystems zusammengeführt [1,3]. Dadurch ist es möglich, einzelne Komponenten getrennt zu beschreiben und gleichzeitig das ganze System einheitlich zu simulieren. Damit sind auch die Voraussetzungen gegeben für eine probabilistische Simulation zur Bewertung der Zuverlässigkeit des Systemverhaltens. Im Gegensatz zu einer deterministischen Simulation betrachtet die probabilistische Simulation die Systemparameter nicht als konkrete Werte, sondern als stochastische Verteilungen [1]. Dies erfasst das statistische Verhalten realer Parameterstreuungen. Aus den Verteilungen der Systemparameter werden die Verteilungen der Systemeigenschaften mit probabilistischen Methoden unter Verwendung des deterministischen Produktmodells berechnet. Aus diesen Streuungen der Produkteigenschaften lassen sich Aussagen zur Robustheit und Zuverlässigkeit des Systems ableiten, wenn die Ausfallmechanismen für einzelne Komponenten bekannt sind. Aus den einzelnen Verteilungen kann man die Versagenswahrscheinlichkeiten der einzelnen Komponenten und auch des gesamten Systems berechnen. Mit der dabei auch verfügbaren globalen Sensitivitätsanalyse lassen sich die Komplexität des Systemverhaltens reduzieren und die Ursache-Wirkungs-Beziehungen der Systemzuverlässigkeit veranschaulichen. Die Anwendbarkeit auf einen konkreten bipolaren magnetischen Aktuator wird abschließend demonstriert. 2. Multidisziplinäre Ersatzmodellierung Mechatronische Systeme bestehen aus verschiedenen physikalischen Teilsystemen wie Elektronik, Elektromagnetismus, Festigkeit, Schwingungen, Mehrköpersysteme usw., die sich gegenseitig beeinflussen und deren Wechselwirkungen unüberschaubar sind. Wegen des großen Aufwandes und der erforderlichen Fachkenntnisse ist es praktisch unmöglich, alle physikalischen Teilsysteme in einem Simulationssystem genau und detailliert zu modellieren. Die Lösung liegt in der

multidisziplinären Simulation, d.h. jedes Teilsystem wird mit einem speziellen CAE- Programm behandelt. Die Vorteile liegen in der schnellen und einfachen Handhabung dieser spezialisierten Software. Außerdem lässt sich damit z.b. das Bauteilverhalten sehr genau und detailliert abbilden, was zur richtigen Beurteilung der Produkteigenschaften beiträgt. Der nächste Schritt wäre es, diese Teilsysteme miteinander zu verkoppeln und eine Co-Simulation durchzuführen. Der Nachteil einer Co-Simulation besteht jedoch darin, dass die Berechnung einzelner Teilsysteme sehr lange dauern kann und somit die Simulation des gesamten Systems beeinträchtigt bzw. unmöglich wird. Als neuer Ansatz wird hier vorgeschlagen, zuerst Ersatzmodelle aus den Teilsystemen zu gewinnen und dann automatisiert zu einem dynamischen Gesamtmodell für die Systemsimulation zusammenzuführen. Ersatzmodellierung oder Meta-Modellierung ist ein Prozess, um die mathematische Beziehung zwischen Entwurfsparametern und Produkteigenschaften zu ermitteln. Für jeden Punkt im Parameterraum erhält man durch Simulation einen Punkt im Entwurfsraum. Um aber die Abhängigkeit zwischen den Eingangs- und Ausgangsgrößen als Funktion darzustellen, benötigt man im Normalfall sehr viele Modellberechnungen (Vollfaktorielles Design). Dies wäre für rechenintensive Produktmodelle nicht durchführbar. Um den Rechenaufwand zu reduzieren, wird der adaptive Gauss-Prozess angewendet [8]. Es werden zuerst Stützstellen definiert, die man mit dem originalen Modell berechnet. Anschließend erhält man eine Antwortfläche durch Interpolation zwischen den Stützstellen. Basierend auf dieser Antwortfläche werden dann neue Punkte im Parameterraum vorgeschlagen, die ebenfalls mit dem originalen Modell zu berechnen sind. Daraus wird eine neue Antwortfläche mit allen existierenden Stützstellen gebildet. Dieser adaptive Prozess wird solange wiederholt, bis entweder eine definierte Genauigkeit der Antwortfläche oder eine definierte Anzahl von Modellberechnungen erreicht ist (Bild 1). Bild 1: Ersatzmodellierung / Surrogate Modeling Die mathematische Beziehung zwischen Entwurfsparametern und Produkt- Eigenschaften stellt eine weitere Dimension der Simulationsergebnisse dar und wird als Meta-Modell bezeichnet. Das gewonnene Meta-Modell kann als C-, Modelicaoder Matlab-Code exportiert werden und als Ersatzmodell in der Systemsimulation dienen (z.b. in Matlab/Simulink, Dymola, SimulationX usw.) [1].

3. Probabilistische Simulation Die Streuungen und Unsicherheiten lassen sich im Allgemein immer als stochastische Zufallsvariable beschreiben, die durch eine statistische Verteilung mit einem Mittelwert gekennzeichnet sind. Die deterministische Simulation kann das statistische Verhalten der Bauteile und Systeme nicht vorhersagen, weil eine Nennwert-Simulation nur einen Punkt im Entwurfsraum präsentiert. Man muss eine probabilistische Simulation anwenden. Dabei betrachtet man die Produkt- bzw. Modellparameter nicht mehr als feste Werte wie bisher, sondern als stochastische Verteilungen. Das widerspiegelt auch das statistische Verhalten der Realität. Basierend auf dem deterministischen Produktmodell werden die Verteilungen der Ausgangsgrößen aus den Verteilungen der Eingangsgrößen berechnet (Bild 2). Diese ermittelten Verteilungen repräsentieren das reale statistische Verhalten der Komponenten- und Produkteigenschaften. Daraus werden die Leistung, Qualität und Zuverlässigkeit des Produktes realistisch abgeleitet und bewertet, wenn die Ausfallmechanismen der Komponenten bekannt sind [4]. Bild 2: Probabilistische Simulation / Probabilistic Simulation Dieser Ansatz ist allerdings nicht neu. Man versucht schon seit langer Zeit, diese Probleme Software-technisch mit Monte-Carlo-Simulation oder statistischer Versuchsplanung zu lösen [2,4]. Dabei stößt man jedoch an die Grenze der technischen Machbarkeit. Solche Verfahren benötigen enorme Ressourcen und erfordern einen hohen Aufwand. Tausende Modellberechnungen müssen durchgeführt werden, um statistisch brauchbare Ergebnisse zu erhalten. Für rechenintensive Produktmodelle ist dies praktisch unmöglich. Das ist der Grund, warum diese Methodik in der industriellen Praxis nicht anwendbar und nicht verbreitet ist. Erst durch intensive Forschungen wurden neue Verfahren wie Antwortflächen- Verfahren oder Moment-Methoden entwickelt [1,4,5,7], die wesentlich weniger Modellberechnungen benötigen und trotzdem sehr genaue statistische Ergebnisse liefern. Diese Verfahren basieren auf einem Ersatz- oder Metamodell, welches die originalen Beziehungen zwischen Eingangs- und Ausgangsgrößen durch eine mathematische Funktion y( ersetzt. Es gibt verschiedene Ansätze zur Beschreibung der mathematischen Ersatzfunktion wie Polynome, Gauss-Prozess,

Radial Basis Funktion, Neuronale Netze usw. Dazu werden nur wenige Stützstellen definiert und mit dem originalen Produktmodell berechnet. Die Ersatzfunktion entsteht durch Interpolation zwischen den Stützstellen. Auf der Grundlage des Ersatzmodells werden die Verteilungen der Ausgangsgrößen mittels einer großen virtuellen Monte-Carlo-Stichprobe oder mittels analytischer Approximation ermittelt. Die Rechenzeit hier ist im Vergleich zu einer Berechnung des Originalmodells gering und vernachlässigbar. Die Genauigkeit hängt nur noch von der Genauigkeit des Ersatzmodells ab und ist im Normalfall sehr hoch. Neben FMEA und Fehlerbaumanalyse ist probabilistische Simulation eine weitere quantitative Methode zur Bewertung der Komponenten- und Systemzuverlässigkeit. Im Vergleich zur Fehlerbaumanalyse liefert die probabilistische Simulation mehr Informationen über die Zuverlässigkeit sowohl von den Komponenten als auch vom gesamten System. Die Ausfallraten können abhängig von Parameter-Streuungen und abgebildeten Modellstrukturen berechnet und deren Zusammenhänge detailliert dargestellt werden. Das ist sehr nützlich und sinnvoll, um das Produkt bereits in frühen Entwurfsphasen in Hinblick auf die Qualität und Zuverlässigkeit auszulegen und zu optimieren. 4. Globale Sensitivitätsanalyse Mit der Sensitivitätsanalyse kann man folgende Fragen zur Reduzierung der Entwurfskomplexität und zur Erklärung von Ursache-Wirkungs-Beziehungen beantworten: Welcher Modellparameter hat den größten Einfluss auf das Produktverhalten und muss beim Entwurf besonders berücksichtigt werden? Welche Parameter haben kaum Einfluss und können vernachlässigt werden? Welche Interaktionen zwischen den einzelnen Parametern treten dabei auf? Lokale Sensitivitäten, wie partielle Ableitungen und Korrelationskoeffizienten, haben nur geringe Aussagekraft, weil die Produkteigenschaften infolge der Abtastung an den Bereichsgrenzen nur linearisiert betrachtet werden. Die Eigenschaften streuen jedoch im gesamten Entwurfsraum unterschiedlich und können nichtlinear sein. Die globalen varianzbasierten Sensitivitäten wie der Sobol Index betrachten dagegen den Parametereinfluss im gesamten Entwurfsraum und berücksichtigen auch Nichtlinearitäten [9]. Der Haupteffekt ist der Quotient aus der durch einen einzelnen Parameter verursachten Varianz zu der durch alle Parameter verursachten Varianz der Ausgangsgröße: y( y( g( x j ) dx j g( xi ) dx Var( y xi ) ji S i H ( x i ) 2 Var( y y( y( g( dx g( dx Der Totaleffekt ist die Summe aus dem Haupteffekt und den Interaktionen zwischen den Parametern. 2 i

Mit der Sensitivitätsanalyse kann man also die Probleme und Ursachen der Zuverlässigkeit identifizieren. Die Zusammenhänge zwischen den Parameterstreuungen (Produktparameter, Last, Umwelt, Einsatzbedingungen usw.) und den Ausfallraten der Komponenten und des Systems können dargestellt und erklärt werden. Damit sind gezielte Anstrengungen möglich, um zuverlässige Produkte kostengünstig und schnell marktreif auszulegen und herzustellen. 5. Robustoptimierung eines bipolaren magnetischen Aktors Der Entwurf elektromagnetischer Aktoren ist kompliziert wegen der Wechselwirkungen von elektrischem und magnetischem Feld und der Ankerbewegung, nichtlinearem Materialverhalten sowie statischen und dynamischen Anforderungen, die zu berücksichtigen sind. Im Beispiel wurde ein Antrieb für ein bistabiles pneumatisches Mikroventil unter Berücksichtigung der Schaltzeiten und der Haltekräfte in beiden Endlagen mit Berücksichtigung von Parameterstreuungen optimiert. Bild 3: Prinzip des bipolaren magnetischen Aktors, Anker in oberer Position In diesem bipolaren Antrieb wirken Spulen und Permanentmagneten zusammen [10, 11]. Ausgangspunkt der Optimierung ist der Prinzipentwurf in Bild 3 mit den statischen Magnetfeldern im unbestromten Zustand nach Bild 4. Bild. 4: Statische Magnetfelder des Aktors in unterer (a) und oberer (b) Position des Ankers; FE-Modell mit unbestromter Spule.

Das dynamische Verhalten des Aktors wird mit einem Netzwerkmodell berechnet, das Kennfelder aus statischen FE-Modellen einbezieht. Diese Kennfelder sind nur gültig für eine spezifische Geometrie und müssen in Optimierungsprozessen für jeden Iterationsschritt neu berechnet werden. Das Netzwerkmodell ist in SimulationX ausgeführt, das statische Magnetmodell in FEMM [12, 13]. Die Zusammenführung der Modelle basiert auf OptiY [1]. Weiterhin ist zur Konvertierung eines der Kennfelder eine Matlab-Routine eingebunden [14]. Bild 5 zeigt ein Schema des Zusammenwirkens der Teilmodelle. Bild 5: Datenschema zur Optimierung des bipolaren elektromagentischen Aktors. Der Entwurf umfasst erstens eine Nennwertoptimierung, zweitens eine probabilistische Simulation und drittens eine Robustoptimierung. Im ersten Schritt, der Nennwertoptimierung, werden Systemparametern ermittelt, die unter Vernachlässigung von Streuungen die Anforderungen optimal erfüllen. Im Beispiel wurden drei Abmessungen in der Optimierung variiert (Bild 3): - die Breite des oberen Joches W UY, - die Breite des unteren Joches W LY, - die Höhe des oberen Ankerteils H UA. Im Ergebnis erhält man einen Entwurf, der die Anforderungen für Nennwerte der Entwurfsparameter optimal erfüllt (Tab. 1). Der zweite Schritt bestimmt mit einer probabilistischen Simulation den Einfluss von Parameterstreuungen auf die Funktion. Zum Beispiel wurde der Einfluss der Streuung der Abmessungen W UY und W LY sowie der Betriebsspannung in Form von Verteilungsdichtefunktionen berücksichtigt. Die Analyse ergibt, dass für etwa 50% der Exemplare in einer auf den optimierten Nennwerten beruhenden Fertigung ein Systemverhalten außerhalb der Spezifikation hinsichtlich der Haltekraft in der unteren Ankerstellung F cl zeigen würde (Bild 6). Dies macht eine Robustoptimierung erforderlich.

Bild 6: Verteilungsfunktionen der Haltekräfte F cl, F op. (ein dunkles Feld bedeutet unzulässige Werte). Der dritte Schritt, die Robustoptimierung, verschiebt die Funktionsstreuung durch Parameteroptimierung so, dass Restriktionen nur minimal verletzt werden und zudem die Varianzen des Verhaltens minimal sind. Im Ergebnis wird der zulässige Bereich der Haltekraft F cl nur noch mit einer vernachlässigbar kleinen Wahrscheinlichkeit verletzt. Tab. 1 zeigt die Eigenschaften der Lösungen der verschiedenen Entwurfsstadien im Vergleich. Tab. 1. Systemverhalten des bipolaren elektromagentischen Aktors in unterschiedlichen Entwurfsstadien Restriktionen Start-Wert Opti. Wert Robust-Wert F op [2N;5N] 4.7N 3.4N 3.2N F cl [-10N;-5N] -5.6N -5.0N -5.4N t op Find Min. 4.1ms 3.6ms 3.5ms t cl Find Min. 4.9ms 4.0ms 4.3ms 6. Schlussfolgerungen Die Entwicklung immer komplexer werdender mechatronischer Systeme in Hinblick auf Qualität und Zuverlässigkeit erfordert beständig eine verbesserte Entwurfsmethodik. Der Einsatz von Simulationssoftware in der frühen Entwurfsphase ist dabei unverzichtbar. Zur Beherrschung der verschiedenen Systemkomponenten werden unterschiedliche spezialisierte CAE-Programme eingesetzt und daraus Ersatzmodelle gewonnen. Diese lassen sich zu einem dynamischen Gesamtmodell zusammenführen und bilden die Grundlage für die probabilistische Simulation zur Bewertung der Qualität und Zuverlässigkeit. Im Vergleich zur Fehlerbaumanalyse liefert diese quantitative Methode detaillierte Informationen über die Ursachen-Wirkungs-Beziehungen der System- und

Komponentenzuverlässigkeit bereits in der Entwurfsphase. Das ist eine neue und innovative Technologie, um komplexe mechatronische und adaptronische Systeme zuverlässig, kostengünstig und schnell marktreif zu entwickeln und herzustellen. Literatur 1. OptiY. Software und Dokumentation. OptiY e.k. 2010. www.optiy.eu 2. B. Bertsche, G. Lechner. Zuverlässigkeit im Fahrzeug- und Maschinenbau. VDI Springer Verlag 2004 3. D. Schlabe, T. Bödrich, T-Q. Pham, T. Ehre. Multidisziplinäre Analyse und Optimierung eines elektromagnetischen Ventilantriebs mit Hilfe gekoppelter FEund Netzwerksimulationen. VDI-Tagung Mechatronik, 12.-13. Mai 2009 in Wiesloch 4. T-Q. Pham, A. Kamusella. Zuverlässigkeitsanalyse und zuverlässigkeitsbasierte Optimierung mit probabilistischen Methoden am Beispiel eines Magnetantriebes. VDI-Tagung Technische Zuverlässigkeit, 29.-30. April 2009 in Leonberg 5. T.-Q. Pham, H. Neubert, A. Kamusella. Design for Reliability and Robustness through Probabilistic Methods in COMSOL Multiphysics with OptiY. 2nd European COMSOL Conference, 4-6 November 2008 in Hanover 6. H. Neubert, D. Fleischer, A. Kamusella, T-Q. Pham. Optimization of Bipolar Magnetic Actuators for Microvalves with Regard to the Tolerances. International Conference and Exhibition on New Actuators and Drive Systems, June 2008 in Bremen 7. T-Q. Pham, A. Kamusella. Multidisziplinäre Zuverlässigkeits- und Robustheitsanalyse mechatronischer Systeme. International Forum Mechatronics. Proceedings. 16.-17. October 2006, Linz 8. C.E. Rasmussen, C.K.I. Williams. Gaussian Process for Machine Learning. MIT Press 2006 9. A. Saltelli, K. Chan, E.M. Scott. Sensitivity Analysis. John Willey & Sons Chichester, New York 2000. 10. L. Krauß. Ein Beitrag zur Auswahl, zum Entwurf und zur Ansteuerung von bipolaren Elektromagneten, insbesondere für Magnetventile, Diss. TH Ilmenau, 1984 11. T. Roschke, S. Fraulob, R. Seiler, T. Bödrich, Bipolar Magnetic Actuators and Approaches for their Design. Proceedings of the 10th European Space Mechanisms and Tribology Symposium, Sept. 24-26, 2003, San Sebastián, Spain, pp. 209-215, 2003 12. http://www.iti.de/ 13. http://femm.foster-miller.net 14. http://www.mathworks.com/