RCP Zusammenfassung aus dem SS 2012 1 Version: 22. Juni 2014 1 Einführung und Überblick Vorteile des Einsatzes von Rapid Control Prototyping: schnelle, einfache und kostengünstige Erprobung unterschiedlicher Regelungs- und Steuerungsverfahren Aufbau von Erfahrungen mit dem neuen, simulierten System einfache Anpassung und Optimierung von Parametern Datenerfassung, -aufbereitung und -visualisierung Nutzung von Analysetools, die auf dem Zielsystem nicht zur Verfügung stehen ausreichende Rechenzeit um auch komplexe Verfahren erproben zu können Erhöhung der erzielbaren Sicherheit durch verbesserte Testmöglichkeiten grasche Programmierung liefert in einem auch eine Dokumentation Verwendung von graschen Modellen deniert eine einheitliche Beschreibungssprache V-Modell: Systemsimulation: Alle beteiligten Komponenten werden als Simulationsmodelle auf Entwicklungsrechnern ausgeführt. Hardware-in-the-Loop: Der entwickelte Regelungs-/Steuerungsalgorithmus läuft auf der Ziel-Hardware und wird an einem Simulationsmodell des realen Prozesses erprobt, das auf einem Entwicklungsrechner läuft. Software-in-the-Loop: Der entwickelte Regelungs-/Steuerungsalgorithmus läuft auf einem Entwicklungsrechner und ist mit dem realen Prozess ganz oder teilweise verbunden. System: Systemgrenze als physikalische oder gedachte Abgrenzung gegenüber der Umgebung Ein- und Ausgangsgröÿen, welche die Systemgrenze passieren innere Gröÿen, welche als Zustände bezeichnet werden Verhalten des Systems, welches die Beziehung zwischen Eingängen, Zuständen und Ausgängen wiedergibt bei komplexen Systemen Aufteilung in Teilsysteme Ein- und Ausgangsvariablen: Signale mit kontinuierlichem Wertebereich Signale mit diskontinuierlichem Wertebereich Ereignisse 1 Wer Fehler ndet teilt mir diese bitte über robert.uhl@rwth-aachen.de mit, damit ich diese korrigieren kann. Die Graken stammen aus den Vorlesungsfolien.
2 Beschreibung dynamischer Systeme Ziele einer Regelung: Regelgröÿe (Ausgangsgröÿe) eines Prozesses (Regelstrecke) an vorgegebene Führungsgröÿe (Sollwert) angleichen geringe Beeinussung der Regelgröÿe durch Störgröÿen, die auf den Prozess einwirken Regler vergleicht Führungs- und Regelgröÿe um dann die Regelstrecke mit der daraus ermittelten Stellgröÿe (Ausgangsgröÿe des Reglers) zu beeinussen Gewinnung von dynamischen Modellen: experimentelle Modellbildung/Identikation: Messung an realer Regelstrecke (wenn möglich!), black-box-modell theoretische Modellbildung: Verknüpfen der physikalischen und chemischen Grundgleichungen nach Verständnis der Wirkungsweise der Regelstrecke, white-box-modell Kombination beider Verfahren: physikalisch motivierte Struktur mit identizierten Parametern, grey-box-modell Laplace-Transformation: G(s) = Y (s) U(s), allgemein X(s) = x(t) e s t dt mit s = σ + jω Frequenzgang: G(jω) = Y (jω) U(jω) mit σ = 0 bei der Laplace-Transformation, Darstellung als Ortskurve oder Bode-Diagramm Zustandsraumdarstellung: Systemmatrix A Eingangsmatrix B Ausgangsmatrix C Durchgangsmatrix D allgemein: x(t) = f( x(t), u(t), t) und y(t) = g( x(t), u(t), t) lineares zeitinvariantes System: x(t) = A x(t) + B u(t) und y(t) = C x(t) + D u(t) zeitdiskret: x(k + 1) = A D x(k) + B D u(k) und y(k) = C x(k) + D u(k)
3 Physikalische Modellbildung Systemtypen: statische Systeme: keine inneren Zustände dynamische Systeme: innere Zustände wertediskrete Systeme: Zustände nehmen nur Werte aus einer diskreten Menge an wertekontinuierliche Systeme: Zustände nehmen innerhalb des Wertebereiches jeden reellen Wert an zeitdiskrete Systeme: Gröÿen werden nur an diskreten äquidistanten Zeitpunkten betrachtet, dazwischen undeniert zeitkontinuierliche Systeme: Gröÿen sind an jedem reellen Zeitpunkt deniert ereignisdiskrete Systeme: Gröÿen erfahren Änderungen beim Auftreten von Ereignissen Systeme mit konzentrierten Parametern: beschreibbar durch gewöhnliche Dierentialgleichungen Systeme mit verteilten Parametern: beschreibbar durch partielle Dierentialgleichungen lineare Systeme: Superpositions- und Homogenitätsprinzip gelten nichtlineare Systeme: Superpositions- und Homogenitätsprinzip gelten nicht zeitinvariante Systeme: Parameter und Eigenschaften hängen nicht von der Zeit ab zeitvariante Systeme: Parameter und Eigenschaften sind mit der Zeit veränderlich deterministische Systeme: Verhalten von Anfangsbedingungen und Eingangssignalen ausgehend vorhersagbar nicht-deterministische Systeme: Verhalten nicht vorhersehbar 3.1 kontinuierliche Modellbildung Beschreibung linearer zeitinvarianter Systeme mit konzentrierten Parametern durch lineare, gewöhnliche Dierentialgleichungen mit konstanten Koezienten: y (n) + a n 1 y (n 1) +... + a 2 ÿ + a 1 ẏ + a 0 y = b 0 u + b 1 u +... + b m u (m) mit m n für kausale Systeme damit G(s) = Y (s) U(s) = b m s m +...+b 1 s+b 0 s n +a n 1 s n 1 +...+a 2 s 2 +a 1 s+a 0 0 1 0... 0 0 0 0 1 0 x(t) =...... x(t) + 0. u(t) 0 0 0... 1 0 a 0 a 1 a 2... a n 1 1 y(t) = ( b 0 b n a 0 b 1 b n a 1... b n 1 b n a n 1 ) x(t) + bn u(t) Aufstellen von Dierentialgleichungen: 1. Speicher identizieren und durch geeignete Grundgleichung beschreiben (Teilsysteme bilden) 2. Verbindungen identizieren und beschreiben (Zusammenwirken der Teilsysteme) 3. verbundene Teilsysteme zusammenfassen und überüssige Variablen eliminieren Wirkungsplan/Blockschaltbild: schematische Darstellung der Wirkungszusammenhänge Darstellung der Abhängigkeiten der einzelnen dynamischen Elemente 3.2 ereignisdiskrete Modellbildung Abbildung von nicht-deterministischem Verhalten möglich Repräsentationsform: sprachlich-textuell mathematisch-symbolisch (z.b. Matrixalgebra) grasch synchrone Teilprozesse: getaktete Prozesse, die durch ein Taktsignal gestartet gleichzeitig ablaufen alle Komponenten führen Zustandsübergänge gleichzeitig aus asynchrone Teilprozesse: kein fester gemeinsamer Takt gleichzeitige Übergänge besonders gekennzeichnet Nebenläugkeit: Einzelschritte konkurrierender Teilsysteme werden voneinander kausal unabhängig durchgeführt. Graphen: G = (N, E) Knoten N Kanten E
endliche Automaten: A = (E, A, Z, z 0, z neu = f(e, z alt ), a = g(e, z)) Mealy-Automat: Ausgabe steht an Kante; abhängig vom momentanen Zustand und der aktuellen Eingabe Moore-Automat: Ausgabe steht an Knoten; abhängig vom momentanen Zustand 3.2.1 Petri-Netze Nebenläugkeiten übersichtlich darstellbar Stellen (Kreise): Teilzustände des Systems Markierungen (Punkte) Transitionen (Rechtecke): Ereignisse, die zu Zustandsübergängen führen mathematische Beschreibung: Netzmatrix N (Stellen Transitionen) mit Kanten von Stelle zu Transition negativ Anfangsmarkierungsvektor m 0 Schalthandlung: m = m 0 + N t i für Transition t i, wobei vorher zu prüfen ist, ob das Schalten erlaubt ist! 3.3 Hybrides System Ein dynamisches System, das mit Methoden der kontinuierlichen oder diskreten Systemtheorie alleine nicht mit ausreichender Genauigkeit dargestellt und analysiert werden kann. Anforderungen an die Beschreibungsmittel: diskrete und kontinuierliche Zustandsvariablen diskrete und kontinuierliche Ein- und Ausgangssignale diskrete Ereignisse, die von einer kontinuierlichen Zustandstrajektorie ausgelöst werden diskontinuierliche Änderungen der kontinuierlichen Zustandstrajektorie, ausgelöst durch diskrete Ereignisse Änderung der Modellordnung und -struktur durch diskrete Ereignisse
4 Identikation und experimentelle Modellbildung Möglichkeiten der Modellbildung: theoretische Prozessanalyse: physikalische Gesetzmäÿigkeiten des Prozesses hinreichend genau beschreibbar experimentelle Prozessanalyse: limitierte Kenntnisse über den Prozess, Identikation des Signalübertragungsverhaltens aus Messungen der Ein- und Ausgangssignale Testsignale: nichtperiodische Signale (z.b. Sprungfunktion, Rechteckimpuls) periodische Signale (z.b. Sinus- oder Rechteckschwingung) stochastische Signale (z.b. binäres Rauschen) 4.1 nichtparametrische Identikation Voraussetzungen: System linear und zeitinvariant nichtparametrische Modelle: Zeitbereich: Gewichts- und Übergangsfunktion Frequenzbereich: Frequenzgang 4.1.1 Frequenzgangmessung mit determinierten Signalen Eingangssignal: u(t) = U cos(ωt) Ausgangssignal: y u (t) = Y u cos(ωt + ϕ) (stabiles LTI-System nach Abklingen der Einschwingvorgänge) G(jω) = Yu U ej ϕ = Re{G(jω)} + j Im{G(jω)} mittelwertfreie, unkorrelierte Störungen n(t) werden hierbei herausgeltert!
aktuelle Messfrequenz: ω Periodendauer: T = 2π ω Messdauer: T mess = k T mit k N damit R = Re{G(jω)} U 2 2 k T und I = Im{G(jω)} U 2 2 k T 4.1.2 Fourier-Transformation G(jω) = Y (jω) U(jω) berechnen mit allgemein X(jω) = Bedingung für nichtperiodische Signale: u(t) dt < x(t) e jωt dt diskrete Fourier-Transformation (DFT): mit N Stützstellen U(k) = T N 1 k n j 2π u(n) e N mit k, n {0, 1,..., N 1} n=0 erfasster Frequenzbereich: 0 < ω < ω max = 2π T (enthält aber alle Störungen des Signals!) äquidistante Stützstellen: ω = 2π N T Abtastzeitpunkte: t = k T mit k Z Fast Fourier Transformation (FFT): mit N = 2 ρ Stützstellen bei ρ N Abspaltung des konstanten Anteils des Exponentialstermes W N = e j 2π N Reduzierung auf 2-Werte DFT durch Halbierungsverfahren keine Näherungslösung, lediglich Diskretisierungsfehler 4.2 parametrische Identikation Vorgaben: Modellordnung n Totzeit d als Vielfaches der Abtastzeit z-übertragungsfunktion: G(z 1 ) = b0+b1 z 1 +...+b n z n 1+a 1 z 1 +...+a n z n z d = B(z 1 ) A(z 1 ) z d mit Totzeit d nicht sprungfähiges System bei b 0 = 0 ê k enthält Abweichungen durch Störungen n(k) und fehlerhaft geschätzte Parameter â i und ˆb i!
4.2.1 nichtrekursive Parameterschätzung mit N 3n + d Messungen für 2n linear unabhängige Gleichungen und geringen Störeinuss y k 2. Messgröÿenvektor: m k = y k n u k 1 d u k 2 d. u k n d y k 1 â 1 â 2. Parametervektor: ˆ â Θ = n ˆb1 ˆb2. ˆbn Gleichungsfehler: ê k = y k m T k ˆ Θ für k {1, 2,..., N}, Gleichungsfehlervektor: ê 2 ˆ e =. ê N y 1 y 2 Ausgangssignalvektor: y =., Messwertmatrix: M = m T 2. y N m T N damit Gleichungssystem: ˆ e = y M ˆ Θ Gütemaÿ kleinste Fehlerquadrate: Q = 1 N m T 1 N ê 2 k = 1 N ˆ e T ˆ e min k=1 (N 2n) aus dem minimierten Gütemaÿ folgt die direkte Least-Squares-Lösung: ˆ ΘQmin = ( M T M ) 1 MT y für die Existenz des Minimums muss gelten: det ( M T M ) > 0 (Testsignal stabil und fortlaufend angeregt) ( minimales verbleibendes Gütemaÿ: Q min = 1 N y T y ˆ ) Θ T Qmin M T y 4.2.2 rekursive Parameterschätzung: Aktualisierung des Parametervektors am Zeitpunkt k: ˆ Θk = ˆ Θk 1 + g k (y k m T k ˆ ) Θk 1 ê 1 mit Adaptionsfunktion ρ um neue Messwerte stärker zu gewichten bei 0,95 ρ 1 Startwerte: ˆ Θ0 = 0 und ˆP 0 = I (10 5... 10 6 ) praktisches Vorgehen bei der Identikation eines Prozesses: 1. Auswertungen mit hinreichend groÿer Modellordnung n und unterschiedlichen Totzeiten d durchführen 2. daraus optimale Vorgabe der Totzeit d opt durch Minimieren des jeweiligen verbleibenden Gütemaÿes Q min bestimmen 3. Modellordnung durch Partialbruchzerlegung und Abspalten unnötiger Terme auf n red reduzieren (Parallelzweige mit kleinem stationären Anteil entfallen) 4. Parameter mit eventuell reduzierter Modellordnung n red und ermittelter Totzeit d opt schätzen Identikation bei adaptiver Regelung: Der Prozess wird laufend neu identiziert und anhand der ermittelten Modellparameter werden die Reglerparameter dann laufend neu bestimmt.
Abtasttheorem nach Shannon: Abtastzeit T < π ω grenz = Tgrenz 2 Abtastfrequenz ω > 2 ω grenz 5 Grundzüge des Steuerungs- und Regelungsentwurfes Grundbegrie Regelkreis: Regelgröÿe: zu regelnde Ausgangsgröÿe der Regelstrecke Führungsgröÿe: Sollwert, dem die Regelgröÿe angeglichen werden soll Störgröÿe: beeinusst ungewollt die Regelstrecke und somit die Regelgröÿe Stellgröÿe: Ausgangsgröÿe des Reglers, die auf die Regelstrecke einwirkt Regeldierenz: Dierenz zwischen Führungs- und Regelgröÿe Regelfaktor: R = x mr x or mit Regelabweichung x, klein für gute Regelung Gütemaÿe: zur direkten Optimierung der Regelung quadratische Regeläche: I = e 2 (t) dt ITAE-Kriterium: I = e(t) t dt 5.1 Entwurfsverfahren für Regelungen oft iterativer Vorgang 0 0 (stärkere Gewichtung mit längerer Zeit) Regelkreisstruktur: Regelgröÿe und Stellgröÿe festlegen mehrere Stell- und Regelgröÿen: Kaskadenregelung, Mehrgröÿenregelung messbare Störungen: Störgröÿenaufschaltung stark totzeitbehaftet: Smith Predictor zur Kompensation Reglerstruktur: schaltender Regler (z.b. Zweipunktregler) P-, I-, PI-, PD- oder PID-Regler Modellgestützte Prädiktive Regelung Internal Model Control Smith Predictor: totzeitfreies Modell regeln und Modellfehler korrigieren Adaptive Regelung: Prozess laufend identiziert Reglerparameter: Wichtig ist vor allem Stabilität! heuristische Einstellregeln: Chien-Hrones-Reswick: P T 1 T t -Modell für die Regelstrecke: G(s) K S 1+T g s e Tu s Reglerparameter aus Formeln bestimmen, die auf Empfehlungen beruhen Ziegler-Nichols: Kenntnisse der Regelstrecke durch Schwingversuch mit P-Regler Reglerparameter aus Formeln bestimmen Pol-Nullstellen-Diagramm: z.b. cos(ϕ) = D (Dämpfung) Wurzelortskurve: Lage der Pole in Abhängigkeit der Reglerverstärkung; G R (s) = K G R (s) Frequenzkennlinie: Phasenreserve bei Durchtrittsfrequenz, Amplitudenrand bei ±180 Zustandsraum: Zustandsrückführung über Reglermatrix K: A K = A B K Eigenwerte entsprechen Polstellen: det(s I A) = 0 Polvorgabe: Vorgabe der Eigenwerte der Matrix A K optimale Zustandsregelung K opt mit Gütekriterium J = 0 x T Q x } {{ } Maÿ Abweichung vom Arbeitspunkt Schätzung des Zustandsvektors: Zustände des Systems nicht direkt messbar + u T R u } {{ } Maÿ Stellenergie dt
6 Simulation 6.1 Numerische Lösung von Dierentialgleichungen Eingangsgröÿe u, Ausgangsgröÿe y, Integrationsintervall T Zustandsdierentialgleichungen: x(t) = f( x(t), u(t), t) und y(t) = g( x(t), u(t), t) Lösung im Zeitdiskreten: x(k) = x(k T ) mit k Z (k+1) T x(k + 1) = x(k) + f(x(k), u(k)) dτ mit gegebenem Startwert x(k = 0) k T aber i.d.r. f(x, u) vom momentanen Wert des Integrals abhängig! Euler-Verfahren: Annahme: Integrand ändert sich während eines Zeitschrittes nicht ẋ(k) = f(x(k), u(k)) = const damit x(k + 1) = x(k) + T ẋ(k) = x(k) + T f(x(k), u(k)) Heun-Verfahren: Prädiktor-Korrektor-Prinzip, Mitteln von Ableitungswerten 1. Prädiktorschritt: x P (k + 1) = x(k) + T f(x(k), u(k)) 2. Integrand am Ende des Integrationsintervalles: ẋ P (k + 1) = f(x P (k + 1), u(k + 1)) 3. Korrektorschritt (Mittelwert der Steigung): x(k + 1) = x(k) + T 2 (ẋ(k) + ẋp (k + 1)) Runge-Kutta Verfahren 4. Ordnung: Mitteln von Ableitungswerten x(k + 1) = x(k) + T 6 (K 1 + 2 K 2 + 2 K 3 + K 4 ) mit K 1 = f(x(k), u(k)) K 2 = f(x(k) + T 2 K 1, u(k + 1 2 )) K 3 = f(x(k) + T 2 K 2, u(k + 1 2 )) K 4 = f(x(k) + T K 3, u(k + 1)) Mehrschrittverfahren: Adams-Bashforth: x(k + 1) = x(k) + T 24 (55 ẋ(k) 59 ẋ(k 1) + 37 ẋ(k 2) 9 ẋ(k 3)) Adams-Moulton: Adams-Bashforth-Verfahren mit Prädiktor steife Dierentialgleichung: Lösungsanteile mit sehr unterschiedlichen Zeitkonstanten bisherige Verfahren zu ungenau T wird nach der kleinsten Zeitkonstante gewählt Gesamtdauer der Simulation orientiert sich an der gröÿten Zeitkonstanten hoher Rechenaufwand geeignetes Verfahren nach Gear: Mehrschritt-Prädiktor-Korrektor-Verfahren 6.2 Analytische Lösung mittels Transitionsmatrix ausgehend von x(t) = A x(t) + B u(t) und y(t) = C x(t) + D u(t) mit u(k) = const im Intervall x(k + 1) = A D x(k) + B D u(k) = e A T x(k) + A 1 (e A T I) B u(k) y(k) = C x(k) + D u(k) bei der Euler-Näherung: A D = I + A T und B D = B T 6.3 Dierenzengleichungen Das Aufstellen der Dierenzengleichung ist aufwändig, die Lösung hingegen nicht. mit e A T = a 0 y(k) + a 1 y(k 1) +... + a n y(k n) = b 0 u(k) + b 1 u(k 1) +... + b n u(k n) y(k) = 1 a 0 (b 0 u(k) + b 1 u(k 1) +... + b n u(k n) a 1 y(k 1)... a n y(k n)) n=0 A n T n n!
6.4 Zeitdiskrete Faltung Die Gewichtsfunktion g(t) ist bekannt. besonders geeignet für Systeme mit Totzeit Systeme mit verteilten Speichern Systeme mit Ausgleich, da g(k) dann von endlicher Länge y(t) = u(t) g(t) = t 0 u(τ) g(t τ) dτ Euler-Integrationsformel: y(k) = T ( 1 2 für kausales System k g(i) u(k i) i=0 Trapezformel: (exakter!) k 1 y(k) = T (g(0) u(k) + g(k) u(0)) + i=1 6.5 objektorientierte Modellierung: ) g(i) u(k i) Simulink: signalbasiert gerichtete Gleichungen manuelles Umstellen der Gleichungen erforderlich Modelica: objektorientiert ungerichtete Gleichungen physikalische Schnittstellen mit Potential- und Flussvariablen