Signal- und Systemtheorie 2 Tamara Ulrich WS 03/04
ii
Inhaltsverzeichnis 1 Elementare Prinzipien und Modellierung 1 1.1 Elemente in Systemen........................ 1 1.1.1 Mechanisches Translationssystem S.10........... 1 1.1.2 Mechanisches Rotationssystem............... 1 1.1.3 Elektrisches System..................... 1 1.2 Netzwerke............................... 1 2 Zeitkontinuierliche LTI-Systeme 3 2.1 Klassifikation............................. 3 2.2 Beschreibung von zeitkontinuierlichen Systemen.......... 3 2.2.1 State-space representation.................. 3 2.2.2 Lösung im Zeitbereich.................... 4 2.2.3 Impulsantwort........................ 5 2.2.4 Schrittantwort........................ 5 2.2.5 Faltung............................ 5 2.2.6 Inverse einer Matrix..................... 5 2.2.7 Laplacetransformation.................... 6 2.2.8 Transferfunktion....................... 6 2.2.9 Transitionsmatrix φ(t).................... 6 2.2.10 Blockdiagramme....................... 6 2.2.11 Pol-Nullstellen Diagramm.................. 6 2.2.12 Partialbruchzerlegung.................... 6 2.2.13 Dominante Pole....................... 7 2.2.14 Frequenzantwort....................... 7 2.2.15 Sinusoidales Einganssignal.................. 7 2.2.16 Bode-Plot........................... 7 2.2.17 Nyquist Diagramme..................... 7 2.3 Analyse von zeitdiskreten Systemen................ 7 2.3.1 Stabilität........................... 7 2.3.2 Steady-state Behaviour................... 8 3 Zeitdiskrete lineare Systeme 11 3.1 Sampled-data systems in state-space................ 11 3.1.1 Beschreibung von Sampled-data Systemen......... 11 3.1.2 Berechnung der Transitionsmatrix φ(t)........... 12 3.1.3 Lösung im Zeitbereich.................... 12 3.1.4 Blockdiagramme....................... 12 3.1.5 System interconnections................... 12 iii
iv INHALTSVERZEICHNIS 3.2 Beschreibung von abgetasteten Systemen............. 13 3.2.1 Fouriertransformation.................... 13 3.2.2 Die inverse z-transformation................ 14 3.2.3 Die Übertragungsfunktion.................. 14 3.2.4 Die Übertragungsfunktion eines abgetasten Systems... 15 3.2.5 Übertragungsfunktion von zusammengeschalteten Systemen 15 3.3 Analyse von zeitdiskreten Systemen................ 15 3.3.1 Stabilität........................... 15 3.3.2 Steady-state response.................... 16 3.3.3 Erreichbarkeit, Kontrollierbarkeit und Stabilisierbarkeit. 16 3.3.4 Kontrollierbarkeits Gramian................. 18 3.3.5 Beobachtbarkeit, Rekonstruierbarkeit und Detektierbarkeit 19 3.3.6 Beobachtbarkeits Gramian................. 20 3.3.7 Kanonische Form und minimale Realisationen....... 20 3.3.8 Balanced Realisation..................... 20
Kapitel 1 Elementare Prinzipien und Modellierung 1.1 Elemente in Systemen 1.1.1 Mechanisches Translationssystem S.10 Masse M: p = Mv, F = Mẍ Reibung mit Konstante B: F = Bẋ Feder mit Konstante K: F = Kx 1.1.2 Mechanisches Rotationssystem Siehe Seite 11 und 12. 1.1.3 Elektrisches System Kapazität C: Q = Cu, i = C u Widerstand R u = Ri Induktivität L: φ = Li, u = L i Reibung mit Konstante B: F = Bẋ Feder mit Konstante K: F = Kx 1.2 Netzwerke Knotenregel: Die Summe aller 1-Punkt Grössen die in einen Knoten fliessen ist Null. Maschenregel: Die Summe aller 2-Punkt Grössen entlang einer geschlossenen Masche ist Null. 1
2 Elementare Prinzipien und Modellierung
Kapitel 2 Zeitkontinuierliche LTI-Systeme 2.1 Klassifikation Linearität, Zeitinvarianz, Kausalität, Deterministisch vs. Stochastisch, Gedächtnislos vs. Dynamisch, BIBO-Stabilität. Siehe Seiten 21-26. 2.2 Beschreibung von zeitkontinuierlichen Systemen 2.2.1 State-space representation x(t) = A x(t) + B u(t) y(t) = C x(t) + D u(t) x(0) = x 0 Mit x R n hat das System den Grad n. Im SISO Fall sind u(t) und y(t) skalar. Aufgabentyp: Gesucht ist die State-space representation eines gegebenen Netzwerks. Wahl der Zustände x: Ich brauche für jedes der folgenden Elemente einen Zustand: Kapazität Induktivität Keinen Zustand brauche ich für folgende Elemente: Widerstand 3
4 Zeitkontinuierliche LTI-Systeme Falls ich Ableitungen höherer Ordnung habe: Dann setzte y (n) + a n 1 y (n 1) + a 1 ẏ + a 0 y = c 0 u y = x 1 ẏ = x 2 und bekomme damit y (n 1) = x n. ẋ 1 = x 2 ẋ 2 = x 3. ẋ n = a 0 x 1 a 1 x 2... a n 1 x n + c 0 u 2.2.2 Lösung im Zeitbereich Autonomes System: Kein Input: u(t) = 0. Skalarer Fall: ẋ = ax, x R, x(0) = x 0. Dann ist die Lösung: x(t) = e at x 0 Vektorieller Fall: x = A x, x R n, x(0) = x 0. Dann ist die Lösung: Matrix-Exponential Regeln: d dt eat = Ae At = e At A e A(t+τ) = e At e Aτ d At e At = I x(t) = e At x 0 y(t) = Ce At x 0 Berechnung: Für die Matrix A mit n linear unabhängigen Eigenvektoren (diagonalisierbare Matrix) erhalten wir folgende Zerlegung (Anleitung für Taschenrechner): A = UDU 1 mit U = [ u 1, u 2,...]: enthält die Eigenvektoren u i, D = diag(λ i ): enthält die dazugehörigen Eigenwerte von A. Damit haben wir: mit φ(t) = e At = Ue Dt U 1
Tamara Ulrich 5 D = [ ] d1 0 0 d 2 e Dt = [ e d 1t 0 0 e d2t ] Für imaginäre Eigenwerte von A geht das nicht. Dazu siehe Skript Seite 35. Allgemeine Lösung: x(t) = e At t x 0 + = e At x 0 + 0 t 0 e A(t τ) B u(τ)dτ e A(τ) B u(t τ)dτ y(t) = Ce At t x 0 + C 0 e A(t τ) B u(τ)dτ + D u(t) = Ce At t x 0 + Ce A(τ) B u(t τ)dτ + D u(t) 0 2.2.3 Impulsantwort Für den SISO-Fall, x 0 = 0: g(t) = h(t) = Ce At B + Dδ(t) 2.2.4 Schrittantwort Für x 0 = 0: 2.2.5 Faltung a(t) = CA 1 (e At I)B + Dσ(t) = y(t) = h(t) u(t) = 2.2.6 Inverse einer Matrix Siehe auch Zusatzblatt über die Adjazenzmatrix. Für eine 2x2 Matrix gilt: A 1 = t 0 t 0 u(τ)h(t τ)dτ h(τ)dτ ( ) 1 a11 a 12 = 1 ( ) a22 a 12 a 21 a 22 det A a 21 a 11
6 Zeitkontinuierliche LTI-Systeme 2.2.7 Laplacetransformation Einseitige Laplacetransformation: f(t) = 0 für t < 0. F (s) = f(t)e st dt f(t) F (s) 1 f(t) = 0 c+j 2πj c j x(t) s X(s) x(0) F (s)e st ds X(s) = (si A) 1 ( x 0 + BU(s)) Y (s) = [C(sI A) 1 B + D]U(s) + C(sI A) 1 x 0 2.2.8 Transferfunktion y(t) = g(t) u(t) = t 0 g(t τ)u(τ)dτ Falls die Anfangsbedingungen Null sind x 0 = 0: Y (s) = G(s)U(s) 2.2.9 Transitionsmatrix φ(t) G(s) = Y (s) U(s) = C(sI A) 1 B + D x(t) = φ(t)x(0) mit φ(t) = L 1 { (si A) 1} 2.2.10 Blockdiagramme Übersicht: Abbildung 4.13 Seite 44. Für die Transferfunktionen von Parallel- und Serieschaltungen sowie von Loops siehe Seite 46/47. 2.2.11 Pol-Nullstellen Diagramm G(s) = b ms m + b m 1 s m 1 +... + b 1 s + b 0 s n + a n 1 s n 1 = K (s z 1)(s z 2 )... (s z m ) +... + a 1 s + a 0 (s p 1 )(s p 2 )... (s p n ) mit m < n, p i : Pole, z i : Nullstellen, K: Gain, Gewinn. 2.2.12 Partialbruchzerlegung Y (s) = Z(s) N(s) = Z(s) (s p 1 )... (s p n ) = A 1 +... + A n s p 1 s p n mit A i = Z(p i) N (p i )
Tamara Ulrich 7 2.2.13 Dominante Pole Y (s) = A 1 +... + A n y(t) = A1 e p1t +... A n e pnt s p 1 s p n Das Ausgangssignal geht gegen Null wenn alle Pole p i < 0 sind. Der Dominante Pol p d ist derjenige, welcher am nahesten an der Imaginären Achse liegt. Damit gilt: y(t) A 1 e p dt für grosse Zeiten t 2.2.14 Frequenzantwort Die Frequenzantwort ist die Transferfunktion an der Stelle jω: F (jω) = G(s) s=jω = G(jω) Ablesen der Frequenzantwort vom Pol-Nullstellen Diagramm: Siehe Seite 51. 2.2.15 Sinusoidales Einganssignal Ein System mit G(s) reagiert auf ein sinusoidales Eingangssignal mit einem verstärkten Sinussignal gleicher Frequenz. u(t) = C sin(ωt) y(t) = C G(jω) sin(ωt + arg G(jω)) 2.2.16 Bode-Plot Plotte Frequenzantwort F (jω) vs. Frequenz ω. Siehe NUS 2. 2.2.17 Nyquist Diagramme Tabelle S. 56 2.3 Analyse von zeitdiskreten Systemen 2.3.1 Stabilität BIBO-Stabilität für SISO-Systeme BIBO-stabil t 0 h(ρ) dρ < für t > 0 lim t h(t) = 0 Alle Pole von G(s) müssen in der linken Halbebene (LHP) liegen. Alle Eigenwerte von A ( det (si A)) liegen in der linken Halbebene (gilt nur, wenn das System kontrollierbar und beobachtbar ist). Lyapunov - Stabilität (falls LTI-System kontrollierbar und beobachtbar ist)
8 Zeitkontinuierliche LTI-Systeme F (s) 1+F (s). Nyquist Kriterium für Feedback Systeme: Bild Seite 63, G(s) = Wenn F (s) stabil ist und die Nyquist Kurve F (jω) den Punkt s = 1 nicht umschliesst, ist das closed-loop System ebenfalls stabil. Lyapunov Stabilität kein Input, ẋ = Ax, x(0) = x 0. Positiv definit: v(x = 0) = 0, x(x 0) > 0 (wie x 2 Funktion). 2 dimensional: Bowl/Basin-Shape, v( x) = c. Ableitung: v = ( v T x) ẋ < 0, d.h. der Zustandsvektor x wandert gegen den Ursprung. Positiv definite Matrix: P = Sylvester Kriterium: p 11 p 12... p 1n p 12 p 22... p 2n... p 1n p 2n... p nn Die Matrix P ist positiv definit, wenn die Determinanten aller Untermatrizen det(p 11 ), alle positiv sind. ( ) p11 p det 12 p 21 P 22, det p 11 p 12 p 13 p 21 p 22 p 23 p 31 p 32 p 33,... Berechnung von v( x): v( x) = x T P x Annahme o.b.d.a: P ist symmetrisch. Vorgehen: 1. Wähle eine positiv definite Matrix Q (z.b. die Einheitsmatrix). 2. Löse A T P + P A = Q nach P auf. 3. Wenn P positiv definit ist, ist das System stabil und v( x) = x T P x ist eine Lyapunov-Funktion. 2.3.2 Steady-state Behaviour Das Steady-state Verhalten ist das Ausgangssignal nach genug langer Zeit, d.h. wenn die Transienten Phänomene (verursacht durch den Einschaltvorgang und die Anfangsbedingungen) abgeklungen sind. Satz: Der Output nach langer Zeit zeigt das gleiche Zeitverhalten wie der Input, die Amplitude ist (generell) anders. Wichtige Fälle, wenn die Pole auf der Imaginären Achse liegen: Step Input, σ(t) State-space:
Tamara Ulrich 9 allgemein: u 0 = const x = A x + Bu 0 stationär: y = C x + Du 0 x = 0 x s = A 1 Bu 0 y s = ( CA 1 B + D)u 0 Der stationäre Fall entspricht der Transferfunktion an der Stelle Null G(0) (Frequenz 0). Transferfunktion: Initial Value Theorem: wenn lim s sf (s) existiert gilt: lim t 0 f(t) = lim s sf (s) Final Value Theorem: wenn lim t existiert gilt: lim t f(t) = lim s 0 sf (s) Ich kann das Ausgangssignal nach langer Zeit sofort berechnen: lim y(t) = lim sy (s) = U 0 t s 0 mit U(s) = u0 s, G(s) = b ms m +...+b 1s+b 0 s n +a n 1s n 1 +...+a 1s+a 0 b 0 a 0 und Y (s) = G(s)U(s). Sinusoidale Signale: j arg G(jω) u(t) = C sin(ωt) mit G(jω) = G(s) s=jω = G(jω) e y(t) C G(jω) sin(ωt + arg G(jω))
10 Zeitkontinuierliche LTI-Systeme
Kapitel 3 Zeitdiskrete lineare Systeme 3.1 Sampled-data systems in state-space 3.1.1 Beschreibung von Sampled-data Systemen Wir betrachten einen zeitkontinuierlichen Prozess, der mit einem Digitalen Computer zusammengeschaltet ist. Das zeitkontinuierliche LTI-System hat die statespace representation: x(t) = F x(t) + Gu(t) y(t) = C x(t) + Du(t) Dessen allgemeine Lösung im Zeitbereich ist: t x(t) = e F (t t0) x(t 0 ) + t 0 e F (t τ) Gu(τ)dτ Unter Berücksichtigung der Stufenform von u(t) erhalten wir: x(kt + T ) = A x(kt ) + Bu(kT ) y(kt ) = C x(kt ) + Du(kT ) x(0) = x 0 wobei gilt: A = e F t und B = T 0 e F τ G dτ Dies wird ein Sampled-data System mit der dazugehörigen zeitdiskreten Darstellung (Representation) genannt. Transformation: Will ich andere Zustände x verwenden, so müssen die Matrizen gemäss Skript Seite 80/81 umgewandelt werden. 11
12 Zeitdiskrete lineare Systeme 3.1.2 Berechnung der Transitionsmatrix φ(t) Die Transitionsmatrix φ(t) eines LTI-Systems ändert im Zustand immer dann, wenn das Eingangssignal u(t) = 0 ist. x(t 0 + t) = φ(t) x(t 0 ) mit φ(t) = e F t = L 1 { (si F ) 1} Zur Berechnung des Matrixexponentials via Matrixzerlegung siehe Seite 4. Berechnung mit series expansion: e F T = k=0 3.1.3 Lösung im Zeitbereich Notation: x(k) := x(kt ). (F T ) k ) k! x(k) = A k x(0) + k A i 1 Bu(k i) i=1 y(k) = CA k x(0) + k CA i 1 Bu(k i) + Du(k) i=1 Impulsantwort: Mit {δ(k)} = {1, 0, 0,...} (k 0): Faltungssumme: h(k) = k CA i 1 B δ(k i) + D δ(k) = i=1 { D k = 0 CA k 1 B k 0 y(k) = CA k x(0) + 3.1.4 Blockdiagramme k h(i)u(k i) Zero Order Hold: Ein ZOH dient zur Umwandlung von digital nach analog. Siehe Skript Seite 83. Blockdiagramm eines idealen Sampling Controllers: Skript Seite 83. Einfluss von nicht idealen Effekten (Zeitverzögerungen): Skript Seite 84. 3.1.5 System interconnections Serieschaltung mit Rückkopplung: Wir haben zwei seriegeschaltete zeitdiskrete Controller, die rückgekoppelt werden (Siehe Abbildung 7.4 im Skript Seite 85). Die Beiden zeitdiskreten Controller sind: i=0
Tamara Ulrich 13 R : x 1 (k + 1) = A 1 x 1 (k) + B 1 e(k) u(k) = C 1 x 1 (k) + D 1 e(k) S : x 2 (k + 1) = A 2 x 2 (k) + B 2 u(k) y(k) = C 2 x 2 (k) Wobei R (und damit auch x 1 ) vom Grad n 1 und S (und x 2 ) vom Grad n 2 ist. Zusammengeschaltet ergibt sich ein neues zeitdiskretes System der Ordnung n = n 1 + n 2 : [ x1 (k + 1) x 2 (k + 1) ] = [ B 2 C 1 A 2 B 2 D] 1 C 2 x 2 (k) A 1 B 1 C 2 ] [ x1 (k) y(k) = [ 0 C 2 ] [ x 1 (k) x 2 (k) ] [ + ] B 1 r(k) B 2 D 1 Wobei u(t) stufenförmig und y(t) sampled sein muss. Falls es sich um zwei zeitkontinuierliche Systeme handelt, müssen sie zusammengenommen werden bevor die Transformation in den diskreten Zeitbereich erfolgt. 3.2 Beschreibung von abgetasteten Systemen 3.2.1 Fouriertransformation Das Spektrum eines abgetasteten Signals ist periodisch. Signal: f(t) F (ω) abgetastetes Signal: f (kt ) F (ω) = 1 T F (ω + mω s ) m= Aliasing: Wenn das Spektrum eines Signals f(t) bandbegrenzt ist (d.h. F (ω) = 0 für ω > ω G ) und die Abtastfrequenz die Bedingung ω s 2ω G erfüllt, dann ist f(t) eindeutig durch seine abgetasteten Werte f(kt ), k = 0, ±1, ±2,... definiert. Zero Order Hold: Impulsantwort: g h (t) = { 1 0 t T 0 sonst = σ(t) σ(t T ) G h (s) = 1 e st s Im Frequenzbereich ist der ZOH für Frequenzen die sehr viel kleiner als die Abtastfrequenz sind eine gute Annäherung an einen idealen Tiefpassfilter.
14 Zeitdiskrete lineare Systeme 3.2.2 Die inverse z-transformation Power series method: Sie wird vor allem verwendet, wenn nur die ersten paar Werte von der Sequenz {f(k)} gesucht sind. Gegeben ist: F (z) = b nz n + b n 1 z n 1 +... + b 0 z n + a n 1 z n 1 +... + a 0 Nun führe ich eine Taylorreihenentwicklung der Funktion F ( ) 1 v and der Stelle v = 0 durch. Damit gilt: df (1/v) d F (1/v) v=0 = f(0), dv = f(1), 2 F (1/v) v=0 dv = f(2),... 2 v=0 Also: d n F (1/v) dv n = f(n) v=0 Partialbruchzerlegung: Vorgehen: 1. Falls im Zähler überall z s vorkommen: Berechne die Partialbruchzerlegung von F (z) z, sonst einfach die normale Partialbruchzerlegung von F (z). 2. Rechne wenn nötig (d.h. wenn ich vorher durch z geteilt habe) die Partialbruchzerlegung wieder mal z. 3. Führe die inverse z-transformation durch. Benütze dabei: Z { a k} = z z a und 3.2.3 Die Übertragungsfunktion System mit Differenzengleichung vom Grad n: Z { } k a ak = z (z a) 2 y(k)+...+a 1 y(k n+1)+a 0 y(k n) = b n u(k)+b n 1 u(k 1)+...+b 0 u(k n) Damit haben wir die Übertragungsfunktion und G(z) = b nz n + b n 1 z n 1 +... + b 0 z n + a n 1 z n 1 +... + a 0 X(z) = (zi A) 1 BU(z) + z(zi A) 1 x(0) Y (z) = [ C(zI A) 1 B + D ] U(z) + Cz(zI A) 1 x(0) G(z) = C(zI A) 1 B + D Alternativ: Man transformiert die Differenzengleichung mit Hilfe folgender Gleichung und löst das Resultat nach Y (z) auf. {f(k + m)} m 1 z m [F (z) f(i)z i ] i=0 } {{ } =0 für m<1
Tamara Ulrich 15 3.2.4 Die Übertragungsfunktion eines abgetasten Systems Problem: Ein kontinuierliches Eingangssignal u(t) wird abgetastet, läuft durch einen ZOH und danach durch ein System mit Übertragungsfunktion G(s) (Bild Skript Seite 98). Das Ausgangssignal y(t) wird schlussendlich nochmals abgetastet. Die Übertragungsfunktion zwischen dem abgetasteten Einganssignal u(kt ) und dem abgetasteten Ausgangssignal y(kt ) ist: [ ] G(s) G(z) = (1 z 1 )ζ mit ζ[...] = Z[L 1 [...]] s Für die ζ-transformation siehe Tabellen. 3.2.5 Übertragungsfunktion von zusammengeschalteten Systemen Siehe Skript Seite 99. 3.3 Analyse von zeitdiskreten Systemen 3.3.1 Stabilität Lyapunov-Stabilität: Wir betrachten ein autonomes System (d.h. das Eingangssignal ist Null) Die Lyapunov-Funktion erfüllt die folgenden Bedingungen: 1. V (0) = 0 2. V ( x) > 0 für alle x ausser dem Ursprung 3. V ( x) ist kontinuierlich mit bounded sublevel sets. Asymptotisch stabil (Theorem): Betrachte das zeitdiskrete System x(k + 1) = f( x(k)), f(0) = 0 Nehme an, dass eine kontinuierliche positiv definite skalare Lyapunov Funktion V ( x) existiert. Wenn die Funktion V ( x) = V ( x(k + 1)) V ( x(k)) eine negativ definite Funktion ist, dann ist der Gleichgewichtspunkt x 0 = 0 asymptotisch stabil. Für lineare Systeme führen alle Anfangszustände zum Gleichgewichtspunkt und man spricht von einem asymptotisch stabilen System. Betrachte das li- Asymptotisch stabile lineare Systeme (Theorem): neare zeitdiskrete autonome System x(k + 1) = A x(k) Das System ist asymptotisch stabil dann und nur dann wenn eine positiv definite Matrix P existiert, welche die Gleichung
16 Zeitdiskrete lineare Systeme A T P A P = Q erfüllt für irgendeine positiv definite Matrix Q. V ( x) = x T P x ist dann eine Lyapunov-Funktion. Satz: Ein lineares zeitdiskretes autonomes System ist asymptotisch stabil dann und nur dann, wenn alle Eigenwerde q i der Systemmatrix A innerhalb des Einheitskreises liegen. q i < 1 BIBO-Stabilität: Wir betrachten ein lineares System, bei dem die Anfangszustände Null sind. Das lineare System mit der rationalen z-übertragungsfunktion G(z) ist BIBOstabil dann und nur dann, wenn alle Pole von G(z) strikt innerhalb des Einheitskreises liegen. Zusammenhang: System ist Lyapunovstabil System ist BIBO stabil System ist Lyapunovstabil System ist BIBO stabil mit einer state-space representation, die sowohl kontrollierbar als auch beobachtbar ist 3.3.2 Steady-state response Wenn ein System einen stationären Zustand erreicht hat, ändern sich die Zustände x nicht mehr: x(k + 1) = x(k) = x st Falls das System Lyapunovstabil ist und ein konstantes Eingangssignal u st angelegt wird erhalten wir: x st = (I A) 1 Bu st y st = [C(I A) 1 B + D]u st = lim z 1 G(z)u st 3.3.3 Erreichbarkeit, Kontrollierbarkeit und Stabilisierbarkeit Es geht um die Beziehung zwischen Input und Zuständen. Erreichbarkeit (Definition): Ein Zustand x e ist erreichbar (vom Ursprung x 0 = 0 aus) wenn ein Eingangssignal u(k), k = 0, 1,... existiert so dass x( ) = x e gilt. Ein System ist (vollständig) erreichbar, wenn alle Zustände x R n erreichbar sind.
Tamara Ulrich 17 Kalman Kontrollierbarkeits-Matrix C: mit n: Grad des Systems. x(k) = [B, AB, A 2 B,..., A n 1 B] } {{ } C u(n 1). u(1) u(0) Erreichbarkeit von C: Das Set von erreichbaren Zuständen ist ein Unterraum, der dem Bildraum von C entspricht. Ein System ist vollständig erreichbar wenn C regulär ist (d.h. beim Gauss- Algorithmus fällt keine Zeile weg; der Rang der Matrix ist maximal). Transformation: Mit Π regulär und x neu = Π 1 x, A neu = Π 1 AΠ, B neu = Π 1 B habe ich: C(A neu, B neu ) = Π 1 C(A, B) und Rang{C neu } = Rang{C} Erreichbarkeit-Zerlegung: Wenn Rang{C} = ν < n ist, dann existiert eine Transformation Π, so dass [ ] [ ] Ae A A neu = k Be und B 0 A neu = ne 0 mit (A e, B e ) erreichbar und dim{a e } = ν ν. PHB-Test: Das Paar (A, B) ist erreichbar dann und nur dann, wenn gilt Rang{B, λi A} = n für alle n C Nicht erreichbare Zustände existieren dann und nur dann, wenn ein linker Eigenvektor q von A existiert mit q T A = λq T und q T B = 0 Kontrollierbarkeit (Definition): Ein Zustand x s = 0 ist kontrollierbar, wenn es eine Eingangssequenz u(k) k = 0, 1,... gibt, so dass x( ) = 0 gilt. Ein System ist (vollständig) kontrollierbar wenn alle Zustände kontrollierbar sind. Bemerkung: Im zeitkontinuierlichen Bereich sind Erreichbarkeit und Kontrollierbarkeit äquivalent, im zeitdiskreten nicht. Lemma: Notwendig und ausreichend für die Kontrollierbarkeit eines Zustandes x 0 ist, dass A n 1 x 0 im Bildraum von C liegt. Lemma: Ein System ist kontrollierbar, wenn das System erreichbar ist oder wenn alle Eigenwerte des nicht erreichbaren Untersystems (d.h. von A ne ) gleich Null sind.
18 Zeitdiskrete lineare Systeme Stabilisierbarkeit: Ein erreichbares System (A e, B e ) können wir in jeden Zustand führen, unter anderem auch zum Ursprung hin. 3.3.4 Kontrollierbarkeits Gramian Frage: Wie schwierig oder teuer ist es, einen bestimmten Zustand zu erreichen? Wir wollen folgende Energiefunktion minimieren: Mit der Randbedingung J = 1 2 1 k=0 u T (k) u(k) x( ) = x r = 1 k=0 A k B u( 1 k) Theorem: Wenn (A, B) ein erreichbares System ist, dann gilt: Die Eingangssequenz, welche die Energiefunktion für einen gegebenen Endzustand x r im Intervall [0, ] minimiert, ist: u (k) = (A 1 k B) T G c ( ) 1 x r mit dem Kontrollierbarkeits Gramian über das Intervall [0, ]: G c ( ) = 1 k=0 A 1 k BB T (A 1 k ) T Der Kontrollierbarkeits Gramian G c ist regulär dann und nur dann, wenn C den maximalen Rang hat. Die minimale Energie über dem Intervall [0, ] ist also: J = x T r Gc 1 ( ) x r Bemerkung: Falls das System nicht erreichbar ist beziehen sich obige Formeln nur auf die erreichbaren Zustände. Berechnung der Gramian Kontrollierbarkeitsmatrix: Rekursiv mit G c (0) = 0: G c (k + 1) = AG c (k)a T + BB T Für das Intervall [0, ]: Wenn A stabil ist, dann existiert lim k G c (k) = G c immer und erfüllt die zeitdiskrete Lyapunov-Gleichung: AG c A T G c = BB T Transformation: Mit der Transformationsmatrix Π ist x neu = Π 1 x und G c neu ( ) = ΠG c ( )Π T
Tamara Ulrich 19 3.3.5 Beobachtbarkeit, Rekonstruierbarkeit und Detektierbarkeit Es geht um die Beziehung zwischen Zuständen und Output. Beobachtbarkeit (Definition): Ein Zustand x 0 ist nicht beobachtbar, wenn für x(0) = x 0 und u(t) = 0 für t 0 folgt, dass auch y(t) = 0 für t 0. In Worten: Ein Zustand ist nicht beobachtbar, wenn ohne Eingangssignal auch das Ausgangssignal Null bleibt. Ein System ist (vollständig) boeabachtbar, wenn es keine nicht beobachtbaren Zustände besitzt. Für lineare Systeme reicht es, die autonomen Systeme anzuschauen, wobei gilt: y(k) = CA k x 0 Beobachtbarkeits-Matrix: O = C CA CA 2. CA n 1 Beobachtbarkeit von O: Das Set von nicht beobachtbaren Zuständen ist ein Unterraum, welcher dem Nullraum (Kern?) von O entspricht. Ein System ist (vollständig) beobachtbar, wenn O den maximalen Rang hat. Dualität von Erreichbarkeit und Beobachtbarkeit: (A, B) ist erreichbar (B T, A T ) ist beobachtbar Beobachtbarkeits-Zerlegung: Wenn Rang{O} < n ist, dann existiert eine Transformation Π mit x neu = Π 1 x so dass [ ] Ao 0 A neu = und C A k A neu = [C o, 0] no Das Paar (C o, A o ) ist dann beobachtbar. Beobachtbarkeit von EV/EW: Das Paar (C, A) hat nicht beobachtbare Zustände dann und nur dann wenn ein p 0 existiert mit A p = λ p und C p = 0 Das Paar (C, A) ist beobachtbar dann und nur dann wenn [ ] C Rang = n für alle λ C λi A
20 Zeitdiskrete lineare Systeme Rekonstruierbarkeit: Alle Eigenwerte des nicht beobachtbaren Untersystems A no müssen Null sein. Detektierbarkeit: Das nicht beobachtbare Untersystem A no ist stabil, d.h. dass A no nur stabile Eigenwerte hat und somit die Anfangsbedingungen für t abklingen. 3.3.6 Beobachtbarkeits Gramian Frage: Wie viel Information können wir über den Zustand x 0 Beobachtung während dem Intervall [0, ) erfahren? = x(0) durch Mit y(k) = CA k x 0 ist die Ausgangsenergie für das Intervall [0, ) gegeben durch J = 1 k=0 y T (k) y(k) = x T 0 G B ( ) x 0 Der Beobachtbarkeits Gramian G B ( ) über das Intervall [0, ) ist definiert als 1 G B ( ) = (A T ) k C T CA k k=0 Berechnung der Gramian Beobachtbarkeitsmatrix: Rekursiv mit G B (0) = 0: G B (k + 1) = A T G B (k)a + C T C Für das Intervall [0, ]: Wenn das System asymptotisch stabil ist, dann existiert lim k G B (k) = G B immer und erfüllt die zeitdiskrete Lyapunov- Gleichung: A T G B A G B = C T C 3.3.7 Kanonische Form und minimale Realisationen Siehe Skript S. 114 3.3.8 Balanced Realisation Mit gilt folgendes Theorem: ˆ x = Π 1 x Ĝ c = ΠG c Π T Gˆ B = Π T G B Π 1
Tamara Ulrich 21 Theorem: Für jedes stabile minimale System existiert eine similarity transformation, die zu einer Realisation mit Ĝ c = ˆ G B = diag (σ i ) führt. Eine solche Realisation heisst balanced Realisation. Hankel Eigenwerte: σ i (G(γ)) = λ i (G c G B ) Die Eigenwerte σ i der Übertragungsfunktion G(s) werden Hankel Eigenwerte genannt.