Die Riccati-Gleichung

Größe: px
Ab Seite anzeigen:

Download "Die Riccati-Gleichung"

Transkript

1 Eidgenössische Technische Hochschule Zürich Swiss Federal Institute of Technology Institut für Mess- und Regeltechnik Prof. M. Steiner, Prof. Dr. H. P. Geering Ch. Roduner Die Riccati-Gleichung Inhalt: 1 Einleitung und Problemstellung 2 2 Eigenschaften der Riccati-Gleichung Die Riccati-Differentialgleichung (RDE) Die algebraische Riccati-Gleichung (ARE) Die Konvergenz der RDE im unendlichen Zeitintervall..7 3 Anwendung in Optimierungsproblemen 9 4 Beweise der Theoreme Sätze aus der Matrix-Theorie Sätze aus der linearen System-Theorie Beweise der Theoreme von Abschnitt Beweise der Theoreme von Abschnitt Beweise der Theoreme von Abschnitt Literatur Institut für Mess- und Regeltechnik IMRT-Bericht Nr. 26 April 1994

2 1 Einleitung und Problemstellung In Optimierungsprozessen für zeitkontinuierliche lineare Systeme mit quadratischem Güteindex muß für die Berechnung der optimalen Lösung die zeitkontinuierliche Riccati-Gleichung gelöst werden. Die in der vorliegenden Arbeit aufgestellten Theoreme über die Riccati-Gleichung sollen die Existenz und die Eigenschaften der Lösung des Optimierungsproblems charakterisieren. Bezieht sich der Optimierungsprozeß auf ein endliches Zeitintervall [t 0, t 1 ] ( endlicher Horizont ), wird die zeitvariable Lösung K(t) der n n Matrix-Riccati-Differentialgleichung (RDE) K (t) = A T K(t) + K(t)A + K(t)RK(t) + Q mit der Endbedingung K(t 1 ) = F im entsprechenden Zeitintervall benötigt. Sie kann durch Rückwärtsintegrieren der Differentialgleichung vom Zeitpunkt t 1 eindeutig berechnet werden. Die reelle n n Systemmatrix A des linearen Prozesses wird dabei als zeitinvariant, die reellen n n Gewichtungsmatrizen R, Q und F des quadratischen Gütekriteriums als zeitinvariant und symmetrisch vorausgesetzt. Die Gewichtungen des Zustandes, Q (im Integranden, während des Intervalls) und F (zur Endzeit t 1 ), sollen positiv-semidefinit sein. Die Definitheit der Matrix R, die sich aus den Gewichtungen der Stellgrößen und den System-Eingangsmatrizen zusammensetzt, hängt vom Typ des Optimierungsproblems ab und wird hier nicht vorausgesetzt. Beim Minimierungsproblem (LQ-Regulatorproblem, Kalman-Filter, H 2 -Reglerentwurf) ist R negativ-semidefinit, beim Maximierungsproblem (Berechnung der H -Norm) ist R positivsemidefinit und beim Minmax-Problem (Differentialspiele, H -Reglerentwurf) ist R i.a. indefinit. In diesem Fall kann R=R 1 R 2 als Subtraktion zweier beliebiger positiv-semidefiniter n n Matrizen R 1 und R 2 dargestellt werden (es gibt i.a. mehrere Möglichkeiten). Eine eindeutige Zerlegung R = ˆR 1 ˆR 2 ergibt sich, falls ˆR 1 und ˆR 2 orthogonal sind, d.h. ˆR 1 ˆR 2 = 0 (vgl. Kapitel 4, Bemerkung 4). Das zeitvariable geschlossene System, d.h. das optimal geregelte System, hat die n n Systemmatrix [A +RK(t)]. Im Minmax-Problem entspricht dies dem geschlossenen System, bei dem sowohl die minimierenden als auch die maximierenden Stellgrößen zurückgeführt werden. Falls nur die minimierende Stellgröße zurückgeführt wird, resultiert die Systemmatrix [A R 2 K(t)] IR n n. Die Eigenschaften der RDE werden in Abschnitt 2.1 untersucht. Für die praktische Anwendung wird man sich vor allem für eine zeitinvariante optimale Lösung im unendlich langen Zeitintervall [0, ) ( unendlicher Horizont ) interessieren. Eine separate Bestrafung des Zustandes zur (unendlichen) Endzeit t 1 mit der Gewichtungsmatrix F wird dann meistens weggelassen, d.h. F = 0. Dieses Optimierungsproblem hat dann eine Lösung, wenn die Lösung K(t) der RDE für t und F = 0 gegen einen stationären Wert K konvergiert. Die zeitinvariante n n Matrix K erfüllt dann die algebraische Riccati-Glei- 2

3 chung (ARE) 0 = A T K + KA + KRK + Q, die im allgemeinen mehr als eine Lösung besitzt, da sie quadratisch ist. Der numerische Aufwand für die Berechnung einer Lösung der ARE ist aber geringer als die Rückwärtsintegration der RDE. Es wäre deshalb vorteilhaft, wenn die stationäre Lösung K von den restlichen Lösungen der ARE unterschieden werden könnte. Von Interesse ist auch, unter welchen Voraussetzungen das zeitinvariante geschlossene System [A +RK ] asymptotisch stabil ist. Wann das Optimierungsproblem mit unendlichem Horizont eine Lösung hat und welche Eigenschaften das optimal geregelte zeitinvariante System aufweist, kann anhand der Theoreme in Abschnitt 2.2 über die ARE und in Abschnitt 2.3 über die Konvergenz der RDE für t beurteilt werden. Die Beweise der Theoreme aus Kapitel 2 befinden sich im 4. Kapitel. Die aufgestellten Theoreme und ihre Beweisführung basieren nicht (wie oft in der Literatur) auf der Hamilton- Matrix. Über die Riccati-Gleichung wurde viel veröffentlicht; es seien hier nur einige wenige erwähnt. In [1], [4], [9], [12] und [13] wurden die Eigenschaften der ARE für das klassische Minimierungsproblem mit R 0 untersucht, wobei in [1] und [4] auch die RDE und ihre stationäre Lösung einbezogen wurden. In [5] und [6] können auch R 0 und Q indefinit sein. Der allgemeine Fall, in dem R keine Definitheits-Voraussetzung erfüllen muß, wurde mit Ausnahme von [8] erst in neuester Zeit mit dem Aufkommen der H -Theorie betrachtet ([2], [3], [7], [10] und [11]). Hervorzuheben ist hier [3], wo auch die RDE und ihre stationäre Lösung berücksichtigt sind. 3

4 2 Eigenschaften der Riccati-Gleichung Sofern nichts anderes vermerkt ist, gelten im ganzen Kapitel die in der Einleitung erwähnten Voraussetzungen für die n n Matrizen A, R, Q und F: reell, zeitinvariant, Q = Q T 0, F = F T 0 und R = R T. Für die Theoreme 2.1a, 2.2b, 3.1 und 3.2 wird Q 0 nicht benötigt. Ist Q 0 und F 0, kann die Riccati-Gleichung durch Multiplizieren mit 1 auf die geforderte Form gebracht werden. Die Ungleichung K 1 K 2 ist immer im Sinne K 1 K 2 0 zu verstehen. 2.1 Die Riccati-Differentialgleichung (RDE) Für die n n Matrix-Riccati-Differentialgleichung K (t) = A T K(t) + K(t)A + K(t)RK(t) + Q (2.1) mit der Endbedingung K(t 1 ) = F (2.2) gelten im endlichen Zeitintervall [t 0, t 1 ] die folgenden Sätze: Theorem 1.1: K(t) existiert (d.h. ist endlich) im Intervall [t 0, t 1 ] genau dann, wenn R genügend klein ist, R < ˆR 0 IR n n. D.h. für R existiert ein Supremum ˆR 0 0, unterhalb welchem K(t) existiert. Für R ˆR 0 besitzt die RDE einen konjugierten Punkt im Intervall [t 0,t 1 ] (d.h. K(t) divergiert). Dieses Theorem kann auch für die Matrizen Q oder F formuliert werden. D.h. für Q und F existieren Suprema ˆQ 0 und ˆF 0, unterhalb welchen K(t) existiert. Allerdings können ˆQ 0 (außer für F = 0) bzw. ˆF 0 (außer für Q = 0) auch indefinit sein. Die Grenzwerte ˆR 0, ˆQ 0 und ˆF 0 können i.a. nur iterativ berechnet werden. Wenn R 0 ist (Minimierungsproblem), ist K(t) in jedem endlichen Intervall definiert. Die folgenden Sätze gelten, falls die RDE keinen konjugierten Punkt im Intervall [t 0, t 1 ] besitzt. Theorem 1.2: a) Existiert die Lösung K(t), so ist sie reell, symmetrisch und positiv-semidefinit für alle t [t 0, t 1 ], K(t) =K T (t) 0 t [t 0, t 1 ]. b) K(t) ist für eine beliebige Zeit t [t 0, t 1 ) genau dann singulär, wenn ein nicht beobachtbarer Zustand des Systems [A, Q] im Nullraum N {F} der Matrix F liegt. Ist die Schnittmenge des nicht beobachtbaren Zustandsraums mit dem Nullraum von F A-invariant, dann (und nur dann) ist der Nullraum N {K(t)} von K(t) zeitinvariant und fällt mit dem Raum der Schnittmenge zusammen. Ein Vektor-Raum ist A-invariant, wenn der Raum durch A in sich selbst abgebildet wird. Jeder durch Eigenvektoren von A aufgespannte Teilraum ist A-invariant. Satz a gilt auch dann noch, wenn die Matrizen A, R und Q zeitvariabel sind. 4

5 Wenn A und Q zeitinvariant sind, ist K(t) entweder zu allen Zeiten singulär oder zu allen (endlichen) Zeiten regulär. [A, Q] beobachtbar oder F > 0 sind hinreichende (aber nicht notwendige) Voraussetzungen für eine Lösung K(t) > 0 für alle t [t 0, t 1 ]. Haben die Systeme [A, Q] und [A, F] einen gemeinsamen nicht beobachtbaren Pol (d.h. [A, [Q T F T ] T ] ist nicht beobachtbar), wird dieser Pol im geregelten System [A + RK(t)] nicht verschoben, da der entsprechende Eigenvektor von A zu allen Zeiten t [t 0, t 1 ] im Nullraum von K(t) liegt. Theorem 1.3: Ist F = 0, dann wächst K(t) monoton mit abnehmender Zeit, K (t) 0 bzw. K(τ) K(t) τ<t, t,τ [t 0, t 1 ]. 2.2 Die algebraische Riccati-Gleichung (ARE) In diesem Kapitel werden die Eigenschaften der algebraischen Matrix-Riccati-Gleichung 0 = A T K + KA + KRK + Q (2.3) untersucht. Sie hat i.a. mehrere Lösungen (maximal (2n)!/(n!) 2 ). Als Lösungen der ARE werden nur diejenigen n n Matrizen K bezeichnet, die reell und symmetrisch sind (maximal 2 n ). Es können die folgenden Sätze aufgestellt werden: Theorem 2.1: a) Es existiert höchstens eine Lösung K der ARE, die das geschlossene System [A + RK] (asymptotisch) stabilisiert oder vollständig destabilisiert (d.h. [A +RK] stabilisiert). b) Die stabilisierende Lösung K existiert genau dann, wenn i) [A, R] stabilisierbar ist, ii) [A, Q] keinen nicht beobachtbaren Pol auf der imaginären Achse hat, und iii) R genügend klein ist, R < R 0 IR n n. D.h. für R existiert ein Supremum R 0 0, unterhalb welchem K existiert. Diese stabilisierende, eindeutige Lösung wird im folgenden mit K gekennzeichnet, [A + R K ] asymptotisch stabil. Die destabilisierende eindeutige Lösung existiert, wenn existiert und [ A, R] stabilisierbar ist (dies trifft zu, falls [A, R] steuerbar ist). Sie wird mit KˆK bezeichnet. Gilt anstelle von R < R 0 nur R R 0, existiert eine eindeutige Lösung K, bei der [A + RK ] noch stabil, aber nicht mehr asymptotisch stabil ist. Für R > R 0 existiert keine Lösung der ARE mehr (vgl. Theorem 2.3). Ist R 0 (Minimierungsproblem), ist die Bedingung iii stets erfüllt, und Theorem 2.1b reduziert sich auf die ersten zwei Voraussetzungen. Das Supremum R 0 kann i.a. nur iterativ berechnet werden. Bei der Auslegung eines H -Kompensators liegt R oft in der Form R = γ 1 R 1 R 2 vor. In diesem Fall existiert für γ bei R(γ 0 )=R 0 ein Infimum γ 0, oberhalb dem K existiert. Die Voraussetzung iii für R kann auch auf eine Bedingung für Q umformuliert werden. Für ein gegebenes R existiert dann ein Grenzwert Q 0 0, bei welchem K genau dann existiert, wenn Q < Q 0 ist. 5

6 Theorem 2.2: a) K ist genau dann positiv-semidefinit, K 0, wenn [A, ˆR 2] stabilisierbar ist, wobei ˆR 2 aus der eindeutigen Zerlegung von R in zwei positiv-semidefinite orthogonale Matrizen folgt, R= ˆR 1 ˆR 2 mit ˆR 1, ˆR 2 0 und ˆR 1 ˆR 2 = 0. b) K ist genau dann singulär, wenn [A, Q] nicht beobachtbare, asymptotisch stabile Pole besitzt. Der Nullraum N { K } von K wird durch die Eigenvektoren dieser stabilen, nicht beobachtbaren Pole aufgespannt. Im geregelten System [A +R K ] werden diese Pole nicht verschoben. Da für alle R 1 0 und R 2 0 mit R = R 1 R 2 stets R 1 ˆR 1 und R 2 ˆR 2 gelten muß, ist [A, ˆR 2] genau dann stabilisierbar, wenn [A, R 2 ] für alle R 2 stabilisierbar ist. Die destabilisierende Lösung ˆK ist genau dann singulär, wenn [A, Q] nicht detektierbar ist. Sind R 1 und R 2 in R =γ 1 R 1 R 2 nicht orthogonal (R 1 R 2 0) und wird γ sukzessive verkleinert, können diskrete γ i >γ 0 (0 i n) auftreten, bei welchen [A, R(γ i )] nicht mehr stabilisierbar, und entsprechend K (γ i ) inexistent ist. Bei jedem Unterschreiten eines γ i wird ein Eigenwert von K negativ und ein Pol von A durch ˆR 2 nicht mehr stabilisierbar. Eine positiv-semidefinite stabilisierende Lösung K existiert für R =γ 1 R 1 R 2 folglich genau dann, wenn die Bedingungen von Theorem 2.1b erfüllt sind und γ>γ opt, wobei γ opt = max{γ 0, γ i }. Ist [A, R 2 ] stabilisierbar, ist das Infimum γ opt positiv. Im H -Problem entspricht γ 1/2 opt der minimalen H -Norm, die mit einer Zustandsrückführung erreicht werden kann. Für R 2 = 0(R 0) und A asymptotisch stabil ist γ 1/2 opt =γ 1/2 0 die H -Norm des Systems [A, B, C] mit BB T = R und C T C = Q. Theorem 2.3: Existiert eine (beliebige) Lösung K der ARE, dann existiert auch K, falls (und nur falls) [A, R] stabilisierbar ist und das geschlossene System [A + RK] keinen Pol auf der imaginären Achse hat. Ist K positiv-semidefinit (K 0) und [A, Q] detektierbar, dann ist K positiv-semidefinit und kleiner als K, 0 K K. Wenn K positiv-definit (K > 0) ist, fällt die Detektierbarkeits-Voraussetzung weg. Wenn das geschlossene System [A + RK] einen Pol auf der imaginären Achse besitzt, ist Bedingung ii oder iii aus Theorem 2.1b verletzt, und [A + RK] wird für alle Lösungen K der ARE diesen Pol auf der imaginären Achse aufweisen. Theorem 2.4: Jede positiv-semidefinite Lösung K 0 stabilisiert das geregelte System [A R 2 K], falls [A, Q] detektierbar ist. Ist K positiv-definit (K > 0) oder stabilisierend (K = K ), fällt die Detektierbarkeits-Voraussetzung weg. Wenn [A R 2 K] asymptotisch stabil ist, so ist K positiv-semidefinit (K 0). Ist zusätzlich [A, Q] beobachtbar, so ist K positiv-definit (K > 0). Falls R 0(R 1 = 0) ist, kann wegen Theorem 2.1a nur die stabilisierende Lösung K positivdefinit bzw. positiv-semidefinit (falls [A, Q] detektierbar ist) sein. Falls [A, Q] nicht detektierbar ist, sind mehrere positiv-semidefinite Lösungen K möglich, wobei die maximale dieser Lösungen die stabilisierende ist, 0 K K. 6

7 Ist R 0(R 2 = 0) und A asymptotisch stabil, sind alle Lösungen K positiv-semidefinit bzw. positiv-definit (falls [A, Q] beobachtbar ist). Andererseits existiert keine positiv-definite bzw. keine positiv-semidefinite (falls [A, Q] detektierbar ist) Lösung K, falls A instabil ist. Theorem 2.5: a) Existiert K ( R ), so existiert K (R) für alle R R, falls [A, R] stabilisierbar ist. Ist K ( R ) 0 ( K ( R ) > 0), so ist auch K (R) 0 ( K (R) > 0). b) K (R) wächst monoton mit R, K (R) K ( R ) R R. c) Der arithmetische Mittelwert der Pole des geschlossenen Systems [A + R K (R)] wächst monoton mit R, spur{a +R K (R)} spur{a + R K ( R )}< 0 R R. d) Für R konvergiert K (R) gegen einen Grenzwert K R 0. Die Pole des geschlossenen Systems [A + R K (R)] konvergieren dabei (entsprechend der Anzahl Nullstellen n ν ) gegen die Nullstellen ν i, i = {1,...,n ν }, bzw. gegen die an der imaginären Achse gespiegelten Nullstellen des Systems [A, B, C] (BB T = R und C T C = Q). Die restlichen Pole divergieren, wenn R nicht einen kleineren Rang als Q hat (rang{r} rang{q}). Der Grenzwert K R verschwindet genau dann (K R = 0), wenn das System [A, B, C] minimalphasig ist (Re{ν i } < 0 i) und R nicht einen kleineren Rang als Q hat. Theorem 2.6: a) Existiert K ( Q ), so existiert K (Q) für alle Q mit 0 Q Q, falls [A, Q] keinen nicht beobachtbaren Pol auf der imaginären Achse besitzt. Ist K ( Q ) 0, so ist auch K (Q) 0. b) K (Q) wächst monoton mit Q, K (Q) K ( Q ) Q Q. c) Für R 0 wächst der arithmetische Mittelwert der Pole des geschlossenen Systems [A +R K (Q)] monoton mit Q, spur{a +R K (Q)} spur{a + K ( Q )}<0 Q Q. Für R 0 fällt der arithmetische Mittelwert der Pole des geschlossenen Systems [A +R K (Q)] monoton mit wachsendem Q, 0 > spur{a + K (Q)} spur{a +R K ( Q )} Q Q. d) Für Q =0existiert K (0) genau dann, wenn A keinen Pol auf der imaginären Achse hat und [A, R] stabilisierbar ist (vgl. Theorem 2.1b). Im geregelten System [A + R K (0)] bleiben die stabilen Pole von A unverändert, während die instabilen Pole von A an der imaginären Achse gespiegelt werden. K (0) verschwindet genau dann ( K (0) = 0), wenn A asymptotisch stabil ist. 2.3 Die Konvergenz der RDE im unendlichen Zeitintervall In diesem Abschnitt wird das Verhalten der n n Matrix-Riccati-Differentialgleichung K (t) = A T K(t) + K(t)A + K(t)RK(t) + Q 7

8 mit der Endbedingung K(t 1 ) = F für t untersucht. Falls K(t) gegen einen stationären Wert K konvergiert, K = lim K() t, t (2.4) genügt dieser der algebraischen Riccati-Gleichung (ARE), die i.a. aber mehrere Lösungen besitzt. Die folgenden Sätze können angewandt werden: Theorem 3.1: Konvergiert die Lösung K(t) der RDE für t nicht gegen einen stationären Wert K, stellt sich entweder eine stationäre periodische Lösung ein, oder K(t) divergiert. Die periodische Lösung kann nur auftreten, wenn A ein konjugiert-komplexes Polpaar besitzt, dessen beide konjugiert-komplexe Eigenvektoren durch F in den gleichen Raum abgebildet werden. Ein Divergieren von K(t) für alle F 0 tritt genau dann ein, wenn keine positiv-semidefinite Lösung K der ARE existiert. Eine positiv-semidefinite Lösung K der ARE existiert genau dann, wenn R R 0 und [A, ˆR 2, Q] BIBO stabilisierbar (nur die detektierbaren Pole müssen stabilisierbar sein) ist (vgl. Theoreme 2.1b iii und 2.2a). Besitzt die ARE eine oder mehrere positiv-semidefinite Lösungen K, ist die Endbedingung F 0 ausschlaggebend, ob und gegebenenfalls gegen welche dieser Lösungen K(t) konvergiert. Theorem 3.2: Die Lösung K der ARE ist ein stabiler stationärer Grenzwert der RDE. Ein Konvergieren von K(t) gegen eine andere Lösung K der ARE, die das geschlossene System [A + RK] nicht stabilisiert, kommt genau dann vor (falls K(t) konvergiert), wenn die Matrix [F ˆK ] singulär ist, wobei ˆK die eindeutige Lösung der ARE ist, bei welcher alle Eigenwerte des geschlossenen Systems [A +R ˆK ] instabil sind. Wenn der instabile Zustandsraum der Matrix [A + R K ] (aufgespannt durch die Eigenvektoren der nicht stabilen Eigenwerte der Matrix [A + R K ]) mit dem Nullraum N {[F ˆK ]} zusammenfällt, dann konvergiert K(t) gegen K (hinreichend, aber nicht notwendig). Existiert die Lösung ˆK nicht, weil [ A, R] nicht stabilisierbar ist, kann anstelle von ˆK diejenige Lösung ˆK Ersatz verwendet werden, die die destabilisierbaren Pole destabilisiert. In diesem Fall konvergiert K(t) für t gegen eine nicht stabilisierende Lösung, falls (und nur falls) die Schnittmenge von N {[F ˆK Ersatz]} mit dem instabilen Zustandsraum des Systems [A+R ˆK Ersatz ] nicht leer ist. Für F = 0 ist folglich eine stationäre Lösung K, die das geschlossene System [A + RK ] nicht stabilisiert, nur möglich, wenn [A, Q] nicht detektierbar ist, da ˆK andernfalls regulär ist. Theorem 3.3: Hat die ARE eine positiv-semidefinite, stabilisierende Lösung K 0, sokon- vergiert K(t) für t für jede Endbedingung F mit 0 F K gegen K, falls [A, Q] detek- 8

9 tierbar ist. Ist [A, Q] nicht detektierbar, ist die Konvergenz genau dann noch garantiert, wenn kein nicht detektierbarer Zustand im Nullraum N {F} der Matrix F liegt. Der Existenz-Grenzwert R 0 (bzw. Q 0 ) von K (vgl. Theorem 2.1b) muß deshalb für alle F K unter dem Existenz-Grenzwert ˆR 0 (bzw. ˆQ 0) vonk(t) (vgl. Theorem 1.1) für alle Zeitintervalle [t 0, t 1 ] liegen, R 0 ˆR 0 (bzw. Q 0 ˆQ 0 ). Für F = 0 und [A, Q] detektierbar konvergiert K(t) für t gegen K, falls K 0 existiert. 3 Anwendung in Optimierungsproblemen Das Optimierungsproblem im endlichen Zeitintervall [t 0, t 1 ] (endlicher Horizont) hat genau dann eine eindeutige Lösung, wenn die RDE im entsprechenden Intervall existiert. Das optimale Gütekriterium hat dann für einen beliebigen Anfangszustand x 0 den Wert J o = x 0 T K(t 0 )x 0. Für das Optimierungsproblem mit unendlich langer Problemdauer (unendlicher Horizont) kann folgendes zusammengefaßt werden. Eine optimale Lösung existiert dann, wenn die Lösung der RDE für t und F = 0 gegen einen stationären Wert K konvergiert. Das Gütekriterium hat bei optimaler Rückführung für einen beliebigen Anfangszustand x 0 den Wert J o = x T 0 K x 0. Diese stationäre Lösung K stabilisiert das geschlossene System [A + RK ] nur dann nicht, wenn das quadratische Gütekriterium so formuliert wurde, daß eine nicht stabilisierende Rückführung zu einem endlichen optimalen Wert des Kriteriums führen kann, d.h. wenn [A, Q] nicht detektierbar ist. Da nur die stabilisierende Lösung K der ARE numerisch eindeutig bestimmbar ist, ist die Berechnung dieser stationären Lösung in der Anwendung sehr aufwendig. Alternativ könnte man das Optimierungsproblem auf ein um die nicht detektierbaren Pole reduziertes System anwenden, da diese im ursprünglichen Problem durch die optimale Rückführung auch nicht verändert würden (vgl. Abschnitt 4.4, Bemerkung 8). Häufig interessiert man sich aber ohnehin nur für optimale Lösungen, die das geschlossene System [A + RK ] asymptotisch stabilisieren. Ist [A, Q] nicht detektierbar, aber beobachtbar für alle grenzstabilen Pole, kann diese Forderung bei der Formulierung des Gütekriteriums berücksichtigt werden, indem zusätzlich der Zustand zur (unendlichen) Endzeit mittels einer Matrix F 0 bestraft wird. F muß dabei so gewählt werden, daß eine nicht stabilisierende Rückführung zwangsläufig zu einem Divergieren des Gütekriteriums führen würde, was nicht einem eindeutigen Optimum entsprechen kann. Damit das ursprüngliche Optimierungsproblem nicht verfälscht wird, kann F beliebig klein festgelegt werden. Da ein grenzstabiles System durch keinen Endkostenterm zum Divergieren des Gütekriteriums führen würde, müssen die reinimaginären Pole von A durch Q beobachtbar sein. Bei diesem Vorgehen muß aber beachtet werden, daß ein Unterschied zwischen der optimalen Lösung des Problems mit unendlich langer Problemdauer (unendlicher Horizont) und dem Grenzübergang t der optimalen Lösung des Problems mit endlich langer Problemdauer besteht (d.h. die Reihenfolge von Optimierung und Grenzübergang ist nicht vertauschbar), wenn die Schnittmenge des Nullraums N {F} mit dem nicht detektierbaren Zustandsraum von 9

10 [A, Q] nicht A-invariant ist. Im ersten Fall genügt die Bedingung [A, [Q T F T ] T ] detektierbar, um eine stabilisierende Lösung (sofern eine existiert) zu garantieren. Beim zweiten Problem ist diese Voraussetzung nicht hinreichend, da dies nur voraussetzt, daß keine Eigenvektoren von nicht detektierbaren Polen von [A, Q] im Nullraum von F liegen. Nach Theorem 3.3 tritt die Konvergenz von K(t) gegen K aber nur dann ein, wenn kein nicht detektierbarer Zustand, also auch keine Linearkombination der genannten Eigenvektoren, im Nullraum von F liegt. Ist diese Bedingung, im Gegensatz zur schwächeren Bedingung des ersten Problems, nicht erfüllt, stellt sich entweder eine stationäre periodische Lösung ein, oder K(t) konvergiert gegen einen nicht stabilisierenden, stationären Wert K. Die optimale Rückführung des ersten Problems (berechnet mittels K ) stabilisiert aber das geschlossene System. Der Unterschied besteht darin, daß im ersten Problem nur zeitinvariante Lösungen in Frage kommen, während beim zweiten Problem, trotz der unendlich langen Problemdauer, auch zeitvariable Lösungen zugelassen sind, die zu einem geringeren (besseren) Wert des Gütekriteriums führen können. So verändert die anfänglich stationäre Lösung K ihren Wert gegen Ende des unendlich langen Intervalls derart, daß mit endlichem Aufwand der unendliche Zustandsvektor in den Nullraum der Matrix F gedreht wird. Der Wert des Gütekriteriums divergiert infolge des Endkostenterms nicht, und die Gesamtkosten liegen tiefer als diejenigen der zeitinvarianten stabilisierenden Lösung (K K, vgl. Theorem 2.4). Diese Überlegungen gelten auch für die erwähnten periodischen Lösungen. Die Matrix F 0 kann aber immer so gewählt werden, daß K(t) für t gegen die stabilisierende, positiv-semidefinite Lösung K der ARE strebt. Die zeitinvariante Rückführung ist dann auch optimal unter allen zeitvariablen Möglichkeiten. Die Existenz dieser eindeutigen Lösung K 0 ist folglich hinreichend und notwendig für die Existenz einer eindeutigen Lösung des Optimierungsproblems mit unendlichem Horizont, bei welchem die Stabilität des geregelten Systems [A + R K ] vorausgesetzt wird. Für R=R 1 R 2 (H -Reglerentwurf) ist dann auch die asymptotische Stabilität des Systems [A R 2 K ] garantiert. Durch sukzessives verkleinern von Q oder R wird auch der optimale Wert J o des Gütekriteriums kleiner (vgl. Theoreme 2.5 und 2.6), wobei J o (bzw. K ) nicht negativ werden kann. Beim Grenzübergang Q 0 ( expensive control, keine Bestrafung der Zustände) resultiert eine Rückführung, die mit minimalem Aufwand (d.h. mit minimalen Stellgrößen) das System stabilisiert, indem die instabilen Pole an der imaginären Achse gespiegelt werden. Ist das System bereits stabil, wird eine perfekte Regelung J o = 0 (bzw. K = 0) ohne Rückführung erzielt. Beim Grenzübergang R ( cheap control, keine Bestrafung der Stellgrößen) kann eine perfekte Regelung erreicht werden, wenn einerseits genügend Regler-Freiheitsgrade vorhanden sind (nicht weniger Stellgrößen als Regelgrößen) und andererseits alle in endlicher Zeit abklingenden Transienten durch eine Pol-Nullstellen-Auslöschung (was nur bei minimalphasigen Systemen möglich ist, da das geschlossene System stabil sein muß) verhindert werden können. 10

11 4 Beweise der Theoreme In den Abschnitten 4.1 und 4.2 werden einige bekannte Lemmata aus der Matrix- und linearen System-Theorie aufgeführt, die für die späteren Beweise benötigt werden. Sie sind u.a. auch im Anhang von [1] zu finden und werden hier nicht bewiesen. Die Reihenfolge der Beweise der Theoreme ist nicht strikt derjenigen von Abschnitt 2 angepaßt, da darauf geachtet wurde, daß nur bereits bewiesene Theoreme in der weiteren Beweisführung verwendet werden. Zum Teil sind die Beweise der einzelnen Theoreme für sich allein nicht verständlich, sondern setzen die Begriffe und mathematischen Umformungen der vorangegangenen Beweise und Lemmata voraus. 4.1 Sätze aus der Matrix-Theorie Lemma 1 Determinanten-Regeln Für die komplexen Matrizen A,M,N IC n n, A regulär, B IC n m,c IC p n,d IC p m und E IC m p mit beliebigen Dimensionen n, m und p gelten die folgenden Identitäten: det{mn} = det{nm} = det{m}det{n}, det{a 1 } = det{a} 1 (4.1) det AB CD = det{ A}det{ D CA 1 B} (4.2) det{i m + ED} = det{i p + DE} (4.3) Lemma 2 Matrix-Inversions-Lemma M und N seien zwei quadratische, invertierbare Matrizen beliebiger Dimension. L und R seien zwei Rechteckmatrizen mit passenden Dimensionen. Dann gilt, sofern die Inverse auf der linken Seite existiert: [M + LNR] 1 = M 1 M 1 L[RM 1 L + N 1 ] 1 RM 1, (4.4) wobei die Invertierbarkeit von [RM 1 L+N 1 ] garantiert ist. Lemma 3 Lemma von Lyapunov Seien A, B und C gegebene Matrizen mit den Dimensionen n n, m m und n m. Die lineare Matrizen-Gleichung AX+XB+C=0 (4.5) hat genau dann eine eindeutige Lösung X IR n m, wenn A keine (am Ursprung) gespiegelten Eigenwerte von B hat, λ i (A) + λ j (B) 0 für alle i und j. Wenn B = A T,C 0und [A, C] beobachtbar (detektierbar) ist, existiert genau dann eine ein- 11

12 deutige, positiv-definite (positiv-semidefinite) Lösung X, wenn A asymptotisch stabil ist, Re{λ i (A)} < 0 i. Bemerkung 4 Zerlegung einer indefiniten Matrix in zwei positiv-semidefinite Die Spektralzerlegung der symmetrischen, indefiniten Matrix R ergibt R = UΛU T, wobei die Kolonnen der unitären Matrix U (U T = U 1 ) den orthogonalen Eigenvektoren von R entsprechen und Λ diagonal mit den Eigenwerten von R besetzt ist. Λ und U können dabei so gewählt werden, daß Λ Λ 2 0 = und U = U 1 U 2, (4.6) 0 Λ 2 wobei Λ 1 0 und Λ 2 0 sind (allfällige verschwindende Eigenwerte können beliebig aufgeteilt werden). Mit diesen Teilblöcken lautet die Spektralzerlegung: R = UΛU T = U 1 Λ 1 U T 1 + U 2 Λ 2 U T 2 = ˆR1 ˆR2 (4.7) Da U unitär ist, sind U 1 und U 2 orthogonal (U 1 U 2 = 0). Dadurch sind auch ˆR 1 = U 1 Λ 1 U T 1 0 und ˆR 2 = U 2 Λ 2 U T 2 0 orthogonal ( ˆR 1 ˆR 2= 0). Die Menge aller Zerlegungen von R=R 1 R 2 in zwei positiv-semidefinite Matrizen R 1 und R 2 kann mit der positiv-semidefiniten Matrix R 0 parametrisiert werden, indem sie zu den Matrizen der orthogonalen Zerlegung addiert werden, R 1 = ˆR 1 + R, R 2 = ˆR 2 + R. Da ˆR 1 und ˆR 2 orthogonal sind, verletzt ein R 0 zwangsläufig die Bedingungen R 1 0 und R Sätze aus der linearen System-Theorie Lemma 5 Steuer- und Stabilisierbarkeit von linearen dynamischen Systemen a) Das lineare zeitinvariante dynamische System [A, B], ẋ (t) =Ax(t) +Bu(t), mit den konstanten Systemmatrizen A IR n n und B IR n m ist bezüglich jedes beliebigen Intervalls [t 0, t 1 ] genau dann (vollständig) steuerbar, wenn rang{[λi A B]} = n λ IC. (4.8) Ist das System [A, B] nicht steuerbar, wird der nicht steuerbare Zustandsraum durch den Nullraum N {[λi A B] T } definiert. Der steuerbare Zustandsraum fällt mit dem Wertebereich Ra {[λi A B]} zusammen. Die nicht steuerbaren Pole des Systems entsprechen den Werten von λ, bei welchen ein Rangabfall der Matrix [λi A B] eintritt. Diese Pole können dann (und nur dann) durch keine Rückführung u(t) =Gx(t) (G IR m n ) verschoben werden. b) Das lineare zeitinvariante dynamische System [A, B] ist genau dann stabilisierbar, wenn rang{[λi A B]} = n Re{λ} 0. (4.9) 12

13 Ist das System [A, B] nicht stabilisierbar, dann (und nur dann) existiert keine Rückführung u(t) =Gx(t) (G IR m n ), die das geschlossene System [A +BG] asymptotisch stabilisiert. Die nicht stabilisierbaren Pole des Systems entsprechen den Werten von λ mit Re{λ} 0, bei welchen ein Rangabfall der Matrix [λi A B] eintritt. c) Für ein nicht steuerbares zeitinvariantes System [A, B] existiert immer eine zeitinvariante Zustandstransformation x = Tx, mit der die Systemmatrizen auf die Form A Ã TAT 1 11 A = = 12 und B = TB = 0 A 22 B 1 0 (4.10) transformiert werden können, wobei [A 11,B 1 ] steuerbar ist. Die Pole von A 22 entsprechen den nicht steuerbaren Polen. Ist A 22 asymptotisch stabil, so ist das System noch stabilisierbar. d) Das lineare zeitvariable dynamische System [A(t), B(t)], ẋ (t) =A(t)x(t) + B(t)u(t), mit den zeitvariablen Systemmatrizen A(t) IR n n und B(t) IR n m ist bezüglich des Intervalls [t 0, t 1 ] genau dann steuerbar, wenn die positiv-semidefinite Steuerbarkeitsmatrix t 1 W( t 0, t 1 ) = Φ( t 1, σ)bt ()B T ()Φ t T ( t 1, σ) dσ t 0 (4.11) regulär (d.h. positiv-definit) ist, wobei Φ die Transitionsmatrix des Systems ẋ (t) =A(t)x(t) ist. Die Steuerbarkeitsmatrix W(t)=W(t 0,t) erfüllt die lineare Matrix-Differentialgleichung d W ( t0, t) = W () t = At ()W() t + W()A t ; dt T () t + Bt ()B T () t W( t 0, t0) = 0. (4.12) Ist das System im Intervall [t 0, t 1 ] nicht steuerbar, wird der zeitabhängige, nicht steuerbare Zustandsraum durch den Nullraum N {W(t 0,t 1 )} definiert. Wenn das System [A, B] zeitinvariant ist, ist die Steuerbarkeitsmatrix nur noch eine Funktion der Zeitdifferenz t 1 t 0 und ihr Nullraum zeitinvariant. Der entsprechende zeitinvariante, nicht steuerbare Zustandsraum entspricht dann demjenigen aus Punkt a. Das System [A, B] ist folglich genau dann nicht steuerbar, wenn ein linker Eigenvektor x der Matrix A im Nullraum N {B T } der Matrix B T liegt, x T A = λx T, x T B =0bzw. B T x =0 [A, B] nicht steuerbar. Gilt dies für einen Eigenvektor eines nicht stabilen Eigenwertes der Matrix A (Re{λ} 0), ist das System nicht stabilisierbar. Der nicht steuerbare bzw. nicht stabilisierbare Zustandsraum wird durch die entsprechenden Eigenvektoren aufgespannt. Da aus x T A = λx T und x T B = 0 folgt, daß auch x T [A+BG]=λx T für jedes beliebige G IR m n gilt, bleiben die Steuerbarkeit und die Stabilisierbarkeit erhalten für eine beliebige Zustandsrückführung u(t) = Gx(t). D.h. die Systeme [A, B] und [A + BG, B] haben die gleichen nicht steuerbaren (stabilisierbaren) Pole und die gleichen nicht steuerbaren Zustandsräume. 13

14 Lemma 6 Beobachtbar- und Detektierbarkeit von linearen dynamischen Systemen a) Das lineare zeitinvariante dynamische System [A, C], ẋ (t) =Ax(t), y(t) = Cx(t), mit den konstanten Systemmatrizen A IR n n und C IR p n ist bezüglich jedes beliebigen Intervalls [t 0, t 1 ] genau dann (vollständig) beobachtbar, wenn rang λi A = rang{[[λi A] T C T ] T } = n λ IC. (4.13) C Ist das System [A, C] nicht beobachtbar, wird der nicht beobachtbare Zustandsraum durch den Nullraum N {[[λi A] T C T ] T } definiert. Die nicht beobachtbaren Pole des Systems entsprechen den Werten von λ, bei welchen ein Rangabfall der Matrix [[λi A] T C T ] eintritt. Diese Pole können dann (und nur dann) durch keine Rückführung ẋ (t) =Ax(t) +Hy(t) (H IR n p ) verschoben werden. b) Das lineare zeitinvariante dynamische System [A, C] ist genau dann detektierbar, wenn rang λi A = rang{[[λi A] T C T ] T } = n Re{λ} 0. (4.14) C Ist das System [A, C] nicht detektierbar, dann (und nur dann) existiert keine Rückführung ẋ (t) =Ax(t) +Hy(t) (H IR n p ), die das geschlossene System [A +HC] asymptotisch stabilisiert. Die nicht detektierbaren Pole des Systems entsprechen den Werten von λ mit Re{λ} 0, bei welchen ein Rangabfall der Matrix [[λi A] T C T ] eintritt. c) Für ein nicht beobachtbares zeitinvariantes System [A, C] existiert immer eine zeitinvariante Zustandstransformation x = Tx, mit der die Systemmatrizen auf die Form A Ã TAT = = und C = CT 1 = C 1 0 A 21 A 22 (4.15) transformiert werden können, wobei [A 11,C 1 ] beobachtbar ist. Die Pole von A 22 entsprechen den nicht beobachtbaren Polen. Ist A 22 asymptotisch stabil, so ist das System noch detektierbar. d) Das lineare zeitvariable dynamische System [A(t), C(t)], ẋ (t) =A(t)x(t), y(t) = C(t)x(t), mit den zeitvariablen Systemmatrizen A(t) IR n n und C(t) IR p n ist bezüglich des Intervalls [t 0, t 1 ] genau dann beobachtbar, wenn die positiv-semidefinite Beobachtbarkeitsmatrix t 1 M( t 0, t 1 ) = Φ T ( σ, t 0 )C T ()Ct t ()Φσt (, 0 ) dσ t 0 (4.16) regulär (d.h. positiv-definit) ist, wobei Φ die Transitionsmatrix des Systems ẋ (t) =A(t)x(t) ist. Die Beobachtbarkeitsmatrix M(t) =M(t, t 1 ) erfüllt die lineare Matrix-Differentialglei- 14

15 chung d M ( t, t 1) = Ṁ() t = A ; dt T ()M t () t + M()At t + C T ()Ct t M( t 1, t1) = 0. (4.17) Ist das System im Intervall [t 0, t 1 ] nicht beobachtbar, wird der zeitabhängige, nicht beobachtbare Zustandsraum durch den Nullraum N {M(t 0, t 1 )} definiert. Wenn das System [A, C] zeitinvariant ist, ist die Beobachtbarkeitsmatrix nur noch eine Funktion der Zeitdifferenz t 1 t 0 und ihr Nullraum zeitinvariant. Der entsprechende zeitinvariante, nicht beobachtbare Zustandsraum entspricht dann demjenigen aus Punkt a. Das System [A, C] ist folglich genau dann nicht beobachtbar, wenn ein rechter Eigenvektor x der Matrix A im Nullraum N {C} der Matrix C liegt, Ax = λx, Cx =0 [A, C] nicht beobachtbar. Gilt dies für einen Eigenvektor eines nicht stabilen Eigenwertes der Matrix A (Re{λ} 0), ist das System nicht detektierbar. Der nicht beobachtbare bzw. nicht detektierbare Zustandsraum wird durch die entsprechenden Eigenvektoren aufgespannt. Da aus Ax = λx und Cx = 0 folgt, daß auch [A +HC]x = λx für jedes beliebige H IR n p gilt, bleiben die Beobachtbarkeit und die Detektierbarkeit erhalten für eine beliebige Rückführung ẋ (t) = Ax(t) + Hy(t). D.h. die Systeme [A, C] und [A + HC, C] haben die gleichen nicht beobachtbaren (detektierbaren) Pole und die gleichen nicht beobachtbaren Zustandsräume. Das System [A, C] ist genau dann beobachtbar (detektierbar), wenn [A T, C T ] steuerbar (stabilisierbar) ist. Lemma 7 Nullstellen von linearen Systemen Das lineare zeitinvariante dynamische System ẋ (t)=ax(t) +Bu(t), y(t) =Cx(t) +Du(t), x(t) IR n, u(t) IR m, y(t) IR p mit der Übertragungsfunktion G(s) =C[sI A] 1 B + D hat eine Nullstelle ν i, wenn die Matrix N( s) = si A B C D (4.18) an der Stelle s = ν i einen Rangabfall hat. Wenn ν i kein Pol des Systems ist (det{ν i I A} 0), hat auch die Übertragungsfunktion G(s) einen Rangabfall an der Stelle s = ν i. Wenn das System quadratisch ist, m = p, und die Matrizen B und C vollen Rang p haben, hat das System eine Nullstelle an der Stelle s = ν i, wenn ϕ( s) det{ N( s) } det si A B = = = C D 0. (4.19) 15

16 ϕ(s) ist das charakteristische Nullstellen-Polynom. Wenn ν i kein Pol des Systems ist, verschwindet auch die Determinante der Übertragungsfunktion G(s) an der Stelle s = ν i : det si A B C D det{ Gs ( )} det{ CsI [ A] 1 ϕ( s) = B+ D} = =, (4.20) det{ si A} = φ( s) 0 wobei φ(s) das charakteristische Polynom ist. Das System ist minimalphasig, wenn alle Nullstellen ν i in der linken offenen Gauß-Halbebene liegen, Re{ν i }<0 i. 4.3 Beweise der Theoreme von Abschnitt 2.1 Beweis von Theorem 1.1: Das Minimierungsproblem für das lineare zeitinvariante dynamische System ẋ (t) =Ax(t) + Bu(t), x(t 0 )=x 0 mit dem quadratischen Gütekriterium t 0 J( u) = u T ()ut t + x T ()Qx t ()t t d + x T ( t 1 )Fx( t 1 ) t 1 (4.21) führt auf die RDE (2.1) mit der Endbedingung (2.2), wobei R = BB T 0. Für Q 0 und F 0 kann das (strikt konvexe) Gütekriterium nur positive Werte annehmen. Andererseits bleibt der Wert von J(u) beschränkt für jede Rückführung u(t) =G(t)x(t) mit beschränkter Matrix G(t). Für das Minimierungsproblem im endlichen Intervall [t 0,t 1 ], und somit auch für die RDE mit R 0, muß deshalb immer eine Lösung existieren. Handelt es sich nicht um ein reines Minimierungsproblem, so ist R nicht negativ-semidefinit, und der quadratische Term destabilisiert die RDE für K(t) 0 und t t 1. Wird R genügend groß gewählt, divergiert K(t) beim Rückwärtsintegrieren bereits nach endlicher Zeit t t 1. Nehmen wir an, K(t)=K(t, R) existiere im Intervall [t 0, t 1 ] für ein gegebenes R 0 (dies ist möglich, da für R = 0 aus der RDE eine lineare Matrix-Gleichung wird, die in jedem endlichen Intervall definiert ist). Um zu beweisen, daß ein Supremum ˆR 0 0 existiert, zeigen wir, daß K (t) =K(t, R ) im entsprechenden Intervall existiert für alle R R. Abzählen der RDE für K (t) von der RDE für K(t) und entsprechendes Zusammenfassen der Terme ergibt: d/dt(k K )=A T (K K )+(K K )A + KRK K R K + (K R K K R K) =A T (K K )+(K K )A (K K ) R (K K ) + K R (K K ) +(K K ) R K + K(R R )K ; K(t 1 ) K (t 1 ) =F F=0 16

17 Mit K(t) =K(t) K (t) und R =R R folgt: K (t) = [A + R K(t)] T K(t) + K(t)[A + R K(t)] K(t) R K(t) +K(t) RK(t); K(t 1 ) = 0 (4.22) Für R = R R 0 und R 0 ( worst case, für R 0 wurde die Existenz von K(t, R ) bereits bewiesen) entspricht Gleichung (4.22) einer RDE mit negativ-semidefinitem quadratischem Term. K(t) und somit K (t) =K(t, R )=K(t) K(t) existieren im Intervall [t 0,t 1 ] also, wenn K(t, R) existiert und R R. Daß auch für die Matrizen Q und F Suprema ˆQ 0 und ˆF 0 existieren, kann in analoger Weise bewiesen werden. Abzählen der RDE für K (t)= K(t, Q ) von der RDE für K(t) = K(t, Q) und entsprechendes Zusammenfassen der Terme ergibt mit K(t) =K(t) K (t) und Q = Q Q : K (t) = [A +RK(t)] T K(t) + K(t)[A +RK(t)] K(t)R K(t) + Q ; K(t 1 ) = 0 (4.23) Für Q = Q Q 0 und R 0 entspricht Gleichung (4.23) einer RDE mit negativ-semidefinitem quadratischem Term. K(t) und somit K (t) = K(t) K(t) existieren also im Intervall [t 0,t 1 ]. Abzählen der RDE für K (t) = K(t, F) von der RDE für K(t) = K(t, F) und entsprechendes Zusammenfassen der Terme ergibt mit K(t) =K(t) K (t) und F = F F: K (t) = [A +RK(t)] T K(t) + K(t)[A +RK(t)] K(t)R K(t) ; K(t 1 ) = F (4.24) Für F = F F 0 und R 0 entspricht diese Gleichung einer RDE mit negativ-semidefinitem quadratischem Term. K(t) und somit K (t) = K(t) K(t) existieren also im Intervall [t 0,t 1 ]. Beweis von Theorem 1.2a: Da die RDE (2.1) und die Endbedingung (2.2) reell und symmetrisch sind, muß auch die Lösung K(t) im ganzen Zeitintervall reell und symmetrisch sein. Um zu zeigen, daß K(t) positiv-semidefinit ist, teilen wir den quadratischen Term der RDE auf die beiden linearen Terme auf: K (t) = [A +RK(t)/2] T K(t) + K(t)[A +RK(t)/2] + Q ; K(t 1 ) =F Mit Hilfe der zeitvariablen Transitionsmatrix Φ der Systemmatrix [A +RK(t)/2] lautet die Lösung K(t) dieser linearen Matrix-Differentialgleichung: K() t = Φ T ( t 1, t)fφ( t 1, t) + Φ T ( σ, t)qφ( σt, ) dσ t 1 t (4.25) mit Φ (t 1, t) = Φ(t 1, t)[a +RK(t)/2] ; Φ(t 1, t 1 )=I 17

18 Da die Definitheit bei einer Kongruenztransformation erhalten bleibt, sind beide Summanden, und damit K(t), positiv-semidefinit im ganzen Zeitintervall, falls Q 0 und F 0 sind. Beweis von Theorem 1.2b: Wir stellen die Lösung K(t) der RDE (2.1) mit der Endbedingung (2.2) mit Hilfe der zeitinvarianten Transitionsmatrix Φ(t 1, t) = exp{a(t 1 t)} der Systemmatrix A dar, indem der quadratische Term des homogenen Teils der RDE zum inhomogenen Teil geschlagen wird: K() t = Φ T ( t 1, t)fφ( t 1, t) + Φ T ( σ, t)qφ( σt, ) dσ t 1 + Φ T ( σ, t)k( σ)rk( σ)φ( σ, t) dσ t t 1 t (4.26) mit Φ (t 1, t) = Φ(t 1, t)a ; Φ(t 1, t 1 )=I Der erste Integralterm dieser Gleichung entspricht gerade der Beobachtbarkeitsmatrix M(t, t 1 ) des Systems [A, Q] (vgl. Lemma 6). Ihr Nullraum N {M(t, t 1 )} wird durch die nicht beobachtbaren Zustände aufgespannt. Die homogene Entwicklung x(t) =Φ(t, 0)x 0 eines nicht beobachtbaren Anfangszustandes x 0 (Linearkombination der Eigenvektoren zu nicht beobachtbaren Polen von A) ist zu allen Zeiten t ein nicht beobachtbarer (Anfangs-) Zustand und liegt zu allen Zeiten t im Nullraum der Matrizen Q und M(t, t 1 ), d.h. QΦ(t, 0)x 0 = 0 bzw. M(t, t 1 )Φ(t, 0)x 0 =0 t. Existiert ein nicht beobachtbarer Zustandsvektor x N {M(t, t 1 )} des Systems [A, Q], der im Nullraum der Matrix F liegt (Fx = 0, x N {F}), reduziert sich Gleichung (4.26) durch Multiplizieren von rechts mit y = Φ(t, t 1 )x zu: t 1 K()y t = Φ T ( σ, t)k( σ)rk( σ)φ( σ, t) dσ y t Diese Gleichung hat (für ein beliebiges R) nur eine Lösung, wenn K(t) singulär und K(t)Φ(t, t 1 )x = 0 zu allen Zeiten t ist. Ist die Schnittmenge Ω = N {F} N {M(t, t 1 )} des nicht beobachtbaren Zustandsraums mit dem Nullraum von FA-invariant, dann liegen die Eigenvektoren der nicht beobachtbaren Pole von [A, Q] entweder im Nullraum von F oder im komplementären Raum. In diesem Fall sind alle Vektoren, die im Nullraum von F liegen, auch nicht beobachtbare Zustandsvektoren des Systems [A, Q] (Ω = N {F} N {M(t, t 1 )}). Der Nullraum N {K(t)} = Ω wird dementsprechend zu allen Zeiten t von diesen Vektoren aufgespannt. Der verbleibende nicht beobachtbare Zustandsraum liegt orthogonal zum Raum Ω und beeinflußt N {K(t)} nicht (d.h. die Summe der ersten zwei Summanden von (4.26) ist regulär, da ihre Nullräume orthogonal sind). Existiert kein nicht beobachtbarer Zustandsvektor, der im Nullraum von F liegt (Ω = {}), ist K(t) regulär. 18

19 Beweis von Theorem 1.3: Um die Monotonität von K(t) zu zeigen, leiten wir die RDE nach der Zeit ab: K (t) =A T K (t) + K (t)a + K (t)rk(t) +K(t)R K (t) =[A+RK(t)] T K (t) + K (t)[a +RK(t)] (4.27) Mit Hilfe der zeitvariablen Transitionsmatrix Φ der Systemmatrix [A +RK(t)] lautet die Lösung K (t) dieser linearen Matrix-Differentialgleichung: K (t) =Φ T (t 1, t) K (t 1 )Φ(t 1, t) mit Φ (t 1, t) = Φ(t 1, t)[a +RK(t)] ; Φ(t 1, t 1 )=I (4.28) Da die Definitheit bei einer Kongruenztranformation erhalten bleibt, ist K (t) 0 t t 1, falls K (t 1 )= A T F FA FRF Q 0. Für K(t 1 )=F = 0 ist die Endbedingung K (t 1 )= Q 0, und somit auch K (t) 0 t t 1. Durch Integrieren von K (t) erhält man: K(t) K(τ)= K ( σ) dσ 0 t τ 4.4 Beweise der Theoreme von Abschnitt 2.2 Beweis von Theorem 2.1a: Wir betrachten zwei verschiedene Lösungen K und K der ARE (2.3), wobei K das geschlossene System [A + R K ] asymptotisch stabilisieren soll. Für die Differenz K = K K dieser beiden Lösungen erhalten wir durch Subtrahieren der beiden ARE: 0 = A T K + KA + KRK + Q { A T K + K A + K R K + Q } = A T (K K ) + (K K )A + KRK K R K = A T (K K ) + (K K )A + (K K )R(K K ) + (K K )R K + K R(K K ) = A T (K K ) + (K K )A (K K )R(K K ) + (K K )RK + KR(K K ) 0 = [A + R K ] T K + K[A + R K ] + KR K (4.29) 0 = [A + RK] T K + K[A + RK] KR K (4.30) 0 = [A + R K ] T K + K[A + RK] (4.31) Gleichung (4.31) ist eine homogene Lyapunov-Gleichung (4.5) und hat nach Lemma 3 die eindeutige Lösung K = 0, falls λ i ([A + R K ] T )+λ j ([A + RK]) 0. Falls K von K abweicht ( K 0), hat die Matrix [A + RK] mindestens einen am Ursprung gespiegelten Pol der stabilen 19

20 Matrix [A + R K ]. Es kann also keine Lösung K der ARE (außer K = K ) das geschlossene System stabilisieren. Wenn K existiert und [ A, R] stabilisierbar ist, dann muß es eine Matrix K geben, die die Pole der Matrix [A + RK] an die Stelle der Pole der Matrix [A + R K ] legt. Da K alle Pole gegenüber [A + R K ] verschiebt, muß die Differenz K = K K regulär sein. ˆK = K erfüllt deshalb Gleichung (4.31), und damit auch die ARE (2.3): 0 = K 1 [A + R K ] T K + [A + R ˆK ] (4.32) Das System [A + R [A + R K ]. ˆK ] hat also die an der imaginären Achse gespiegelten Pole des Systems Beweis von Theorem 2.1b: Bedingung i: Trivialerweise muß [A, R] stabilisierbar sein. Bedingung ii: Falls [A, Q] einen nicht beobachtbaren Pol auf der imaginären Achse hat, existiert nach Lemma 6 ein entsprechender Eigenvektor x mit Ax = λx, Re{λ} = 0undQx = 0. Multiplizieren der ARE von links mit x * ( * : konjugiert-komplex und transponiert) und von rechts mit x ergibt: 0 = x * A T Kx + x * KAx + x * KRKx + x * Qx = (λ * + λ)x * Kx + x * KRKx + x * Qx = x * KRKx Für ein beliebiges R muß Kx = 0 für alle Lösungen der ARE gelten. Das geschlossene System [A + RK] besitzt deshalb diesen nicht beobachtbaren, reinimaginären Pol für alle Lösungen der ARE, da [A + RK]x = Ax = λx. Bedingung iii: Für R indefinit wird diese Voraussetzung in Theorem 2.5a bewiesen. Falls R 0 ist, können die Überlegungenvom Beweis von Theorem 1.1 übernommen werden: Der Unterschied besteht darin, daß die Integrationsgrenzen des Gütekriteriums (4.21) beim Minimierungsproblem mit unendlichem Horizont unendlich weit auseinander liegen. Falls z.b. F>0 gewählt wird (vgl. Kapitel 3), führt eine nicht stabilisierende Rückführung zwangsläufig zu einem Divergieren des Gütekriteriums. Jede stabilisierende Rückführung verhindert dies aber. Wenn [A, R] stabilisierbar ist, wird auch die optimale Rückführung, die sich aus einer Lösung der ARE berechnet, stabilisierend sein (sonst wäre sie nicht optimal). Eine stabilisierende Lösung der ARE muß demnach existieren. Beweis von Theorem 2.2b: Zuerst wird gezeigt, daß [A, Q] nicht beobachtbare, stabile Pole haben muß, wenn K singulär ist. Anschließend wird bewiesen, daß K nicht regulär sein kann, wenn [A, Q] nicht beobachtbare, stabile Pole hat. Die stabilisierende Lösung K der ARE kann anhand der zeitinvarianten Transitionsmatrix Φ(t, 0) = exp{[a + R K ]t} des stabilen geschlossen Systems [A + R K ] als Intergralgleichung dargestellt werden: 0 = A T K + K A + K R K + Q = [A + R K ] T K + K [A + R K ] K R K + Q (4.33) 20

21 K = Φ T ( σ, 0) [ Q K ( σ)r K ( σ) ] Φ( σ, 0) dσ 0 (4.34) mit d/dt Φ(t, 0)=[A + R K ] Φ(t, 0) ; Φ(0, 0) = I Falls K singulär ist, existiert ein Vektor x, mit K x = 0. x muß auch im Nullraum N {Q} liegen (N { K } N {Q}), was erkenntlich ist, wenn die ARE (4.33) von links mit x T und von rechts mit x multipliziert wird. Da der Nullraum des Integrals von Gleichung (4.34) (für beliebige R) gleich dem Nullraum von K ist, muß dieser Φ- bzw. [A + R K ]-invariant sein, d.h. er wird durch Eigenvektoren von [A + R K ] aufgespannt. Diese Eigenvektoren sind auch Eigenvektoren der Matrix A, da sie im Nullraum von K liegen. Weil sie auch im N {Q} liegen, sind die entsprechenden stabilen Eigenwerte nicht beobachtbar. Wenn regulär ist, kann die ARE (4.33) von beiden Seiten mit 1 K K multipliziert werden: 0 = 1 [A T + A + R + Q] 1 = 1 [A + R ] T + [A + 1 Q] 1 K K K K K K K K K K [A + K 1 Q] = K 1 [A + R K ] T K (4.35) Die Matrizen [A + K 1 Q] und [A + R K ] haben folglich die gleichen Eigenwerte. Hat [A, Q] nicht beobachtbare stabile Pole λ, Re{λ} < 0, liegt der entsprechende Eigenvektor x im N {Q}. λ und x sind dann auch Eigenwerte und Eigenvektoren von [A + K 1 Q]: [A + K 1 Q]x = Ax = λx, Re{λ} < 0. Dies kann aber nicht sein, weil alle Eigenwerte von [A + K 1 Q] instabil sind. K ist also singulär. In analoger Weise kann bewiesen werden, daß ˆK genau dann singulär ist, wenn [A, Q] nicht detektierbar ist (d.h. wenn [ A, Q] nicht beobachtbare stabile Pole hat). Bemerkung 8 ARE für Systeme mit nicht beobachtbaren, stabilen Polen Aus Lemma 6, Gleichung (4.15) ist bekannt, daß das System [A, B, C] (BB T =R,C T C=Q) mittels einer Zustandstransformation in einen beobachtbaren und in einen nicht beobachtbaren Teil zerlegt werden kann. Diese Ähnlichkeitstransformation beeinflußt weder die Pole der Strecke, noch die Pole des geschlossenen Systems. Das Optimierungsproblem kann also auch für die transformierte Strecke gelöst werden, wobei die optimale Lösung anschließend zurücktransformiert werden muß. Die transformierten Matrizen K und R werden entsprechend den Matrizen A und C von (4.15) in vier Blöcke geteilt. Die ARE lautet dann für das transformierte System: = T A 11 0 K 11 K 12 K 11 K + 12 A 21 A T 22 K 22 K 12 K T 12 K 22 A 11 0 A 21 A 22 + K 11 K 12 R 11 R 12 K 11 K 12 Q K T 12 K 22 R T 12 R 22 K T 12 K (4.36) Für die einzelnen Teilmatrizen ergibt das die Gleichungen (da die Gleichung symmetrisch ist, 21

22 sind die außerdiagonalen Blöcke identisch): 0 = A 11 T K 11 + A 21 T K 12 T + K 11 A 11 + K 12 A 21 + K 11 R 11 K 11 + K 11 R 12 K 12 T + K 12 R 12 T K 11 + K 12 R 22 K 12 T + Q 11 (4.37) 0 = A 11 T K 12 + A 21 T K 22 + K 12 A 22 + K 11 R 11 K 12 + K 11 R 12 K 22 + K 12 R 12 T K 12 + K 12 R 22 K 22 (4.38) 0 = A 22 T K 22 + K 22 A 22 + K 22 R 22 K 22 + K 12 R 12 K 22 + K 12 T R 11 K 12 + K 22 R 12 T K 12 T (4.39) Das stabile geschlossene System hat dann die Form: [ à + R K ] = = A 11 0 R 11 R 12 K 11 K + 12 A 21 A T 22 R 22 R 12 K T 12 K 22 A 11 + R 11 K 11 + R 12 K T 12 R 11 K 12 + R 22 K 22 A 21 + R T 12 K 11 + R 22 K T 12 A 22 + R T 12 K 12 + R 22 K 22 (4.40) Die Aufteilung der Blöcke kann auch so erfolgen, daß die nicht asymptotisch stabilen, nicht beobachtbaren Pole von à zum Teilblock A 11 anstatt zu A 22 zugeordnet werden. [A 11, Q 11 ] ist dann nicht mehr detektierbar, und A 22 enthält nur noch die stabilen, nicht beobachtbaren Pole ([A 11, R 11 ] ist dann stabilisierbar, wenn [A, R] stabilisierbar ist, da B 2 = 0 und somit R 12 = 0 und R 22 = 0 sein dürfen ( R = [B 1 B 2 ][B 1 B 2 ] T )). In der einzigen stabilisierenden Lösung der ARE müssen dann die Blöcke K 22 und K 12 = K T 21 verschwinden, und für K 11 ergibt sich die ARE für das (um die nicht beobachtbaren, asymptotisch stabilen Pole) reduzierte System [A 11, R 11, Q 11 ], 0 = A 11 T K 11 + K 11 A 11 + K 11 R 11 K 11 + Q 11, (4.41) die eine Lösung K 11 hat, die das geschlossene System [A 11 R 11 K 11 ] stabilisiert. Die Systemmatrix des nicht reduzierten, stabilen geschlossenen Systems, [ à + R K ] = A 11 + R 11 K 11 0 K= K 11 0 A 21 + R T 12 K 11 A , (4.42) hat die Pole des reduzierten Systems [A 11 R 11 K 11 ] und der Matrix A 22. Bemerkung 9 Die inverse Riccati-Gleichung Durch Vertauschen der Matrizen Q und R und Ersetzten der Matrix A durch ihre Transponierte in der ARE (2.3), erhält man die sogenannte inverse ARE: 0 = PA T + AP + PQP + R = P( A T ) + ( A)P PQP R = P( [A + PQ] T ) + ( [A + PQ])P + PQP R (4.43) 22

Formelsammlung. für den Teilbereich Zustandsraumdarstellung der Vorlesung. Einführung in die Regelungstechnik

Formelsammlung. für den Teilbereich Zustandsraumdarstellung der Vorlesung. Einführung in die Regelungstechnik Formelsammlung für den Teilbereich Zustandsraumdarstellung der Vorlesung Einführung in die Regelungstechnik Diese Formelsammlung ist ein Auszug aus der Formelsammlung zur Systemtheorie-Vorlesung von Matthias

Mehr

Institut für Elektrotechnik und Informationstechnik. Aufgabensammlung zur. Systemtheorie

Institut für Elektrotechnik und Informationstechnik. Aufgabensammlung zur. Systemtheorie Institut für Elektrotechnik und Informationstechnik Aufgabensammlung zur Systemtheorie Prof. Dr. techn. F. Gausch Dipl.-Ing. C. Balewski Dipl.-Ing. R. Besrat 05.04.2013 Übungsaufgaben zur Systemtheorie

Mehr

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit

5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit ME Lineare Algebra HT 2008 99 5 Eigenwerte, Eigenvektoren und Diagonalisierbarkeit 5.1 Ein Beispiel zur Motivation Als einfachstes Beispiel eines dynamischen Systems untersuchen wir folgendes Differentialgleichungssystem

Mehr

Eigenwerte (Teschl/Teschl 14.2)

Eigenwerte (Teschl/Teschl 14.2) Eigenwerte (Teschl/Teschl 4.2 Ein Eigenvektor einer quadratischen n nmatrix A ist ein Vektor x R n mit x, für den Ax ein skalares Vielfaches von x ist, es also einen Skalar λ gibt mit Ax = λ x Ax λ x =

Mehr

Lineare Algebra: Determinanten und Eigenwerte

Lineare Algebra: Determinanten und Eigenwerte : und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b

Mehr

Spezielle Matrixformen

Spezielle Matrixformen Definition B57 (Transposition) Eine einfache aber wichtige Operation auf Matrizen ist die Transposition, die aus einer (m n) Matrix A eine (n m) Matrix B = A T macht Hierbei gilt β i j = α j i, so daß

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

3.6 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren 3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse

Mehr

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1

18 λ 18 + λ 0 A 18I 3 = / Z 2 Z 2 Z Z Z 1 UNIVERSITÄT KARLSRUHE Institut für Analysis HDoz. Dr. P. C. Kunstmann Dipl.-Math. M. Uhl Sommersemester 9 Höhere Mathematik II für die Fachrichtungen Elektroingenieurwesen, Physik und Geodäsie inklusive

Mehr

6 Eigenwerte und Eigenvektoren

6 Eigenwerte und Eigenvektoren 6.1 Eigenwert, Eigenraum, Eigenvektor Definition 6.1. Es sei V ein Vektorraum und f : V V eine lineare Abbildung. Ist λ K und v V mit v 0 und f(v) = λv gegeben, so heißt die Zahl λ Eigenwert (EW) von f,

Mehr

Abbildung 5.1: stabile und instabile Ruhelagen

Abbildung 5.1: stabile und instabile Ruhelagen Kapitel 5 Stabilität Eine intuitive Vorstellung vom Konzept der Stabilität vermitteln die in Abb. 5.1 dargestellten Situationen. Eine Kugel rollt unter dem Einfluss von Gravitation und Reibung auf einer

Mehr

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2015/2016 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

Aussagenlogik. 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl. C: 2 ist eine Primzahl D: 7 7. F: 3 ist Teiler von 9

Aussagenlogik. 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl. C: 2 ist eine Primzahl D: 7 7. F: 3 ist Teiler von 9 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen

Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen Mathematik für Naturwissenschaftler, Pruscha & Rost Kap 7 Lösungen a) Es ist < x, y > α + + β β ( + α) und y α + + β α + + ( + α) (α + α + ) 6 α + α, also α, ± 5 + ± 9 4 ± 3 Es gibt also Lösungen: α, β

Mehr

Die nummerierten Felder bitte mithilfe der Videos ausfüllen:

Die nummerierten Felder bitte mithilfe der Videos ausfüllen: 5 Optimale Regelung Zoltán Zomotor Versionsstand: 6. März 5, 9:8 Die nummerierten Felder bitte mithilfe der Videos ausfüllen: http://www.z5z6.de This work is licensed under the Creative Commons Attribution-NonCommercial-ShareAlike

Mehr

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn.

Kapitel 5. Eigenwerte. Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich der Produktion ist, d.h. wenn. Kapitel 5 Eigenwerte Josef Leydold Mathematik für VW WS 2016/17 5 Eigenwerte 1 / 42 Geschlossenes Leontief-Modell Ein Leontief-Modell für eine Volkswirtschaft heißt geschlossen, wenn der Konsum gleich

Mehr

Lineare Algebra II 8. Übungsblatt

Lineare Algebra II 8. Übungsblatt Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.

Mehr

Kapitel 3 Lineare Algebra

Kapitel 3 Lineare Algebra Kapitel 3 Lineare Algebra Inhaltsverzeichnis VEKTOREN... 3 VEKTORRÄUME... 3 LINEARE UNABHÄNGIGKEIT UND BASEN... 4 MATRIZEN... 6 RECHNEN MIT MATRIZEN... 6 INVERTIERBARE MATRIZEN... 6 RANG EINER MATRIX UND

Mehr

6. Übung: Zustandsregler- und beobachter

6. Übung: Zustandsregler- und beobachter 6. Übung: Zustandsregler- und beobachter Aufgabe 6.. Gegeben ist ein lineares zeitinvariantes System der Form 3 6 ẋ = 4 x + u (6.a) 5 y = x. (6.b) Weisen Sie die vollständige Erreichbarkeit und Beobachtbarkeit

Mehr

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1)

Eigenwerte. Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) Eigenwerte 1 Eigenwerte und Eigenvektoren Ein Eigenwert einer quadratischen n n Matrix A ist ein Skalar λ C (eine komplexe Zahl) mit der Eigenschaft Ax = λx (1) für einen Vektor x 0. Vektor x heißt ein

Mehr

Mathematik II Frühjahrssemester 2013

Mathematik II Frühjahrssemester 2013 Mathematik II Frühjahrssemester 213 Prof. Dr. Erich Walter Farkas Kapitel 7: Lineare Algebra Kapitel 7.5: Eigenwerte und Eigenvektoren einer quadratischen Matrix Prof. Dr. Erich Walter Farkas Mathematik

Mehr

Übungsskript Regelungstechnik 2

Übungsskript Regelungstechnik 2 Seite 1 von 11 Universität Ulm, Institut für Mess-, Regel- und Mikrotechnik Prof. Dr.-Ing. Klaus Dietmayer / Seite 2 von 11 Aufgabe 1 : In dieser Aufgabe sollen zeitdiskrete Systeme untersucht werden.

Mehr

Differentialgleichungen für Ingenieure WS 06/07

Differentialgleichungen für Ingenieure WS 06/07 Differentialgleichungen für Ingenieure WS 06/07 6. Vorlesung Michael Karow Themen heute: 1. Die geschlossene Lösungsformel für lineare DGL mit konstanten Koeffizienten. 2. Die Matrixexponentialfunktion

Mehr

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen

2. Dezember Lineare Algebra II. Christian Ebert & Fritz Hamm. Skalarprodukt, Norm, Metrik. Matrizen. Lineare Abbildungen Algebra und Algebra 2. Dezember 2011 Übersicht Algebra und Algebra I Gruppen & Körper Vektorräume, Basis & Dimension Algebra Norm & Metrik Abbildung & Algebra I Eigenwerte, Eigenwertzerlegung Singulärwertzerlegung

Mehr

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2012/2013

Aussagenlogik. Lehrstuhl für BWL, insb. Mathematik und Statistik Prof. Dr. Michael Merz Mathematik für Betriebswirte I Wintersemester 2012/2013 Aussagenlogik 1. Gegeben seien folgende Aussagen: A: 7 ist eine ungerade Zahl B: a + b < a + b, a, b R C: 2 ist eine Primzahl D: 7 7 E: a + 1 b, a, b R F: 3 ist Teiler von 9 Bestimmen Sie den Wahrheitswert

Mehr

Ausgewählte Lösungen zu den Übungsblättern 9-10

Ausgewählte Lösungen zu den Übungsblättern 9-10 Fakultät für Luft- und Raumfahrttechnik Institut für Mathematik und Rechneranwendung Vorlesung: Lineare Algebra (ME), Prof. Dr. J. Gwinner Dezember Ausgewählte Lösungen zu den Übungsblättern 9- Übungsblatt

Mehr

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist: Musterlösung Aufgabe a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [, ] R, die folgendermaßen definiert ist: f(x) := { für x R \ Q für x Q f ist offensichtlich beschränkt. Wir zeigen,

Mehr

tun, sondern nur mit der Reaktion auf verschiedene Anfangswerte.

tun, sondern nur mit der Reaktion auf verschiedene Anfangswerte. 2.3 Stabilität Eine wichtige Rolle spielt das Stabilitätsverhalten dynamischer Systeme. Wie üblich sei Φ die Fundamentalmatrix des linearen Systems ẋ = A(t)x + u. Im weiteren sei t fixiert, später wird

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

Lineare Algebra und analytische Geometrie II

Lineare Algebra und analytische Geometrie II Prof. Dr. H. Brenner Osnabrück SS 2016 Lineare Algebra und analytische Geometrie II Vorlesung 53 Norm von Endomorphismen und Matrizen Definition 53.1. Es seien V und W endlichdimensionale normierte K-

Mehr

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen

12 Lineare Algebra - Übersicht. Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen 12 Lineare Algebra - Übersicht Themen: Unterräume Lineare Abbbildungen Gauß-Algorithmus Eigenwerte und Normalformen Unterräume Sei X ein Vektorraum über Ã. Eine Teilmenge M X heißt Unterraum von X, wenn

Mehr

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren

Mathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren Mathematik II Frühlingsemester 215 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren www.math.ethz.ch/education/bachelor/lectures/fs215/other/mathematik2 biol Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/

Mehr

29.2 Lineare Differentialgleichungssysteme mit konstanten Koeffizienten Wir betrachten das homogene System. y = A y, t R, (1)

29.2 Lineare Differentialgleichungssysteme mit konstanten Koeffizienten Wir betrachten das homogene System. y = A y, t R, (1) 292 Lineare Differentialgleichungssysteme mit konstanten Koeffizienten Wir betrachten das homogene System y = A y, t R, ( wobei A C n n, und wollen ein Fundamentalsystem bestimmen Grundlegende Beobachtung:

Mehr

Seminar Gewöhnliche Differentialgleichungen

Seminar Gewöhnliche Differentialgleichungen Seminar Gewöhnliche Differentialgleichungen Dynamische Systeme I 1 Einleitung 1.1 Nichtlineare Systeme In den vorigen Vorträgen haben wir uns mit linearen Differentialgleichungen beschäftigt. Nun werden

Mehr

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2

BC 1.2 Mathematik WS 2016/17. BC 1.2 Mathematik Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra. b 2 Zusammenfassung Kapitel II: Vektoralgebra und lineare Algebra 1 Vektoralgebra 1 Der dreidimensionale Vektorraum R 3 ist die Gesamtheit aller geordneten Tripel (x 1, x 2, x 3 ) reeller Zahlen Jedes geordnete

Mehr

Lösung zu Serie [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich:

Lösung zu Serie [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich: Lineare Algebra D-MATH, HS 04 Prof. Richard Pink Lösung zu Serie. [Aufgabe] Faktorisieren Sie die folgenden Polynome so weit wie möglich: a) F (X) := X 5 X in R[X] und C[X]. b) F (X) := X 4 +X 3 +X in

Mehr

4 Lineare Algebra (Teil 2): Quadratische Matrizen

4 Lineare Algebra (Teil 2): Quadratische Matrizen 4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,

Mehr

Alle Vektoren sind hier Spaltenvektoren. Eine Matrix besteht aus nebeneinandergeschrie-

Alle Vektoren sind hier Spaltenvektoren. Eine Matrix besteht aus nebeneinandergeschrie- 1 Vorbemerkungen Alle Vektoren sind hier Spaltenvektoren. Eine Matrix besteht aus nebeneinandergeschrie- benen Vektoren. Wird die Matrix A = ( a 1,..., a n ) mit dem Vektor c = c 1. c n multipliziert,

Mehr

SYNTHESE LINEARER REGELUNGEN

SYNTHESE LINEARER REGELUNGEN Synthese Linearer Regelungen - Formelsammlung von 8 SYNTHESE LINEARER REGELUNGEN FORMELSAMMLUNG UND MERKZETTEL INHALT 2 Grundlagen... 2 2. Mathematische Grundlagen... 2 2.2 Bewegungsgleichungen... 2 2.3

Mehr

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema

1 Lineare Algebra. 1.1 Matrizen und Vektoren. Slide 3. Matrizen. Eine Matrix ist ein rechteckiges Zahlenschema 1 Lineare Algebra 1.1 Matrizen und Vektoren Slide 3 Matrizen Eine Matrix ist ein rechteckiges Zahlenschema eine n m-matrix A besteht aus n Zeilen und m Spalten mit den Matrixelementen a ij, i=1...n und

Mehr

P AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3

P AP 1 = D. A k = P 1 D k P. = D k. mit P 0 3 Matrixpotenzen In Anwendungen müssen oft hohe Potenzen einer quadratischen Matrix berechnet werden Ist die Matrix diagonalisierbar, dann kann diese Berechnung wie folgt vereinfacht werden Sei A eine diagonalisierbare

Mehr

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren

Kapitel 1. Vektoren und Matrizen. 1.1 Vektoren Kapitel 1 Vektoren und Matrizen In diesem Kapitel stellen wir die Hilfsmittel aus der linearen Algebra vor, die in den folgenden Kapiteln öfters benötigt werden. Dabei wird angenommen, dass Sie die elementaren

Mehr

Fortgeschrittene Mathematik Raum und Funktionen

Fortgeschrittene Mathematik Raum und Funktionen Fortgeschrittene Mathematik Raum und Funktionen Thomas Zehrt Universität Basel WWZ Thomas Zehrt (Universität Basel WWZ) R n und Funktionen 1 / 33 Outline 1 Der n-dimensionale Raum 2 R 2 und die komplexen

Mehr

Analyse und Entwurf von Mehrgrößenregelung im Frequenzbreich

Analyse und Entwurf von Mehrgrößenregelung im Frequenzbreich Fakultät Elektrotechnik und Informationstechnik Institut für Regelungs - und Steuerungstheorie Prof Dr-Ing habil Dipl Math Klaus Röbenack Analyse und Entwurf von Mehrgrößenregelung im Frequenzbreich Prof

Mehr

Lösung zum Übungsblatt - Steuerbarkeit und Beobachtbarkeit

Lösung zum Übungsblatt - Steuerbarkeit und Beobachtbarkeit Prof. Dr.-Ing. Jörg Raisch Dr.-Ing. Thomas Seel Fachgebiet Regelungssysteme Fakultät IV Elektrotechnik und Informatik Technische Universität Berlin Integrierte Veranstaltung Mehrgrößenregelsysteme Aufgabe

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

40 Lokale Extrema und Taylor-Formel

40 Lokale Extrema und Taylor-Formel 198 VI. Differentialrechnung in mehreren Veränderlichen 40 Lokale Extrema und Taylor-Formel Lernziele: Resultate: Satz von Taylor und Kriterien für lokale Extrema Methoden aus der linearen Algebra Kompetenzen:

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 009 Dienstag 3.6 $Id: quadrat.tex,v.4 009/06/3 4:55:47 hk Exp $ 6 Symmetrische Matrizen und quadratische Formen 6.3 Quadratische Funktionen und die Hauptachsentransformation

Mehr

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni.

Lineare Algebra II. Prof. Dr. M. Rost. Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni. Lineare Algebra II Prof. Dr. M. Rost Übungen Blatt 7 (SS 2011) Abgabetermin: Donnerstag, 2. Juni http://www.math.uni-bielefeld.de/~rost/la2 Erinnerungen, Ergänzungen und Vorgriffe zur Vorlesung: Eigenvektoren

Mehr

Hilfsblätter Lineare Algebra

Hilfsblätter Lineare Algebra Hilfsblätter Lineare Algebra Sebastian Suchanek unter Mithilfe von Klaus Flittner Matthias Staab c 2002 by Sebastian Suchanek Printed with L A TEX Inhaltsverzeichnis 1 Vektoren 1 11 Norm 1 12 Addition,

Mehr

4.5 Lokale Extrema und die Hessesche Form

4.5 Lokale Extrema und die Hessesche Form 80 Kapitel 4. Differentialrechnung in mehreren Variablen 4.5 Lokale Extrema und die Hessesche Form Sei ab jetzt U R n offen und f:u R eine Funktion. Unter einem lokalen Extremum der Funktion f verstehen

Mehr

y (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x)

y (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x) 9 Ausgleichsrechnung 9.1 Problemstelllung Eine Reihe von Experimenten soll durchgeführt werden unter bekannten Versuchsbedingungen z Ê m. Es sollen Größen x Ê n bestimmt werden, für die ein Gesetz gelten

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 7

Technische Universität München Zentrum Mathematik. Übungsblatt 7 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 7 Hausaufgaben Aufgabe 7. Für n N ist die Matrix-Exponentialfunktion

Mehr

3 Lineare Algebra Vektorräume

3 Lineare Algebra Vektorräume 3 Lineare Algebra Vektorräume (31) Sei K ein Körper Eine kommutative Gruppe V bzgl der Operation + ist ein Vektorraum über K, wenn eine Operation : K V V (λ, v) λv existiert mit i) v,w V λ,µ K: λ (v +

Mehr

MC-Serie 11: Eigenwerte

MC-Serie 11: Eigenwerte D-ERDW, D-HEST, D-USYS Mathematik I HS 14 Dr. Ana Cannas MC-Serie 11: Eigenwerte Einsendeschluss: 12. Dezember 2014 Bei allen Aufgaben ist genau eine Antwort richtig. Lösens des Tests eine Formelsammlung

Mehr

Ökonometrische Analyse

Ökonometrische Analyse Institut für Statistik und Ökonometrie, Freie Universität Berlin Ökonometrische Analyse Dieter Nautz, Gunda-Alexandra Detmers Rechenregeln für Matrizen Notation und Matrixeigenschaften: Eine Matrix A der

Mehr

1 Singulärwertzerlegung und Pseudoinverse

1 Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese

Mehr

Lineare Algebra. 12. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching

Lineare Algebra. 12. Übungsstunde. Steven Battilana. stevenb student.ethz.ch battilana.uk/teaching Lineare Algebra 12. Übungsstunde Steven Battilana stevenb student.ethz.ch battilana.uk/teaching December 14, 2017 1 Erinnerung: Determinanten, Orthogonale/unitäre Matrizen Sei A R 2 2, dann kann die Inverse

Mehr

ETH Zürich Analysis I Zwischenprüfung Winter 2014 D-BAUG Musterlösungen Dr. Meike Akveld

ETH Zürich Analysis I Zwischenprüfung Winter 2014 D-BAUG Musterlösungen Dr. Meike Akveld ETH Zürich Analysis I Zwischenprüfung Winter 2014 D-BAUG Musterlösungen Dr. Meike Akveld Bitte wenden! 1. Die unten stehende Figur wird beschrieben durch... (a) { (x, y) R 2 x + y 1 }. Richtig! (b) { (x,

Mehr

Tutorium Mathematik II, M Lösungen

Tutorium Mathematik II, M Lösungen Tutorium Mathematik II, M Lösungen März 03 *Aufgabe Bestimmen Sie durch Hauptachsentransformation Lage und Typ der Kegelschnitte (a) 3x + 4x x + 3x 4x = 0, (b) 3x + 4x x + 3x 4x 6 = 0, (c) 3x + 4x x +

Mehr

Zeigen sie, dass das gegebene Zustandssystem steuerbar ist. Die Anwendbarkeit der beiden Kriterien wird im Folgenden an dem gegebenen System gezeigt.

Zeigen sie, dass das gegebene Zustandssystem steuerbar ist. Die Anwendbarkeit der beiden Kriterien wird im Folgenden an dem gegebenen System gezeigt. Priv.-Doz. G. Reißig, F. Goßmann M.Sc Universität der Bundeswehr München Institut für Steuer- und Regelungstechnik (LRT-5) Email: felix.gossmann@unibw.de Moderne Methoden der Regelungstechnik, HT 26 Übung

Mehr

KLAUSUR zur Numerik I mit Lösungen. Aufgabe 1: (10 Punkte) [ wahr falsch ] 1. Die maximale Ordnung einer s-stufigen Quadraturformel ist s 2.

KLAUSUR zur Numerik I mit Lösungen. Aufgabe 1: (10 Punkte) [ wahr falsch ] 1. Die maximale Ordnung einer s-stufigen Quadraturformel ist s 2. MATHEMATISCHES INSTITUT PROF. DR. ACHIM SCHÄDLE 9.8.7 KLAUSUR zur Numerik I mit Lösungen Aufgabe : ( Punkte) [ wahr falsch ]. Die maximale Ordnung einer s-stufigen Quadraturformel ist s. [ ]. Der Clenshaw

Mehr

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink

Lösung zu Serie 18. Lineare Algebra D-MATH, HS Prof. Richard Pink Lineare Algebra D-MATH, HS 201 Prof. Richard Pink Lösung zu Serie 18 1. Sei V,, ein endlich-dimensionaler unitärer Vektorraum. Zeige, dass zu jeder Sesquilinearform f : V V C eine eindeutige lineare Abbildung

Mehr

Rückblick auf die letzte Vorlesung

Rückblick auf die letzte Vorlesung Rückblick auf die letzte Vorlesung Lineare Differentialgleichungen Ausblick auf die heutige Vorlesung Lineare autonome Differentialgleichungen 2 Bestimmung des Fundamentalsystems 3 Jordansche Normalform

Mehr

Grundlagen der Mathematik 2 Nachklausur

Grundlagen der Mathematik 2 Nachklausur Andreas Gathmann und Yue Ren Sommersemester 6 Grundlagen der Mathematik Nachklausur Bearbeitungszeit: 8 Minuten Aufgabe (6 Punkte): Es sei f : R R, (x,y) xye (x+y). (a) Bestimme alle lokalen Maxima und

Mehr

7 Lineare Abbildungen und Skalarprodukt

7 Lineare Abbildungen und Skalarprodukt Mathematik II für inf/swt, Sommersemester 22, Seite 121 7 Lineare Abbildungen und Skalarprodukt 71 Vorbemerkungen Standard Skalarprodukt siehe Kap 21, Skalarprodukt abstrakt siehe Kap 34 Norm u 2 u, u

Mehr

Zusammenfassung und Beispiellösungen. zur Linearen Algebra

Zusammenfassung und Beispiellösungen. zur Linearen Algebra Zusammenfassung und Beispiellösungen zur Linearen Algebra Inhaltsverzeichnis TI Taschenrechner Funktionen für Matrizen... n*m Matrix... Diagonal und Dreiecksmatrix... Transponierte der Matrix A (AT)...

Mehr

BSc PRÜFUNGSBLOCK 2 / D-MAVT VORDIPLOMPRÜFUNG / D-MAVT. Musterlösung

BSc PRÜFUNGSBLOCK 2 / D-MAVT VORDIPLOMPRÜFUNG / D-MAVT. Musterlösung Institut für Mess- und Regeltechnik BSc PRÜFUNGSBLOCK / D-MAVT.. 005. VORDIPLOMPRÜFUNG / D-MAVT REGELUNGSTECHNIK I Musterlösung Dauer der Prüfung: Anzahl der Aufgaben: Bewertung: Zur Beachtung: Erlaubte

Mehr

Regelungstechnik I (WS 12/13) Klausur ( )

Regelungstechnik I (WS 12/13) Klausur ( ) Regelungstechnik I (WS 12/13) Klausur (05.03.2013) Prof. Dr. Ing. habil. Thomas Meurer Lehrstuhl für Regelungstechnik Name: Matrikelnummer: Bitte beachten Sie: a) Diese Klausur enthält 4 Aufgaben auf den

Mehr

Eigenwerte und Eigenvektoren

Eigenwerte und Eigenvektoren Eigenwerte und Eigenvektoren Siehe Analysis (von der Hude, Folie 20: Definition 2.3. Ein Vektor x R n heißt Eigenvektor der quadratischen n n-matrix A zum Eigenwert λ R, wenn gilt Ax = λx Die Eigenwerte

Mehr

Entwurf robuster Regelungen

Entwurf robuster Regelungen Entwurf robuster Regelungen Kai Müller Hochschule Bremerhaven Institut für Automatisierungs- und Elektrotechnik z P v K Juni 25 76 5 OPTIMALE ZUSTANDSREGELUNG 5 Optimale Zustandsregelung Ein optimaler

Mehr

Beispiele. Grundlagen. Kompakte Operatoren. Regularisierungsoperatoren

Beispiele. Grundlagen. Kompakte Operatoren. Regularisierungsoperatoren Beispiele Grundlagen Kompakte Operatoren Regularisierungsoperatoren Transportgleichung Dierenzieren ( nx ) (f δ n ) (x) = f (x) + n cos, x [0, 1], δ Regularisierung!! Inverse Wärmeleitung Durc f (f δ n

Mehr

Lineare Algebra 1. Roger Burkhardt

Lineare Algebra 1. Roger Burkhardt Lineare Algebra 1 Roger Burkhardt roger.burkhardt@fhnw.ch Fachhochschule Nordwestschweiz Hochschule für Technik Institut für Geistes- und Naturwissenschaft HS 2010/11 3 und lineare Gleichungssysteme und

Mehr

Exponentialabbildung für Matrizen und Systeme von Differentialgleichungen

Exponentialabbildung für Matrizen und Systeme von Differentialgleichungen Proseminar Lineare Algebra SS10 Exponentialabbildung für Matrizen und Systeme von Differentialgleichungen Simon Strahlegger Heinrich-Heine-Universität Betreuung: Prof. Dr. Oleg Bogopolski Inhaltsverzeichnis:

Mehr

Systeme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1.

Systeme von Differentialgleichungen. Beispiel 1: Chemische Reaktionssysteme. Beispiel 2. System aus n Differentialgleichungen 1. Ordnung: y 1. Systeme von Differentialgleichungen Beispiel : Chemische Reaktionssysteme System aus n Differentialgleichungen Ordnung: y (x = f (x, y (x,, y n (x Kurzschreibweise: y y 2 (x = f 2(x, y (x,, y n (x y n(x

Mehr

Kommentierte Musterlösung zur Klausur HM II für Naturwissenschaftler

Kommentierte Musterlösung zur Klausur HM II für Naturwissenschaftler Kommentierte Musterlösung zur Klausur HM II für Naturwissenschaftler Sommersemester 23 (5.8.23). Gegeben seien die Matrizen A = 2 3 3 und B = 5 2 5 (a) Bestimmen Sie die Eigenwerte von A und B sowie die

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Iterative Verfahren, Splittingmethoden

Iterative Verfahren, Splittingmethoden Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem

Mehr

Stroppel Musterlösung , 180min. Aufgabe 1 (7 Punkte) Gegeben seien folgende Potenzreihen: ( 2) n n xn,

Stroppel Musterlösung , 180min. Aufgabe 1 (7 Punkte) Gegeben seien folgende Potenzreihen: ( 2) n n xn, Stroppel Musterlösung 0. 09. 03, 80min Aufgabe 7 Punkte) Gegeben seien folgende Potenzreihen: ) n fx) = n xn, gx) = n= + ) n n x+) n. 3 n= a) Bestimmen Sie jeweils den Konvergenzradius und den Entwicklungspunkt.

Mehr

Lösungsskizzen zur Klausur

Lösungsskizzen zur Klausur sskizzen zur Klausur Mathematik II Sommersemester 4 Aufgabe Es seien die folgenden Vektoren des R 4 gegeben: b = b = b 3 = b 4 = (a) Prüfen Sie ob die Vektoren b b 4 linear unabhängig sind bestimmen Sie

Mehr

Name: Vorname(n): Kenn und Matrikelnummer: Aufgabe erreichbare Punkte erreichte Punkte

Name: Vorname(n): Kenn und Matrikelnummer: Aufgabe erreichbare Punkte erreichte Punkte Johannes Kepler Universität Linz, Institut für Regelungstechnik und elektrische Antriebe Schriftliche Prüfung aus Automatisierungstechnik, Vorlesung am 06. Mai 2005 Name: Vorname(n): Kenn und Matrikelnummer:

Mehr

Analysis von singulären Differentialgleichungen erster und zweiter Ordnung - Skalare Probleme

Analysis von singulären Differentialgleichungen erster und zweiter Ordnung - Skalare Probleme Analysis von singulären Differentialgleichungen erster und zweiter Ordnung - Skalare Probleme Jonathan Mosser 3. Juni 27 / 38 Vorbemerkungen Singularität Singuläre Probleme können auf zwei Arten formuliert

Mehr

8. Vorlesung, 5. April Numerische Methoden I. Eigenwerte und Eigenvektoren

8. Vorlesung, 5. April Numerische Methoden I. Eigenwerte und Eigenvektoren 8. Vorlesung, 5. April 2017 170 004 Numerische Methoden I Eigenwerte und Eigenvektoren 1 Eigenwerte und Eigenvektoren Gegeben ist eine n n-matrix A. Gesucht sind ein vom Nullvektor verschiedener Vektor

Mehr

6 Die Schursche Normalform und einige Klassen von Matrizen

6 Die Schursche Normalform und einige Klassen von Matrizen ME Lineare Algebra HT 28 111 6 Die Schursche Normalform und einige Klassen von Matrizen 61 Die Schur-Normalform und Hauptvektoren Für nichtdiagonalisierbare Matrizen gibt es andere Normalformen: Jordan-

Mehr

Darstellungsformeln für die Lösung von parabolischen Differentialgleichungen

Darstellungsformeln für die Lösung von parabolischen Differentialgleichungen Kapitel 8 Darstellungsformeln für die Lösung von parabolischen Differentialgleichungen Wir hatten im Beispiel 5. gesehen, dass die Wärmeleitungsgleichung t u u = f auf Ω (0, ) (8.1) eine parabolische Differentialgleichung

Mehr

Matrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle

Matrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle 2. Matrixalgebra Warum Beschäftigung mit Matrixalgebra? Matrizen spielen bei der Formulierung ökonometrischer Modelle eine zentrale Rolle: kompakte, stringente Darstellung der Modelle bequeme mathematische

Mehr

Computer Vision I. Nikos Canterakis. Lehrstuhl für Mustererkennung, Universität Freiburg

Computer Vision I. Nikos Canterakis. Lehrstuhl für Mustererkennung, Universität Freiburg Nikos Canterakis Lehrstuhl für Mustererkennung, Universität Freiburg Gliederung 5 Quadriken Polarität Transformationen Klassifikation von Quadriken Geraden in Regelquadriken Die kubische Wendelinie (twisted

Mehr

Proseminar Lineare Algebra II, SS 11. Blatt

Proseminar Lineare Algebra II, SS 11. Blatt Blatt 1 1. Berechnen Sie die Determinante der Matrix 0 0 4 1 2 5 1 7 1 2 0 3 1 3 0 α. 2. Stellen Sie folgende Matrix als Produkt von Elementarmatrizen dar: 1 3 1 4 2 5 1 3 0 4 3 1. 3 1 5 2 3. Seien n 2

Mehr

KAPITEL 8. Normalformen. 1. Blockmatrizen. ,C K m 2 n 1. X = K (m 1+m 2 ) (n 1 +n 2 ) K L. und Y = M N Blockmatrizen mit.

KAPITEL 8. Normalformen. 1. Blockmatrizen. ,C K m 2 n 1. X = K (m 1+m 2 ) (n 1 +n 2 ) K L. und Y = M N Blockmatrizen mit. KAPITEL 8 Normalformen Definition 8.1 (Blockmatrizen). Sind 1. Blockmatrizen A K m 1 n 1,B K m 1 n 2,C K m 2 n 1 und D K m 2 n 2 so nennet man die Matrix X = ( A B C D ) K (m 1+m 2 ) (n 1 +n 2 ) eine Blockmatrix

Mehr

Das Additionstheorem für die Weierstrass sche -Funktion und elliptische Integrale. Peychyn Lai

Das Additionstheorem für die Weierstrass sche -Funktion und elliptische Integrale. Peychyn Lai Das Additionstheorem für die Weierstrass sche -Funktion und elliptische Integrale Peychyn Lai 10. Oktober 2007 1 Einleitung Wir haben im letzten Vortrag die Weierstrass sche -Funktion kennengelernt, die

Mehr

Seite 1. sin 2 x dx. b) Berechnen Sie das Integral. e (t s)2 ds. (Nur Leibniz-Formel) c) Differenzieren Sie die Funktion f(t) = t. d dx ln(x + x3 ) dx

Seite 1. sin 2 x dx. b) Berechnen Sie das Integral. e (t s)2 ds. (Nur Leibniz-Formel) c) Differenzieren Sie die Funktion f(t) = t. d dx ln(x + x3 ) dx Seite Aufgabe : a Berechnen Sie das Integral b Berechnen Sie das Integral +x x+x dx. π sin x dx. c Differenzieren Sie die Funktion ft = t e t s ds. Nur Leibniz-Formel a + x x + x dx = d dx lnx + x dx =

Mehr

Theoretische Fragen zu ausgewählten Themen in Lineare Algebra

Theoretische Fragen zu ausgewählten Themen in Lineare Algebra Theoretische Fragen zu ausgewählten Themen in Lineare Algebra { Oren Halvani, Jonathan Weinberger } TU Darmstadt 25. Juni 2009 Inhaltsverzeichnis 1 Determinanten................................................

Mehr

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom

Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eigenwerte, Diagonalisierbarkeit, charakteristisches Polynom Eine Fragestellung, die uns im weiteren beschäftigen wird, ist das Finden eines möglichst einfachen Repräsentanten aus jeder Äquivalenzklasse

Mehr

Übungen zur Vorlesung Einführung in Dynamische Systeme Musterlösungen zu Aufgabenblatt 4

Übungen zur Vorlesung Einführung in Dynamische Systeme Musterlösungen zu Aufgabenblatt 4 Prof. Roland Gunesch Sommersemester Übungen zur Vorlesung Einführung in Dynamische Systeme Musterlösungen zu Aufgabenblatt 4 Analysieren Sie folgende mathematischen Modelle der Liebesbeziehung zwischen

Mehr

1.11 Eigenwertproblem Anwendungen von Eigenwerten und Eigenvektoren Lineare Rekursionen Lineare Differentialgleichungssysteme Bestimmung von

1.11 Eigenwertproblem Anwendungen von Eigenwerten und Eigenvektoren Lineare Rekursionen Lineare Differentialgleichungssysteme Bestimmung von 1.11 Eigenwertproblem Anwendungen von Eigenwerten und Eigenvektoren Lineare Rekursionen Lineare Differentialgleichungssysteme Bestimmung von Wachstumsraten Bestimmung von Maximal- und Minimalwerten von

Mehr

Eigenwerte und Eigenvektoren von Matrizen

Eigenwerte und Eigenvektoren von Matrizen Eigenwerte und Eigenvektoren von Matrizen Das Eigenwertproblem Sei A eine quadratische Matrix vom Typ m,m. Die Aufgabe, eine Zahl λ und einen dazugehörigen Vektor x zu finden, damit Ax = λx ist, nennt

Mehr

Hauptachsentransformation: Eigenwerte und Eigenvektoren

Hauptachsentransformation: Eigenwerte und Eigenvektoren Hauptachsentransformation: Eigenwerte und Eigenvektoren die bisherigen Betrachtungen beziehen sich im Wesentlichen auf die Standardbasis des R n Nun soll aufgezeigt werden, wie man sich von dieser Einschränkung

Mehr

2.11 Eigenwerte und Diagonalisierbarkeit

2.11 Eigenwerte und Diagonalisierbarkeit 2.11. EIGENWERTE UND DIAGONALISIERBARKEIT 127 Die Determinante eines Endomorphismus Wir geben uns jetzt einen endlichen erzeugten K-Vektorraum V und einen Endomorphismus ϕ : V V vor. Wir wollen die Determinante

Mehr