Grundlagen der Systemanalyse

Größe: px
Ab Seite anzeigen:

Download "Grundlagen der Systemanalyse"

Transkript

1 Grundlagen der Systemanalyse 1 Grundlagen der Systemanalyse Heraklit von Ephesos ( v. Chr.): πάντα `ρε ι panta rhei (alles fließt) Die Naturwissenschaften begreifen unsere Welt als ein dynamisches System. Um diese Welt beschreiben und analysieren zu können, haben sie das System Welt in immer kleinere Teilsysteme unterteilt. Die daraus resultierenden Gebilde wiederum Systeme wurden dadurch für den menschlichen Geist analysierbar. In den meisten Fällen stützt sich diese Analyse auf mathematische Methoden. Deshalb handelt die Systemanalyse von der Beschreibung von (Teil-) Systemen unserer Welt mit den Mitteln der Mathematik. 1 Was ist ein System? Das Wort System kommt aus dem Griechischen systema und bedeutet Zusammenstellung bzw. geordnetes Ganzes. Im Sinne der Systemtheorie (Ludwig von Bertalanffy, ; Norbert Wiener, ) versteht man unter einem System eine gegebene Menge von Objekten (Systemkomponenten), zwischen denen Beziehungen (Relationen) bestehen. Die Menge dieser Beziehungen definiert die Struktur des Systems. Ein System ist durch seine Systemgrenzen von der Umgebung getrennt, die Wahl der Systemgrenzen hängt jedoch von der Fragestellung ab. Die Systemkomponenten selbst können ihrerseits wieder Systeme sein: Der Systembegriff ist also rekursiv verwendbar. Hinsichtlich der Beziehungen eines Systems zu seiner Umgebung unterscheidet man: Isolierte Systeme (es werden weder Energie noch Materie und damit auch keine Information vom System aufgenommen oder abgegeben). Solche Systeme treten als Idealisierung z.b. in der klassischen Thermodynamik auf. Geschlossene Systeme (nur Energie-, jedoch kein Materieaustausch mit der Umgebung). Offene Systeme (Energie und Materie kann mit der Umgebung ausgetauscht werden). Lebende Systeme sind offene Systeme, die zur Aufrechterhaltung der Lebensfunktionen auf den Energie- und Materieaustausch mit der Umgebung angewiesen sind.

2 Grundlagen der Systemanalyse 2 Eingangsgrößen Größen, die von außen auf ein System einwirken, ohne daß sie selbst vom System beeinflußt werden Ausgangsgrößen (Verhaltensgrößen) Im Zeitverlauf beobachtbare Entwicklung des Systems Reaktion des Systems auf Veränderungen der Umwelt Zustandsgrößen (Zustandsvariablen) Beschreiben den Systemzustand zu jedem Zeitpunkt vollständig und erfüllen folgende Eigenschaften: Unabhängigkeit: Keine Zustandsgröße läßt sich aus einer Kombination anderer Zustandsgrößen ableiten. Minimalität: Jede Zustandsgröße ist für die Beschreibung notwendig. Die Anzahl der Zustandsgrößen heißt die Dimensionalität des Systems. Die Zustandsvariablen bilden das Gedächtnis des Systems. Zustandsänderungen Können von außen (durch veränderten Input) oder von innen (durch Rückkopplungen) verursacht werden (Rückkopplung kann, unabhängig vom Input, charakteristisches Systemverhalten, z.b. Oszillationen, verursachen) Die unmittelbare Beobachtung von Zustandsänderungen läßt i.a. keinen Rückschluß auf die Zustandsgrößen des Systems zu (vgl. Badewanne mit Zufluß und Abfluß, Zustandsgröße ist z.b. der momentane Wasserstand). Systemparameter Größen innerhalb des Systems, deren Entwicklung unabhängig vom System erfolgt Entweder konstant oder Funktionen der Zeit z.b. physikalische Konstanten oder Alterung von Systemkomponenten In der Systemanalyse geht es um die Untersuchung der Struktur, des Verhaltens und der (zeitlichen) Entwicklung von Systemen. Während das Verhalten eines Systems direkt beobachtbar ist, entzieht sich die Struktur eines Systems oft der unmittelbaren Beobachtung: Problem des Rückschlusses vom Systemverhalten auf die Systemstruktur (Lösung: Vereinfachte Abbildung des Systems durch ein Modell).

3 Grundlagen der Systemanalyse 3 2 Was ist ein Modell? Viele reale Systeme sind sehr komplex. Um solche Systeme zu analysieren, muß man sie zuerst irgendwie vereinfacht darstellen, sei es als verbale Beschreibung, als Zeichnung, Funktionsschema oder als mathematische Gleichung. Eine solche vereinfachte Darstellung eines wirklichen Systems, wobei wichtige Eigenschaften erhalten bleiben sollen, heißt Modell. Im antiken Rom nannte man die verkleinerte Nachbildung eines Gebäudes modulus, wovon sich unser heutiges Wort Modell ableitet. Ein Modell dient dazu, das System (besser) zu verstehen, sein Verhalten vorherzusagen oder zu kontrollieren und um Untersuchungen zu ermöglichen, die am realen System zu aufwendig, zu teuer oder zu gefährlich wären bzw. aus ethischen Gründen abzulehnen sind. An einem Modell können nämlich relativ leicht Veränderungen vorgenommen und deren Auswirkungen untersucht werden und damit Informationen gewonnen werden, die im realen System nicht direkt zugänglich sind. Abhängig von der Betrachtungsweise oder der Fragestellung werden bei der Modellbildung gewisse Systemeigenschaften berücksichtigt und andere vernachlässigt es kann daher für ein und dasselbe System völlig verschiedene Modelle geben. Jedes Modell ist nur eine beschränkt gültige Abbildung der Realität. Die Nachbildung des dynamischen Verhaltens eines Systems mit Hilfe von Modellen wird als Simulation bezeichnet ( Experimentieren mit einem Modell ). Ziel von Systemanalyse, Modellbildung und Simulation ist es, eine zuverlässige, stellvertretende Verhaltensbeschreibung eines realen Systems zu erhalten. Bei der Vorgangsweise unterscheidet man zwischen der datengetriebenen auch induktiven, deskriptiven, verhaltensbeschreibenden oder statistischen Methode, die oft in den Sozial- und Wirtschaftswissenschaften angewendet wird und der prozessgetriebenen auch deduktiven, strukturtreuen oder verhaltenserklärenden Methode, wie sie typischerweise in den Natur- und Ingenieurwissenschaften eingesetzt wird. Statistische Modelle beschreiben also den Zusammenhang zwischen Umwelteinwirkung (Input) und Systemverhalten (Output) nur durch eine geeignete mathematische Beziehung, wohingegen bei verhaltenserklärenden Modellen versucht wird, die verhaltensbestimmende Struktur des Systems richtig zu erfassen. Jedenfalls: Ohne Systemanalyse kein mathematisches Modell! Ohne mathematisches Modell keine Computersimulation!

4 Grundlagen der Systemanalyse 4 3 Exkurs: Physiologische Systeme Physiologische Systeme finden sich auf der Ebene der Moleküle (z.b. Proteinsynthese, Proteinfaltung), der Zellen (z.b. Muskelzelle), der Organe (z.b. Herz) und der Funktionssysteme (z.b. Herz-Kreislauf-System) bis hin zum Gesamtorganismus. Physiologische Systeme sind überwiegend komplexe, offene, hierarchisch organisierte, mehr oder weniger zeitvariante Systeme. Der Grad der Komplexität hängt davon ab, welche Beziehungen mit anderen Systemen berücksichtigt werden, und welche Betrachtungstiefe zu Grunde gelegt wird. Bei offenen Systemen ist stationäres (d.h. zeitunabhängiges) Verhalten nur im Sinne eines Fließgleichgewichtes erreichbar. Beispielsweise ist man in der Physiologie des Menschen mit einem räumlichen Größenbereich von 1 9 (von einem Nanometer dem Durchmesser eines Ionenkanals bis zu einem Meter) und einer Zeitskala von 1 15 (von einer Mikrosekunde, das ist z.b. die Zeit, die ein Ion etwa braucht, um einen Ionenkanal zu durchqueren [21], bis zum Lebensalter eines Menschen von etwa 7 Jahren 1 9 Sekunden) konfrontiert [1,11]. Diese großen Raum- und Zeitskalen können nicht durch ein einziges Modell abgedeckt werden: Die Schwierigkeit bei solchen Systemen besteht vor allem darin, mathematische Modelle der Struktur/Funktions-Beziehungen für jeweils begrenzte Raum- und Zeitbereiche zu entwickeln und damit die Parameter für einen Bereich auf die detailliertere Beschreibung der darunterliegenden Bereiche zurückzuführen (Modell-Hierarchie). 4 Modellbildung in der Physiologie Die wichtigsten Schritte bei der Modellbildung: 1. Analyse des physiologsichen Systems (theoretische Analyse) 2. Festlegung des Zweckes, dem das Modell dienen soll 3. Reduzierung des physiologischen Systems im Sinne der Aufgabenstellung 4. Mathematische Beschreibung und Simulation des reduzierten physiologischen Systems 5. Identifikation (Bestimmung) der Modellstruktur und der Modellparameter (experimentelle Analyse) 6. Validierung des Modells (empirische Gültigkeitsprüfung)

5 Grundlagen der Systemanalyse Analyse des physiologischen Systems Für die Modellbildung ist es zweckmäßig, das Gesamtsystem zunächst in Teilsysteme aufzuteilen: Man geht von jenen Teilprozessen und -strukturen aus, die hinreichend aufgeklärt sind und versucht, sie widerspruchsfrei in eine Beschreibung des Gesamtsystems zu integrieren. Das dafür erforderliche Wissen liegt häufig in Form von Publikationen vor (deren Zusammenhang mit der eigenen Aufgabe sich nicht immer auf den ersten Blick offenbart). 4.2 Zweck des Modells Modelle sind immer auch Werkzeuge, die für einen bestimmten Zweck eingesetzt werden sollen: Überprüfung einer Hypothese durch den Versuch einer Falsifizierung (Widerlegung): Vergleich der durch Simulation gewonnenen Ergebnisse mit experimentell ermittelten Daten (z.b. diffusiver vs. aktiver Transport) Darstellung von nicht direkt beobachtbaren Systemgrößen (z.b. intrazelluläre Konzentrationen von Arzneimitteln) Einschränkung von Tierversuchen Darstellung pathophysiologischen Verhaltens: Pathologische Faktoren können systematisch in ihrer Auswirkung auf das Systemverhalten untersucht werden (z.b. Stenosen). Es ist wichtig, zunächst den Anwendungszweck zu betrachten, da dieser den Typ des Modells, die Genauigkeitsanforderungen und die Identifikationsmethode festlegt. 4.3 Reduzierung des physiologischen Systems Reduzierung bedeutet hier die Einschränkung des Grades an Komplexität, d.h.: Entkopplung von anderen Systemen, soweit dies im Sinne der Fragestellung zulässig ist: Nur bestimmte Wechselwirkungen zwischen dem betrachteten System und der Umgebung werden als relevant ausgewählt und im Modell berücksichtigt. Reduzierung der Betrachtungstiefe (und damit oft der Anzahl der Zustandsgrößen, die zur Beschreibung des Systemverhaltens notwendig sind) Nichtlinearitäten (Linearisierung)

6 Grundlagen der Systemanalyse 6 Zeitabhängigkeit (Quasi-Stationarität) Konstantsetzen solcher Variablen, die das Verhalten des Gesamtsystems nur wenig beeinflussen 4.4 Mathematische Beschreibung Umsetzen des Problems in eine geeignete formale Beschreibung durch Gleichungen (z.b. algebraische Gleichungen, Differentialgleichungen). Diese kann abhängig von der Fragestellung und dem vorhandenen Wissen über das zu untersuchende physiologische System auf viele verschiedene Arten erfolgen, z.b.: linear / nichtlinear kontinuierlich / diskret konzentrierte / verteilte Parameter (gewöhnliche / partielle Differentialgleichungen) deterministisch / stochastisch statisch / dynamisch Anwendung von Gesetzmäßigkeiten für die Aufstellung von Gleichungen: Physikalische Grundgesetze (Newton, Maxwell) Phänomenologischen Gleichungen (Diffusion, Wärmeleitung, Ohmsches Gesetz) Bilanzgleichungen (Erhaltungsgesetze von Masse, Energie, Impuls, Drehimpuls) Hinsichtlich der Strategie bei der Erstellung mathematischer Modelle gibt es (mindestens) zwei unterschiedliche Ansätze: Top-Down: Hier werden von Anfang an alle Gleichungen in ihrer gesamten Komplexität berücksichtigt; Vereinfachung erst allmählich (z.b. Linearisierung, s.o.) Bottom-Up: Man beginnt mit der einfachsten Gleichung und berücksichtigt zusätzliche Einflüsse erst nach und nach Weiters werden mathematische Modelle je nach Berücksichtigung systeminterner Strukturen oft in einem Schema von schwarz bis weiß eingeordnet:

7 Grundlagen der Systemanalyse 7 Schwarze Modelle werden durch ihre Übertragungsfunktion, d.h. die Verknüpfung von Eingangs- und Ausgangsgrößen, beschrieben. Sie lassen sich in SISO (Single Input Single Output), SIMO (Single Input Multiple Output), MISO und MIMO unterteilen. Dafür sind keine besonderen Kenntnisse der Systemstruktur erforderlich. Weiße (transparente) Modelle bilden die Systemstruktur möglichst genau nach. Solche strukturabbildenden Modelle werden häufig als Kompartmentmodelle realisiert; dabei ist ein Kompartment eine Zustandsgröße, die einer einheitlichen Kinetik unterliegt. Auf diese Zustandsgrößen lassen sich Bilanzgleichungen (Masse, Energie) anwenden, die zu Differentialgleichungen 1. Ordnung führen. Die Koppelgleichungen zwischen Zustandsgrößen können Transportvorgänge (z.b. Konvektion, Diffusion), chemische Prozesse (Umwandlungen) usw. sein. Nichtlinearitäten (z.b. Sättigungskinetiken) können relativ einfach berücksichtigt werden. Bei grauen Modellen werden bekannte Abhängigkeiten strukturabbildend (durch weiße Modelle), Subsysteme mit ungeklärter Struktur hingegen durch schwarze Modelle nachgebildet. 4.5 Identifikation Identifikation ist die experimentelle Ermittlung des zeitlichen Verhaltens eines Systems zur Auffindung eines geeigneten mathematischen Modells aus einer Klasse von Modellen. Dabei soll der Fehler zwischen dem realen System und seinem mathematischen Modell möglichst klein sein. Strukturidentifikation: Es wird das durch die Struktur festgelegte Verhalten des Modells mit dem beobachtbaren Verhalten des physiologischen Systems verglichen und in Übereinstimmung gebracht. Insbesondere wird die Zulässigkeit und Widerspruchsfreiheit (Konsistenz) der im Modell verwirklichten (hypothetischen) Annahmen und der vorgenommenen Vereinfachungen geprüft. Parameteridentifikation: Es werden numerisch nicht (ausreichend genau) bekannte Parameter durch Vergleich mit experimentellen Daten (z.b. Fit) ermittelt. Bei schwarzen Modellen haben die so ermittelten Parameter zumeist keine Beziehung zu realen physikalischchemischen Systemparametern. Ihre Zahl kann beliebig groß sein und wird im wesentlichen nur von den verfügbaren Vergleichsdaten bestimmt. Bei weißen Modellen entsprechen die Parameter hingegen realen Systemparametern. Ihre Zahl hängt jedoch wesentlich von der Betrachtungstiefe ab.

8 Grundlagen der Systemanalyse Validierung Sind ein datenkompatibles Modell konstruiert und die Modellgrößen bestimmt (d.h. identifiziert), so kann mit dem Modell das Verhalten des Systems unter verschiedenen Bedingungen vorausgesagt und mit Messungen verglichen werden: Empirische Gültigkeitsprüfung. Diesen Vorgang nennt man Validierung des Modells. Das Modell wird dadurch eventuell weiter verbessert. In einer Sensitivitätsanalyse kann die Empfindlichkeit untersucht werden, mit der das System auf Parameteränderungen reagiert. Einen Spezialfall der Validierung stellt die sogenannte Modelldiskriminierung dar: Unter mehreren möglichen Modellen wird dasjenige ermittelt, das die Meßdaten am besten beschreibt. In der Praxis stützt man sich häufig auf Wahrscheinlichkeitsaussagen. So wird grundsätzlich nicht entschieden, welches das richtige Modell ist, sondern welches das wahrscheinlichste ist. Dafür stehen ähnliche Verfahren zur Verfügung, wie sie bei statistischen Hypothesentests verwendet werden. Diese Verfahren können naturgemäß erst nach erfolgreicher Parameteridentifikation zum Einsatz kommen. 5 Computer-Simulation Da in der Praxis oftmals analytische Lösungen entweder nicht bekannt oder deren Bestimmung zu aufwendig ist, stellt die Simulation in vielen Fällen die einzige Möglichkeit dar, eine Lösung für die Modellgleichungen in Form einer numerischen Approximation, z.b. für den Zeitverlauf der Systemvariablen, zu erhalten. Die Implementierung und Verifikation (Überprüfung, ob das erstellte Programm tatsächlich die ursprüngliche mathematische Formulierung abbildet) erfolgt dann entweder in einer gängigen Programmiersprache (C, FORTRAN), in einem sogenannten problem solving environment (z.b. MATLAB), oder aber mit Hilfe eines speziellen Simulationspaketes (z.b. FIDAP für Probleme aus der Fluiddynamik, Virtual Cell für Probleme der Zellphysiologie, Amber für molekulare Simulationen). Die Simulation eines Modells ist also nach der mathematischen Beschreibung des vorliegenden (physiologischen) Systems und vor der Identifikation bzw. Validierung des Modells angesiedelt. In der Praxis zeigt sich jedoch, daß die Schritte der Analyse, Modellbildung und Simulation oft nicht linear nacheinander ablaufen, sondern durchaus auch Schleifen auftreten können, manche Schritte also mehrfach durchlaufen werden müssen: Häufig liefert erst ein iteratives Vorgehen

9 Grundlagen der Systemanalyse 9 befriedigende Resultate. In diesem Sinn gleicht der Prozeß der Modellbildung einem Iterationsverfahren, das man erst dann abbricht, wenn man eine genügend hohe Genauigkeit erreicht hat. Vorteile der Computer-Simulation gegenüber analogen (mechanischen, elektrischen, hydraulischen) Simulationen: Es kann unabhängig von der Art des betrachteten Systems mit einer einheitlichen Methodik und vielseitig verwendbaren Software-Produkten gearbeitet werden. Die Kosten der Modellerstellung sind im allg. nur ein Bruchteil dessen, was bei realen oder analogen physikalischen Modellen aufzuwenden wäre. Der zeitliche Ablauf kann erheblich gerafft und verkürzt (Zeitraffer) oder gedehnt werden (Zeitlupe), z.b. Klimamodelle, Molekülreaktionen. Eine Dynamik, die zur Selbstzerstörung führen würde, bleibt im Rechner ohne Folgen, z.b. Kernschmelze in einem Kernreaktor, simulierter Crashtest.

10 Grundlagen der Systemanalyse 1 6 Beschreibungsmethoden für Systeme Die Systemtheorie beschäftigt sich nicht mit der Realisierung eines Systems aus bestimmten Bauteilen, sondern mit den Beziehungen, die das System zwischen den Eingangs- und Ausgangsgrößen herstellt. Es interessiert nur die formale Gestalt der Zusammenhänge, nicht die Spezialisierung auf bestimmte Anwendungsfälle. Damit erreicht die Systemtheorie eine vereinheitlichte Darstellung von Prozessen aus verschiedenen Bereichen (Physik, Technik, Biologie, Medizin, Ökonomie) und fördert eine interdisziplinäre Betrachtungsweise. Dem Nachteil eines hohen Abstraktionsgrades stehen als Vorteile Lernökonomie und Übersichtlichkeit gegenüber. Insbesondere betrachtet man in der Systemtheorie die Reaktion eines Systems auf Störungen oder Erregungen, die von außen auf das System einwirken: Ein Auto reagiert auf eine Fahrbahnunebenheit mit einer (mehr oder weniger) gedämpften Schwingung; der menschliche Körper reagiert auf die Einnahme eines Medikaments mit zeitabhängigen Wirkstoffkonzentrationen im Blut. Die Volkswirtschaft reagiert auf eine Aktienemission mit einem zeitabhängigen Aktienkurs. Zur mathematischen Beschreibung solcher Systeme befreit man die Erregungen und Reaktionen im allgemeinen von ihren physikalischen Einheiten und beschreibt sie mathematisch als Funktionen unabhängiger Variablen, meistens der Zeit t. Die so normierten Erregungen werden als Eingangssignale x(t) (Ursachenfunktionen), die Reaktionen (Systemantwort) als Ausgangssignale y(t) (Wirkungsfunktionen) bezeichnet. Das System wird in gleicher Weise weitestgehend abstrahiert ( Black Box ) und als mathematisches Modell (z.b. mit Hilfe von Differentialgleichungen) beschrieben; eine konkrete Realisierung des Systems wird dabei nicht angegeben. Formal läßt sich die Verknüpfung zwischen dem Eingangssignal x(t) und dem Ausgangssignal y(t) durch einen Operator S (System-Transformation) ausdrücken: y(t) = S{x(t)}. (1) 6.1 Signale Unter einem Signal versteht man die Darstellung einer Nachricht durch eine physikalische Größe. Etwas anders ausgedrückt: Ein Signal ist der für die Übertragung und Speicherung einer Nachricht stets erforderliche energetische bzw. materielle Träger. Beispiele: Elektrische Signale (z.b. Spannungsverlauf), Verlauf von Druck oder Temperatur, akustische Signale, optische Signale (z.b. ein Bild als zweidimensionales Signal).

11 Grundlagen der Systemanalyse 11 Signale können auf vielfältige Weise Nachrichten darstellen; so kann z.b. die Größe Temperatur als Frequenz kodiert werden. Die zur Nachrichtenübertragung verwendeten Signale sind in der Regel Zeitfunktionen. Ein Signal besitzt einen seiner Nachricht entsprechenden Wert, zugleich enthält es die zeitliche Änderung der Information, den zeitlichen Werteverlauf. Diese beiden Signaldimensionen geben dazu Anlaß, Signale nach ihrem Wertevorrat und Zeitverlauf zu klassifizieren; dabei können in beiden Dimensionen Quantisierungen auftreten: Ein wert-kontinuierliches Signal kann jeden beliebigen Wert seines Wertebereiches annehmen. Ein wert-diskretes Signal kann nur endlich viele Werte annehmen; beschränkt sich diese Anzahl auf zwei Werte, liegt ein Binärsignal vor. Ein zeit-kontinuierliches Signal kann seinen Wert zu jeder beliebigen Zeit ändern. Ein zeit-diskretes Signal ändert seinen Wert nur zu bestimmten diskreten Zeitpunkten. Häufig werden diskrete Signale durch Abtastung aus kontinuierlichen Signalen gewonnen. Analoge Signale sind sowohl zeit- also auch wert-kontinuierlich, digitale Signale sind sowohl zeit- als auch wert-diskret. Ein deterministisches Signal läßt sich in seinem zeitlichen Verlauf mit Formeln oder Tabellen beschreiben und ist damit exakt reproduzierbar. Ein stochastisches Signal hängt in seinem zeitlichen Verlauf vom Zufall ab und ist somit nicht mehr exakt vorhersagbar; es kann daher nur statistisch beschrieben werden: Wahrscheinlichkeitsdichtefunktion, Erwartungswerte (Mittelwert, Varianz) und Autokorrelationsfunktion. Beispiele: Sprachsignale, Störsignale bei technischen Systemen (Rauschen). 6.2 Statisches und dynamisches Verhalten von Systemen Das dynamische Verhalten oder Einschwingverhalten eines Systems beschreibt den zeitlichen Verlauf der Systemausgangsgröße y(t) bei vorgegebener Systemeingangsgröße x(t). Es dauert so lange an, bis die Ausgangsgrößen einen (neuen) stationären Zustand einnehmen. Das statische Verhalten oder Beharrungsverhalten eines Systems beschreibt den zeitunabhängigen Zusammenhang zwischen seinen Eingangs- und Ausgangsgrößen. Es wird graphisch als Kennlinie dargestellt. Die Systemreaktion auf ein Eingangssignal kann deshalb in zwei Zeitbereiche unterteilt werden: Der erste gibt die kurzfristige Systemreaktion wieder (Ausgleichsverhalten bzw. Einschwingverhalten), der folgende das Beharrungsverhalten im stationären Systemzustand.

12 Grundlagen der Systemanalyse Lineare und nichtlineare Systeme Ein System heißt genau dann linear, wenn für eine beliebige Linearkombination von Eingangsgrößen x 1 (t),...,x n (t) mit S { x j (t) } = y j (t) das Superpositionsprinzip S { n k j x j (t) j=1 } = n k j S { x j (t) } = j=1 n k j y j (t) (2) j=1 gilt, wo k 1,...,k n reelle Konstanten sind. Das Prinzip der Linearität läßt sich auch auf Integrale ausdehnen, dabei wird aus dem Summationsindex j die Integrationsvariable τ: } S{ k(τ) x(t,τ) dτ = k(τ) S{x(t,τ)} dτ = k(τ) y(t,τ) dτ. (3) Aus dem Superpositionsprinzip folgt unmittelbar S{k x(t)} = k S{x(t)} = k y(t), d.h. die Multiplikation der Eingangsgröße x(t) mit einer Konstante k bewirkt, daß auch die zugehörige Ausgangsgröße y(t) mit derselben Konstante k multipliziert wird. Diese Eigenschaft heißt Homogenität. Die für den Spezialfall k 1 = k 2 = 1 ausgedrückte Eigenschaft S{x 1 (t) + x 2 (t)} = S{x 1 (t)} + S{x 2 (t)} = y 1 (t) + y 2 (t) wird Additivität genannt. Das Superpositionsprinzip bedeutet also, daß das System additiv und homogen auf Eingangssignale reagiert. Auf die Nullfunktion x(t) als Eingangsgröße reagiert ein lineares System mit der Ausgangsgröße y(t), d.h. S{} =. (4) Bei linearen Systemen werden gewissermaßen zusammengesetzte Eingangssignale einzeln übertragen (ohne sich gegenseitig zu beeinflussen) und anschließend zum Ausgangssignal aufaddiert; die Verstärkung/Abschwächung des Eingangssignals um einen Faktor k wirkt sich proportional als Verstärkung/Abschwächung des Ausgangssignals um denselben Faktor aus. Im Beharrungsverhalten (im eingeschwungenen Zustand) zeigen lineare Systeme auch eine lineare Kennlinie. Nichtlinearitäten kommen durch nichtlineare System-Operatoren S zustande, z.b. bei der Multiplikation von Signalen oder bei der Anwendung von nichtlinearen Funktionen, wie z.b. Sinusoder Cosinus-Funktionen.

13 Grundlagen der Systemanalyse 13 Für die Behandlung von linearen Systemen steht eine weitgehend abschlossene Theorie zur Verfügung. Leider sind viele technische und physiologische Systeme nichtlinear. Die Untersuchung nichtlinearer Systeme ist mathematisch keineswegs trivial. Um trotzdem das Verhalten nichtlinearer Systeme hinreichend genau zu beschreiben, versucht man, diese auf lineare Systeme zurückzuführen: Linearisierung einer statischen Kennlinie um einen Arbeitspunkt, einer nichtlinearen Differentialgleichung um einen stabilen Gleichgewichtspunkt. 6.4 Zeitvariante und zeitinvariante Systeme Sind die Systemparameter nicht konstant, sondern ändern sich mit der Zeit, so nennt man das System zeitvariant (nichtstationär). Ein Beispiel für ein zeitvariantes System ist etwa eine Rakete, da die Treibstoffmenge (ein Systemparameter) ständig abnimmt, bis sie ihre Umlaufbahn erreicht, oder ein temperaturabhängiger Widerstand bei zeitlicher Änderung der Temperatur. Häufiger und wichtiger sind zeitinvariante Systeme, deren Parameter sich zeitlich nicht ändern. Formal drückt sich die Zeitinvarianz so aus: Für ein System mit y(t) = S{x(t)} gilt für beliebige Zeiten t : y(t t ) = S{x(t t )}. (5) Das System reagiert auf ein verzögertes Eingangssignal x(t t ) mit einem entsprechend verzögerten Ausgangssignal y(t t ). Das Systemverhalten ändert sich also nicht mit der Zeit. Lineare Systeme sind im allgemeinen nicht zeitinvariant. Ebenso müssen zeitinvariante Systeme nicht linear sein. Ein System, das sowohl linear als auch zeitinvariant ist, nennt man LTI-System (Linear Time-Invariant System). Die Theorie der LTI-Systeme stellt das klassische Kerngebiet der Systemtheorie dar und ist gut entwickelt, elegant und übersichtlich. Ohne die beiden Eigenschaften Linearität und Zeitinvarianz wäre sowohl die Analyse als auch die Synthese von Systemen sehr viel komplizierter oder überhaupt nicht möglich. Daher führt man auch bei Nichtlinearitäten (z.b. in einem Regelkreis) oft eine Linearisierung um den Arbeitspunkt durch (z.b. über eine Taylor-Entwicklung), um dann die Theorie der LTI-Systeme anwenden zu können.

14 Grundlagen der Systemanalyse Kausale und nichtkausale Systeme Ein System heißt kausal, wenn der Verlauf des Ausgangssignals y(t) bis zu jedem beliebigen Zeitpunkt t 1 nur vom Verlauf des entsprechenden Eingangssignals x(t) bis zu diesem Zeitpunkt t 1 abhängt: Es muß also erst eine Ursache auftreten, bevor sich eine Wirkung zeigt. Für ein lineares, kausales System bedeutet das wegen Gleichung (4): x(t) = für t < t 1 y(t) = S{x(t)} = für t < t 1. Alle realen Systeme, die durch die Naturgesetze beschrieben werden, sind kausal. Einige wichtige Idealisierungen führen aber auf nichtkausale Systeme. 6.6 Stabile und instabile Systeme Anschaulich versteht man unter der Stabilität eines Systems dessen Eigenschaft, daß kleine Ursachen auch nur kleine Wirkungen hervorrufen. Genauer nennt man ein System stabil, wenn es auf jede beschränkte Eingangsgröße x(t) mit einer beschränkten Ausgangsgröße y(t) reagiert, d.h. wenn für alle Zeiten t gilt x(t) < y(t) <. Diese Stabilitätsdefinition bezeichnet man auch als E/A-Stabilität (Ein-/Ausgangs-Stabilität) oder BIBO-Stabilität (Bounded Input Bounded Output). Für nicht erregte Systeme führt man einen weiteren Stabilitätsbegriff ein: Ein Gleichgewichtszustand ( Ruhelage ) heißt asymptotisch stabil, wenn bei hinreichend kleinen Störungen ( Auslenkungen aus der Ruhelage ) das System für t wieder in diesen Gleichgewichtszustand zurückkehrt. 6.7 Gedächtnisbehaftete und gedächtnislose Systeme Hängt die Systemantwort zu einem bestimmten Zeitpunkt nur von dem Wert des Eingangssignals zum gleichen Zeitpunkt ab, spricht man von einem gedächtnislosen oder statischen System. Haben jedoch auch Eingangssignale zu anderen Zeitpunkten Einfluß auf die Ausgangssignale, bezeichnet man das System als gedächtnisbehaftet oder dynamisch. (Bei kausalen gedächtnisbehafteten Systemen spielen nur die Werte der Eingangssignale von zurückliegenden Zeitpunkten eine Rolle.)

15 Grundlagen der Systemanalyse 15 7 Kontinuierliche Standardsignale In der Systemtheorie spielen einige spezielle Signale eine fundamentale Rolle, da sie gewissermaßen als Grundbausteine zu verschiedenen Darstellungen von allgemeinen Signalen verwendet werden können. Diese Darstellungen werden sich bei der Beschreibung des Zusammenhanges zwischen Eingangs- und Ausgangssignalen von linearen Systemen als besonders vorteilhaft erweisen. 7.1 Die komplexe Exponentialfunktion Ein reellwertiges, sinusförmiges Signal x(t) ist durch seine Amplitude A, durch die Anzahl der Schwingungen pro Zeiteinheit (Frequenz f = 1/T bzw. Kreisfrequenz ω = 2π/T = 2π f, wo T die Periodendauer der Schwingung ist) und die Lage der Nulldurchgänge relativ zum Zeitnullpunkt t = (Null-Phasenwinkel bzw. Phasenverschiebung ϕ) vollständig charakterisiert: x(t) = A sin(2π ft + ϕ) = A sin(ωt + ϕ). (6) Eine Erweiterung führt zu komplexwertigen Exponentialsignalen der Form x(t) = ˆX e st. (7) Im Gegensatz zu (6) ist hier nur die Zeit t reell, sowohl die Amplitude ˆX = A + ib als auch die Frequenz s = σ + iω sind komplex (i := 1, Euler 1777). x(t) = ˆX e st = ˆX e (σ+iω)t = ˆX e σt e iωt. (8) Mit der Eulerschen Formel e iα = cosα + isinα (9) (d.h. die komplexe Zahl e iα mit α R liegt wegen e iα = 1 auf dem Einheitskreis) erhält man für eine bliebige komplexe Zahl z = a + ib C aus der Polardarstellung z = r (cosα + isinα) (1) mit r = z = a 2 + b 2 (Betrag von z) und α = argz (Argument von z), tanα = b/a, die Form z = r e iα = z e iα = z e iargz. (11)

16 Grundlagen der Systemanalyse 16 Damit wird die komplexe Amplitude ˆX zu ˆX = A+iB = ˆX e iϕ, tanϕ = B/A, und Gleichung (8) ergibt x(t) = ˆX e iϕ e σt e iωt = ˆX e σt e i(ωt+ϕ) = ˆX e σt [cos(ωt + ϕ) + isin(ωt + ϕ)]. (12) Einem komplexen Exponentialsignal x(t) = ˆX e st entsprechen also zwei relle Schwingungen Re{x(t)} = ˆX e σt cos(ωt + ϕ) (13) Im{x(t)} = ˆX e σt sin(ωt + ϕ) (14) mit der reellen Amplitude ˆX = A 2 + B 2, der Abklingkonstante σ, der Kreisfrequenz ω und der Phasenverschiebung ϕ mit tanϕ = B/A. Die komplexe Amplitude ˆX = A + ib = ˆX e iϕ enthält also nicht nur die reelle Amplitude ˆX, sondern auch die Phasenverschiebung ϕ. In der komplexen Ebene stellt man sich ein komplexes Exponentialsignal x(t) = ˆX e (σ+iω)t als Zeiger der Länge x(t) = ˆX e σt vor, der mit der Winkelgeschwindigkeit ω = 2π f = 2π/T um den Ursprung rotiert (Zeigerdarstellung, Abb. 1). Die beiden reellen Schwingungen Re{x(t)} und Im{x(t)} aus Gleichung (13) und (14) sind die Projektionen des sich drehenden Zeigers auf die Achsen der Gaußschen Zahlenebene. Abb. 1 Beispiel eines komplexwertigen Exponentialsignals x(t) = ˆX e st mit ˆX = 1 + i und s =.5 + 5i (aus [7]).

17 Grundlagen der Systemanalyse 17 Aus Gleichung (13) bzw. (14) erhält man für σ > eine angefachte (aufklingende) Schwingung, für σ < eine gedämpfte (abklingende) Schwingung. Für σ =, d.h. auf der imaginären Achse, ist die Schwingung ungedämpft, d.h. erfolgt mit zeitlich konstanter Amplitude. Für ω > dreht sich der komplexe Zeiger entgegen dem Uhrzeigersinn, für ω < im Uhrzeigersinn. Für ω =, d.h. auf der reellen Achse, schwingt das Signal überhaupt nicht (Abb. 2). Der Vorteil der komplexen Frequenz s = σ +iω besteht darin, daß sich eine Vielzahl von Signalformen durch einen einzigen komplexen Frequenzparameter s ausdrücken lassen. Abb. 2 Anschauliche Deutung der komplexen Frequenzebene (aus [7]). Häufig werden gewisse mathematische Beziehungen besonders einfach und übersichtlich, wenn sie im Komplexen formuliert werden. Es ist dann üblich, von reellen physikalischen Größen auszugehen, die Rechnung mit komplexen Zahlen durchzuführen und schließlich im Ergebnis Realteil und Imaginärteil getrennt zu betrachten und zu interpretieren.

18 Grundlagen der Systemanalyse 18 Beispielsweise ergibt sich aus Gleichung (11) [ z n = [r (cosα + isinα)] n = re iα] n = r n e inα = r n (cosnα + isinnα), (15) ein Ergebnis, das unter dem Namen Formel von De Moivre bekannt ist. Für r = 1 und n = 2 ist (cosα + isinα) 2 = cos2α + isin2α cos 2 α + 2icosα sinα sin 2 α = cos2α + isin2α. Ein Vergleich von Realteil und Imaginärteil ergibt sofort cos2α = cos 2 α sin 2 α (16) sin2α = 2sinα cosα. (17) Wegen cos( α) = cos α (gerade Funktion) und sin( α) = sin α (ungerade Funktion) erhält man aus den Eulerschen Formeln (9) die Umkehrformeln cosα = 1 2 sinα = 1 2i [ e iα + e iα] (18) [ e iα e iα]. (19) Reellwertige cosinusförmige Signale erhält man also durch Überlagerung (Addition) zweier mit der gleichen Winkelgeschwindigkeit ω in entgegengesetztem Sinn rotierende Zeiger (α = ωt) gleicher Länge und Phase. Bedeutsamer für die Systemanalyse ist jedoch folgende Überlegung: Aus der linearen Algebra ist der Begriff Eigenvektor x einer linearen Abbildung bzw. einer quadratischen Matrix A bekannt: Ein solcher Vektor wird durch A auf ein skalares Vielfaches seiner selbst abgebildet, ohne seine Richtung zu ändern: Ax = λx. Die Zahl λ heißt Eigenwert von A. Diese Bezeichnungen überträgt man auf Signale, die ein System ohne Änderung ihrer Form passieren: Ein Signal φ(t), das als Eingangssignal eines Systems an dessen Ausgang die Reaktion y(t) = λ φ(t) mit einer komplexen Konstanten λ hervorruft, heißt Eigenfunktion dieses Systems.

19 Grundlagen der Systemanalyse 19 Wir wollen nun untersuchen, ob die komplexen Exponentialfunktionen e st Eigenfunktionen von LTI-Systemen sind. Es ist also zu zeigen, daß für die Systemreaktion y(t) gilt: y(t) = λx(t) = λe st. (2) Dazu schreiben wir zunächst die Systemreaktion y(t) in allgemeiner Form als Funktion des Eingangssignals x(t) = e st, y(t) = S{x(t)} = S { e st}, (21) und verwenden nur die kennzeichnenden Eigenschaften von LTI-Systemen, nämlich ihre Zeitinvarianz und ihre Linearität. Für ein um τ zeitlich verschobenes Eingangssignal x(t τ) = e s(t τ) (22) erhalten wir wegen der vorausgesetzten Zeitinvarianz eine gegenüber y(t) ebenfalls um τ verschobene Systemreaktion y(t τ) = S{x(t τ)} = S { e s(t τ)} = S { e sτ e st}. (23) Der Faktor e sτ hängt nicht von der Zeit t ab, daher folgt wegen der Linearität des Systems y(t τ) = S { e sτ e st} = e sτ S { e st} = e sτ y(t). (24) Damit haben wir eine Differenzengleichung für y(t), nämlich y(t τ) = e sτ y(t). (25) Diese wird durch y(t) = λ e st (26) erfüllt, wie man durch Einsetzen in Gleichung (25) verifiziert: y(t τ) = λe s(t τ) = λe sτ e st = e sτ (λe st ) = e sτ y(t). Damit ist x(t) = e st eine Eigenfunktion des durch S beschriebenen LTI-Systems. Die Konstante λ kennzeichnet das Verhalten des Systems S. Im allgemeinen wird jedoch λ von der komplexen Frequenz s abhängen. Wir schreiben daher λ = H(s) und bezeichnen H(s) als Systemfunktion oder Übertragungsfunktion (transfer function), da sie das System und seine Übertragungseigenschaften vom Eingang zum Ausgang beschreibt (als frequenzabhängiger, komplexer Verstärkungsfaktor): y(t) = S { e st} = H(s)e st. (27)

20 Grundlagen der Systemanalyse Die Sprungfunktion Die (Einheits-)Sprungfunktion (Heaviside-Funktion, Stufenfunktion, unit step function) ist definiert als { für t < σ(t) = (28) 1 für t. Mit dieser Funktion können z.b. Einschaltvorgänge bei technischen Systemen beschrieben werden. Es handelt sich bei σ(t) um eine bei t = unstetige Funktion. Andere Bezeichnungen für σ(t) in der Literatur: ε(t), Θ(t), s(t), H(t), U(t). In Anlehnung an die Definition linearer kausaler Systeme (vgl. Seite 14) wird ein Signal x(t) kausal genannt, wenn es für alle negativen Zeiten den Wert Null hat, d.h. x(t) = für t <. Man kann nun leicht aus einem nichtkausalen Signal durch Multiplikation mit der Sprungfunktion σ(t) ein kausales Signal erzeugen. Beispiel Die reelle Exponentialfunktion x(t) = Ae αt mit t R ist zunächst eine nichtkausale Funktion. Durch Multiplikation mit der Sprungfunktion σ(t) erhält man daraus die kausale reelle Exponentialfunktion mit reellem Skalierungsfaktor A: { x(t) = A e αt σ(t) = für t < A e αt (29) für t. Die Sprungfunktion eignet sich z.b. auch dazu, um Signale, die stückweise definiert sind, in geschlossener Form (z.b. als Summe von bereits definierten Signalen) darzustellen: Beispiel Die Rechteckfunktion rect(t) ist definiert als { rect(t) = 1 für t 1 2 sonst. (3) Die Grenzen bei t = ± 2 1 sind so gewählt, daß der Rechteckimpuls rect(t) die Breite, Höhe und Fläche Eins hat und symmetrisch zum Zeitnullpunkt t = ist. In geschlossener Form läßt sich die Rechteckfunktion als Summe von zwei Sprungfunktionen darstellen: rect(t) = σ(t ) σ(t 1 2 ). (31) Alternativ: rect(t) = σ(t ) σ( t ). (32)

21 Grundlagen der Systemanalyse Die Rampenfunktion Die stückweise Definition der Rampenfunktion ρ(t) lautet { für t < ρ(t) = t für t. (33) Eine zeitlich geschlossene Darstellung von ρ(t) lautet: ρ(t) = t σ(t). (34) ρ(t) t Abb. 3 Die Rampenfunktion ρ(t). Andererseits erhält man ρ(t) als das Zeitintegral der Sprungfunktion σ(t): ρ(t) = t σ(τ)dτ. (35) Ein aus Rampenfunktionen zusammengesetzter elementarer Impuls ist der normierte Dreiecksimpuls, der ebenfalls die Fläche Eins besitzt: { 1 t für t 1 Λ(t) = (36) sonst. Der Dreiecksimpuls besitzt die geschlossene Darstellung Λ(t) = ρ(t + 1) 2ρ(t) + ρ(t 1). (37)

22 Grundlagen der Systemanalyse Die Deltafunktion Wir betrachten einen normierten Rechteckimpuls (t) der Breite T und der Höhe 1/T (d.h. Fläche = 1): (t) = 1 T für t < T sonst. Den Grenzwert dieser Funktionenfolge für T, einen unendlich schmalen und unendlich hohen Rechteckimpuls, nennt man Deltafunktion δ(t): (38) δ(t) := lim T (t). (39) Andere gebräuchliche Bezeichnungen für δ(t) sind Dirac-Impuls, Diracsche Deltafunktion oder Impulsfunktion. Die saloppe Formulierung für t δ(t) = für t = ist zwar nicht falsch, aber von geringem Nutzen, da sie nicht erklärt, wie man δ(t) mit anderen Funktionen rechnerisch verknüpfen kann. Die Deltafunktion δ(t) stellt nämlich keine Funktion im Sinn der klassischen Analysis dar, da sie nicht als Abbildung der reellen Achse auf einen Wertebereich definiert ist (Unendlich ist kein Wert), sondern durch ihre Wirkung auf andere Funktionen unter einem Integralzeichen (verallgemeinerte Funktion oder Distribution). Um die Wirkung der Deltafunktion δ(t) auf eine stetige Funktion f (t) zu beschreiben, fragen wir nach dem Wert des Integrals f (t)δ(t)dt. Dazu setzen wir zunächst anstelle von δ(t) den Rechteckimpuls (t), berechnen das Integral und führen dann den Grenzübergang T durch: f (t) (t)dt = 1 T T (4) f (t)dt = 1 [F(T ) F()], (41) T wobei F(t) eine Stammfunktion von f (t) ist, d.h. F (t) = f (t). Der Grenzübergang T ergibt lim T f (t) (t)dt = lim T F(T ) F() T = F (t) = f (). (42) t=

23 Grundlagen der Systemanalyse 23 Mit der Definitionsgleichung für δ(t), Gleichung (39), ergibt sich damit f (t)δ(t)dt = f (). (43) Diese Beziehung heißt Ausblendeeigenschaft (sifting property) bzw. Abtasteigenschaft der Deltafunktion. Sie bedeutet, daß das Integral über das Produkt einer Funktion f (t) mit der Deltafunktion δ(t) alle Funktionswerte f (t) für t unterdrückt ( ausblendet ) und nur den Wert f () beibehält. Eine Integration über δ(t) stellt also eine Funktionswertbestimmung an der Nullstelle des Arguments der Funktion f dar. Dabei ist vorausgesetzt, daß f (t) bei t = stetig ist. Wenn f (t) = 1 t gilt, folgt aus der Ausblendeeigenschaft (43) sofort δ(t)dt = 1. (44) Dieses Resultat leuchtet wegen der Konstruktion der Deltafunktion als Grenzfunktion einer Folge von Rechteckimpulsen der Fläche Eins ein. Man sagt auch, die Deltafunktion habe die Fläche oder besser das Gewicht (die Impulsstärke) Eins. Die Deltafunktion kann nicht nur einen Wert bei t = abtasten, sondern auch an beliebigen anderen Stellen t : f (t)δ(t t )dt t t+t = f (t +t )δ(t)dt = f (t ). (45) Die folgenden Rechenregeln (Ersetzungsregeln) gelten nur unter einem Integralzeichen, d.h. jede Seite der Gleichung liefert bei Integration dasselbe Resultat: Linearkombination von Delta-Impulsen Die elementarste Eigenschaft von Delta-Impulsen ist ihr Verhalten bei Addition und Multiplikation mit Faktoren, d.h. bei Bildung von Ausdrücken der Form aδ(t) + bδ(t). Wir untersuchen die Eigenschaften einer solchen Linearkombination von Deltafunktionen durch Anwendung der Ausblendeeigenschaft: f (t)[aδ(t) + bδ(t)] dt = a f (t)δ(t)dt + b f (t)δ(t)dt = a f () + b f () = (a + b) f ().

24 Grundlagen der Systemanalyse 24 Die Linearkombination aδ(t) + bδ(t) wirkt also auf die Funktion f (t) wie ein einzelner Delta- Impuls (a + b)δ(t) mit dem Gewicht (a + b). Daher gilt aδ(t) + bδ(t) = (a + b)δ(t). (46) Skalierung der Zeitachse Eine Skalierung der Zeitachse tritt z.b. auf beim Übergang auf eine andere Maßeinheit für die Zeit. Man könnte zunächst meinen, daß ein Delta-Impuls von solchen Operationen nicht beeinflußt wird, da er sowieso nur bei t = vom Wert Null abweicht. Diese anschauliche Überlegung führt aber in die Irre, wie die folgende Untersuchung mit Hilfe der Ausblendeeigenschaft zeigt: Wir betrachten einen Delta-Impuls mit dem Argument τ = at, a R, a, und erhalten aus Gleichung (43) mit der Substitution τ = at, also dτ = a dt oder dt = (1/a) dτ, a > : f (t)δ(at)dt = 1 a f ( τ a) δ(τ)dτ = 1 a f (), a < : also insgesamt f (t)δ(at)dt = 1 a ( τ f δ(τ)dτ = a) 1 a f (t)δ(at)dt = 1 a f (). f ( τ a) δ(τ)dτ = 1 a f (), Ein Delta-Impuls δ(at) mit dem Gewicht Eins wirkt also auf die Funktion f (t) wie ein Delta- Impuls δ(t) mit dem Gewicht 1/ a : δ(at) = 1 δ(t). (47) a Delta-Impulse mit Gewichtsfaktoren kennzeichnet man graphisch durch einen senkrechten Pfeil mit Angabe des entsprechenden Gewichts. Aus Gleichung (47) ergibt sich speziell mit a = 1, daß die Deltafunktion eine gerade Funktion ist, δ( t) = δ(t). (48)

25 Grundlagen der Systemanalyse 25 Damit ergibt sich eine alternative Darstellung der allgemeinen Ausblendeeigenschaft (45): f (t)δ(t t)dt = f (t ). (49) Die Abtaststelle t ist beliebig und kann z.b. mit t bezeichnet werden. Mit der Umbenennung der Integrationsvariablen von t nach τ ergeben sich damit zwei häufig verwendete alternative Schreibweisen der Ausblendeeigenschaft: f (t) = f (τ)δ(τ t)dτ (5) f (t) = f (τ)δ(t τ)dτ (51) In anderer Lesart der letzten beiden Gleichungen haben wir damit eine Darstellung der stetigen Funktion f (t) als unendliche Summe (Integral) über (jeweils entsprechend verschobene und und mit f (τ) gewichtete) Delta-Impulse δ(t τ) erhalten, eine wichtige Beziehung bei der Herleitung der Impulsantwort von linearen Systemen Multiplikation mit einer stetigen Funktion Aus der Ausblendeeigenschaft (43), und mit Gleichung (44), f () f (t)δ(t)dt = f (), δ(t)dt = f () 1 = f () = f ()δ(t)dt, d.h. aus einer konstanten Funktion f (t) = const = f () wird ebenfalls der Wert f () abgetastet, folgt unmittelbar f (t)δ(t)dt = f () = f ()δ(t)dt.

26 Grundlagen der Systemanalyse 26 Da für t alle Werte von f (t) ausgeblendet werden, entspricht die Multiplikation eines Delta- Impulses mit einer Funktion einer Gewichtung des Impulses mit dem Funktionswert bei t = : f (t)δ(t) = f ()δ(t) bzw. f (t)δ(t t ) = f (t )δ(t t ). (52) Diese Aussage gilt nur für Funktionen f (t), die bei t = stetig sind. Insbesondere ist das Produkt δ(t) δ(t) daher nicht zulässig Derivation Die Ableitung der Deltafunktion δ(t) durch Bildung des Differentialquotienten im Rahmen der klassischen Analysis ist natürlich nicht möglich. Man kann aber für Distributionen eine vergleichbare Operation einführen. Zur Unterscheidung von der Differentiation gewöhnlicher (differenzierbarer) Funktionen spricht man bei Distributionen von Derivation bzw. verallgemeinerter Ableitung. Wir bezeichnen die Derivierte des Delta-Impulses ebenfalls mit dem Symbol für die Zeitableitung und schreiben δ(t) bzw. dδ(t)/dt. Zur Erklärung, was darunter zu verstehen ist, wollen wir wieder eine Ausblendeeigenschaft diesmal für δ(t) konstruieren. Unter Verwendung der Rechenregeln für partielle Integration ( f ġ = f g ḟ g) ergibt sich formal f (t) δ(t)dt = f (t)δ(t) + ḟ (t)δ(t)dt = [ ḟ (t) ] δ(t)dt = ḟ (), (53) da der Term f (t)δ(t) für t ± verschwindet. Wir können daher die Ableitung δ(t) als Distribution deuten, die aus einer stetigen Funktion f (t) mit Hilfe der Ausblendeeigenschaft den Wert der Ableitung ḟ () bildet. Die Derivation von δ(t) zeigt sich also ebenfalls in ihrer Wirkung auf die stetige Funktion f (t) unter einem Integralzeichen. Als Verallgemeinerung von (53) können analog höhere Derivierte δ (n) (t) eingeführt werden. Sie bilden aus einer Funktion f (t) jeweils die n-ten Ableitungen and der Stelle t = (ggf. mit Vorzeichenwechsel): f (t)δ (n) (t)dt = ( 1) n f (n) (). (54)

27 Grundlagen der Systemanalyse 27 Durch spezielle Wahl der Funktionen f (t) erhält man verschiedene Zusammenhänge zwischen dem Delta-Impuls δ(t) und seinen Derivierten. Beispielsweise folgt aus (53) für f (t) = t durch Vergleich der Integranden t δ(t) = δ(t). (55) Da δ(t) eine gerade Distribution ist und t eine ungerade Funktion, muß die Derivierte δ(t) ungerade sein: δ( t) = δ(t). (56) Integration In den Anwendungen tritt auch das zeitliche Integral über die Deltafunktion mit variabler oberer Integrationsgrenze t auf. Bis t = ist das Integral (d.h. die Fläche unter der Deltafunktion) immer Null, wird jedoch über den Nullpunkt hinwegintegriert, dann springt die Fläche auf Eins. Dies ist aber nichts anderes als die Sprungfunktion σ(t) : t δ(τ)dτ = σ(t). (57) Bei der Umkehrung dieser Beziehung ist jedoch Vorsicht geboten, da die Sprungfunktion σ(t) eine unstetige Funktion ist, die im klassischen Sinn bei t = nicht differenziert werden darf. Zur Bestimmung der Derivierten σ(t) der Sprungfunktion betrachten wir analog zu Gleichung (53) wieder die Wirkung von σ(t) auf eine stetige Funktion f (t) : f (t) σ(t)dt = f (t)σ(t) + ḟ (t)σ(t)dt = f ( ) ḟ (t)dt = f ( ) f ( ) + f () = f (). Die gleiche Wirkung auf eine Funktion f (t) erzielt man aber auch mit der Deltafunktion δ(t), Gleichung (43). Wir können daher die Derivierte σ(t) der Sprungfunktion mit der Deltafunktion δ(t) identifizieren: d σ(t) = σ(t) = δ(t). (58) dt

28 Grundlagen der Systemanalyse 28 Für ein allgemeines t lauten die beiden letzten Gleichungen t δ(τ t )dτ = σ(t t ) (59) bzw. d dt σ(t t ) = σ(t t ) = δ(t t ). (6) Analog ergibt sich als Derivierte der Rampenfunktion ρ(t), die wegen des Knicks bei t = ebenfalls nicht differenzierbar ist, d ρ(t) = ρ(t) = σ(t), (61) dt bzw. d dt ρ(t t ) = ρ(t t ) = σ(t t ). (62) Anwendung von Delta-Impulsen Mit Hilfe des Delta-Impulses ist es nun möglich, eine im Sinn der Distributionentheorie verallgemeinerte Ableitung einer Funktion f (t) an einer Unstetigkeitsstelle bei t = t anzugeben: Sei t eine Sprungstelle von f (t), d.h. links- und rechtsseitiger Grenzwert seien verschieden. Stimmen bei t jedoch links- und rechtsseitiger Grenzwert der gewöhnlichen Ableitung überein, so kann man f (t) in die Summe aus einer differenzierbaren Funktion f d (t) und einer Sprungfunktion aσ(t t ) mit der Sprunghöhe a zerlegen, wobei a der Differenz der Funktionswerte von f (t) an der Unstetigkeitsstelle t entspricht, a = f (t + ) f (t ) : f (t) = f d (t) + aσ(t t ), (63) d dt f (t) = d dt f d(t) + a d dt σ(t t ) = d dt f d(t) + aδ(t t ). (64) Man erhält also eine Summe aus der gewöhnlichen Ableitung des glatten Anteils und aus einem Delta-Impuls mit dem Gewicht a, entsprechend der Sprunghöhe a an der Unstetigkeitsstelle t.

29 Grundlagen der Systemanalyse 29 Beispiel 1 Ein Spannungssignal u(t) habe der Verlauf u(t) = e t σ(t). Man berechne die zeitliche Ableitung von u(t). Unter Anwendung der Produktregel für gewöhnliche Ableitungen und Gleichung (52), Seite 26, für die Multiplikation einer stetigen Funktion mit dem Delta-Impuls erhält man: d dt u(t) = d [ e t σ(t) ] [ ] d = dt dt e t σ(t) + e t d dt σ(t) = e t σ(t) + e t δ(t) = e t σ(t) + e δ(t) = e t σ(t) + δ(t). Beispiel 2 Die Bewegungsgleichung eines Pucks, der reibungsfrei auf einer Eisfläche gleitet, folgt direkt aus dem 2. Newton-Axiom Kraft = Masse Beschleunigung (falls die Masse m konstant ist), F(t) = mẍ(t), (65) wo x(t) die Position des Pucks zur Zeit t darstellt. Wenn der Puck zum Zeitpunkt t = mit einem Schläger in gleichförmige Bewegung mit konstanter Geschwindigkeit v versetzt wird, nimmt der zurückgelegte Weg bzw. die Position x(t) proportional mit der Zeit t zu : { } für t < x(t) = = v ρ(t). (66) v t für t Die Kraft F(t) könnten wir nach Gleichung (65) durch zweimalige Differentiation von x(t) bekommen, wenn x(t) differenzierbar wäre. Wegen des Knicks bei t = ist das aber nicht der Fall. Durch Derivation von x(t) erhält man die Geschwindigkeit v(t) in Gestalt einer Sprungfunktion : v(t) = ẋ(t) = v ρ(t) = v σ(t). (67) Nochmalige Derivation führt auf die Kraft F(t) in Gestalt eines Delta-Impulses (Kraftstoß) : F(t) = mẍ(t) = mv σ(t) = mv δ(t). (68) Der Delta-Impuls mit dem Gewicht mv ist hier die Idealisierung des kurzzeitigen Stoßes durch den Schläger.

30 Grundlagen der Systemanalyse 3 8 Systembeschreibung mittels spezieller Antwortsignale 8.1 Die Sprungantwort Die Reaktion s(t) eines kontinuierlichen Systems auf die Erregung mit der Einheits-Sprungfunktion σ(t), s(t) = S{σ(t)}, (69) heißt Sprungantwort oder Übergangsfunktion, da durch den Sprung ein (stabiles) System von einem stationären Zustand in einen anderen, ebenfalls stationären übergeht. Für kausale Systeme ist s(t) = für t <. 8.2 Die Impulsantwort Die Reaktion h(t) eines kontinuierlichen Systems bei Erregung mit der Deltafunktion δ(t), h(t) = S{δ(t)}, (7) heißt Stoß- bzw. Impulsantwort, Gewichtsfunktion oder Green-Funktion. Für kausale Systeme ist h(t) = für t <. Man sagt, die Impulsantwort ist hier rechtsseitig. Die Impulsantwort kann auch als eine Art Erinnerung des Systems an die kurzzeitige Erregung mit δ(t) interpretiert werden. 8.3 Die Impulsantwort als Systemcharakteristik Wir wollen nun die Frage untersuchen, wie ein LTI-System mit bekannter Impulsantwort h(t) auf ein beliebiges Eingangssignal x(t) reagiert. Zur Beantwortung dieser Frage stellen wir das Eingangssignal x(t) mit Hilfe der Ausblendeeigenschaft der Deltafunktion (Gleichung (51), Seite 25) durch sich selbst dar: x(t) = + x(τ)δ(t τ)dτ. (71) Damit folgt für das Ausgangssignal + y(t) = S{x(t)} = S x(τ)δ(t τ)dτ. (72)

31 Grundlagen der Systemanalyse 31 In diesem Integral hängt nur δ(t τ) von t ab, die Werte x(τ) sind bezüglich t nur Gewichtsfaktoren. Wegen der Linearität der Systems gilt daher mit Gleichung (3), Seite 12: y(t) = + Wegen der Zeitinvarianz folgt aus der Impulsantwort für die zeitlich verschobene Impulsantwort Damit lautet das letzte Integral x(τ)s{δ(t τ)} dτ. (73) h(t) = S{δ(t)} (74) h(t τ) = S{δ(t τ)}. (75) y(t) = S{x(t)} = + x(τ)h(t τ)dτ. (76) Dieses Integral stellt eine grundlegende Beziehung der Systemtheorie dar. Kennt man nämlich die Impulsantwort h(t) eines LTI-Systems, so kann mit (76) die Reaktion y(t) auf beliebige Eingangssignale x(t) berechnet werden (eine gewissen Gutartigkeit aller beteiligten Signale vorausgesetzt). Mit der Impulsantwort h(t) ist also das Übertragungsverhalten eines LTI-Systems vollständig charakterisiert. Gleichung (76) heißt die Eingangs-Ausgangsgleichung für das durch h(t) beschriebene LTI-System. Unter dem Integral in Gleichung (76) wird das Eingangssignal x(τ) mit der bezüglich der Integrationsvariablen τ gespiegelten und danach jeweils um t nach rechts (für t > ) zeitverschobenen Impulsantwort h(t τ) = h( τ +t) = h(( τ) ( t)) gewichtet. Deswegen wird die Impulsantwort h(t) auch Gewichtsfunktion genannt. Da sie außerdem umgeklappt bzw. gefaltet verwendet wird, heißt das Integral in Gleichung (76) Faltungsintegral (Duhamelsches Integral). Die darin beschriebene Verknüpfung der beiden Signale x(t) und h(t) wird Faltung (convolution) genannt und symbolisch mit dem Faltungsstern bezeichnet: y(t) = x(t) h(t) := + x(τ)h(t τ)dτ. (77)

32 Grundlagen der Systemanalyse 32 Die Reaktion y(t) eines LTI-Systems auf das Eingangssignal x(t) läßt sich also darstellen durch die Faltung des Eingangssignals x(t) mit der Impulsantwort (Green-Funktion) h(t). Mit Hilfe der Substitution u = t τ bzw. τ = t u, dτ = du, erhält man eine alternative Darstellung des Faltungsintegrals in Gleichung (76): y(t) = + = = + + x(τ)h(t τ)dτ x(t u)h(u)du x(t u)h(u)du = + h(u)x(t u)du. Nun kann die neue Integrationsvariable u auch wieder τ genannt werden: y(t) = + Die letzte Beziehung zeigt, daß die Faltung kommutativ ist: h(τ)x(t τ)dτ = h(t) x(t). (78) x(t) h(t) = h(t) x(t). (79) Bei der Berechnung der Systemantwort y(t) durch Faltung können also die Erregung x(t) und die Impulsantwort h(t) im Faltungsprodukt vertauscht werden, m.a.w.: Das System erzeugt bei Vertauschung von Erregung und Impulsantwort dasselbe Ausgangssignal y(t). Da x(t) ein Signal beschreibt und h(t) ein System, werden Signale und Systeme durch die gleiche Klasse von Funktionen bzw. verallgemeinerten Funktionen beschrieben. Innerhalb dieser Klasse kann man daher nicht zwischen Signalen und Systemen unterscheiden. Man schreibt daher auch den Signalen Attribute wie stabil oder kausal zu, die sonst nur für Systeme gelten. Für kausale Systeme ist h(t) = für t < bzw. h(t τ) = für t τ <, d.h. für τ > t. In diesem Fall können die Integrationsgrenzen des Faltungsintegrals entsprechend angepaßt werden: x(t) h(t) = t x(τ)h(t τ)dτ = + h(τ)x(t τ)dτ für h(t) = t <. (8)

33 Grundlagen der Systemanalyse Der Zusammenhang zwischen Sprungantwort und Impulsantwort Setzt man speziell die Sprungfunktion als Erregung in das Faltungsintegral (76) ein, x(t) = σ(t), so erhält man als Ergebnis die Sprungantwort s(t): s(t) = + = σ(τ)h(t τ)dτ = t h(u)du = t + h(u)du, 1 h(t τ)dτ wobei wir die Substitution u = t τ, du = dτ verwendet haben. Damit läßt sich die Sprungantwort s(t) als Integral der Impulsantwort h(t) darstellen: s(t) = t h(τ) dτ. (81) Umgekehrt ergibt sich die Impulsantwort h(t) als Ableitung bzw. Derivation der Sprungantwort: h(t) = d s(t). (82) dt Die hier abgeleiteten Relationen zwischen Sprung- und Impulsantwort sind insofern bedeutsam, als es oft einfacher ist, die Sprungantwort s(t) eines Systems zu bestimmen. Man erhält dann für LTI-Systeme nach Gleichung (82) unmittelbar auch die Impulsantwort h(t). Beispiel Die Sprungantwort s(t) eines RC-Gliedes (Tiefpaß), d.h. der Spannungsverlauf am Kondensator, an das zur Zeit t = bei entladenem Kondensator eine Gleichspannung von einem Volt angelegt wird, d.h. x(t) = σ(t), lautet s(t) = ( 1 e t/rc) σ(t). (83) Mit Gleichung (82) ergibt sich die Impulsantwort dieses Systems zu h(t) = d dt s(t) = d ( 1 e t/rc) ( σ(t) + 1 e t/rc) d dt dt σ(t) = 1 ( RC e t/rc σ(t) + 1 e t/rc) δ(t) = 1 RC e t/rc σ(t) + = 1 RC e t/rc σ(t). ( 1 e /RC) δ(t)

34 Grundlagen der Systemanalyse Beispiel zur Berechnung des Faltungsintegrals Bei der Berechnung des Faltungsintegrals (77) ist es besonders wichtig, sich über den Unterschied der Zeitvariablen t und der Integrationsvariablen τ klar zu werden. Wir behandeln daher ausführlich ein einfaches Beispiel und berechnen die Reaktion y(t) eines RC-Gliedes (Tiefpaß) auf einen Rechteckimpuls x(t): 1 für t < T x(t) = T sonst. (84) Die Impulsantwort h(t) dieses Systems wurde im vorhergehenden Beispiel berechnet und lautet mit α := 1/RC : Zur Auswertung des Faltungsintegrals h(t) = 1 RC e t/rc σ(t) = α e αt σ(t). (85) y(t) = x(t) h(t) = + x(τ)h(t τ)dτ betrachten wir zuerst die Impulsantwort als Funktion der Integrationsvariablen τ. Um sie auf die Form h(t τ) zu bringen, müssen wir zuerst die rechtsseitige Zeitfunktion h(τ) nach links umklappen (h( τ)) und um den Parameter t verschieben (h(t τ)). Dabei ist zu beachten, daß t während der Integration über τ einen festen Wert darstellt. Die Abhängigkeit des Ergebnisses y(t) von t tritt erst dadurch hervor, daß das Faltungsintegral für viele Werte von t berechnet wird. Den Integranden x(τ) h(t τ) erhalten wir schließlich durch Multiplikation von h(t τ) mit x(τ). Das Integral selbst kann wegen der Rechtecksgestalt von x(τ) nur für τ < T von Null verschiedene Werte annehmen. Dabei sind drei Fälle zu unterscheiden: Für t gibt es keine Überlappung zwischen x(τ) und h(t τ). Daher haben das Produkt x(τ)h(t τ) und ebenso das Integral den Wert Null. Für < t < T überdecken sich x(τ) und h(t τ) teilweise, sodaß die Obergrenze des Integrals vom Parameter t, d.h. von der Verschiebung von h( τ), abhängt: y(t) = t 1 h(t τ) dτ = 1 t αe α(t τ) dτ T T

35 Grundlagen der Systemanalyse 35 = α t e αt T = 1 [ ] e αt e αt 1 T = 1 T [1 e αt]. e ατ dτ = α T e αt [ 1 α eατ ] t Für t T überdecken sich x(τ) und h(t τ) ganz und die Integration ist von bis T zu erstrecken: y(t) = T 1 T h(t τ) dτ = 1 T T αe α(t τ) dτ = α T e αt e ατ dτ = α [ ] 1 T e αt T T α eατ = 1 e αt[ ] e αt 1. T Zusammengefaßt lautet das Resultat der Faltung (Abb. 4) 1 [ 1 e αt] t < T T y(t) = 1 [ ] e αt 1 e αt t T T sonst. (86) In geschlossener Form läßt sich dieses Ergebnis mit Hilfe der Sprungfunktion σ(t) schreiben als y(t) = 1 T [ 1 e αt] σ(t) 1 T [1 e α(t T ) ] σ(t T ), (87) wobei wir für t T in Gleichung (86) den Term in der ersten Zeile von dem in der zweiten subtrahieren müssen. Dieses Ergebnis hätten wir auch direkt aus einer geschlossenen Darstellung des Rechteckimpulses x(t), Gleichung (84), x(t) = 1 ] [σ(t) σ(t T ), (88) T und Auswertung des Faltungsintegrals y(t) = +t x(τ)h(t τ)dτ = erhalten können (Übung). +t 1 [ σ(τ) σ(τ T ) T ] α e α(t τ) σ(t τ) dτ (89)

36 Grundlagen der Systemanalyse 36 x(t) h(t) y(t) T t Abb. 4 Faltung y(t) eines Rechtecksignals x(t) mit der Impulsantwort h(t) eines RC-Gliedes. Anmerkung Das gleiche Verhalten zeigt ein Ein-Kompartmentmodell ( System S ) in der Pharmakokinetik bei intravenöser Kurzzeitinfusion (Infusionsdauer von t = bis t = T ), wenn man die konstante Infusionsrate mit dem Eingangssignal x(t) und die Plasmakonzentration C p (t) des Arzneimittels mit dem Ausgangssignal y(t) identifiziert.

37 Grundlagen der Systemanalyse Faltungsalgebra Aus der Definition des Faltungsintegrals y(t) = x(t) h(t) = + x(τ)h(t τ)dτ ergeben sich neben der Kommutativität der Faltung (vgl. Seite 32) x(t) h(t) = h(t) x(t) eine Reihe weiterer Eigenschaften, die wegen der Eingangs-Ausgangsgleichung (76), Seite 31, für die Beschreibung von LTI-Systemen von Bedeutung sind: (a) Die Gleichung x(t) = für ein beliebiges Signal x(t) läßt sich in Kurzform schreiben als x(τ)δ(t τ) dτ (9) x(t) = x(t) δ(t) = δ(t) x(t). (91) Damit ist der Deltaimpuls das Einselement der Faltung. (b) Besteht das Eingangssignal x(t) aus der Summe zweier Signale x 1 (t) und x 2 (t), d.h. x(t) = x 1 (t) + x 2 (t), so folgt wegen der Linearität des Integrals y(t) = x(t) h(t) = [x 1 (t) + x 2 (t)] h(t) = = + [ x 1 (τ) + x 2 (τ) ] h(t τ)dτ = = x 1 (t) h(t) + x 2 (t) h(t) + + das Distributivgesetz der Faltung bezüglich der Addition: x(τ)h(t τ)dτ x 1 (τ)h(t τ)dτ + + x 2 (τ)h(t τ)dτ [x 1 (t) + x 2 (t)] h(t) = x 1 (t) h(t) + x 2 (t) h(t). (92)

38 Grundlagen der Systemanalyse 38 Wegen der Kommutativität und der Vertauschbarkeit von Eingangssignal und Impulsantwort (vgl. Seite 32), kann man die letzte Gleichung auch in der folgenden Form schreiben: x(t) [h 1 (t) + h 2 (t)] = [x(t) h 1 (t)] + [x(t) h 2 (t)]. (93) Diese Gleichung läßt sich systemtheoretisch so interpretieren: Die Parallelschaltung von zwei LTI-Systemen mit den Impulsantworten h 1 (t) und h 2 (t) verhält sich so wie ein einzelnes LTI- System mit der Impulsantwort h(t) = h 1 (t) + h 2 (t). (c) Die Faltung ist auch assoziativ, d.h. es gilt (Beweis: Doppelintegral mit Vertauschung der Integrationsreihenfolge): x(t) [h 1 (t) h 2 (t)] = [x(t) h 1 (t)] h 2 (t). (94) Werden zwei LTI-Systeme mit den Impulsantworten h 1 (t) und h 2 (t) in Reihe geschaltet, so kann die Gesamtanordnung als ein LTI-System mit der Impulsantwort h(t) = h 1 (t) h 2 (t) aufgefaßt werden. Wegen der Kommutativität der Faltung darf die Verarbeitungs-Reihenfolge der Systeme in der Reihenschaltung auch vertauscht werden, ohne daß sich die Impulsantwort des Gesamtsystems ändert: y(t) = [x(t) h 1 (t)] h 2 (t) = x(t) [h 1 (t) h 2 (t)] = x(t) [h 2 (t) h 1 (t)] = [x(t) h 2 (t)] h 1 (t). (d) Die Bedeutung der Faltung liegt auch darin, daß sie in verschiedenen Verkleidungen auftritt, die auf den ersten Blick gar nicht wie Faltungsoperationen aussehen. Es zeigt sich, daß z.b. die Verschiebung bzw. Verzögerung eines bliebigen Signals x(t) um t ebenfalls als Faltung betrachtet werden kann: Aus der Darstellung x(t) = + folgt nämlich für das um t verschobene Signal x(t t ) = + x(τ)δ(t τ) dτ x(τ)δ(t t τ) dτ = x(t) δ(t t ). Das Signal x(t) wird also durch Faltung mit der zeitverschobenen Deltafunktion δ(t t ) selbst um t zeitlich verschoben: x(t t ) = x(t) δ(t t ). (95)

39 Grundlagen der Systemanalyse 39 Speziell erhält man für x(t) = δ(t) die Impulsantwort h(t) eines derartigen Systems: h(t) = δ(t t ). (96) Ein LTI-System mit einer verzögerten Deltafunktion δ(t t ) als Impulsantwort nennt man Verzögerungsglied, da auch alle Eingangssignale um t verzögert werden, sonst aber unverändert bleiben. (e) Wird das Eingangssignal x(t) mit Hilfe eines Systems integriert, also y(t) = so folgt für die Impulsantwort dieses Systems t x(τ) dτ, h(t) = t δ(τ) dτ = σ(t). (97) Ein LTI-System mit der Sprungfunktion σ(t) als Impulsantwort führt also eine Integration des Eingangssignals durch: es ist ein Integrierer. Für einen Integrierer lautet daher das Ausgangssignal y(t) für ein bliebiges Eingangssignal x(t) y(t) = x(t) σ(t). Für die Faltung eines beliebigen Signals x(t) mit der Sprungfunktion σ(t) gilt daher: y(t) = x(t) σ(t) = + x(τ)σ(t τ)dτ = t x(τ) dτ. (98) Dieses Ergebnis hätte man auch direkt erhalten, wenn man berücksichtigt, daß σ(t τ) = für t τ <, d.h. für τ > t, und die Integrationsgrenzen entsprechend anpaßt.

40 Grundlagen der Systemanalyse 4 (f) In Kapitel (Seite 26) haben wir die zeitliche Ableitung δ(t) des Delta-Impulses über ihre Wirkung auf eine stetige Funktion unter einem Integralzeichen kennengelernt. Wir vermuten daher, daß δ(t) die Impulsantwort eines Differenziereres ist, d.h. eines Systems, das eine Differentiation seines Eingangssignals durchführt. Daß dies zutrifft, können wir bestätigen, wenn wir ein beliebiges Eingangssignal x(t) mit der vermuteten Impulsantwort h(t) = δ(t) falten: y(t) = x(t) δ(t) = = + + x(τ) δ(t τ) dτ x(τ) δ(τ t) dτ = ẋ(t). Dabei haben wir verwendet, daß δ(t) ungerade ist, d.h. δ( t) = δ(t), vgl. Gleichung (56), Seite 27, sowie die Ausblendeeigenschaft von δ(t), vgl. Gleichung (53), Seite 26. Die Faltung des Eingangssignals x(t) mit der Impulsantwort h(t) = δ(t) ergibt also die zeitliche Ableitung ẋ(t) des Eingangssignals: y(t) = x(t) δ(t) = ẋ(t). (99) (g) Abschließend wollen wir uns ansehen, was bei einem kausalen LTI-System die Faltung einer komplexen Exponentialfunktion x(t) = e st mit s = σ + iω C als Eingangssignal mit der Impulsantwort h(t) des Systems bewirkt. Nach Gleichung (8), Seite 32, gilt für so ein System: y(t) = x(t) h(t) = + h(τ)x(t τ)dτ = + h(τ)e s(t τ) dτ = e st + h(τ)e sτ dτ. Andererseits sind die komplexen Exponentialfunktionen e st Eigenfunktionen von LTI-Systemen (vgl. Gleichung (27), Seite 19): y(t) = S { e st} = H(s)e st. Für ein kausales LTI-System läßt sich damit die Übertragungsfunktion H(s) für x(t) = e st aus der Impulsantwort h(t) folgendermaßen berechnen: H(s) = + h(t)e st dt. (1) Diese Integraltransformation nennt man die (einseitige) Laplace-Transformation von h(t).

41 Grundlagen der Systemanalyse Eine Stabilitätsbedingung Ein kontinuierliches LTI-System heißt BIBO-stabil, wenn es auf jedes beschränkte Eingangssignal x(t) mit einem beschränkten Ausgangssignal y(t) reagiert, d.h. wenn gilt (vgl. Seite 14): x(t) < M 1 < y(t) < M 2 <. (11) Bei linearen Systemen ist die BIBO-Stabilität eine Systemeigenschaft, unabhängig vom speziellen Eingangssignal (sofern dieses nur beschränkt ist). Sie läßt sich anhand der Impulsantwort feststellen: Wenn die Impulsantwort h(t) eines kontinuierlichen LTI-Systems absolut integrierbar ist, d.h. wenn gilt dann ist das System BIBO-stabil. + h(t) dt < M 3 <, (12) Um das zu zeigen, bilden wir den Betrag y(t) des Ausgangssignals mit Hilfe des Faltungsintegrals. Die Annahme eines beschränkten Eingangssignals x(t) und einer absolut integrierbaren Impulsantwort h(t) führt direkt zu einer oberen Schranke für y(t) : + + y(t) = x(τ)h(t τ) dτ x(τ) h(t τ) dτ Beispiel + M 1 h(t τ) dτ = M 1 < M 1 M 3 <. + + h(u) du = M 1 Als einfaches Beispiel betrachten wir ein System mit der Impulsantwort h(u) du h(t) = e at σ(t) (13) für a R. Wir untersuchen, ob die Impulsantwort h(t) absolut integrierbar ist: h(t) dt = e at σ(t) dt = e at dt = a e at = a für a > für a. Das System ist also stabil für a >. (14)

42 Grundlagen der Systemanalyse Elementare Systembausteine Komplexe Systeme werden zur Beschreibung in elementare Einheiten zerlegt. Bei Kenntnis der Impulsantworten h(t) dieser Bausteine können die Reaktionen auf beliebige Eingangssignale mit Hilfe des Faltungsintegrals berechnet werden. Umgekehrt dienen die Grundbausteine zum Aufbau komplexer Systeme, z.b. in der Regelungstechnik. Traditionell verwendet man jedoch in der Regelungstechnik zur Charakterisierung von LTI-Systemen die Sprungantwort anstelle der Impulsantwort. Das liegt einerseits daran, daß die Theorie der Distributionen später entwickelt wurde, andererseits ist die Sprungantwort meßtechnisch leichter zu beherrschen als die Impulsantwort (nicht jedes empfindliche technische oder gar biologische System hält einen kräftigen Stoß als Näherung für einen Delta-Impuls aus) P-Systeme Bei Proportional-Systemen oder kurz P-Systemen ist das Ausgangssignal y(t) proportional zum Eingangssignal x(t), d.h. das Eingangssignal wird zeitlich unverfälscht (verzerrungsfrei) an den Systemausgang weitergegeben. Das Systemverhalten wird durch eine algebraische Gleichung beschrieben: y(t) = k P x(t). (15) Der Proportionalitätsfaktor k P heißt Proportionalbeiwert, Übertragungsbeiwert oder auch Verstärkungsfaktor. Durch Einsetzen der Deltafunktion in Gleichung (15) folgt direkt die Impulsantwort h(t) als skalierter Delta-Impuls sowie die Sprungantwort s(t) als Integral über h(t): h(t) = k P δ(t). (16) s(t) = t t h(τ) dτ = k P δ(τ) dτ = k P σ(t). (17) Beispiele Mechanischer Dämpfer mit F(t) = γ v(t), wo F(t) die Dämpfungs- bzw. Reibungskraft (Ausgangsgröße) bei der Geschwindigkeit v(t) (Eingangsgröße) ist. γ ist die Dämpfungsbzw. Reibungskonstante. Ein weiteres mechanisches Beispiel ist der Hebel. Rein Ohmscher Widerstand R mit U(t) = R I(t), mit U(t) die Spannung und I(t) der Stom.

43 Grundlagen der Systemanalyse 43 All den aufgezählten Systemen ist die Tatsache gemeinsam, daß sie keine Energiespeicherung irgendwelcher Art vornehmen. Zur Energiespeicherung wird immer eine endliche Zeit benötigt, weshalb die Systemwirkung verzögert am Ausgang erscheint. Solche Systeme besitzen ein summierendes ( integrierendes ) Verhalten: I-Systeme Bei integrierenden Systemen oder I-Systemen fließt das Eingangssignal direkt in einen Massenoder Energiespeicher und das Ausgangssignal y(t) ist somit proportional zum Zeitintegral des Eingangssignals x(t): y(t) = k I t x(τ) dτ = 1 T I t x(τ) dτ. (18) Die Proportionalitätskonstante k I wird als Integrierbeiwert bezeichnet. Die Größe T I nennt man (Integrations-)Zeitkonstante (T I ist jedoch nur dann eine Zeitkonstante, wenn es sich bei dem Eingangs- und Ausgangssignal um gleiche physikalische Größen handelt, z.b. um Spannungen; sind es unterschiedliche Größen, so ist die Verwendung von k I sinnvoller). Durch Zeitableitung von Gleichung (18) gewinnt man die Definitionsgleichung in Form einer Differentialgleichung: ẏ(t) = k I x(t). (19) Die Impulsantwort h(t) sowie die Sprungantwort s(t) eines I-Systems ergeben sich unmittelbar aus der Definitionsgleichung (18) durch Einsetzen von δ(t) bzw. σ(t): h(t) = k I t δ(τ) dτ = k I σ(t). (11) s(t) = k I t σ(τ) dτ = k I t σ(t) = k I ρ(t). (111) Die Impulsantwort h(t) ist also eine skalierte Sprungfunktion, die Sprungantwort s(t) eine skalierte Rampenfunktion, d.h. das System reagiert auf einen Sprung mit einer stetig ansteigenden

44 Grundlagen der Systemanalyse 44 Rampe. Daraus wird auch die Instabilität des Systems deutlich: Das Ausgangssignal steigt unbeschränkt, obwohl das Eingangssignal beschränkt bleibt. Beispiele I-Systeme beschreiben Systeme mit einem Speichervermögen, wie z.b.: Behälter aller Art (Druckerhöhung durch ein einströmendes Medium). Federn (speichern Bewegungsenergie): t F(t) = k x(t) = k v(τ) dτ. F(t) ist die Kraft, die eine gedehnte bzw. gestauchte Feder ausübt, x(t) die Auslenkung aus der Ruhlage und v(t) die Geschwindigkeit, mit der die Feder ausgelenkt wurde, k ist die sogenannte Federkonstante. Elektrische Kondensatoren (speichern elektrische Ladungen): U(t) = 1 t C I(τ) dτ. Dabei ist C die Kapazität des Kondensators (ein Maß für sein Fassungsvermögen für elektrische Ladungen Q = C U), U(t) die Spannung am Kondensator und I(t) der Ladestrom D-Systeme Bei D-Systemen ist das Ausgangssignal y(t) proportional der zeitlichen Ableitung des Eingangssignals x(t): y(t) = k D ẋ(t) = T D ẋ(t). (112) Die Größen k D bzw. T D nennt man Differentiationsverstärkung, Differenzierbeiwert oder auch Differentiationszeitkonstante. Impulsantwort h(t) und Sprungantwort s(t) eines derartigen idealisierten Systems lauten: h(t) = k D δ(t). (113) s(t) = k D δ(t). (114)

45 Grundlagen der Systemanalyse 45 Während eine Sprungfunktion noch gut erzeugt werden kann, ist die Sprungantwort eines idealen D-Systems nicht mehr realisierbar, da das Ausgangssignal nach Gleichung (113) eine beliebig hohe Amplitude aufweisen würde. Demnach ist ein ideales D-System (d.h. ohne Verzögerung) nicht realisierbar, sondern nur approximierbar. Außerdem erhält das System zum Zeitpunkt t nur den Momentanwert x(t) des Eingangssignals, soll aber aus dieser Information die Ableitung, d.h. die Steigung der Tangente an x(t), berechnen, was nicht eindeutig möglich ist. Das Problem wäre lösbar, wenn zum Zeitpunkt t ein Wert des Eingangssignals vor diesem Zeitpunkt bekannt wäre; das System benötigt deshalb einen Speicher bzw. ein Gedächtnis (in der Differentialgleichung also einen zusätzlichen Term ẏ(t), vgl. Gleichung (18) und (19)). Beispielsweise könnte das System ein idealer Kondensator sein, bei dem die Spannung U(t) das Eingangssignal und der Ladestrom I(t) das Ausgangssignal darstellt: I(t) = C U(t). In diesem Fall müßte der Speicherinhalt (Ladung im Kondensator) Q(t) = C U(t) als Erregung vorgegeben werden, dies ist aber in der Realität nicht möglich Laufzeit-Systeme Bei Tot- oder Laufzeit-Systemen wird das Eingangssignal x(t) bis auf einen Faktor k P originalgetreu als Ausgangssignal y(t) wiedergegeben, jedoch um die Laufzeit T L später: y(t) = k P x(t T L ). (115) Da die Signalform unverändert bleibt, wird ein Laufzeit-System auch verzerrungsfrei genannt. Die Zeitverschiebung entsteht dadurch, daß das Eingangssignal in Form eines Transportprozesses das System bis zum Ausgang durchläuft (z.b. Transport von flüssigen Medien in Rohrleitungen, Reflexion von Schallwellen und Echo, Mobiltelephon). Die Impuls- und Sprungantwort dieses Systems ergeben sich einfach durch Einsetzen der entsprechenden Erregungen in Gleichung (115): h(t) = k P δ(t T L ). (116) s(t) = k P σ(t T L ). (117)

46 Grundlagen der Systemanalyse Systeme mit verzögertem Zeitverhalten Bei allen realen Systemen sind immer kleine Energiespeicher vorhanden, wie z.b. Eingangskapazitäten, Leitungsinduktivitäten, Federn (potentielle Energie), träge Massen (kinetische Energie), die verzögernd wirken, da es immer einer gewissen Zeit bedarf, bis diese Speicher aufgefüllt bzw. entleert werden. PT 1 -Systeme Die Ausgangsverzögerung bei P-Systemen äußert sich in der Systemgleichung durch Hinzunahme eines Terms proportional zur ersten Ableitung ẏ(t) des Ausgangssignals y(t). Damit erhält man als Systemgleichung für ein proportionales System mit Verzögerung 1. Ordnung folgende Differentialgleichung 1. Ordnung: T 1 ẏ(t) + y(t) = k P x(t). (118) Wenn die Zeitkonstante T 1 klein ist, < T 1 1, kann der Term mit der ersten Ableitung von y(t) vernachlässigt werden, und man erhält wieder die idealisierte Beschreibung der Gleichung (15). Wie man aus Gleichung (118) sieht, bewirkt das Hinzunehmen der ersten Ableitung von y(t) eine Verzögerung der Ausgangssignale in Bezug auf die Eingangssignale, da das Eingangssignal nicht mehr streng proportional an den Ausgang weitergegeben wird, sondern zu x(t) noch die zeitliche Änderung von y(t) hinzukommt, die der Ursache x(t) entgegenwirkt: y(t) = k P x(t) T 1 ẏ(t). Beispielsweise handelt es sich bei einem RC-Glied (Tiefpaß) um ein PT 1 -System. Die Sprungund Impulsantwort dieses Systems wurden schon behandelt (vgl. Seite 33 mit RC = T 1 als Zeitkonstante): ) s(t) = k P (1 e t/t 1 σ(t), (119) h(t) = k P T 1 e t/t1 σ(t). (12) Nach einer sprungförmigen Änderung des Eingangssignals strebt das Ausgangssignal exponentiell asymptotisch mit der Zeitkonstanten T 1 gegen einen Endwert. Die Impulsantwort h(t) ist eine abfallende Exponentialfunktion. Dieses Verhalten ist beim RC-Glied bedingt durch die Aufladung des Kondensators (Kapazität C), der hier die Funktion des Energiespeichers übernimmt.

47 Grundlagen der Systemanalyse 47 IT 1 -Systeme Ein I-System mit Verzögerung 1. Ordnung ergibt analog zum Vorhergehenden ein IT 1 -System: T 1 ẏ(t) + y(t) = k I t x(τ) dτ. (121) Wir können dieses System als Reihenschaltung eines idealen I-Systems und eines PT 1 -Systems auffassen: t z(t) = k I x(τ) dτ (122) T 1 ẏ(t) + y(t) = z(t) (123) Aus der Vertauschbarkeit der Verarbeitungsreihenfolge von LTI-Systemen (vgl. Seite 38) folgt, daß sich die Sprung- sowie die Impulsantwort des IT 1 -Systems durch Integration aus der Sprungsowie der Impulsantwort des PT 1 -Systems (mit k P = 1) berechnen lassen: s(t) = k I t s PT1 (τ) dτ = k I h(t) = k I t t ( ) ( ) 1 e τ/t 1 σ(τ) dτ = k I t T 1 + T 1 e t/t 1 σ(t), (124) ) h PT1 (τ) dτ = k I s PT1 (t) = k I (1 e t/t 1 σ(t). (125) DT 1 -Systeme Aus dem idealen D-System erhält man durch Hinzufügen eines Gliedes proportional zur Ableitung von y(t) ein D-System mit Verzögerung 1. Ordnung, ein sogenanntes DT 1 -System oder Vorhalteglied. Die Systemgleichungen lauten daher: T 1 ẏ(t) + y(t) = k D ẋ(t) = T D ẋ(t). (126) Ein Beispiel für ein DT 1 -System ist das CR-Glied (Hochpaß), bei dem gegenüber dem RC- System der Widerstand mit dem Kondensator vertauscht ist. Die Differentialgleichung für dieses System lautet RC ẏ(t) + y(t) = RC ẋ(t), (127)

48 Grundlagen der Systemanalyse 48 wobei x(t) die Eingangsspannung und y(t) die Ausgangsspannung (am Widerstand R) ist. Hier lauten die Parameter T 1 = RC und T D = RC, d.h. T D ist in diesem Fall eine Zeitkonstante. Auch das DT 1 -System kann wieder als Reihenschaltung zweier Systeme betrachtet werden, und zwar als ein ideales D-System, dessen Ausgangssignal z(t) als Eingangssignal eines nachfolgenden PT 1 -Systems (mit k P = 1) verwendet wird: z(t) = T D ẋ(t) (128) T 1 ẏ(t) + y(t) = k P z(t) = 1 z(t) (129) Nach Vertauschung der Verarbeitungsreihenfolge ergeben sich damit direkt Sprungantwort s(t) und Impulsantwort h(t): d s(t) = T D dt s d PT 1 (t) = T D dt h(t) = T D d dt h PT 1 (t) = T D d dt ( ) σ(t) e t/t1 σ(t) = T D ( 1 T 1 e t/t1 σ(t) ) T 1 e t/t1 σ(t), (13) = T D T1 2 e t/t1 σ(t) + T D δ(t). (131) T 1 Die Antwort s(t) eines DT 1 -Systems auf eine Sprungfunktion σ(t) steigt also zunächst ebenfalls sprungartig an, um danach exponentiell mit einer charakteristischen Zeitkonstante T 1 gegen Null zu gehen. Damit zeigt das DT 1 -System hier das gleiche Verhalten wie ein PT 1 -System nach Erregung mit einem Delta-Impuls (vgl. Gleichung (12), Seite 46). PT 2 -Systeme Als Beispiel für Systeme mit Verzögerungen höherer Ordnung erwähnen wir das PT 2 -System. Es ist durch zwei voneinander unabhängige Energiespeicher gekennzeichnet. Je nach den Dämpfungseigenschaften unterscheidet man beim Verzögerungsglied 2. Ordnung zwischen schwingendem und aperiodischem Verhalten. Beim schwingenden Verhalten pendelt die Energie zwischen den beiden Energiespeichern hin und her. Als Beispiel für die Systemgleichung eines PT 2 -Systems betrachten wir ein RLC-Netzwerk ( Reihenschwingkreis ), LC ÿ(t) + RC ẏ(t) + y(t) = x(t), (132) wobei y(t) die Ausgangsspannung am Kondensator und x(t) die Eingangsspannung bedeutet. Hier wird der Ladestrom des Kondensators der Kapazität C zusätzlich durch die Induktivität L einer Spule verzögert. Die Energie pendelt zwischen Kondensator und Induktivität, die Schwingungsamplitude wird jedoch kontinuierlich kleiner, weil im Widerstand R ständig Energie in Wärme umgewandelt wird. Ein völlig analoges Verhalten zeigt ein mechanisches Masse-Feder System mit Reibung.

49 Grundlagen der Systemanalyse Zusammenfassung: Eigenschaften von LTI-Systemen x(t) h(t) y(t) = x(t) * h(t) Abb. 5 LTI-System mit Impulsantwort h(t). Impulsantwort h(t) = S{δ(t)} Eingangs-Ausgangsgleichung (Faltung) Sprungantwort y(t) = x(t) h(t) y(t) = + x(τ) h(t τ) dτ s(t) = S{σ(t)} Impulsantwort und Sprungantwort h(t) = d dt s(t) s(t) = t h(τ) dτ Kausalität h(t) = für t < BIBO-Stabilität Eigenfunktion e st, Eigenwert und Übertragungsfunktion H(s) (einseitige Laplace-Transformation von h(t) für kausale Systeme) + h(τ) dτ < y(t) = S{e st } = H(s) e st H(s) = + h(t) e st dt

50 Grundlagen der Systemanalyse 5 9 Systembeschreibung im Bildbereich Wir haben in Kapitel 7.1, Seite 19, gesehen, daß die komplexen Exponentialfunktionen x(t) = e st mit s = σ + iω C, Eigenfunktionen von LTI-Sytemen sind. Für sie ist bei Kenntnis der Impulsantwort h(t) die Berechnung der zugehörigen Ausgangssignale y(t) relativ einfach durchzuführen, siehe Gleichung (1), Seite 4. Leider sind viele in der Realität auftretende Signale keine Eigenfunktionen von LTI-Systemen. Als Ausweg bietet sich an, beliebige Signale x(t) als Überlagerung (kontinuierliche Summe) von Eigenfunktionen e st mit unterschiedlichen Frequenzen s darzustellen. Dann können nämlich die Reaktionen des LTI-Systems auf die einzelnen Eigenfunktionen bestimmt und anschließend nach dem Superpositionsprinzip (Seite 12) zur Reaktion auf das beliebige Eingangssignal x(t) zusammengesetzt werden. Die Idee, ein Signal in einzelne Komponenten zu zerlegen, ist bereits von den Fourier-Reihen her bekannt: Dort werden periodische Signale der Periodenlänge T als Überlagerung (unendliche Summe) von harmonischen Schwingungen dargestellt, deren Frequenzen ganzzahlige Vielfache der Grundfrequenz ω = 2π/T des jeweiligen Ausgangssignals sein müssen: f (t) a [ ] 2 + a n cos(nωt) + b n sin(nωt) n=1 Wir beschränken uns hier jedoch nicht auf periodische Signale und müssen daher eine Zerlegung in Eigenfunktionen mit beliebigen Frequenzen zulassen. Die nachfolgende Überlagerung besteht dann aus einer kontinuierlichen Summe (einem Integral) über die möglichen Frequenzen. Diese Idee läßt sich in verschiedener Weise verwirklichen und führt zur Laplace- bzw. zur Fourier- Transformation Definition der Laplace-Transformation Um ein Signal x(t) als Überlagerung einzelner Anteile darstellen zu können, braucht man zwei Schritte: die Zerlegung von x(t) in seine Anteile, die Überlagerung der Anteile zum gesamten Signal x(t). Die Formulierung der Zerlegung führt auf die Definition der Laplace-Transformation:

51 Grundlagen der Systemanalyse 51 Die (einseitige) Laplace-Transformation einer kausalen Zeitfunktion f (t) : [, ) R, mit t R und f (t) = für t < ist definiert als F(s) := L { f (t)} := f (t)e st dt := lim A A f (t)e st dt (133) für diejenigen Werte der komplexen Frequenzvariablen s = σ + iω C, für die das uneigentliche Integral (133) konvergiert (Konvergenzbereich). Man schreibt hierfür auch f (t) F(s) (134) Das Symbol (Laplace-Korrespondenz) steht für die Transformation vom Originalbereich ( Zeitbereich ) in den Bildbereich mit F(s) als Bildfunktion von f (t) und f (t) als Originalfunktion (Urbildfunktion) von F(s). Das Integral in (133) heißt Laplace-Integral. Anmerkungen Die untere Grenze in Gleichung (133) wird in der Literatur manchmal mit angegeben (also ein infinitesimal kleiner negativer Wert), um daran zu erinnern, daß Dirac-Impulse bei t = im Integral berücksichtigt werden. Die Laplace-Transformation repräsentiert die reellwertige (oder komplexwertige) Zeitfunktion f (t) durch eine andere komplexwertige Funktion F(s), die in der komplexen Frequenzebene definiert ist. Da diese Zuordnung für die in der Praxis wichtigen Funktionen umkehrbar eindeutig ist (wenn man von den Funktionswerten an Unstetigkeitsstellen absieht), ist F(s) ein Repräsentant, der f (t) vollständig beschreibt. Die (zweiseitige) Laplace-Transformation ist ähnlich wie die Fourier-Transformation als eine Integraltransformation mit einer komplexen Exponentialfunktion als Kern definiert. Der einzige Unterschied besteht im Frequenzparameter der Exponentialfunktion: Während die Fourier-Transformation die rein imaginäre Frequenzvariable iω verwendet, arbeitet die Laplace-Transformation mit einer komplexen Frequenzvariablen s = σ + iω. Das entspricht der Multiplikation der Funktion f (t) mit einem Dämpfungsfaktor e σt. Damit erreicht man, daß mit der Laplace-Transformation eine größere Funktionenklasse erfaßt werden kann als mit der Fourier-Transformation: Es gibt Funktionen, wie z.b. die Sprungfunktion, für die das Fourier-Integral nicht konvergiert, wohl aber durch geeignete Wahl des Frequenzparameters σ = Re{s} das Laplace-Integral in Gleichung (133).

52 Grundlagen der Systemanalyse 52 Beispiel 1 Wir betrachten eine abklingende Exponentialfunktion, die für t < verschwindet. Sie könnte z.b. die Impulsantwort eines RC-Gliedes, d.h. eines kausalen Systems sein. Die Konstante a > sei zunächst reell, a R: x(t) = e at σ(t). Die Laplace-Transformierte X(s) = L {x(t)} der kausalen Exponentialfunktion x(t) erhalten wir durch direktes Ausrechnen des Laplace-Integrals (133): X(s) = = [ e at σ(t) e st dt = 1 s + a e (s+a)t ] t= t= e (s+a)t dt = 1 s + a [ lim t e (s+a)t 1 ] = 1 s + a. Die Wirkung der Sprungfunktion σ(t) ist schon durch die einseitige Laplace-Transformation (d.h. untere Integralgrenze ist Null) berücksichtigt. Der Grenzwert der komplexen Exponentialfunktion für t existiert für s = σ + iω wegen [ ] e (s+a)t = e (σ+iω+a)t = e (σ+a)t e iωt = e (σ+a)t cosωt isinωt nur, wenn σ + a > ist, d.h. σ > a, also nur für die Werte von s, für die Re{s} > a gilt. Für alle anderen Werte von s konvergiert das Integral nicht. Man sagt: Die Laplace-Transformation existiert nicht. Das Ergebnis lautet also insgesamt: L { e at σ(t) } = 1 s + a ; Re{s} > a. (135) Der Konvergenzbereich in der s-ebene umfaßt alle Werte des Parameters s, deren Realteil größer als a ist, also die rechte Halbebene Re{s} > a der komplexen s-ebene. Das bleibt auch für komplexe a C richtig, sofern Re{s} > Re{a} ist: L { e at σ(t) } = 1 s a ; Re{s} > Re{a}. (136) Für a = erhalten wir als wichtigen Spezialfall von Gleichung (135) die Laplace-Transformierte der Sprungfunktion σ(t): L {σ(t)} = 1 s ; Re{s} >. (137)

53 Grundlagen der Systemanalyse 53 Wie das letzte Beispiel zeigt, konvergiert das Laplace-Integral nicht für beliebige Werte des komplexen Parameters s. Für die Konvergenz muß die Dämpfung, d.h. die reelle Größe σ in s = σ +iω genügend groß sein, bzw. die zu transformierende Funktion f (t) für t genügend langsam wachsen. Allgemein kann man die folgende hinreichende Bedingung für die Existenz der Laplace-Transformation zeigen: Ist die Funktion f (t) in jedem endlichen Intervall t T stückweise stetig (d.h. stetig bis auf endlich viele Sprungstellen), und von exponentieller Ordnung für t, d.h. es existieren Konstanten M,γ R, M >, sodaß für alle genügend großen t T gilt f (t)e γt < M bzw. f (t) < M e γt, dann existiert die Laplace-Transformierte F(s) = L { f (t)} für alle s mit Re{s} > γ. Die gerade nicht mehr erlaubte Grenze γ heißt Konvergenzabszisse, der erlaubte Bereich Re{s} > γ in der komplexen s-ebene heißt Konvergenzhalbebene. Intuitiv bedeutet der Begriff von exponentieller Ordnung, daß der Betrag für derartige Funktionen ab einem bestimmten Zeitpunkt T höchstens so schnell wie eine Exponentialfunktion M e γt wächst. Dabei können M und γ beliebig groß (aber fest) sein. Beispielsweise sind beschränkte Funktionen, wie etwa sin ωt oder cos ωt von exponentieller Ordnung. Hingegen ist f (t) = exp(t 2 ) nicht von exponentieller Ordnung, da exp(t 2 )exp( γt) = exp(t 2 γt) für wachsende t nicht beschränkt ist. Beispiel 2 Unmittelbar aus der Definitionsgleichung der Laplace-Transformation, Gleichung (133), und der Ausblendeeigenschaft der Deltafunktion δ(t), Gleichung (45) auf Seite 23, folgt: L {δ(t)} = 1, (138) und für a > L {δ(t a)} = e as. (139) Damit ist die Laplace-Transformation von δ(t) eine gewöhnliche Funktion. Die Laplace-Transformation L { f (t)} eines Zeitsignals f (t) wird im allgemeinen nicht durch direkte Auswertung des Integrals (133) berechnet, sondern mit Hilfe einiger Rechenregeln aus Standardkorrespondenzen entnommen:

54 Grundlagen der Systemanalyse Eigenschaften und Rechenregeln der Laplace-Transformation Im folgenden seien f (t) und g(t) stets Laplace-transformierbar und s sei ein Wert im Durchschnitt der Konvergenzbereiche von F(s) und G(s) Linearität Aus der Linearität der Integration ergibt sich aus der Definitionsgleichung (133) der Laplace- Transformation für die lineare Überlagerung zweier Zeitfunktionen f (t) und g(t) mit zwei beliebigen komplexen Konstanten a,b C: L {a f (t) + b g(t)} = a L { f (t)} + b L {g(t)}. (14) Das Superpositionsprinzip überträgt sich also in den Bildraum. Beispiel 1 Als erstes Beispiel berechnen wir die Laplace-Transformation der kausalen cosh-funktion. Da dieses Zeitsignal in zwei Exponentialfunktionen aufgespalten werden kann, x(t) = cosh(at) σ(t) = 1 2 ( e at + e at) σ(t), wenden wir die Laplace-Transformation auf die beiden Exponentialfunktionen an. Mit Gleichung (135) folgt dann X(s) = L {x(t)} = 1 2 ( 1 s a + 1 ) = s + a s s 2 a 2 ; Re{s} > a >. Die Laplace-Transformation der cosh-funktion kann somit auf die bereits bekannte Transformation der kausalen Exponentialfunktion, Gleichung (135), zurückgeführt werden, ohne das Laplace-Integral (133) explizit berechnen zu müssen. Beispiel 2 Als zweites Beispiel berechnen wir die Laplace-Transformation der kausalen cos-funktion und der kausalen sin-funktion. Aus Gleichung (136), L { e at σ(t) } = 1 s a ; Re{s} > Re{a},

55 Grundlagen der Systemanalyse 55 folgt mit a = iω: L { e at σ(t) } = L {(cosωt + i sinωt) σ(t)} = 1 s iω = = s + iω s 2 + ω 2 = s s 2 + ω 2 + i ω s 2 + ω 2. Vergleich von Real- und Imaginärteil liefert die wichtigen Korrespondenzen L {(cosωt) σ(t)} = s + iω (s iω)(s + iω) s s 2 ; Re{s} >, (141) + ω2 L {(sinωt) σ(t)} = ω s 2 ; Re{s} >. (142) + ω Verschiebung im Zeitbereich Ist F(s) = L { f (t)} die Laplace-Transformierte der Zeitfunktion f (t), so gilt für die um a > zeitverschobene Funktion f (t a), mit f (t a) = für t < a, der Verschiebungssatz L { f (t a)} = e as F(s). (143) Eine Verschiebung um a im Zeitbereich bewirkt also eine Dämpfung mit e as im Bildbereich Verschiebung im Bildbereich Wird in einer Laplace-Transformierten F(s) die komplexe Frequenzvariable s durch den Ausdruck s a ersetzt mit a C, so erhält man die zugehörige Zeitfunktion, indem man die ursprüngliche Zeitfunktion f (t) mit dem Exponentialfaktor e at multipliziert (Modulationssatz): L { e at f (t) } = F(s a). (144) Beispielsweise ergibt sich für die auf- und abklingende kausale cos-funktion bzw. sin-funktion aus Gleichung (141) bzw. (142) für a R: L { e at (cosωt) σ(t) } = s a (s a) 2 ; Re{s} > a, (145) + ω2

56 Grundlagen der Systemanalyse 56 L { e at (sinωt) σ(t) } = ω (s a) 2 ; Re{s} > a. (146) + ω Ähnlichkeitssatz Multipliziert man die Zeitvariable t einer Funktion f (t) mit einer reellen Skalierungskonstanten a >, so läßt sich die zugehörige Laplace-Transformierte mit Hilfe des Ähnlichkeitssatzes aus der ursprünglichen Laplace-Transformierten F(s) = L { f (t)} bestimmen: L { f (at)} = 1 ( s ) a F, a >. (147) a Läuft also ein Zeitvorgang f (t) mit erhöhter Geschwindigkeit (a > 1) ab, so sind im Bildbereich die F-Werte mit dem Faktor 1/a reduziert und der Graph in s-richtung um den Faktor a gestreckt, falls F(s) reell ist Differentiation im Zeitbereich Ist f (t) stetig für alle t mit F(s) = L { f (t)} und ist ḟ (t) Laplace-transformierbar, so gilt für die Laplace-Transformation der Ableitung von f (t) der Differentiationssatz L { ḟ (t) } = s L { f (t)} f () = s F(s) f (). (148) Beweis: Durch partielle Integration ( ḟ g = f g f ġ) erhalten wir nämlich für jedes A > A ḟ (t)e st dt = [ f (t)e st] A A [ f (t)( s)e st dt = f (t)e st] A A + s f (t)e st dt. Im Limes A erhalten wir daraus, da f (t) als Laplace-transformierbar vorausgesetzt wurde und also insbesondere von exponentieller Ordnung ist, sodaß f (A)e sa für A verschwindet: L { ḟ (t) } = lim A A ḟ (t)e st dt = f () + s f (t)e st dt = f () + s F(s).

57 Grundlagen der Systemanalyse 57 Ist hingegen f (t) nicht stetig bei t =, wie z.b. viele kausale Funktionen (die bei t = einen endlichen Sprung aufweisen), existiert aber lim f (t) =: f ( +), so erhält man t,t> L { ḟ (t) } = s F(s) f ( + ), (149) wobei mit der Schreibweise + angedeutet wird, daß der Wert von f (t) nach einem Sprung, also der rechtsseitige Grenzwert, zu verwenden ist. Das ergibt sich aus dem Vorhergehenden daraus, indem man den Punkt t = aus dem Integrationsintervall herausnimmt. Dies ändert nämlich den Wert des Integrals nicht, sofern man sich auf klassische Funktionen (also keine Distributionen) beschränkt. Wendet man Gleichung (148) auf die zweite Ableitung d 2 f (t)/dt 2 = f (t) an, erhält man analog L { f (t) } = s L { ḟ (t) } [ ] ḟ () = s s F(s) f () ḟ (), also L { f (t) } = s 2 F(s) s f () ḟ (). (15) Ebenso ergibt sich für die höheren Ableitungen L { } f (n) (t) = s n F(s) s n 1 f ()... f (n 1) (). (151) Beispiel Für t sei f (t) = t n mit n 1 ganzzahlig. Dann ist ḟ (t) = nt n 1 und mit Gleichung (148) ergibt sich wegen f () = L { nt n 1} = s L {t n }. Wegen der Linearität der Laplace-Transformation erhalten wir daher die Rekursionsformel Daraus folgt mit Gleichung (137), Seite 52, L {t n } = n s n 1 s L {t n } = n s L { t n 1} ; Re{s} >. (152) L { t n 2} =... = n(n 1)... 1 s n L {1} = n! s n 1 s = n! s n+1. Da t vorausgesetzt wurde, können wir für t R und n N auch schreiben L {t n σ(t)} = n! ; Re{s} >. (153) sn+1

58 Grundlagen der Systemanalyse Integration im Zeitbereich Ist f (t) Laplace-transformierbar mit L { f (t)} = F(s), so gilt der Integrationssatz Beweis: Setzt man g(t) := t L t f (τ) dτ = 1 s L { f (t)} = 1 F(s). (154) s f (τ)dτ, so gilt ġ(t) = f (t) und g() =. Damit wird wegen Gleichung (148) die Laplace-Transformierte von ġ(t) L {ġ(t)} = s L {g(t)} = s L t f (τ) dτ = L { f (t)} = F(s). (155) Differentiation und Integration im Zeitbereich führen also zu algebraischen Operationen im Bildbereich. Daher wendet man die Laplace-Transformation bei der Lösung von Differentialgleichungen an Differentiation im Bildbereich Für F(s) = L { f (t)} gilt Beweis: L {t f (t)} = d F(s). (156) ds Aus F(s) = f (t)e st dt ergibt sich durch Ableitung beider Seiten nach s und Anwendung der Leibnitz schen Regel für die Differentiation unter dem Integral d ds F(s) = d f (t)e st dt = f (t) ( e st ) dt ds s = f (t) ( t e st) dt = [t f (t)]e st dt = L {t f (t)}. Durch n-malige Anwendung dieser Überlegung erhält man für n N: L {t n f (t)} = ( 1) n dn F(s). (157) dsn

59 Grundlagen der Systemanalyse 59 Kennt man also schon die Laplace-Transformierte F(s) von f (t), so kann man sich für t f (t) die Berechnung des Laplace-Integrals ersparen: Man braucht nur F(s) nach s abzuleiten und mit 1 zu multiplizieren, um L {t f (t)} zu bekommen. Beispiel Wie lautet die Laplace-Transformation von f (t) = t e t σ(t)? Unter Verwendung von L {e t σ(t)} = 1/(s 1) für Re{s} > 1, Gleichung (136) auf Seite 52, erhalten wir L { t e t σ(t) } = d ds 1 s 1 = 1 (s 1) Integration im Bildbereich Unter der Voraussetzung, daß neben f (t) auch f (t)/t Laplace-transformierbar ist, kann man mit Hilfe von Gleichung (156) folgende Beziehung zeigen: L { } 1 t f (t) = F(u) du. (158) s Der Faltungssatz Hat man mit F(s) = L { f (t)} und G(s) = L {g(t)} das Produkt F(s) G(s) im Bildbereich, so stellt sich die Frage, welche Verknüpfung der Originalfunktionen f (t) und g(t) im Zeitbereich diesem Produkt F(s) G(s) im Bildbereich entspricht: L { f (t) g(t)} = F(s) G(s)? Es zeigt sich, daß die gesuchte Verknüpfung das früher eingeführte Faltungsprodukt ist: f (t) g(t) = t f (τ)g(t τ)dτ, (159) wobei wir hier die Grenzen und t angeben, da bei der einseitigen Laplace-Transformation nur Werte von f (τ) und g(t τ) für Argumente τ bzw. t τ, d.h. τ t, auftreten. Damit gilt der Faltungssatz der Laplace-Transformation: L { f (t) g(t)} = L { f (t)} L {g(t)} = F(s) G(s). (16)

60 Grundlagen der Systemanalyse 6 Beweis: Mit der Definition der Laplace-Transformation, Gleichung (133) auf Seite 51, ergibt sich L {( f g)(t)} = t f (τ)g(t τ)dτ e st dt. Dieses iterierte Integral kann man als Doppelintegral über den (unendlichen) keilförmigen Bereich B := { (t,τ) R 2 : τ t für t < } schreiben: L {( f g)(t)} = f (τ)g(t τ)e st dτ dt. B Dieses Doppelintegral kann wieder als iteriertes Integral ausgewertet werden, jetzt allerdings mit vertauschter Integrationsreihenfolge. Man integriert nun zuerst über t und dann über τ (zuerst horizontal und dann erst vertikal im Bereich B): L {( f g)(t)} = f (τ) τ g(t τ)e st dt dτ. Führt man im inneren Integral, wo die Variable τ jeweils konstant ist, die Variablentransformation u = t τ, dt = du, durch, so ergibt sich für das innere Integral τ g(t τ)e st dt = Damit erhält man insgesamt L {( f g)(t)} = = g(u)e s(τ+u) du = e sτ f (τ)e sτ f (τ)e sτ dτ g(u)e su du. g(u)e su du dτ g(u)e su du = L { f (t)} L {g(t)}. Damit entspricht der Faltung f g zweier Originalfunktionen im Zeitbereich die (gewöhnliche) Multiplikation F G der zugehörigen Laplace-Transformierten im Bildbereich. Weiters liefert der Faltungssatz einen neuen Beweis für die Kommutativität des Faltungsproduktes im Zeitbereich: Da das Produkt im Bildbereich als gewöhnliche Multiplikation kommutativ ist, muß auch die Faltung im Zeitbereich kommutativ sein.

61 Grundlagen der Systemanalyse Die Rücktransformation und das Umkehrintegral Die Rücktransformation (inverse Laplace-Transformation), also die Gewinnung der Originalfunktion f (t) aus der Bildfunktion F(s), wird durch das Umkehrintegral (Bromwich-Integral) f (t) = L 1 {F(s)} = 1 2πi c+i c i F(s)e st ds, t > (161) ermöglicht, wobei f (t) = für t < gilt. Dabei ist zu beachten, daß Gleichung (161) in einer Sprungstelle t = t s den arithmetischen Mittelwert der links- und rechtsseitigen Grenzwerte [ f (t s+ ) + f (t s )]/2, speziell im Nullpunkt t = den Wert [ f ( + ) + f ( )]/2 = f ( + )/2 liefert. Die Integration ist als komplexes Linienintegral für eine feste reelle Konstante c parallel zur imaginären Achse im Konvergenzgebiet durchzuführen, wobei c größer als die Realteile sämtlicher singulärer Punkte von F(s) sein muß. Gleichung (161) heißt auch die komplexe Inversionsformel. Aus der komplexen Umkehrformel (161) sieht man, daß die inverse Laplace-Transformation eine Zeitfunktion f (t) als Überlagerung unendlich vieler komplexer Exponentialfunktionen darstellt. Schreibt man nämlich das Integral (161) als Grenzwert einer Riemann-Summe, so ergibt sich f (t) = 1 2πi = 1 2πi c+i c i lim s F(s)e st ds {... + F(s )e s t + F(s 1 )e s 1 t + F(s 2 )e s 2 t +... } s, wobei die s k äquidistante Punkte auf dem komplexen Integrationsweg sind. Jeder einzelne Summand ist eine komplexe Exponentialfunktion, gewichtet mit einem komplexen Faktor, nämlich der Laplace-Transformation von f (t) an der Stelle s k. Somit können wir die Laplace-Hin- bzw. Rücktransformation als Zerlegung einer Funktion in Exponentialanteile bzw. Zusammensetzung aus diesen Anteilen interpretieren. Zur direkten Auswertung des Umkehrintegrals benötigt man Resultate aus der Theorie der komplexen Funktionen ( Funktionentheorie ), sie wird in der Praxis jedoch meist vermieden. Aus der komplexen Umkehrformel ergibt sich nämlich, daß die Laplace-Transformation in allen Punkten, in denen f (t) stetig ist, eine umkehrbar eindeutige Zuordnung von Originalfunktion und Bildfunktion darstellt. Daher braucht in vielen Fällen das Umkehrintegral gar nicht berechnet zu werden, sondern es kann die zugehörige Zeitfunktion f (t) einer Korrespondenztabelle entnommen werden. Wenn z.b. F(s) eine rationale Funktion ist, führt die Partialbruchzerlegung von F(s) zum Ziel.

62 Grundlagen der Systemanalyse 62 Außerdem kann oft der Faltungssatz zur Berechnung der inversen Laplace-Transformation y(t) = L 1 {Y (s)} verwendet werden. Ist nämlich Y (s) als Produkt darstellbar, Y (s) = F(s) G(s), und sind weiters f (t) = L 1 {F(s)} und g(t) = L 1 {G(s)} bekannt, so ist die inverse Laplace- Transformation von Y (s) einfach das Faltungsprodukt von f (t) und g(t), also y(t) = f (t) g(t): L 1 {F(s) G(s)} = f (t) g(t). (162) Beispiel Sei Y (s) als Produkt im Bildraum darstellbar, Y (s) = F(s) G(s) = 1 s 1 1 s 2. Die inversen Laplace-Transformationen der Faktoren sind { } { } 1 1 L 1 = e t und L 1 s 1 s 2 = e 2t, sodaß die gesuchte inverse Laplace-Transformation L 1 {Y (s)} = y(t) mit dem Faltungsprodukt y(t) = f (t) g(t) berechnet werden kann: { } L 1 {F(s) G(s)} = L 1 1 = (s 1)(s 2) Anmerkung t t e τ e 2(t τ) dτ = e 2t e τ dτ = e 2t e t. In der Praxis werden der Faltungssatz und die inverse Laplace-Transformation zur Entfaltung (Dekonvolution) experimenteller Messungen benutzt. Das Meßergebnis y(t) wird oft durch eine Apparatefunktion (Instrumentenfunktion) h(t) verfälscht, und man mißt nicht die eigentlich interessierende physikalische Größe f (t), sondern das Faltungsprodukt mit der Instrumentenfunktion: y(t) = f (t) h(t). Kennt man nun die Instrumentenfunktion h(t), so kann f (t) im Prinzip aus der Messung y(t) bestimmt werden, indem man im Bildraum L {y} = L { f h} durch H = L {h} dividiert und dann rücktransformiert: L {y} = L { f h} = F H F = L {y}/h f = L 1 {L {y}/h} In der Praxis stellt sich jedoch heraus, daß diese Methode sehr empfindlich auf kleine Meßfehler und Ungenauigkeiten der Apparatefunktion h(t) reagiert, da man drei (numerische) Laplace- Transformationen benötigt. Es gibt zahlreiche Methoden, um diese Probleme zu bewältigen [2].

63 Grundlagen der Systemanalyse Anwendung von MATLAB bei Laplace-Transformationen Wie bereits erwähnt, erfordert die Auswertung der komplexen Umkehrformel Methoden der Funktionentheorie. Die direkte Auswertung von (161) wird daher in der Praxis oft vermieden. Fast immer wird man in der Praxis die Umkehrung mit Hilfe von Korrespondenztabellen, mit Hilfe der Partialbruchzerlegung bei gebrochen rationalen Bildfunktionen, wegen der Linearität der inversen Laplace-Transformation L 1 L 1 {a F(s) + b G(s)} = a L 1 {F(s)} + b L 1 {G(s)} = a f (t) + b g(t) (163) mit Hilfe von Linearkombinationen bekannter Umkehrtransformationen, oder mit Hilfe von Faltungsintegralen (siehe oben) vornehmen. Eine weitere Möglichkeit bietet der Einsatz von Computeralgebra-Systemen. In MATLAB werden zur Berechung der Laplace-Transformation bzw. der inversen Laplace-Transformation die Funktionen laplace() und ilaplace() in der Symbolic Math Toolbox zur Verfügung gestellt: >> syms a s t w >> >> f1 = exp(-a*t); >> F1 = laplace(f1) F1 = 1/(s+a) >> >> f2 = cos(w*t); >> F2 = laplace(f2) F2 = s/(sˆ2+wˆ2) >> pretty(f2) s s + w >> >> f3 = dirac(t); >> F3 = laplace(f3) F3 = 1

64 Grundlagen der Systemanalyse 64 >> f4 = heaviside(t); >> F4 = laplace(f4) F4 = 1/s >> >> syms a positive >> f5 = dirac(t - a); >> F5 = laplace(f5) F5 = exp(-s*a) >> >> f6 = heaviside(t - a); >> F6 = laplace(f6) F6 = exp(-s*a)/s >> >> syms a positive >> f7 = dirac(t - a); >> F7 = int( f7*exp(-s*t), t,, inf) F7 = exp(-s*a) >> >> f8 = sym( f(t) ); >> F8 = laplace( diff(f8) ) F8 = s*laplace(f(t),t,s)-f() >> >> >> ilaplace( 1/s ) ans = 1 >> >> ilaplace( 1/(s-a) ) ans = exp(a*t) >> >> ilaplace( exp(-a*s) ) ans = dirac(t-a) >> ilaplace( s/(sˆ2+wˆ2) ) ans = cos(w*t) >> >> ilaplace( sym( laplace(f(t),t,s) ), s, t ) ans = f(t)

65 Grundlagen der Systemanalyse Eine Korrespondenztabelle für Laplace-Transformationen y(t) = { f (t) t, t <. Y (s) = L {y(t)} = f (t)e st dt Konvergenzgebiet δ(t) 1 s 1 = σ(t) t t n (n N) e at 1 s a 1 s Re{s} > 1 s 2 Re{s} > n! s n+1 Re{s} > Re{s} > a t e at 1 (s a) 2 Re{s} > a t n e at (n N) sinωt cosωt e at sinωt e at cosωt sinh at cosh at n! (s a) n+1 Re{s} > a ω s 2 + ω 2 Re{s} > s s 2 + ω 2 Re{s} > ω (s a) 2 + ω 2 Re{s} > a s a (s a) 2 + ω 2 Re{s} > a a s 2 a 2 Re{s} > a > s s 2 a 2 Re{s} > a > δ(t a) (a > ) e as s σ(t a) (a > ) 1 s e as Re{s} >

66 Grundlagen der Systemanalyse Analyse von LTI-Systemen mit der Laplace-Transformation Wendet man nun den Faltungssatz der Laplace-Transformation (Gleichung (16) auf Seite 59), L { f (t) g(t)} = L { f (t)} L {g(t)} = F(s) G(s), auf das in Kapitel 8.3 (Gleichung (76) auf Seite 31) abgeleitete Faltungsintegral y(t) = x(t) h(t) = + x(τ)h(t τ)dτ = t x(τ)h(t τ)dτ der Eingangs-Ausgangsgleichung zur Berechnung der Antwort y(t) eines kausalen LTI-Systems bei gegebenem (kausalem) Eingangssignal x(t) und bekannter Impulsantwort h(t) an, dann folgt Y (s) = X(s) H(s), (164) wobei H(s) die Laplace-Transformierte der Impulsantwort h(t) ist: H(s) = L {h(t)} = h(t)e st dt. (165) H(s) bezeichnet man als Übertragungsfunktion oder Transferfunktion des LTI-Systems. Mit Hilfe der Übertragungsfunktion kann also bei bekannter Eingangsgröße x(t) bzw. X(s) unmittelbar die Laplace-Transformierte Y (s) der Ausgangsgröße durch eine einfache Multiplikation im Bildbereich berechnet werden. Durch Rücktransformation von Y (s) in den Zeitbereich kann damit die Systemreaktion y(t) ohne Berechnung des Faltungsintegrals ermittelt werden. (Anmerkung: Im Unterschied zu früheren Überlegungen, wo H(s) bei der Übertragung von Eigenfunktionen e st durch LTI-Systeme eingeführt wurde, vgl. Seite 19 und Seite 4, gilt Gleichung (164) für beliebige Eingangssignale x(t), vorausgesetzt ihre Laplace-Transformierten X(s) existieren). x(t) X(s) h(t) H(s) y(t) = x(t) * h(t) Y(s) = X(s).H(s) Abb. 6 Beschreibung von kontinuierlichen LTI-Systemen im Zeit- und Bildbereich.

67 Grundlagen der Systemanalyse 67 Kennt man umgekehrt x(t) bzw. X(s) und y(t) bzw. Y (s), so ergibt sich die Übertragungsfunktion H(s) als Verhältnis der Laplace-Transformierten des Ausgangssignals und des Eingangssignals: H(s) = Y (s) X(s). (166) Dies ist eine typische Aufgabe der Systemidentifikation. Die Attraktivität der oben skizzierten Methode zur Berechnung der Systemreaktion y(t) durch Multiplikation von X(s) und H(s) im Bildraum steht und fällt jedoch mit der Einfachheit der Rücktransformation von Y (s). Wir werden uns daher im folgenden mit der prinzipiellen Bauart der Übertragungsfunktion H(s) bei kausalen LTI-Systemen beschäftigen. Wie die Beispiele in Kapitel 8.8 vermuten lassen, werden kontinuierliche LTI-Systeme sofern man zunächst Laufzeiten nicht berücksichtigt durch lineare Differentialgleichungen mit konstanten Koeffizienten beschrieben, a n y (n) (t) + a n 1 y (n 1) (t) a 1 y (1) (t) + a y(t) = b x(t) b m x (m) (t), (167) mit m n und a n. Setzt man alle Anfangsbedingungen gleich Null (alle Energiespeicher sind leer für t = ) und wendet auf beiden Seiten von (167) die L -Transformation an, so ergibt sich mit dem Differentiationssatz (Gleichung (148), Seite 56 bzw. Gleichung (151), Seite 57) unter der Voraussetzung, daß die Laplace-Transformierten X(s) und Y (s) von x(t) und y(t) existieren: { } { } L a n y (n) (t) + a n 1 y (n 1) (t) a 1 y (1) (t) + a y(t) = L b x(t) b m x (m) (t) a n s n Y (s) + a n 1 s n 1 Y (s) a 1 sy (s) + a Y (s) = b X(s) b m s m X(s) ( an s n + a n 1 s n 1 ) a 1 s + a Y (s) = (b b m s m ) X(s) Mit der obigen Definition folgt die sogenannte Polynomform von H(s), H(s) = Y (s) X(s) = b + b 1 s b m s m a + a 1 s a n s n Z(s) =: N(s), (168) wobei Z(s) und N(s) das Zähler- und Nennerpolynom dieser Beziehung beschreiben. Anmerkung Die Übertragungsfunktion muß nicht immer die in Gleichung (168) angegebene Form haben. Berücksichtigt man beispielsweise noch eine Laufzeit T L (vgl. Kapitel 8.8.4, Seite 45), so erhält man anstelle von Gleichung (168) die transzendente Übertragungsfunktion H(s) = Z(s) N(s) e st L. (169)

68 Grundlagen der Systemanalyse 68 Beispiel 1 Für ein RC-Glied (Tiefpaßfilter) mit der Eingangsspannung x(t) und der Spannung y(t) an der Kapazität C als Ausgangsgröße lautet die Differentialgleichung: ẏ(t) + 1 RC y(t) = 1 x(t). (17) RC Weiters sei die Anfangsbedingung y() = vorgegeben, d.h. der Energiespeicher des Kondensators sei zur Zeit t = leer. Für die Berechnung der Übertragungsfunktion H(s) bilden wir die Laplace-Transformation der gegebenen Differentialgleichung: sy (s) + 1 RC Y (s) = 1 RC X(s) ( s + 1 ) Y (s) = 1 RC RC X(s) H(s) = Y (s) X(s) = 1/RC s + 1/RC H(s) = 1 RC 1 s + 1/RC Wegen h(t) = L 1 {H(s)} ergibt sich mit Gleichung (135), Seite 52, die Impulsantwort h(t) des RC-Gliedes zu h(t) = 1 { } RC L 1 1 s + 1/RC, h(t) = 1 RC e t/rc σ(t). (171) Die Impulsantwort h(t) läßt sich auch unmittelbar aus der Differentialgleichung für x(t) = δ(t) gewinnen. Wegen L {δ(t)} = 1 ergibt nun die Laplace-Transformation von Gleichung (17) sy (s) + 1 RC Y (s) = 1 RC 1 ( s + 1 ) Y (s) = 1 RC RC Y (s) = in Übereinstimmung mit dem obigen Ergebnis. 1/RC s + 1/RC = 1 RC 1 s + 1/RC y(t) = 1 RC e t/rc σ(t) = h(t),

69 Grundlagen der Systemanalyse 69 Aus der Darstellung (168) der rationalen Übertragungsfunktion H(s) lassen sich nun viele Eigenschaften des zugehörigen LTI-Systems ablesen. Dazu bringt man die Polynomform von H(s) in die sogenannte Pol-Nullstellen-Form, H(s) = Z(s) N(s) = b m a n m k=1 (s s Nk ) n (s s Pk ) k=1, (172) wobei die s Nk C (k = 1,...,m) die Nullstellen des Zählerpolynoms und die s Pk C (k = 1,..., n) die Nullstellen des Nennerpolynoms kennzeichnen. Diese Darstellungen für Z(s) und N(s) ergeben sich jeweils aus dem Fundamentalsatz der Algebra, wonach jedes Polynom n- ten Grades genau n Nullstellen in C besitzt, wenn man jede mit ihrer Vielfachheit rechnet. Die Nullstellen des Zählerpolynoms Z(s) sind gleichzeitig die Nullstellen der Systemfunktion H(s), während für die Nullstellen des Nennerpolynoms N(s) der Betrag von H(s) gegen Unendlich strebt. Diese singulären Stellen nennt man die Pole von H(s). Unter der Voraussetzung, daß sich in der Übertragungsfunktion H(s) keine Pole und Nullstellen wegkürzen, ist das Nennerpolynom N(s) von H(s) das der DGL des Systems zugeordnete charakteristische Polynom. Den Grad dieses Polynoms nennt man die Ordnung des Systems. Die Gleichung zur Bestimmung der Polstellen heißt charakteristische Gleichung, a + a 1 s a n s n =, (173) ihre Lösungen werden auch als Wurzeln bezeichnet. Aus der Darstellung in Gleichung (172) folgt, daß mit der Pol-Nullstellenverteilung eine bis auf einen Skalierungsfaktor b m /a n (Gain) vollständige Charakterisierung des Übertragungsverhaltens eines LTI-Systems ohne Laufzeit vorliegt. Die graphische Darstellung der Pole ( ) und Nullstellen ( ) in der s-ebene heißt Pol-Nullstellen-Diagramm. Gehen wir nun wieder zu der dem LTI-System zugeordeneten Differentialgleichung (DGL) mit konstanten Koeffizienten, Gleichung (167), zurück. Die allgemeine Lösung dieser DGL, d.h. die Funktion y(t), welche die DGL identisch erfüllt, setzt sich aus der allgemeinen Lösung y h (t) der homogenen DGL und einer partikulären Lösung y p (t) der inhomogenen DGL (167) zusammen: y(t) = y h (t) + y p (t). (174) Die Lösung y h (t) der homogenen Gleichung beschreibt das Verhalten des Systems, das nur von den Anfangsbedingungen abhängig ist (die Eigenbewegungen des Systems), also unabhängig vom Eingangssignal x(t).

70 Grundlagen der Systemanalyse 7 Setzt man die komplexe Exponentialfunktion als Lösungsansatz in die homogene DGL y(t) = e st a n y (n) (t) + a n 1 y (n 1) (t) a 1 y (1) (t) + a y(t) = (175) ein und klammert e st aus, so resultiert die charakteristische Gleichung mit dem charakteristischen Polynom n a k s k = a + a 1 s a n s n =. k= Das Auffinden der homogenen Lösung erfordert somit die Berechnung aller Wurzeln der charakteristischen Gleichung, also der K verschiedenen Nullstellen s Pk (mit deren Vielfachheit V k ) des charakteristischen Polynoms: n k s k=a k K = a n (s s P1 )(s s P2 )...(s s Pn ) = a n (s s Pk ) V k =. k=1 Jede Nullstelle s Pk des charakteristischen Polynoms bzw. jeder Pol der Übertragungsfunktion liefert im Lösungsansatz für die homogene Gleichung einen Beitrag e s P t k. Tritt nun ein Pol mit der Vielfachheit V k > 1 auf, sind die Terme t e s P k t, t 2 e s P k t,..., t V k 1 e s P k t ebenfalls Lösungen. Die Linearkombination der Beiträge aller Pole von H(s) liefert schließlich die allgemeine Lösung der homogenen DGL: y h (t) = C 1 e s P t 1 + C 2 e s P 2 t e } {{ } s P kt (C k +C k1 t +C k2 t C k(vk 1)t V k 1 ) +... (176) } {{ } einfache Pole vielfacher Pol Bei realen physikalischen Systemen sind alle Koeffizienten a k der DGL reell, daher können neben rein reellen Polen nur konjugiert komplexe Polpaare auftreten. Diese lassen sich in der Lösung übersichtlich zusammenfassen. Für ein konjugiert komplexes Polpaar der Vielfachheit eins mit s P1 = σ P + iω P und s P2 = σ P iω P = s P 1 erhält man den gemeinsamen Lösungsbeitrag C 1 e s P t 1 + C 2 e s P 2 t = e σ Pt (C ) 1 e iωpt + C 2 e iω Pt Mit Hilfe der Eulerschen Formeln, e ±ix = cosx ± isinx, erhält man daraus e σ Pt [(C 1 +C 2 )cosω P t + (C 1 i C 2 i)sinω P t].

71 Grundlagen der Systemanalyse 71 C 1 und C 2 dürfen dabei beliebig komplex sein. Mit den neuen komplexen Konstanten C 1 = C 1 + C 2 und C 2 = C 1 i C 2 i erhält man als Lösungsbeitrag für das konjugiert komplexe Polpaar der Vielfachheit eins e σ Pt [ C 1 cosω P t + C 2 sinω P t ]. Für reale Systeme ist man wieder nur an reellen Lösungen interessiert; in diesem Fall nimmt man nur den Realteil des letzten Ausrucks, d.h. C 1 und C 2 werden als reelle Konstanten interpretiert. Die Lösung der homogenen DGL spiegelt die Eigenbewegung des Systems wieder, d.h. am Ausgang treten für reelle Pole Eigenschwingungen der Form e σpt,t e σpt,t 2 e σpt,... (177) auf, wobei (je nach Vielfachheit der Pole) die Terme mit Potenzen von t auch fehlen können. Für konjugiert komplexe Polpaare erhält man nach den obigen Überlegungen am Systemausgang Eigenschwingungen der Form e σpt [cosω P t + sinω P t], t e σpt [cosω P t + sinω P t], t 2 e σpt [cosω P t + sinω P t],... (178) wobei gegebenenfalls wieder Terme mit Potenzen von t fehlen können. Die Kreisfrequenzen ω Pk werden Eigenkreisfrequenzen genannt. Aus den Gleichungen (177) und (178) erkennt man, daß die Lage der Pole s Pk in der s-ebene vollständig das Eigenverhalten oder Schwingungsverhalten des durch Gleichung (175) beschriebenen Systems charakterisieren: Für Re{s Pk } < erhält man für y(t) einen abklingenden und für Re{s Pk } > einen aufklingenden Schwingungsverlauf, während sich für konjugiert komplexe Polpaare mit Re{s Pk } = ungedämpfte Dauerschwingungen einstellen. Gleichung (173) zur Bestimmung der Pole wird deswegen als charakteristische Gleichung bezeichnet. Damit also die Eigenschwingungen des Systems für wachsendes t abklingen, muß für alle Pole s Pk gelten: Re{s Pk } = σ Pk <. Das System ist damit stabil, wenn alle Pole einen negativen Realteil besitzen, sodaß die Eigenbewegung insgesamt abklingt. Anders ausgedrückt müssen alle Pole des Systems in der linken s-halbebene des Bildraumes liegen. Die Pole legen also die Eigendynamik und die Stabilität des Systems fest und hängen nur von der linken Seite der zugehörigen DGL, also deren homogenem Teil, ab. Anmerkung Sind die n Speicher eines Systems zum Anfangszeitpunkt t = nicht leer, so führt dies zu n Anfangswerten der zugehörigen homogenen DGL (175): y() = y,...,y (n 1) () = y (n 1).

72 Grundlagen der Systemanalyse 72 Beispiel 2 Wir wollen den Zusammenhang zwischen dem dynamischen Systemverhalten und der Lage der Wurzeln im Pol-Nullstellen-Diagramm eines PT 2 -Systems (vgl. Seite 48) demonstrieren. Beispielsweise stellt ein mechanisches Feder-Masse System mit Reibung ein solches schwingungsfähiges System dar. Die Energie kann hier zwischen Feder und Masse hin- und herpendeln, bis sie durch Reibungsverluste verbraucht, d.h. in Wärme umgewandelt wird. Die Systemgleichung für ein derartiges System lautet mÿ(t) + r ẏ(t) + k y(t) = x(t). Dabei ist y(t) die Position der Masse m (Auslenkung aus der Ruhelage y = ), r ist der Reibungskoeffizient (Dämpfungskonstante), k > der Koeffizient der elastischen, d.h. in y linearen, Rückstellkraft ( Federkonstante ) und x(t) ist eine äußere Kraft. Mit den Abkürzungen γ := r 2m und ω 2 := k m, wobei γ die Dämpfung charakterisiert und ω > die Eigenkreisfrequenz des ungedämpften Systems darstellt, schreibt sich die letzte Gleichung als ÿ(t) + 2γ ẏ(t) + ω 2 y(t) = 1 m x(t). Für die Anfangsbedingungen ẏ() = und y() = lautet die Laplace-Transformation der letzten Gleichung: ( s 2 + 2γ s + ω 2 ) Y (s) = 1 m X(s). Damit ergibt sich die Übertragungsfunktion H(s) dieses Systems zu H(s) = Y (s) X(s) = 1/m s 2 + 2γ s + ω 2 = 1/m (s s 1 ) (s s 2 ). (179) Die Übertragungsfunktion H(s) besitzt keine Nullstellen, die Polstellen s 1 und s 2 des Systems sind die Nullstellen des Nennerpolynoms und ergeben sich aus den Lösungen der Gleichung s 2 + 2γ s + ω 2 =, sind also gegeben durch s 1,2 = γ ± γ 2 ω 2. (18) Der Wert des Dämpfungsparameters γ bestimmt das dynamische Verhalten des Systems:

73 Grundlagen der Systemanalyse 73 Dämpfung Polstellen Pol-Nullstellen-Diagramm Systemverhalten Stark s 1 = γ + γ 2 ω 2 γ > ω s 2 = γ γ 2 ω 2 Zwei reelle Polstellen s 1 < und s 2 < Kriechfall Kritisch s 1 = s 2 = γ Eine reelle Polstelle γ = ω der Vielfachheit 2 Aperiodischer Grenzfall Schwach γ < ω s 1 = γ + i ω 2 γ2 s 2 = γ i ω 2 γ2 Zwei konjugiert komplexe Polstellen mit Re { } s 1,2 < Gedämpfte Schwingung Keine γ = s 1 = +i ω s 2 = i ω Zwei rein imaginäre Polstellen Ungedämpfte Schwingung Abbilung 7 zeigt das Pol-Nullstellen-Diagramm des Systems (179) für den Fall zweier konjugiert komplexer Polstellen s 1 und s 2 mit Re { s 1,2 } < (gedämpfte Schwingung). iω s 1 -γ σ s 2 Abb. 7 Pol-Nullstellen-Diagramm des Systems (179) bei schwacher Dämpfung (γ < ω ).

74 Grundlagen der Systemanalyse 74 Abbilung 8 zeigt den Betrag von H(s) der Übertragungsfunktion des Systems (179) über der komplexen s-ebene für m = 1, ω = 1 und γ = 1/2. Man erkennt die zwei konjugiert komplexen Polstellen s 1 = ( 1 + i 3)/2 und s 2 = ( 1 i 3)/2. H s Σ Ω 2 Abb. 8 Betrag H(s) der Transferfunktion des Systems (179) für m = 1, ω = 1 und γ = 1/2. Abschließend wollen wir die Impulsantwort h(t) des Systems (179) für den Fall schwacher Dämpfung, d.h. für den Fall γ < ω berechnen. Wegen Gleichung (165) müssen wir dazu H(s) in den Zeitbereich zurücktransformieren: wo H(s) gegeben ist durch H(s) = 1 m h(t) = L 1 {H(s)}, 1 ( s 2 + 2γ s + ω) 2 = 1 m 1 (s s 1 ) (s s 2 ), mit Dabei ist ω := s 1 = γ + i ω 2 γ2 = γ + iω s 2 = γ i ω 2 γ2 = γ iω ω 2 γ2 = ω 1 (γ/ω ) 2 < ω die Kreisfrequenz des gedämpften Systems.

75 Grundlagen der Systemanalyse 75 Um für die Rücktransformation von H(s) Korrespondenztabellen anwenden zu können, ist es vorteilhaft, für 1/[(s s 1 ) (s s 2 )] in H(s) eine Partialbruchzerlegung durchzuführen: 1 (s s 1 ) (s s 2 ) = A + B. s s 1 s s 2 Nach Multiplikation der letzten Gleichung mit (s s 1 ) und Einsetzen des speziellen Wertes s = s 1 findet man für A 1 A = (s 1 s 2 ). Analog ergibt sich für B 1 B = (s 2 s 1 ). Insgesamt erhält man damit für H(s) die Partialbruchzerlegung H(s) = 1 m 1 (s s 1 ) (s s 2 ) = 1 m 1 (s 1 s 2 ) [ 1 s s 1 1 s s 2 ], und mit Hilfe der Korrespondenztabelle auf Seite 65 h(t) = L 1 {H(s)} = 1 [ { } m 1 1 (s 1 s 2 ) L 1 s s 1 { }] 1 L 1 s s 2, h(t) = 1 m 1 (s 1 s 2 ) [e s1t e s 2t ] σ(t) = 1 m 1 [ 2iω e ( γ+iω)t e ( γ iω)t] σ(t), h(t) = 1 mω e γt 1 [ 2i e +iωt e iωt] σ(t). Unter Verwendung der Eulerschen Formeln, e ±iα = cosα ± isinα, ergibt sich daraus h(t) = 1 mω e γt 1 [cosωt + isinωt cosωt + isinωt] σ(t) 2i (bzw. direkt mit Formel (19), Seite 18) und damit schließlich die gesuchte Impulsantwort h(t) = 1 mω e γt sinωt σ(t). (181) Das ist eine exponentiell gedämpfte Sinusschwingung mit der Kreisfrequenz ω = ω 2 γ2. Die Dämpfung bewirkt also eine Verkleinerung der Kreisfrequenz ω des ungedämpften Systems um den Faktor 1 (γ/ω ) 2. In Abbildung 9 ist die soeben berechnete Impulsantwort h(t) des Systems (179) für m = 1, ω = 1 und γ =.2 bzw. γ =.5 dargestellt.

76 Grundlagen der Systemanalyse 76 h(t) t Abb. 9 Impulsantwort h(t) des Systems (179) für m = 1, ω = 1 und γ =.2 bzw. γ =.5. Ebenfalls dargestellt sind die Einhüllenden ±e γt /(mω) für den Fall γ =.2. Alternativ ergibt sich die Impulsantwort h(t), Gleichung (181), unmittelbar aus H(s) wie folgt: H(s) = 1 m 1 ( s 2 + 2γ s + ω 2 ) = 1 m 1 (s + γ) 2 + (ω 2 γ2 ) = 1 m 1 (s + γ) 2 + ω 2, h(t) = 1 { } mω L 1 ω (s + γ) 2 + ω 2 = 1 mω e γt sinωt σ(t). Dabei haben wir aus der Korrespondenztabelle auf Seite 65 die Beziehung für sin ωt sowie den Verschiebungssatz im Bildbereich (Modulationssatz), Gleichung (144) auf Seite 55, verwendet. Mit Gleichung (76), Seite 31, erhalten wir schließlich die Systemantwort y(t) auf ein beliebiges Eingangssignal (d.h. auf eine äußere Kraft) x(t) für den Fall, daß das schwach gedämpfte (d.h. γ < ω ) Feder-Masse System anfänglich in Ruhe ist, d.h. y() = ẏ() = : y(t) = x(t) h(t) = t x(τ)h(t τ) dτ = 1 mω t x(τ)e γ(t τ) sinω(t τ) dτ.

77 Grundlagen der Systemanalyse Beschreibung zusammengesetzter Systeme Reale Systeme setzten sich oft aus vielen Teilsystemen zusammen. Im Zeitbereich bedeutet eine Kopplung solcher Teilsysteme die Zusammenführung einfacherer Systemgleichungen zu komplexen Differentialgleichungen höherer Ordnung. Bei der Systembeschreibung im Bildbereich kommt man hingegen mit einfachen Rechenregeln für die jeweiligen Übertragungsfunktionen aus. Im folgenden wird vorausgesetzt, daß sich das Übertragungsverhalten der Teilsysteme durch die Zusammenschaltung nicht ändert Serienschaltung Bei der Hintereinanderschaltung zweier LTI-Systeme mit Y 1 (s) = H 1 (s) X 1 (s) und Y 2 (s) = H 2 (s) X 2 (s) berechnet sich wegen X 2 (s) = Y 1 (s) = H 1 (s) X 1 (s) die Übertragungsfunktion H(s) des Gesamtsystems zu H(s) = Y 2(s) X 1 (s) = X 2(s) H 2 (s) X 1 (s) = [H 1(s) X 1 (s)] H 2 (s) X 1 (s) = H 1 (s) H 2 (s). (182) Daher ergibt sich bei der Serienschaltung von n LTI-Sytemen die Gesamtübertragungsfunktion H(s) durch Multiplikation der Einzelübertragungsfunktionen: H(s) = H 1 (s) H 2 (s)... H n (s). (183) Parallelschaltung Bei der Parallelschaltung zweier Systeme gilt für die jeweiligen Ausgangsgrößen im Bildbereich: Y 1 (s) = H 1 (s) X(s) und Y 2 (s) = H 2 (s) X(s). Daher gilt für die Übertragungsfunktion H(s) des Gesamtsystems H(s) = Y (s) X(s) = Y 1(s) + Y 2 (s) X(s) = H 1(s) X(s) + H 2 (s) X(s) X(s) = H 1 (s) + H 2 (s). (184) Die Gesamtübertragungsfunktion H(s) von n parallel geschalteten LTI-Systemen berechnet sich also durch Addition der Einzelübertragungsfunktionen: H(s) = H 1 (s) + H 2 (s) H n (s). (185)

78 Grundlagen der Systemanalyse Kreisschaltung Bei der Kreisschaltung berechnet man zunächst die Ausgangsfunktionen Y 1 (s) und Y 2 (s) der beiden Teilsysteme: Y (s) = Y 1 (s) = H 1 (s) X 1 (s) Y 2 (s) = H 2 (s) X 2 (s) = H 2 (s) Y 1 (s) = H 2 (s) H 1 (s) X 1 (s) Anschließend bestimmt man das Eingangssignal von System 1 durch Addition bzw. Subtraktion von Gesamteingang X(s) und rückgeführtem Systemausgang 2: X 1 (s) H 2 (s) H 1 (s) X 1 (s) = X(s) X 1 (s) = X(s) ±Y 2 (s) = X(s) ± H 2 (s) H 1 (s) X 1 (s) (1 H 2 (s) H 1 (s)) X 1 (s) = X(s) X 1 (s) = X(s) 1 H 2 (s) H 1 (s) Mit diesem Ergebnis berechnet sich die Ausgangsfunktion der Kreisschaltung zu Y (s) = H 1 (s) X 1 (s) = H 1 (s) 1 H 2 (s) H 1 (s) X(s) Damit ergibt sich die Gesamtübertragungsfunktion H(s) = Y (s)/x(s) der Kreisschaltung zu H(s) = H 1 (s) 1 H 2 (s) H 1 (s). (186) Da die Ausgangsgröße von H 1 (s) über H 2 (s) wieder an den Eingang des ersten Systems H 1 (s) zurückgeführt wird, spricht man auch von einer Rückkopplung (feedback). Dabei unterscheidet man zwischen positiver Rückkopplung (Mitkopplung) bei positiver Aufschaltung von Y 2 (s) auf X(s) und negativer Rückkopplung (Gegenkopplung) bei negativer Aufschaltung von Y 2 (s) auf X(s). In der Gesamtübertragungsfunktion H(s) werden diese beiden Kopplungsarten durch jeweils entgegengesetzte Vorzeichen in der Nennerfunktion 1 H 2 (s) H 1 (s) dargestellt. Rückgekoppelte Systeme sind weit verbreitet. Man findet sie nicht nur in technischen Anwendungen, wie in der Regelungstechnik und der Elektronik, sondern auch in biologischen Systemen, wie etwa bei der Regulation des Blutdruckes oder des Blutzuckerspiegels. Regler weisen grundsätzlich Kreisstrukturen auf; sie werden als Gegenkopplungen ausgelegt, da die Differenzbildung zwischen Eingangs- und Rückkopplungssignal die Kontrolle der Gesamtausgangsgröße erlaubt.

79 Grundlagen der Systemanalyse Anwendung von MATLAB zur Analyse von LTI-Systemen Die Control-System-Toolbox von MATLAB besitzt umfangreiche Werkzeuge zur Analyse von LTI-Systemen. Die Systeme können kontinuierlich oder diskret sein, einen Eingang und einen Ausgang besitzen (sog. SISO-Systeme, Single-Input-Single-Output), oder mehrere Eingänge und mehrere Ausgänge haben (sog. MIMO-Systeme, Multiple-Input-Multiple-Output). Man kann LTI-Systeme über die Übertragungsfunktion (Transfer-Function), über die Pol-Nullstellen und den Verstärkungsfaktor (Zero/Pole/Gain) sowie über die Zustandsraumdarstellung (State-Space) definieren. Die entsprechenden Kommandos sind: sys1 = tf( zaehler, nenner ); sys2 = zpk( z, p, k ); sys3 = ss( a, b, c, d ); % Transfer-Function TF % Zero/Pole/Gain ZPK % State-Space SS Die Variablen sys1, sys2, sys3 sind MATLAB-Strukturen vom Typ TF, ZPK und SS. Diese Objekte besitzen vordefinierte Felder, in denen Modelleigenschaften, wie z.b. Namen der Einund Ausgänge, Modelldaten etc. hinterlegt sind. Mit der Anweisung ltiprops erhält man alle verfügbaren Eigenschaften von LTI-Modellen. Mit den Anweisungen get(sys, Eig ) bzw. set(sys, Eig,Wert) werden einzelne Modelleigenschaften Eig abgefragt bzw. gesetzt Transfer-Function-Modelle Ein SISO-System, das durch eine Übertragungsfunktion in Polynomform, H(s) = Z(s) N(s) = b ms m + b m 1 s m b 1 s + b a n s n + a n 1 s n a 1 s + a, (187) beschrieben ist, wird in der Control-System-Toolbox durch zwei Vektoren dargestellt. Diese enthalten die Koeffizienten der Polynome des Zählers (b m,b m 1,...,b 1,b ) und des Nenners (a n,a n 1,...,a 1,a ) in fallender Reihenfolge der Potenzen von s. Beispiel Die Vektoren zaehler=[1] und nenner=[1 1 1] erzeugen also die Übertragungsfunktion H(s) = 1/(s 2 + s + 1). Mit der Anweisung sys = tf( zaehler, nenner ); wird das System sys definiert und unter dieser Bezeichnung können alle Funktionen der Control- System-Toolbox benutzt werden. So etwa können die Impulsantwort und die Sprungantwort einfach durch impulse(sys) und step(sys) graphisch dargestellt werden.

80 Grundlagen der Systemanalyse Pol-Nullstellen-Modelle Die allgemeine Form eines SISO-Systems, beschrieben durch ein Pol-Nullstellen-Modell, lautet: H(s) = Z(s) N(s) = k (z z 1)(z z 2 )...(z z m ) (z p 1 )(z p 2 )...(z p n ). (188) Dabei bezeichnen z 1,z 2,...,z m die Nullstellen und p 1, p 2,..., p n die Polstellen der Übertragungsfunktion H(s). Der Faktor k (Gain) ist gleich b m /a n entsprechend der Darstellung (187) von H(s) in Polynomform. Die Syntax zur Erzeugung derartiger Modelle lautet: sys = zpk( z, p, k); In den Spaltenvektoren z und p werden die Nullstellen bzw. die Polstellen angegeben, der Skalar k ist der Gain-Faktor. Sind keine Nullstellen vorhanden, so wird dies mit dem leeren Vektor z=[] angegeben. Beispiel Wir betrachten wieder das Feder-Masse System aus dem vorhergehenden Kapitel mit m = 1, γ = 1/2 und ω = 1. Das Zählerpolynom hat keine Nullstellen, zur Berechnung der Nullstellen des Nennerpolynoms (d.h. der Polstellen) können wir die Funktion roots verwenden: >> z = []; >> p = [(-1+i*sqrt(3))/2; (-1-i*sqrt(3))/2] p = i i >> p = roots( [1 1 1] ) p = i i >> k = 1; >> sys = zpk( z, p, k ) Zero/pole/gain: (sˆ2 + s + 1)

81 Grundlagen der Systemanalyse Modelle in der Zustandsraumdarstellung Ein LTI-System liegt in der Zustandsraumdarstellung vor, wenn es wie folgt durch ein System von linearen Differentialgleichungen erster Ordnung mit konstanten Koeffizienten beschrieben ist: mit der Anfangsbedingung (dem Anfangszustand) ż(t) = A z(t) + bx(t) (189) y(t) = c T z(t) + d x(t) (19) z(t ) = z (191) Im allgemeinen Fall mit n Zustandsgrößen stellt Gleichung (189) ein lineares Differentialgleichungssystem 1. Ordnung mit konstanten Koeffizienten für die Zustandgrößen z 1 (t),...,z n (t) dar, die zum Zustandsvektor z(t) bzw. dessen Ableitung ż(t), z(t) = z 1 (t). z n (t) bzw. ż(t) = ż 1 (t). ż n (t), (192) zusammengefaßt werden. Bei SISO-Sytemen tritt die skalare Eingangsgröße x(t) mit dem Spaltenvektor b multipliziert als erregender Term auf. A ist die Systemmatrix, b wird Eingangsmatrix genannt (bei SISO-Systemen ein Spaltenvektor), c Ausgangsmatrix (bei SISO-Systemen ein Spaltenvektor) und d Durchgangsmatrix (bei SISO- Systemen ein Skalar). Gleichung (19) hingegen ist eine rein algebraische Gleichung, die die lineare Abhängigkeit der Ausgangsgröße y(t) von den Zustandsgrößen und falls erforderlich von der Eingangsgröße x(t) angibt. Von der mathematischen Seite aus betrachtet, beruht die Zustandsraumdarstellung auf dem Satz, daß man jede lineare Differentialgleichung n-ter Ordnung in ein System von n Differentialgleichungen 1. Ordnung umwandeln kann. Die Anweisung zur Erzeugung von LTI-Modellen in Zustandsraumdarstellung lautet: sys = ss( A, B, C, D ); Dabei sind A, B, C und D die Matrizen des Modells. Sie müssen kompatible Dimensionen besitzen. Für Systeme, bei denen die Ausgangsgröße y(t) nur vom Zustandsvektor z(t) abhängt, wird D = (mit der entsprechenden Dimensionierung) eingetragen.

82 Grundlagen der Systemanalyse 82 Beispiel Wir betrachten wieder das im letzten Abschnitt behandelte Feder-Masse System mit Dämpfung: ÿ(t) + 2γ ẏ(t) + ω 2 y(t) = 1 m x(t), ÿ(t) = ω 2 y(t) 2γ ẏ(t) + 1 m x(t). Um diese Differentialgleichung 2. Ordnung in die Zustandsraumdarstellung zu transformieren, verwenden wir als Zustandsvariablen die Lage y(t) und die Momentangeschwindigkeit ẏ(t) der Masse m. Wir setzten also z 1 (t) = y(t) und z 2 (t) = ẏ(t) und erhalten aus der gegebenen Differentialgleichung 2. Ordnung ein System von zwei linearen Differentialgleichungen erster Ordnung: dz 1 (t) dt = z 2 (t) (193) dz 2 (t) = ω 2 z 1 (t) 2γ z 2 (t) + 1 x(t) (194) dt m Wenn wir annehmen, daß die Lage y(t) der Masse auch die Ausgangsgröße ist, erhalten wir für die Matrizen dieses Zustandsraum-Modells: ( ) ( ) 1 A =, b = 2γ 1/m ω 2, c T = (1 ), d =. (195) Für m = 1, ω 2 = 1 und γ = 1/2 lauten die MATLAB-Anweisungen zum Aufbau dieses Modells im Zustandsraum: >> A = [ 1; -1-1]; B = [; 1]; C = [1 ]; D = ; >> sys = ss( A, B, C, D ) a = x1 x2 x1 1 x b = u1 x1 x2 1 c = x1 x2 y1 1 d = u1 y1 Continuous-time model.

83 Grundlagen der Systemanalyse 83 Anmerkung Die Zustandsraumdarstellung wird häufig verwendet. Sie hat verschiedene Vorteile, wie etwa: SISO- und MIMO-Systeme können formal gleich behandelt werden. Diese Darstellung ist sowohl für die theoretische Behandlung (analytische Lösungen) als auch für numerische Berechnungen gut geeignet. Die Berechnung des Verhaltens des homogenen (ungestörten) Systems unter Verwendung der Anfangsbedingung z(t ) ist sehr einfach. Diese Darstellung gibt einen besseren Einblick in das innere Systemverhalten (insbesondere läßt sie sich sofort auf nichtlineare Systeme erweitern) Operationen an LTI-Modellen Man kann die grundlegenden Operationen wie Addition, Multiplikation oder Zusammensetzung auf die LTI-Modelle anwenden. Die Operationen können Modelle mit verschiedenen Typen kombinieren. Für das jeweilige Ergebnis gelten die Prioritäten SS, ZPK und danach TF. Die Parallelschaltung zweier Systeme sys1 und sys2 erfolgt über die Addition bzw. über die dazu äquivalente Funktion parallel() : sys = sys1 + sys2 sys = parallel( sys1, sys2 ) Reihenschaltung zweier Systeme sys1 und sys2 realisiert man über die Multiplikation bzw. mit der Funktion series() : sys = sys2 * sys1 sys = series( sys1, sys2 ) Eine negative Rückkopplung zweier Systeme sys1 und sys2 erreicht man mit der Funktion feedback() : sys = feedback( sys1, sys2 ) In vielen Andwendungen ist es sinnvoll, Kollektionen von LTI-Modellen zu bilden, z.b. wenn man den Einfluß eines Parameters auf ein Modell untersuchen möchte. Mit sys = { sys1, sys2, sys3 } erhält man ein Zellfeld (cell array) als eine Variable. Die einzelnen Systeme kann man über einen Index extrahieren (z.b. sys{2}). Mit impulse(sys{:}) werden z.b. die Impulsantworten aller drei Systeme überlagert in einer Graphik dargestellt.

84 Grundlagen der Systemanalyse Spezielle Funktionen zur Analyse von LTI-Modellen Tabelle 1 zeigt eine Auswahl von Funktionen zur Analyse von LTI-Modellen in MATLAB. Die genaue Syntax findet man über die help-funktion oder im Help-Browser. Tabelle 1 pole tzero pzmap impulse step initial lsim gensig rss ltiview Spezielle Funktionen zur Analyse von LTI-Modellen in MATLAB Polstellen des Systems Nullstellen des Systems Pol-Nullstellen-Diagramm Impulsantwort graphisch Sprungantwort graphisch Systemantwort eines ungestörten SS-Systems auf Anfangswerte Systemantwort auf beliebiges Eingangssignal Signalgenerator für Eingangssignale Erzeugt ein stabiles SS-Modell mit Zufallswerten GUI zur Analyse von LTI-Modellen Beispiele Um die Impulsantwort und das Pol-Nullstellen-Diagramm des Feder-Masse Systems aus dem letzten Kapitel mit m = 1, ω = 1 für den Fall schwacher Dämpfung (γ = 1/2), kritischer Dämpfung (γ = 1), starker Dämpfung (γ = 2) und keiner Dämpfung (γ = ) mit dem LTI-Viewer graphisch darzustellen, definiert man zuerst die Modelle über ihre Transferfunktionen, faßt die Modelle in eine cell array Variable sys zusammen und startet dann den LTI-Viewer: sys1 = tf( 1, [1 1 1] ); sys2 = tf( 1, [1 2 1] ); sys3 = tf( 1, [1 4 1] ); sys4 = tf( 1, [1 1] ); sys = {sys1, sys2, sys3, sys4}; ltiview( impulse, sys{:} ); ltiview( pzmap, sys{:} ); Abbildungen 1 und 11 zeigen die Impulsantwort und das Pol-Nullstellen-Diagramm des Feder- Masse Systems für den Fall schwacher (blau), kritischer (grün), starker (rot) und keiner Dämpfung (cyan).

85 Grundlagen der Systemanalyse 85 Abb. 1 Impulsantwort des Feder-Masse Systems für verschiedene Dämpfungen. Abb. 11 Pol-Nullstellen-Diagramm des Feder-Masse Systems für verschiedene Dämpfungen.

Nachrichtentechnik [NAT] Kapitel 2: Zeitkontinuierliche Signale. Dipl.-Ing. Udo Ahlvers HAW Hamburg, FB Medientechnik

Nachrichtentechnik [NAT] Kapitel 2: Zeitkontinuierliche Signale. Dipl.-Ing. Udo Ahlvers HAW Hamburg, FB Medientechnik Nachrichtentechnik [NAT] Kapitel 2: Zeitkontinuierliche Signale Dipl.-Ing. Udo Ahlvers HAW Hamburg, FB Medientechnik Sommersemester 25 Inhaltsverzeichnis Inhalt Inhaltsverzeichnis 2 Zeitkontinuierliche

Mehr

Nachrichtentechnik [NAT] Kapitel 3: Zeitkontinuierliche Systeme. Dipl.-Ing. Udo Ahlvers HAW Hamburg, FB Medientechnik

Nachrichtentechnik [NAT] Kapitel 3: Zeitkontinuierliche Systeme. Dipl.-Ing. Udo Ahlvers HAW Hamburg, FB Medientechnik Nachrichtentechnik [NAT] Kapitel 3: Zeitkontinuierliche Systeme Dipl.-Ing. Udo Ahlvers HAW Hamburg, FB Medientechnik Sommersemester 2005 Inhaltsverzeichnis Inhalt Inhaltsverzeichnis 3 Zeitkontinuierliche

Mehr

Zeitfunktionen. Kapitel Elementarfunktionen

Zeitfunktionen. Kapitel Elementarfunktionen Kapitel Zeitfunktionen Systeme werden durch Eingangsgrößen (Ursache, Eingangssignal, Erregung) angeregt und man interessiert sich für die Ausgangsgrößen (Wirkung, Ausgangssignal, Antwort). Die praktisch

Mehr

Theorie digitaler Systeme

Theorie digitaler Systeme Theorie digitaler Systeme Vorlesung 6: Impulsantwort und Faltung Fakultät für Elektro- und Informationstechnik, Manfred Strohrmann Grundlegende Systemeigenschaften Beispiele führten zu linearen Differenzengleichungen

Mehr

,Faltung. Heavisidefunktion σ (t), Diracimpuls δ (t) Anwendungen. 1) Rechteckimpuls. 2) Sprungfunktionen. 3) Schaltvorgänge

,Faltung. Heavisidefunktion σ (t), Diracimpuls δ (t) Anwendungen. 1) Rechteckimpuls. 2) Sprungfunktionen. 3) Schaltvorgänge Heavisidefunktion σ (t), Diracimpuls δ (t),faltung Definition Heavisidefunktion, t > 0 σ ( t) = 0, t < 0 Anwendungen ) Rechteckimpuls, t < T r( t) = = σ ( t + T ) σ ( t T ) 0, t > T 2) Sprungfunktionen,

Mehr

5. Fourier-Transformation

5. Fourier-Transformation Fragestellungen: 5. Fourier-Transformation Bei Anregung mit einer harmonischen Last kann quasistatitisch gerechnet werden, wenn die Erregerfrequenz kleiner als etwa 30% der Resonanzfrequenz ist. Wann darf

Mehr

Zusammenfassung der 4. Vorlesung

Zusammenfassung der 4. Vorlesung Zusammenfassung der 4. Vorlesung Lösung von Regelungsaufgaben Modellbildung dynamischer Systeme Experimentell und analytisch Modellierung im Zeit- und Bildbereich Lineare Systeme Lineare Systeme Superpositionsprinzip

Mehr

5. Fourier-Transformation

5. Fourier-Transformation 5. Fourier-Transformation 5.1 Definition 5.2 Eigenschaften 5.3 Transformation reeller Funktionen 5.4 Frequenzbereich und Zeitbereich 2.5-1 5.1 Definition Definition: Die Fourier-Transformation einer Funktion

Mehr

tun, sondern nur mit der Reaktion auf verschiedene Anfangswerte.

tun, sondern nur mit der Reaktion auf verschiedene Anfangswerte. 2.3 Stabilität Eine wichtige Rolle spielt das Stabilitätsverhalten dynamischer Systeme. Wie üblich sei Φ die Fundamentalmatrix des linearen Systems ẋ = A(t)x + u. Im weiteren sei t fixiert, später wird

Mehr

Die Beschreibung von Signalen und Systemen kann in verschiedenen Bereichen erfolgen:

Die Beschreibung von Signalen und Systemen kann in verschiedenen Bereichen erfolgen: 1 Grundlegende Begriffe 1.1 Signale und Systeme ein Signal: ein System: ist ein Satz von Daten setzt Signale in Beziehung Darstellung: Die Beschreibung von Signalen und Systemen kann in verschiedenen Bereichen

Mehr

Aufgabe 1 (Klassifizierung von Systemen)

Aufgabe 1 (Klassifizierung von Systemen) Prof. L. Guzzella Prof. R. D Andrea 151-0591-00 Regelungstechnik I (HS 07) Musterlösung Übung 3 Systemklassifizierung, Systeme 1. Ordnung im Zeitbereich, Stabilitätsanalyse moritz.oetiker@imrt.mavt.ethz.ch,

Mehr

3. Vorlesung. Systemtheorie für Informatiker. Dr. Christoph Grimm. Professur Prof. Dr. K. Waldschmidt, Univ. Frankfurt/Main

3. Vorlesung. Systemtheorie für Informatiker. Dr. Christoph Grimm. Professur Prof. Dr. K. Waldschmidt, Univ. Frankfurt/Main 3. Vorlesung Systemtheorie für Informatiker Dr. Christoph Grimm Professur Prof. Dr. K. Waldschmidt, Univ. Frankfurt/Main Letzte Woche: Systemeigenschaften, Superpositionsprinzip Systemklassen: DESS, DEVS,

Mehr

Systemtheorie Teil A. - Zeitkontinuierliche Signale und Systeme - Musterlösungen. Manfred Strohrmann Urban Brunner

Systemtheorie Teil A. - Zeitkontinuierliche Signale und Systeme - Musterlösungen. Manfred Strohrmann Urban Brunner Systemtheorie Teil A - Zeitkontinuierliche Signale und Systeme - Musterlösungen Manfred Strohrmann Urban Brunner Inhalt 6 Musterlösungen Spektrum von Signalen 6. Approximation eines periodischen Signals

Mehr

2. Vorlesung. Systemtheorie für Informatiker. Dr. Christoph Grimm. Professur Prof. Dr. K. Waldschmidt, Univ. Frankfurt/Main

2. Vorlesung. Systemtheorie für Informatiker. Dr. Christoph Grimm. Professur Prof. Dr. K. Waldschmidt, Univ. Frankfurt/Main 2. Vorlesung Systemtheorie für Informatiker Dr. Christoph Grimm Professur Prof. Dr. K. Waldschmidt, Univ. Frankfurt/Main Letzte Woche: EA-System Eingabe: Ausgabe: u y t E/A-System 2. Vorlesung Systemtheorie

Mehr

2.9 Gedämpfter Harmonischer Oszillator

2.9 Gedämpfter Harmonischer Oszillator 72 KAPITEL 2. DYNAMIK EINES MASSENPUNKTES 2.9 Gedämpfter Harmonischer Oszillator In diesem Abschnitt wollen wir die Bewegung eines Massenpunktes betrachten, der sich in einer Raumrichtung x in einer Harmonischen

Mehr

Systemtheorie. Vorlesung 6: Lösung linearer Differentialgleichungen. Fakultät für Elektro- und Informationstechnik, Manfred Strohrmann

Systemtheorie. Vorlesung 6: Lösung linearer Differentialgleichungen. Fakultät für Elektro- und Informationstechnik, Manfred Strohrmann Systemtheorie Vorlesung 6: Lösung linearer Differentialgleichungen Fakultät für Elektro- und Informationstechnik, Manfred Strohrmann Einführung Viele technischen Anwendungen lassen sich zumindest näherungsweise

Mehr

Mathematischer Vorkurs für Physiker WS 2012/13: Vorlesung 1

Mathematischer Vorkurs für Physiker WS 2012/13: Vorlesung 1 TU München Prof. P. Vogl Mathematischer Vorkurs für Physiker WS 2012/13: Vorlesung 1 Komplexe Zahlen Das Auffinden aller Nullstellen von algebraischen Gleichungen ist ein Grundproblem, das in der Physik

Mehr

Schriftliche Prüfung aus Control Systems 1 am

Schriftliche Prüfung aus Control Systems 1 am TU Graz, Institut für Regelungs- und Automatisierungstechnik 1 Schriftliche Prüfung aus Control Systems 1 am 24.11.2014 Name / Vorname(n): Kennzahl / Matrikel-Nummer: Prüfungsmodus: O VO+UE (TM) O VO (BM)

Mehr

11.4. Lineare Differentialgleichungen höherer Ordnung

11.4. Lineare Differentialgleichungen höherer Ordnung 4 Lineare Differentialgleichungen höherer Ordnung Bei vielen geometrischen, physikalischen und technischen Problemen hat man nicht nur eine Funktion (in einer Variablen) und ihre Ableitung zueinander in

Mehr

Kybernetik LTI-Systeme

Kybernetik LTI-Systeme Kybernetik LTI-Systeme Mohamed Oubbati Institut für Neuroinformatik Tel.: (+49) 731 / 50 24153 mohamed.oubbati@uni-ulm.de 26. 04. 2012 Was ist Kybernetik? environment agent Kybernetik ermöglicht, die Rückkopplung

Mehr

Probestudium der Physik 2011/12

Probestudium der Physik 2011/12 Probestudium der Physik 2011/12 Karsten Kruse 2. Mechanische Schwingungen und Wellen - Theoretische Betrachtungen 2.1 Der harmonische Oszillator Wir betrachten eine lineare Feder mit der Ruhelänge l 0.

Mehr

5. Vorlesung Wintersemester

5. Vorlesung Wintersemester 5. Vorlesung Wintersemester 1 Bewegung mit Stokes scher Reibung Ein dritter Weg, die Bewegungsgleichung bei Stokes scher Reibung zu lösen, ist die 1.1 Separation der Variablen m v = αv (1) Diese Methode

Mehr

2. Fourier-Transformation

2. Fourier-Transformation 2. Fourier-Transformation Die Fourier-Transformation ist ein wichtiges Hilfsmittel für die dynamische Analyse linearer Systeme: Die Fourier-Transformierte der Antwort ist gleich dem Produkt der Fourier-Transformierten

Mehr

Inhaltsübersicht. Deltafunktion Gammafunktion Fehlerfunktion. Kapitel 13: Spezielle Funktionen

Inhaltsübersicht. Deltafunktion Gammafunktion Fehlerfunktion. Kapitel 13: Spezielle Funktionen Inhaltsübersicht Kapitel 13: Spezielle Funktionen Deltafunktion Gammafunktion Fehlerfunktion Notizen zur Vorlesung Mathematik für Materialwissenschaftler 2 1 Die Bezeichnung Delta-Funktion ist streng genommen

Mehr

Systemtheorie. Vorlesung 20: Eigenschaften der Fourier-Transformation. Fakultät für Elektro- und Informationstechnik, Manfred Strohrmann

Systemtheorie. Vorlesung 20: Eigenschaften der Fourier-Transformation. Fakultät für Elektro- und Informationstechnik, Manfred Strohrmann Systemtheorie Vorlesung 2: Eigenschaften der Fourier-Transformation Fakultät für Elektro- und Informationstechnik, Manfred Strohrmann Fourier-Transformation Eigenschaften der Fourier-Transformation Definitionsgleichungen

Mehr

2.9 Die komplexen Zahlen

2.9 Die komplexen Zahlen LinAlg II Version 1 3. April 2006 c Rudolf Scharlau 121 2.9 Die komplexen Zahlen Die komplexen Zahlen sind unverzichtbar für nahezu jede Art von höherer Mathematik. Systematisch gehören sie zum einen in

Mehr

Lösung der harmonischen Oszillator-Gleichung

Lösung der harmonischen Oszillator-Gleichung Lösung der harmonischen Oszillator-Gleichung Lucas Kunz 8. Dezember 016 Inhaltsverzeichnis 1 Physikalische Herleitung 1.1 Gravitation................................... 1. Reibung.....................................

Mehr

Technische Universität Wien Institut für Automatisierungs- und Regelungstechnik. SCHRIFTLICHE PRÜFUNG zur VU Automatisierung am

Technische Universität Wien Institut für Automatisierungs- und Regelungstechnik. SCHRIFTLICHE PRÜFUNG zur VU Automatisierung am Technische Universität Wien Institut für Automatisierungs- und Regelungstechnik SCHRIFTLICHE PRÜFUNG zur VU Automatisierung am 8.5.5 Arbeitszeit: min Name: Vorname(n): Matrikelnummer: Note: Aufgabe 3 4

Mehr

Addition, Subtraktion und Multiplikation von komplexen Zahlen z 1 = (a 1, b 1 ) und z 2 = (a 2, b 2 ):

Addition, Subtraktion und Multiplikation von komplexen Zahlen z 1 = (a 1, b 1 ) und z 2 = (a 2, b 2 ): Komplexe Zahlen Definition 1. Eine komplexe Zahl z ist ein geordnetes Paar reeller Zahlen (a, b). Wir nennen a den Realteil von z und b den Imaginärteil von z, geschrieben a = Re z, b = Im z. Komplexe

Mehr

Spezieller Ansatz bei spezieller Inhomogenität.

Spezieller Ansatz bei spezieller Inhomogenität. Spezieller Ansatz bei spezieller Inhomogenität. Bei Inhomogenitäten der Form h(t) = e µt kann man spezielle Ansätze zur Bestimmung von y p (t) verwenden: Ist µ keine Nullstelle der charakteristischen Gleichung

Mehr

6 Gewöhnliche Differentialgleichungen

6 Gewöhnliche Differentialgleichungen 6 Gewöhnliche Differentialgleichungen Differentialgleichungen sind Gleichungen in denen nicht nur eine Funktion selbst sondern auch ihre Ableitungen vorkommen. Im einfachsten Fall gibt es eine unabhängige

Mehr

5. Vorlesung. Systemtheorie für Informatiker. Dr. Christoph Grimm. Professur Prof. Dr. K. Waldschmidt, Univ. Frankfurt/Main

5. Vorlesung. Systemtheorie für Informatiker. Dr. Christoph Grimm. Professur Prof. Dr. K. Waldschmidt, Univ. Frankfurt/Main 5. Vorlesung Systemtheorie für Informatiker Dr. Christoph Grimm Professur Prof. Dr. K. Waldschmidt, Univ. Frankfurt/Main Letzte Woche: e jωt -Funktionen sind sinusförmige, komplexe Funktionen. Sie sind

Mehr

Die komplexen Zahlen

Die komplexen Zahlen Die komplexen Zahlen Wir haben gesehen, dass die Menge R der reellen Zahlen einen angeordneten Körper bildet und dass für die Menge Q der rationalen Zahlen entsprechendes gilt. In beiden Körpern sind Gleichungen

Mehr

Regelungstechnik I. Heinz Unbehauen. Klassische Verfahren zur Analyse und Synthese linearer kontinuierlicher Regelsysteme

Regelungstechnik I. Heinz Unbehauen. Klassische Verfahren zur Analyse und Synthese linearer kontinuierlicher Regelsysteme Heinz Unbehauen Regelungstechnik I Klassische Verfahren zur Analyse und Synthese linearer kontinuierlicher Regelsysteme 7., überarbeitete und erweiterte Auflage Mit 192 Bildern und 28 TabeUen vieweg INHALT

Mehr

Regelungstechnik I. Heinz JUnbehauen. Klassische Verfahren zur Analyse und Synthese linearer kontinuierlicher Regelsysteme. 3., durchgesehene Auflage

Regelungstechnik I. Heinz JUnbehauen. Klassische Verfahren zur Analyse und Synthese linearer kontinuierlicher Regelsysteme. 3., durchgesehene Auflage Heinz JUnbehauen Regelungstechnik I Klassische Verfahren zur Analyse und Synthese linearer kontinuierlicher Regelsysteme 3., durchgesehene Auflage Mit 192 Bildern V] Friedr. Vieweg & Sohn Braunschweig/Wiesbaden

Mehr

Hamilton-Systeme. J. Struckmeier

Hamilton-Systeme. J. Struckmeier Invarianten für zeitabhängige Hamilton-Systeme J. Struckmeier Vortrag im Rahmen des Winterseminars des Instituts für Angewandte Physik der Johann-Wolfgang-Goethe-Universität Frankfurt a.m. Hirschegg, 04.

Mehr

TEIL I: KINEMATIK. 1 Eindimensionale Bewegung. 1.1 Bewegungsfunktion und s-t-diagramm

TEIL I: KINEMATIK. 1 Eindimensionale Bewegung. 1.1 Bewegungsfunktion und s-t-diagramm TEIL I: KINEMATIK Unter Kinematik versteht man die pure Beschreibung der Bewegung eines Körpers (oder eines Systems aus mehreren Körpern), ohne nach den Ursachen dieser Bewegung zu fragen. Letzteres wird

Mehr

Das wissen Sie: 6. Welche Möglichkeiten zur Darstellung periodischer Funktionen (Signalen) kennen Sie?

Das wissen Sie: 6. Welche Möglichkeiten zur Darstellung periodischer Funktionen (Signalen) kennen Sie? Das wissen Sie: 1. Wann ist eine Funktion (Signal) gerade, ungerade, harmonisch, periodisch (Kombinationsbeispiele)? 2. Wie lassen sich harmonische Schwingungen mathematisch beschreiben und welche Beziehungen

Mehr

Zusammenfassung der 6. Vorlesung

Zusammenfassung der 6. Vorlesung Zusammenfassung der 6. Vorlesung Dynamische Systeme 2-ter Ordnung (PT 2 -System) Schwingungsfähige Systeme 2-ter Ordnung. - Systeme mit Speicher für potentielle und kinetische Energie - Beispiel: Feder-Masse-Dämpfer

Mehr

Schriftliche Prüfung aus Regelungstechnik 1 am

Schriftliche Prüfung aus Regelungstechnik 1 am TU Graz, Institut für Regelungs- und Automatisierungstechnik 1 Schriftliche Prüfung aus Regelungstechnik 1 am 24.01.2017 Name / Vorname(n): Matrikel-Nummer: Aufgabe A1 A2 A3 A4 A5 A6 A7 A8 Summe erreichbare

Mehr

Anwendungen der Fourier-Entwicklung in der Elektrotechnik 1 / 22

Anwendungen der Fourier-Entwicklung in der Elektrotechnik 1 / 22 Anwendungen der Fourier-Entwicklung in der Elektrotechnik 1 / Unser heutiges Ziel Reaktion eines Netzwerks auf ein periodisches Eingangssignal oder speziell Wie reagiert ein RC-Glied auf periodische Erregung?

Mehr

Differentialgleichungen 2. Ordnung

Differentialgleichungen 2. Ordnung Differentialgleichungen 2. Ordnung 1-E1 1-E2 Einführendes Beispiel Freier Fall Viele Geschichten ranken sich um den schiefen Turm von Pisa: Der Legende nach hat der aus Pisa stammende Galileo Galilei bei

Mehr

Crash-Kurs Komplexe Zahlen

Crash-Kurs Komplexe Zahlen 1 Definitionen: j, C, z Im Körper R der reellen Zahlen besitzt die lineare Gleichung ax + b = 0 (a, bεr; a 0) stets eine Lösung. Die quadratische Gleichung ax 2 + bx + c = 0 führt zu der Lösungsformel

Mehr

7.4 Gekoppelte Schwingungen

7.4 Gekoppelte Schwingungen 7.4. GEKOPPELTE SCHWINGUNGEN 333 7.4 Gekoppelte Schwingungen Als Beispiel für 2 gekoppelte Schwingungen betrachten wir das Doppelpendel, das in Abb. 7.19 dargestellt ist. Zunächst vernachlässigen wir die

Mehr

Instationäre Wärmeleitung (Ergänzung zur 7. Vorlesung vom )

Instationäre Wärmeleitung (Ergänzung zur 7. Vorlesung vom ) Technische Universität Dresden Seite 1 Instationäre Wärmeleitung (Ergänzung zur 7. Vorlesung vom 5.05.09) Beachte: In der Vorlesung wurden z. T. andere Symbole verwendet. Vorlesung Ergänzungsskript Bezeichnung

Mehr

Faltung, Bildbereich und Stabilität

Faltung, Bildbereich und Stabilität Fakultät Informatik Institut für Angewandte Informatik, Professur für Technische Informationssysteme Faltung, Bildbereich und Stabilität Dresden, den 03.08.2011 Gliederung Vorbemerkungen Faltung Bildbereich

Mehr

Übungsaufgaben zur Vorlesung Regelungssysteme (Grundlagen)

Übungsaufgaben zur Vorlesung Regelungssysteme (Grundlagen) Übungsaufgaben zur Vorlesung Regelungssysteme (Grundlagen) TU Bergakademie Freiberg Institut für Automatisierungstechnik Prof. Dr.-Ing. Andreas Rehkopf 27. Januar 2014 Übung 1 - Vorbereitung zum Praktikum

Mehr

3. Beschreibung dynamischer Systeme im Frequenzbereich

3. Beschreibung dynamischer Systeme im Frequenzbereich 3. Laplace-Transformation 3. Frequenzgang 3.3 Übertragungsfunktion Quelle: K.-D. Tieste, O.Romberg: Keine Panik vor Regelungstechnik!.Auflage, Vieweg&Teubner, Campus Friedrichshafen --- Regelungstechnik

Mehr

Signalverarbeitung Charakterisierung der Signale

Signalverarbeitung Charakterisierung der Signale Signalverarbeitung Charakterisierung der Signale SE+ Med 4. Semester Werner Backfrieder Mathematisches Repetitorium Winkel- oder Kreisfunktionen α H AK GK sin( α) cos( α) Gegenkathete Hypothenuse Ankathete

Mehr

Mathematik 1 für Naturwissenschaften

Mathematik 1 für Naturwissenschaften Hans Walser Mathematik 1 für Naturwissenschaften Modul 112 Lineare Differenzialgleichungen zweiter Ordnung Hans Walser: Modul 112, Lineare Differenzialgleichungen zweiter Ordnung ii Inhalt 1 Lineare Differenzialgleichungen

Mehr

Primzahlen Darstellung als harmonische Schwingung

Primzahlen Darstellung als harmonische Schwingung Primzahlen Darstellung als harmonische Schwingung Die natürliche Sinusschwingung wird hier in Zusammenhang mit der Zahlentheorie gebracht um einen weiteren theoretischen Ansatz für die Untersuchung der

Mehr

Systemanalyse und Modellbildung

Systemanalyse und Modellbildung Systemanalyse und Modellbildung Universität Koblenz-Landau Fachbereich 7: Natur- und Umweltwissenschaften Institut für Umweltwissenschaften Dr. Horst Niemes(Lehrbeauftragter) Systemanalyse 1 Teil 1 1.

Mehr

Dierentialgleichungen 2. Ordnung

Dierentialgleichungen 2. Ordnung Dierentialgleichungen 2. Ordnung haben die allgemeine Form x = F (x, x, t. Wir beschränken uns hier auf zwei Spezialfälle, in denen sich eine Lösung analytisch bestimmen lässt: 1. reduzible Dierentialgleichungen:

Mehr

Hörsaalübung 6 Differentialgleichungen I für Studierende der Ingenieurwissenschaften

Hörsaalübung 6 Differentialgleichungen I für Studierende der Ingenieurwissenschaften Fachbereich Mathematik der Universität Hamburg WiSe 28/29 Dr. Hanna Peywand Kiani Hörsaalübung 6 Differentialgleichungen I für Studierende der Ingenieurwissenschaften Autonome Systeme, Stabilität Die ins

Mehr

Systemanalyse und Modellbildung

Systemanalyse und Modellbildung Systemanalyse und Modellbildung Universität Koblenz-Landau Fachbereich 7: Natur- und Umweltwissenschaften Institut für Umweltwissenschaften Dr. Horst Niemes(Lehrbeauftragter) 7. Zeitdiskrete Modelle 7.1

Mehr

Schriftliche Prüfung aus Systemtechnik am

Schriftliche Prüfung aus Systemtechnik am TU Graz, Institut für Regelungs- und Automatisierungstechni Schriftliche Prüfung aus Systemtechni am 29.0.206 Name / Vorname(n): Matriel-Nummer: Aufgabe A A2 A3 A4 A5 A6 A7 A8 Summe erreichbare Punte 2

Mehr

Signale, Transformationen

Signale, Transformationen Signale, Transformationen Signal: Funktion s(t), t reell (meist t die Zeit, s eine Messgröße) bzw Zahlenfolge s k = s[k], k ganzzahlig s reell oder komplex s[k] aus s(t): Abtastung mit t = kt s, s[k] =

Mehr

4.1. Vektorräume und lineare Abbildungen

4.1. Vektorräume und lineare Abbildungen 4.1. Vektorräume und lineare Abbildungen Mengen von Abbildungen Für beliebige Mengen X und Y bezeichnet Y X die Menge aller Abbildungen von X nach Y (Reihenfolge beachten!) Die Bezeichnungsweise erklärt

Mehr

a) Wir nutzen den Drallsatz für die Rolle und horizontale Komponente des Schwerpunktsatzes, für kleine Auslenkungen: Abb.

a) Wir nutzen den Drallsatz für die Rolle und horizontale Komponente des Schwerpunktsatzes, für kleine Auslenkungen: Abb. Tutoriumsaufgaben. Aufgabe a) Wir nutzen den Drallsatz für die olle und horizontale Komponente des Schwerpunktsatzes, für kleine Auslenkungen: Θ S φ = M(t) rs + cos(φ) F c + F H () m x = S + F H F c Gl.

Mehr

Musterlösung zur Aufgabe A1.1

Musterlösung zur Aufgabe A1.1 Abschnitt: 1.1 Prinzip der Nachrichtenübertragung Musterlösung zur Aufgabe A1.1 a) Im markierten Bereich (20 Millisekunden) sind ca 10 Schwingungen zu erkennen. Daraus folgt für die Signalfrequenz näherungsweise

Mehr

Name: Vorname(n): Matrikelnummer: Aufgabe erreichbare Punkte erreichte Punkte Punkte aus Übungsmitarbeit Gesamtpunktanzahl

Name: Vorname(n): Matrikelnummer: Aufgabe erreichbare Punkte erreichte Punkte Punkte aus Übungsmitarbeit Gesamtpunktanzahl Universität des Saarlandes, Lehrstuhl für Systemtheorie und Regelungstechnik SCHRIFTLICHE PRÜFUNG aus SYSTEMTHEORIE UND REGELUNGSTECHNIK I am 28.7.26 Name: Vorname(n): Matrikelnummer: Note: Aufgabe 2 3

Mehr

Als Summendarstellung der komplexen Zahl bezeichnen wir den bekannten Ausdruck

Als Summendarstellung der komplexen Zahl bezeichnen wir den bekannten Ausdruck A.1 MATHEMATISCHE GRUNDLAGEN In diesem Abschnitt werden die mathematischen Grundlagen zusammengestellt, die für die Behandlung von Übertragungssystemen erforderlich sind. Unter anderem sind dies die komplexen

Mehr

15.5 Beschreibung von linearen Systemen

15.5 Beschreibung von linearen Systemen 5.5 Beschreibung von linearen Systemen 965 5.5 Beschreibung von linearen Systemen Um das Übertragungsverhalten von Systemen zu bestimmen, untersucht man in der Regelungs- und Systemtechnik den Zusammenhang

Mehr

6.1.2 Summe von drei Variablen Lösung eines linearen Gleichungssystemes mit zwei Unbekannten

6.1.2 Summe von drei Variablen Lösung eines linearen Gleichungssystemes mit zwei Unbekannten 6. Rechenbeispiele Die nachfolgenden einfachen Demonstrationsbeispiele aus dem Gebiet der Analog-Rechentechnik zeigen die Funktion dieses kleinen Analogrechners, der nur mit einer minimalen Anzahl von

Mehr

(t - t ) (t - t ) bzw. δ ε. θ ε. (t - t ) Theorie A (WS2005/06) Musterlösung Übungsblatt ε= 0.1 ε= t ) = lim.

(t - t ) (t - t ) bzw. δ ε. θ ε. (t - t ) Theorie A (WS2005/06) Musterlösung Übungsblatt ε= 0.1 ε= t ) = lim. Theorie A (WS5/6) Musterlösung Übungsblatt 7 6..5 Θ(t t [ t t ) = lim arctan( ) + π ] ε π ε ( ) d dt Θ(t t ) = lim ε π vergleiche Blatt 6, Aufg. b). + (t t ) ε ε = lim ε π ε ε + (t t ) = δ(t t ) Plot von

Mehr

4 Die Laplace-Transformation

4 Die Laplace-Transformation 4 Die Laplace-ransformation 4. Definitionen, Beispiele und Regeln In der Wirklichkeit hat man es meist mit Signalen zu tun, die erst zu einem bestimmten Zeitpunkt ausgelöst werden. Um solche Einschaltvorgänge

Mehr

f = T φ ist negative für nacheilende Funktionen φ ist positive für voreilende Funktionen 2 Signale im Zeitbereich 2.1 Harmonische Funktionen

f = T φ ist negative für nacheilende Funktionen φ ist positive für voreilende Funktionen 2 Signale im Zeitbereich 2.1 Harmonische Funktionen 2 Signale im Zeitbereich 2.1 Harmonische Funktionen = Xˆ sin( ω t) 1 f = T Einheiten: [ f ] = Hz ω = 2 π -1 [ ω] = s f mit Phasenverschiebung (hier: nacheilend) : = Xˆ sin( ω t - ϕ) φ ist negative für

Mehr

Komplexe Zahlen und Allgemeines zu Gruppen

Komplexe Zahlen und Allgemeines zu Gruppen Komplexe Zahlen und Allgemeines zu Gruppen Die komplexen Zahlen sind von der Form z = x + iy mit x, y R, wobei i = 1 als imaginäre Einheit bezeichnet wird. Wir nennen hierbei Re(z = x den Realteil von

Mehr

X.4 Elektromagnetische Wellen im Vakuum

X.4 Elektromagnetische Wellen im Vakuum X.4 Elektromagnetische Wellen im Vakuum 173 X.4 Elektromagnetische Wellen im Vakuum In Abwesenheit von Quellen, ρ el. = 0 j el. = 0, nehmen die Bewegungsgleichungen (X.9) (X.11) für die elektromagnetischen

Mehr

7 Integralrechnung für Funktionen einer Variablen

7 Integralrechnung für Funktionen einer Variablen 7 Integralrechnung für Funktionen einer Variablen In diesem Kapitel sei stets D R, und I R ein Intervall. 7. Das unbestimmte Integral (Stammfunktion) Es sei f : I R eine Funktion. Eine differenzierbare

Mehr

Übung 5 zur Vorlesung SYSTEMORIENTIERTE INFORMATIK HW-, SW-CODESIGN

Übung 5 zur Vorlesung SYSTEMORIENTIERTE INFORMATIK HW-, SW-CODESIGN Fakultät Informatik, Institut für Angewandte Informatik, Professur Technische Informationssysteme Übung 5 zur Vorlesung SYSTEMORIENTIERTE INFORMATIK HW-, SW-CODESIGN Übungsleiter: Dr.-Ing. H.-D. Ribbecke

Mehr

Differential- und Integralrechnung

Differential- und Integralrechnung Brückenkurs Mathematik TU Dresden 2016 Differential- und Integralrechnung Schwerpunkte: Differentiation Integration Eigenschaften und Anwendungen Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik

Mehr

Die komplexen Zahlen werden definiert als die geordneten Paare z = (x, y) reeller Zahlen x, y R, zusammen mit den Rechenoperationen

Die komplexen Zahlen werden definiert als die geordneten Paare z = (x, y) reeller Zahlen x, y R, zusammen mit den Rechenoperationen A Komplexe Zahlen A.1 Definition Die komplexen Zahlen werden definiert als die geordneten Paare z = (x, y) reeller Zahlen x, y R, zusammen mit den Rechenoperationen z 1 +z 2 (x 1,y 1 )+(x 2,y 2 ) := (x

Mehr

Theoretische Biophysik - Statistische Physik

Theoretische Biophysik - Statistische Physik Theoretische Biophysik - Statistische Physik 10. Vorlesung Pawel Romanczuk Wintersemester 2018 http://lab.romanczuk.de/teaching/ 1 Brownsche Bewegung Zusammenfassung letzte VL Formulierung über Newtonsche

Mehr

Institut für Elektrotechnik und Informationstechnik. Aufgabensammlung zur. Systemtheorie

Institut für Elektrotechnik und Informationstechnik. Aufgabensammlung zur. Systemtheorie Institut für Elektrotechnik und Informationstechnik Aufgabensammlung zur Systemtheorie Prof. Dr. techn. F. Gausch Dipl.-Ing. C. Balewski Dipl.-Ing. R. Besrat 05.04.2013 Übungsaufgaben zur Systemtheorie

Mehr

Mathematik für Naturwissenschaftler II SS 2010

Mathematik für Naturwissenschaftler II SS 2010 Mathematik für Naturwissenschaftler II SS 2010 Lektion 19 8. Juli 2010 Kapitel 14. Gewöhnliche Differentialgleichungen zweiter Ordnung 14.1 Systeme gewöhnlicher linearer Differentialgleichungen erster

Mehr

R. Oldenbourg Verlag München Wien 1997

R. Oldenbourg Verlag München Wien 1997 Systemtheorie 1 Allgemeine Grundlagen, Signale und lineare Systeme im Zeit- und Frequenzbereich von Professor Dr.-Ing. Rolf Unbehauen 7., überarbeitete und erweiterte Auflage Mit 260 Abbildungen und 148

Mehr

10. Periodische Funktionen, Fourier Reihen

10. Periodische Funktionen, Fourier Reihen H.J. Oberle Analysis II SoSe 212 1. Periodische Funktionen, Fourier Reihen Jean Baptiste Joseph Fourier: Joseph Fourier wurde am 21.3.1768 bei Auxerre (Burgund) geboren und starb am 16.5.183 in Paris.

Mehr

Serie 13: Online Test

Serie 13: Online Test D-ERDW, D-HEST, D-USYS Mathematik I HS 13 Dr. Ana Cannas Serie 13: Online Test Einsendeschluss: 31. Januar 214 Bei allen Aufgaben ist genau eine Antwort richtig. Lösens des Tests eine Formelsammlung verwenden.

Mehr

3 Zweidimensionale dynamische Systeme Oszillationen

3 Zweidimensionale dynamische Systeme Oszillationen 3 Zweidimensionale dynamische Systeme Oszillationen Lineare Systeme Ein Beispiel für ein zweidimensionales dynamisches System ist die Gleichung ẍ + ω 2 sin x = 0 für ebene Schwingungen eines reibungsfreien

Mehr

Signale und Systeme I

Signale und Systeme I FACULTY OF ENGNEERING CHRISTIAN-ALBRECHTS-UNIVERSITÄT ZU KIEL DIGITAL SIGNAL PROCESSING AND SYSTEM THEORY DSS Signale und Systeme I Musterlösung zur Modulklausur WS 010/011 Prüfer: Prof. Dr.-Ing. Gerhard

Mehr

Probestudium der Physik 2011/12

Probestudium der Physik 2011/12 Probestudium der Physik 2011/12 1 Schwingungen und Wellen: Einführung in die mathematischen Grundlagen 1.1 Die Sinus- und die Kosinusfunktion Die Sinusfunktion lässt sich genauso wie die Kosinusfunktion

Mehr

2. Vorlesung Wintersemester

2. Vorlesung Wintersemester 2. Vorlesung Wintersemester 1 Mechanik von Punktteilchen Ein Punktteilchen ist eine Abstraktion. In der Natur gibt es zwar Elementarteilchen (Elektronen, Neutrinos, usw.), von denen bisher keine Ausdehnung

Mehr

6 Der Harmonische Oszillator

6 Der Harmonische Oszillator 6 Der Harmonische Oszillator Ein Teilchen der Masse m bewege sich auf der x-achse unter dem Einfluß der Rückstellkraft Fx = mω x. 186 Die Kreisfrequenz ω bzw. die Federkonstante k := mω ist neben der Masse

Mehr

Gewöhnliche Differentialgleichungen. Teil II: Lineare DGLs mit konstanten Koeffizienten

Gewöhnliche Differentialgleichungen. Teil II: Lineare DGLs mit konstanten Koeffizienten - 1 - Gewöhnliche Differentialgleichungen Teil II: Lineare DGLs mit konstanten Koeffizienten Wir wenden uns jetzt einer speziellen, einfachen Klasse von DGLs zu, die allerdings in der Physik durchaus beträchtliche

Mehr

4.2 Der Harmonische Oszillator

4.2 Der Harmonische Oszillator Dieter Suter - 208 - Physik B3, SS03 4.2 Der Harmonische Oszillator 4.2.1 Harmonische Schwingungen Die Zeitabhängigkeit einer allgemeinen Schwingung ist beliebig, abgesehen von der Periodizität. Die mathematische

Mehr

Ergänzende Materialien zur Vorlesung Theoretische Mechanik, WS 2005/06

Ergänzende Materialien zur Vorlesung Theoretische Mechanik, WS 2005/06 Ergänzende Materialien zur Vorlesung Theoretische Mechanik, WS 2005/06 Dörte Hansen Seminar 8 1 d Alembertsches Prinzip und Lagrangegleichungen 1. Art Teil II 2 Das d Alembertsche Prinzip für N-Teilchensysteme

Mehr

Signale und Systeme Signale

Signale und Systeme Signale Signale und Systeme Signale Gerhard Schmidt Christian-Albrechts-Universität zu Kiel Technische Fakultät Elektrotechnik und Informationstechnik Digitale Signalverarbeitung und Systemtheorie Inhalt der Vorlesung

Mehr

3 Lineare DGlen mit konstanten Koeffizienten

3 Lineare DGlen mit konstanten Koeffizienten 3 Lineare DGlen mit konstanten Koeffizienten In diesem wichtigen Fall linearer DGlen, dem wir ein eigenes Kapitel widmen wollen, sind die Koeffizientenfunktionen a k (t) a k Konstanten, n 1 x (n) (t)+

Mehr

4. Gleichungen im Frequenzbereich

4. Gleichungen im Frequenzbereich Stationäre Geräusche: In der technischen Akustik werden überwiegend stationäre Geräusche untersucht. Stationäre Geräusche sind zusammengesetzt aus harmonischen Schallfeldern p x,t = p x cos t x Im Folgenden

Mehr

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018 (Analysis und lineare Algebra) im Sommersemester 2018 2. Juli 2018 1/1 Wir geben einige wesentliche Sätze über bestimmte Integrale an, deren Beweise man in den Standardlehrbüchern der Analysis findet.

Mehr

2. Elementare Lösungsmethoden

2. Elementare Lösungsmethoden H.J. Oberle Differentialgleichungen I WiSe 2012/13 2. Elementare Lösungsmethoden A. Separierbare Differentialgleichungen. Eine DGL der Form y (t) = f(t) g(y(t)) (2.1) mit stetigen Funktionen f : R D f

Mehr

falls falls Tiefpassfilter lässt tiefe Frequenzen durch und dämpft hohe Frequenzen.

falls falls Tiefpassfilter lässt tiefe Frequenzen durch und dämpft hohe Frequenzen. Anwendung v. Faltungstheorem: Tiefpassfilter Wähle so, dass Dann: Somit: Tiefpassfilter lässt tiefe Frequenzen durch und dämpft hohe Frequenzen. Zusammenfassung habe Periode, mit stückweise stetig und

Mehr

- 1 - angeführt. Die Beschleunigung ist die zweite Ableitung des Ortes x nach der Zeit, und das Gesetz lässt sich damit als 2.

- 1 - angeführt. Die Beschleunigung ist die zweite Ableitung des Ortes x nach der Zeit, und das Gesetz lässt sich damit als 2. - 1 - Gewöhnliche Differentialgleichungen Teil I: Überblick Ein großer Teil der Grundgesetze der Phsik ist in Form von Gleichungen formuliert, in denen Ableitungen phsikalischer Größen vorkommen. Als Beispiel

Mehr

Schwingwagen ******

Schwingwagen ****** 5.3.0 ****** Motivation Ein kleiner Wagen und zwei Stahlfedern bilden ein schwingungsfähiges System. Ein Elektromotor mit Exzenter lenkt diesen Wagen periodisch aus seiner Ruhestellung aus. Die Antriebsfrequenz

Mehr

VERALLGEMEINERTE FUNKTIONEN. und ELEMENTE DER FUNKTIONALANALYSIS KURZSKRIPTUM. Prof. Dr. K. Pilzweger

VERALLGEMEINERTE FUNKTIONEN. und ELEMENTE DER FUNKTIONALANALYSIS KURZSKRIPTUM. Prof. Dr. K. Pilzweger VERALLGEMEINERTE FUNKTIONEN und ELEMENTE DER FUNKTIONALANALYSIS KURZSKRIPTUM Prof. Dr. K. Pilzweger UNIVERSITÄT DER BUNDESWEHR MÜNCHEN FAKULTÄT FÜR ELEKTROTECHNIK UND INFORMATIONSTECHNIK Herbsttrimester

Mehr

3. Berechnen Sie auch die Beschleunigung a als Funktion der Zeit t. 4. Erstellen Sie ein SIMULINK Modell, das x(t) numerisch berechnet.

3. Berechnen Sie auch die Beschleunigung a als Funktion der Zeit t. 4. Erstellen Sie ein SIMULINK Modell, das x(t) numerisch berechnet. unit 1 / Seite 1 Einführung Differenzialgleichungen In physikalischen Anwendungen spielt oft eine Messgrösse in Abhängigkeit von der Zeit die Hauptrolle. Beispiele dafür sind Druck p, Temperatur T, Geschwindigkeit

Mehr