Vorlesung Vertiefung Signalverarbeitung Adaptive Filter LVA

Größe: px
Ab Seite anzeigen:

Download "Vorlesung Vertiefung Signalverarbeitung Adaptive Filter LVA 389.069"

Transkript

1 Vorlesung Vertiefung Signalverarbeitung Adaptive Filter LVA Univ. Prof. DI. Dr.-Ing. Markus Rupp Institut für Nachrichtentechnik und Hochfrequenztechnik TU Wien 16. August 2007

2 Inhaltsverzeichnis 1 Adaptive Filter : Eine Übersicht Anwendungsgebiete Adaptiver Filter Einordnungsschemata Adaptiver Filter Nomenklatur Grundlagen Stochastik Least-Mean-Squares Linear Least-Mean-Squares Komplexität der exakten Wienerlösung Durbin Algorithmus Levinson Algorithmus Trench Algorithmus Verfahren des Stärksten Abfalls: Der Steepest Descent Algorithmus Literaturhinweise Der LMS Algorithmus Klassischer Ansatz: Approximative Wiener Lösung Verhalten in stationärer Umgebung Annahmen Der Fehlervektor im Mittel Der Fehlervektor im Mittleren Quadrat Kenngrößen Konvergenz mit Wahrscheinlichkeit Eins Verhalten bei sinusförmiger Anregung Anwendungsspezifische Varianten Literaturhinweise Der RLS Algorithmus Problemstellung der Kleinsten Quadrate Existenzaussagen LS Schätzung

3 Univ.-Prof. DI. Dr.-Ing. Markus Rupp Anregungsbedingung Verallgemeinerungen und Spezialfälle Zusammenfassung Klassische RLS Herleitung Unterbestimmte Formen Verhalten in stationärer Umgebung Andere Lösungsformen Literaturhinweise Nachführverhalten Adaptiver Verfahren Nachführverhalten von LMS und RLS Algorithmus Kalman Algorithmus Literaturhinweise Verallgemeinerte LS Verfahren Rekursiver Algorithmus Robustheit Robuste Adaptive Filter Lokale Passivitätseigenschaften Robustheitsanalyse bei Gradienten-Algorithmen Minimax Optimalität der Gradientenverfahren Hinreichende Konvergenzbedingungen Die Rückkopplungsnatur des Gradientenverfahrens Der Gauß-Newton Algorithmus Algorithmen mit Nichtlinearem Filter ohne Gedächtnis im Schätzpfad Der Perceptron-Learning Algorithmus Adaptive Entzerrerstrukturen Nachführverhalten von Entzerrerstrukturen Algorithmen mit Nichtlinearem Filter im Fehlerpfad Algorithmen mit Linearem Filter im Fehlerpfad Algorithmen mit Linear Gefiltertem Regressionsvektor Literaturhinweise A Zum Ableiten von Vektoren 119 B Anmerkungen zu sphärisch Invarianten Zufallsprozessen 121 C Anmerkungen zu Gaußprozessen 130 D Grundlagen linearer Algebra 137

4 4 Adaptive Filter E Zur Zustandsdarstellung von Systemen 139 F Methode der Lagrange-Faktoren 141 G Small-Gain Theorem 144 H Parametrische Modellprozesse 146 I Konvergenz von Zufallsfolgen 149

5 Kapitel 1 Adaptive Filter : Eine Übersicht 1.1 Anwendungsgebiete Adaptiver Filter Lautsprecher Echopfad N Gabel Zur Vermittlungsstelle Mikrofon Abbildung 1.1: Nahecho-Verbindung. Adaptive Filteralgorithmen haben in den vergangenen 20 Jahren überall Einzug in elektronischen Produkten gehalten. Meist ist dem Anwender ihr Vorhandensein gar nicht bewußt, was auf ihre perfekte Arbeitsweise schließen lässt. Adaptive Filter haben die Eigenschaft, sich an eine ständig ändernde Umgebung anzupassen und damit optimale Betriebseigenschaften (meist von digitalen Filtern) zu erreichen. Im Folgenden werden verschiedene Anwendungsmöglichkeiten adaptiver Filter gezeigt. In Bild 1.1 wird das Blockschaltbild einer Telefonanlage beim Teilnehmer gezeigt. Eine sogenannte Gabelschaltung (Wien-Brücke) sorgt dafür, dass der Zweidrahtanschluss des Mikrofons an die 5

6 6 Adaptive Filter Vermittlungsleitung weitergeschaltet wird, während gleichzeitig der Zweidrahtanschluss des Lautsprechers auch von dieser Zweidrahtleitung versorgt wird. Die perfekte Ausbalancierung der Gabelschaltung ist dann erreicht, wenn der Teilnehmer sich selbst nicht hört. Diese optimale Situation ist jedoch meist nicht gegeben, da der Abschluss der Vermittlungsleitung unbekannt ist. Eine Nachbildung N versucht den Abschlusswiderstand nachzubilden. Üblicherweise wird ein Übersprechen von Mikrofon zu Lautsprecher als angenehm empfunden, da der Teilnehmer das Gefühl hat, dass das Telefon funktioniert (es reagiert auf seine Eingangssignale). Im Zusammenhang mit Freisprechanlagen, kann dies jedoch zum Problem werden und muss entscheidend gedämpft werden. Ein adaptives Filter kann hier Abhilfe schaffen indem es zunächst den Übertragungspfad von Mikrofon zu Lautsprecher schätzt, damit das zugehörige Echosignal berechnet und es vom Lautsprechersignal subtrahiert. A Echo von B Gabel A N N Gabel B Sprecher A Echo von A Sprecher B B Abbildung 1.2: Fern-Echo Verbindung. In Abbildung 1.2 werden vereinfacht zwei Teilnehmer gezeigt, die über ihre lokalen Gabelschaltungen verbunden sind. Überall dort, wo in Vermittlungsanlagen von Zweiauf Vierdrahtbetrieb umgeschaltet wird, werden solche Gabelschaltungen eingesetzt. Bei Weitverkehrsverbindungen können also mehrere dieser Umsetzstellen auftreten. Dabei werden an der Gabelschaltung nicht nur die Echos des lokalen Sprechers an den lokalen Lautsprecher weitergegeben, sondern auch die Signale des fernen Teilnehmers an der lokalen Gabel (wieder wegen der vorhandenen Fehlanpassung) reflektiert zum fernen Teilnehmer zurückgesendet. Gerade bei Weitverkehrsverbindungen mit ihren großen

7 Univ.-Prof. DI. Dr.-Ing. Markus Rupp 7 Laufzeiten (500ms) kann dies ein Problem darstellen. Wenn die Gabeldämpfung das Signal nur um 6dB verringert, und des weiteren durch digitale Weitverkehrsübermittlung das Echo ungedämpft zurückübertragen wird, wird das ferne Teilnehmersignal dem fernen Teilnehmer ins eigene Wort fallen und die Verbindung dadurch gehörig stören. Adaptive Filter können ähnlich wie beim Nahecho den Echopfad schätzen und das Echo rekonstruieren, um es vom Nutzsignal zu subtrahieren. Anders als beim Nahecho hat man es hier allerdings mit sehr großen Filterlängen ( Koeffizienten) zu tun. Freisprechtelefonanlagen haben in den letzten Jahren enorme Verbreitung gewonnen. Sie werden sowohl in Büroräumen zu (Video-)Konferenzen als auch bei Freisprechanlagen in Autos eingesetzt. Abbildung 1.3 zeigt die Problemstellung. Das ferne Teilnehmersignal gelangt durch den Lautsprecher in den Raum und somit auch an das Mikrofon des lokalen Teilnehmers. Zusammen mit dem eigentlichen Signal des lokalen Sprechers wird es zurück an den fernen Teilnehmer übertragen und erscheint dort als Echo. Betreibt dieser auch eine Freisprechanlage kann es eine geschlossene Schleife geben und ein Rückkopplungspfeifen wird hörbar. Ein adaptives Filter kann die Impulsantwort von Lautsprecher-Raum-Mikrofon System schätzen und wie bei der Gabelschaltung auch das Echosignal rekonstruieren. Die großen Impulsantwortlängen von solchen akustischen Systemen spielen hierbei eine besondere Rolle. Ebenso erscheint der lokale Sprecher nun als Störung für das Schätzverfahren und erfordert somit eine besondere Behandlung. 7 Abbildung 1.3: Lautsprecher-Raum-Mikrofon System. Alle bisher beschriebenen Anwendungsgebiete fallen in die Kategorie Systemidentifikation. Wie Abbildung 1.4 zeigt, kann der Echopfad in allen drei Fällen als eine unbekannte (lineare) Übertragungsfunktion dargestellt werden. Durch Beobachten von Ein- und Ausgang dieses additiv gestörten Systems, gewinnt das adaptive Filter soviel Information, dass es den unbekannten Pfad schätzen kann. Mit bekanntem Eingangssignal lässt sich dann das Echosignal rekonstruieren und wird vom Nutzsignal subtrahiert.

8 8 Adaptive Filter v(k) x(k) y(k)? e(k) ŵ ŷ(k) Abbildung 1.4: Systemidentifikation. Eine ganz andere Anordnung findet man in der aktiven Geräuschunterdrückung. Abbildung 1.5a zeigt die Problemstellung. Eine primäre Rauschquelle (Motor, Föhn, etc.) verursacht ein ungewolltes Geräusch an der Stelle des Mikrofons. Durch eine zweite Quelle wird versucht, das Störgeräusch an der Mikrofonstelle (und der näheren Umgebung) zu reduzieren. Oft hat man keinen direkten Zugriff auf die Primärquelle. Dann wird mit einem zweitem Sensor versucht ein Signal zu gewinnen, das zu dem der Primärquelle stark korreliert ist. Abbildung 1.5b zeigt das entsprechende Blockschaltbild mit adaptivem Filter. Die Strecke P von Primärquelle zum Mikrofon wird nicht mehr als Gesamtimpulsantwort geschätzt, sondern um den um H verminderten Anteil, dem Pfad zwischen Sekundärquelle und Mikrofon. Dies kann zu nichtkausalen Anteilen in der Lösung führen. Wie wir später sehen werden gehört die adaptive Geräuschreduktion zur Klasse der Fehlerpfad-gefilterten Referenzmodelle.

9 Univ.-Prof. DI. Dr.-Ing. Markus Rupp 9 Primäre Quelle Elektrisches Filter Sekundäre Quelle Fehler Mikrofon 1 (a) x(t) y(t) e f (t) W P (z) d(k) (b) x(k) y(k) W H(z) e f (k) Abbildung 1.5: (a) Aktive Geräuschunterdrückung. (b) Äquivalentes Blockdiagramm des Kontrollalgorithmus.

10 10 Adaptive Filter Im Bereich Sprachverarbeitung finden adaptive Filter Anwendung in der linearen Prädiktion. In Abbildung 1.6 wird solch eine Anordnung gezeigt. Das Sprachsignal wird durch eine Verzögerungsstufe geführt und dann wird damit das adaptive Filter gespeist. Referenzsignal ist das Originalsignal. Das adaptive Filter wird also versuchen mit Hilfe von vergangenen Werten das Originalsignal anzunähern. Typische Anwendungen solcher Prädiktoren sind datenreduzierende Verfahren zur Sprachübertragung. Dabei wird im einfachsten Fall nur das Fehlersignal e(k) übertragen, denn es trägt weniger Energie als das Originalsignal und kann somit mit weniger Bit pro Abtastwert dargestellt werden. Eine weitere Anwendung ist das Vokoderprinzip. Da Sprachsignale ihr Spektrum nur etwa alle 10ms ändern, genügt es, nur die Prädiktionskoeffizienten zu übertragen. Damit können enorme Datenreduktionen gewonnen werden. 1 d(k) x(k) y(k) z 1 w e(k) Abbildung 1.6: Linearer Prädiktor Ein weiteres Einsatzgebiet adaptiver Filter besteht in adaptiven Entzerrerfiltern bei der Datenübertragung. Bild 1.7 verdeutlicht die Problemstellung. Eine digitales Signal wird durch einen Kanal c übertragen und durch additives Rauschen v(n) gestört. Am Empfänger ist ein digitales Filter w so einzustellen, dass eine nachfolgende nichtlineare Abbildung die erhaltenen Symbole eindeutig auf das Sendealphabet abbilden kann. Die Schwierigkeit besteht dabei oftmals weniger in der geeigneten Wahl der Filterstruktur oder der sehr großen Anzahl von Koeffizienten, als darin den geeigneten adaptiven Algorithmus zu finden, der Kanaländerungen schnell zu folgen versteht und zugleich keine überaus großen Anforderungen an numerische Genauigkeit stellt. Anders als bei der Systemidentifikation liegt bei dieser Problemstellung kein Referenzsignal vor. Es kann dadurch gewonnen werden, dass ein bekanntes Signal (Trainingssequenz) übertragen wird, durch dessen Hilfe das Filter eingestellt werden kann. Allerdings besteht Datenübertragung darin, unbekannte Daten zu übertragen, d.h. der Anteil der Trainingssequenz muss sehr klein sein gegenüber der

11 Univ.-Prof. DI. Dr.-Ing. Markus Rupp 11 zu übertragenden Datenmenge. Eine zweite Methode besteht darin, das dekodierte Signal als Referenzsignal zu nutzen. Dekodierfehler wirken allerdings dann auch auf die Qualität der Adaption. v(k) x(k) y(k) z(k) ˆx(k) c w f Abbildung 1.7: Optimaler Entzerrer und Dekodierer. Beide Anwendungen, lineare Prädiktion und adaptiver Entzerrer genügen der selben Referenzstruktur, wie in Abbildung 1.8 gezeigt. Bei der linearen Prädiktion wird c = z 1 gesetzt und = 0, während bei der adaptiven Kanalentzerrung c den Kanal darstellt und die Trainingssequenz das um verzögerte Referenzsignal darstellt. z d(k) x(k) y(k) c w e(k) Abbildung 1.8: Referenzmodell zur inversen Modellierung Eine ähnliche Problemstellung aber ungleich komplizierter ergibt sich bei dem Problem der nichtlinearen Vorverzerrung für Leistungsverstärker (engl. power amplifier) wie sie im Funkbereich häufig auftreten. Um einen möglichst großen Wirkungsgrad zu erzielen, werden

12 12 Adaptive Filter diese Verstärker im C oder F Modus betrieben, und erzeugen damit eine starke Nichtlinearität. Bei Bandbreiten bis 1 MHz ist diese Nichtlinearität noch typischerweise gedächtnisfrei ausgeprägt (Saleh Modell) A (r) = α Ar 1 + β A r 2 Φ (r) = α Φr β Φ r 2, (1.1) und kann in Form von nichtlinearen Abbildungen für Amplitude und Phase korrigiert werden. Bei größeren Bandbreiten jedoch zeigen sich immer stärker auch gedächtnisbehaftete Effekte. Eine Möglichkeit diese Effekte zu beschreiben sind so genannte Volterrareihen. Eine Abbildungsvorschrift durch eine Volterrareihe der Ordnung P vom Eingangssignal u(n) zum Ausgang y(n) kann folgendermassen aussehen y(n) = P h p,n [u (n)], (1.2) p=0 wobei der Operator h p,n [ ] eine mehrdimensionale Faltung repräsentiert: h p,n [u (n)] = N n 1 =0 N h p,n (n 1,... n p ) n p=0 p u (n n i ). (1.3) Der Vorteil der Darstellung liegt darin, dass die Koeffizienten alle linear bzgl. des Eingangssignals vorliegen, wobei die Nichtlinearität dadurch zustande kommt, dass das Eingangssignal mit zeitverzögerten Varianten ein neues Signal bildet. Ein weiterer Vorteil der Beschreibung durch Volterrareihen besteht auch darin, dass es immer möglich ist eine Inverse zu bilden, denn die ist ja nötig, um das nichtlineare System zu entzerren. Allerdings zeigt es sich in der Praxis, dass solch eine Volterradarstellung sehr viele Koeffizienten benötigt, um eine gewisse Genauigkeit zu erreichen. Abbildung 1.9 zeigt eine typische Anordnung zur Vorverzerrung. Nach der Identifikation des Leistungsverstärkers wird das Modell invertiert und dann dieser so erhaltene Vorentzerrer vor den Leistungsverstärker geschaltet. Die Übertragung in der Gesamtkette Vorentzerrer-Leistungsvertärker verhält sich dann wieder linear. Um die hohe Komplexität zu verringern, versucht man andere nichtlineare Strukturen einzusetzen. Hierbei haben sich vor allem so genannte Wiener und Hammerstein Modelle als geeignet erwiesen. Abbildung 1.10 zeigt ein Wiener Modell bei dem die Nichtlinearität gedächtnisfrei hinter dem linearen Anteil erfolgt. Bei Hammerstein Modellen ist die Reihenfolge umgedreht. Arbeitet man mit solchen vereinfachten Modellen, so ist momentan noch unklar wie die adaptiven Algorithmen mit Sicherheit Konvergenz garantieren können. Eine ähnliche Problemstellung wie die der adaptiven Entzerrung liegt in der Mustererkennung. Gegebene (oft binäre) Muster müssen klassifiziert werden. Beispielsweise liefert i=1

13 Univ.-Prof. DI. Dr.-Ing. Markus Rupp 13 Ref. model y r (n) Adapt. laws u(n) Controller NL Plant y(n) Abbildung 1.9: Nichtlineare, adaptive Vorverzerrung. u(n) L(h, ) x(n) f (θ, ) y(n) Abbildung 1.10: Nichtlineares Wiener Modell. eine digitale Kamera an einer Abflaschungsmaschine das Bild einer Flasche. Bei dieser muss nun erkannt werden, ob sie die richtigen Maße hat und ob das Etikett korrekt angebracht ist. Die gelieferten (Bild-)Muster werden mit Referenzmustern verglichen und es wird eine Entscheidung gefällt, ob die geforderte Bedingung erfüllt ist oder nicht. Gut geeignet zum Aufbau solcher Mustererkenner sind neuronale Netzwerke. Abbildung 1.11 zeigt ein solches einfaches Netzwerk, das sich durch einen Entscheider f() und eine Rückkopplung der Entscheidung auszeichnet. Beim Trainingslauf werden dem neuronalen Netzwerk verschiedene Beispielmuster am Eingang x und zugehörige Entscheidungen d angeboten. Die Aufgabe des neuronalen Netzwerkes besteht darin, die Koeffizienten a und b so einzustellen, dass es bei ähnlichen Mustern ebensolche Entscheidungen korrekt liefern kann.

14 14 Adaptive Filter x b a z f(z) d q 1 Abbildung 1.11: Rückgekoppeltes Neuronales Netzwerk. 1.2 Einordnungsschemata Adaptiver Filter Adaptive Filteralgorithmen sind ihrer Natur nach Optimierungsalgorithmen. Anders als Standardoptimierungsverfahren versuchen sie jedoch mit einer sich ständig verändernden Umgebung zurechtzukommen. Im vorigen Abschnitt wurden adaptive Filter bereits nach ihrer Anwendung eingeordnet. Dabei spielen verschiedene Referenzmodelle eine entscheidende Rolle. Das Referenzmodell erklärt ein Signal zum Referenzsignal nachdem sich die adaptive Filterung richtet. Wie es erzeugt wird hat entscheidende Auswirkung auf die Anordnung des Filters und dessen Eigenschaften. Bisher hatten wir Systemidentifikation, inverse Modellierung und Identifikation mit gefiltertem Fehlerpfad angesprochen. Dabei können jeweils wieder lineare und nichtlineare Filter zur Anwendung kommen. Eine weitere Unterscheidung ergibt sich in On- und Offline-Betrieb der Algorithmen. Liegen alle erforderlichen Daten vor, so kann der Optimierungsalgorithmus laufen, um nach einer bestimmten Anzahl von Iterationen ein (sub-)optimales Ergebnis auszugeben. Man spricht dabei üblicherweise von Offline Betrieb, da während der Iterationen keine neuen Daten hinzukommen. Im Onlinebetrieb ist dies anders, mit jedem Schritt erhält der Algorithmus einen neuen Datensatz und wird erneut ablaufen, um sich an die sich verändernde Situation neu anzupassen. Eine dritte übliche Unterscheidung erfolgt aufgrund von Kostenfunktionen. Das Referenzsignal liefert ein Normal, das Referenzsignal, das wir durch den adaptiven Vorgang versuchen anzunähern. Das dadurch entstehende Fehlersignal kann auf verschiedene Weise zur Kostenfunktion herangezogen werden, je nachdem ob Information über die Signale in determinierter oder statistischer Art vorhanden ist. So kann es das Ziel sein E[ e(n) p ] zu minimieren oder dessen zeitliches Pendant n i=0 e(n) p. Aber auch Minimax-Formulierungen sind nicht unüblich.

15 Univ.-Prof. DI. Dr.-Ing. Markus Rupp Nomenklatur Die folgende Nomenklatur wurde versucht durchgängig im Skript zu verwenden. steht für konjugiert komplex T steht für transponiert H steht für hermitesch, also transponiert und konjugiert komplex. a, b, c... ist ein (determinierter) Skalar. a, b, c,... ist eine Zufallsvariable mit Wahrscheinlichkeitsdichtefunktion f a (a), Varianz σa 2 und Mittelwert ā. a,b,c... ist ein (Spalten-)Vektor mit einer Anzahl von Elementen. 1 ist ein Vektor dessen Elemente alle Eins sind. a, b, c... ist ein (Spalten-)Vektor dessen Elemente Zufallsvariablen darstellen. Die Verbunddichte dieser Zufallsvariablen ist gegeben durch f a (a). Die Autokorrelationsmatrix dieses Vektors wird mit R aa =E[aa H ] bezeichnet. A, B, C,... bezeichnet eine Matrix bestimmter Dimension, deren Elemente Skalare sind. A, B, C,... bezeichnet eine Matrix bestimmter Dimension, deren Elemente Zufallsvariablen sind. I bezeichnet die Einheitsmatrix mit geeigneter Dimension. a q p angewandt auf den Vektor a bezeichnet die p te Norm zur q ten Potenz. a q p = ( i a i p ) q/p a Q angewandt auf den Vektor a bezeichnet diese Norm: a H Qa. Wird ein Argument (k) bei skalaren Größen angehängt oder ein Index k (kleiner Buchstabe) bei Vektoren oder Matrizen eingeführt, so handelt es sich um eine weitere Zeitabhängigkeit. Zufallsvariablen sind dann als Zufallsprozess zu interpretieren. Wird dagegen ein Großbuchstabe als Index verwendet so kennzeichnet er meist die Dimension des Vektors. Positiv definite Matrizen werden oftmals mit der Größer-Relation, also A > 0 bezeichnet. Konkret bedeuted dies, dass alle Eigenwerte von A größer als Null sind. Lineare Filter werden mit Großbuchstaben und oftmals um die Notation eindeutiger zu machen mit einem Argument q 1 gekennzeichnet. Zum Beispiel schreiben wir B(q 1 )[v(k)] = B[v(k] für eine Folge v(k), die mit den Filterkoeffizienten b(0), b(1)...b(m 1) gefiltert werden. Auch rekursive Filterstrukturen können auf diese Weise einfach notiert werden: [v(k)] bedeutet ein rekursives Filter der Form: B(q 1 ) 1 A(q 1 ) y(k) = N a(l)y(k l) + l=1 M 1 l=0 b(l)v(k l). (1.4) Wir werden diese Notation der Z-Transformation vorziehen, denn sie verlangt anders als die Z-Transformation keine (Energie-)Bedingung an die Eingangsfolge.

16 16 Adaptive Filter Da wir mit Vektoren und Matrizen hantieren werden, ist es hilfreich, eine wenige, aber häufig benutzte Operationen in einer Kurznotation anzugeben. Hierzu gehört insbesondere das Ableiten nach reell-wertigen und komplex-wertigen Vektoren. Wir vereinbahren für das Ableiten nach Vektoren folgende Regeln (für w IR und z Cl, siehe auch Anhang A für eine ausführliche Diskussion): Rw w = R w T Rw w = w T [R + R T ] Rz z = R z H Rz z = z H R. Übung 1.1 Betrachte die folgende Anordnung in Bild Man gebe das Fehlersignal in Abhängigkeit vom Eingangssignal x(k) und der Störung v(k) an. Welche Lösung ist für w bei erfolgreicher Adaption zu erwarten? Zu welcher Klasse von Adaptionsschemata handelt es sich bei der Anordnung? Zu welcher Klasse gehört es, wenn man a und w vertauscht? d(k) v(k) b c x(k) y(k) a w e(k) Abbildung 1.12: Adaptive Anordnung Übung 1.2 Zeigen Sie unter welchen Umständen die Entzerrerschaltung in Abbildung 1.7 eine Systemidentifikation darstellt.

17 Kapitel 2 Grundlagen Stochastik Im folgenden Kapitel werden die benötigten Grundlagen der Stochastik präsentiert. Es werden dabei Least-Mean-Squares (LMS), lineare Lösungen (LLMS) hierzu und schließlich die Wiener-Lösung vorgestellt. Eine iterative Lösung, der sogenannte Steepest-Descent- Algorithmus wird diskutiert. 2.1 Least-Mean-Squares Im Folgenden werden wir uns mit dem Problem befassen wie man aus Beobachtungen Größen schätzen kann, die man nicht direkt beobachten kann. Betrachten wir eine Zufallsvariable x mit Mittelwert x und Varianz σ 2 x. Also: σ 2 x = E[x x] 2 = E[x 2 ] x 2. (2.1) Für mittelwertfreie Zufallsvariablen gilt: σ 2 x = E[x 2 ]. Intuitiv gibt diese Information vor, dass sich der gesuchte Wert nicht weit vom Mittelwert befindet; genauer gesagt befindet er sich mit großer Wahrscheinlichkeit in einer Umgebung um den Mittelwert, die durch die Varianz σ 2 x definiert ist. Eine kleine Varianz σ 2 x zeigt an, dass der gesuchte Wert nahe am Mittelwert liegen wird. Eine große Varianz σ 2 x zeigt an, dass der gesuchte Wert in einem großen Intervall um den Mittelwert liegen wird. Die Varianz liefert ein Maß für die Unsicherheit welcher Wert wohl der Richtige ist. Etwas genauer wird diese Aussage durch die Tschebyscheff-Ungleichung beschrieben: P ( x x δ) σ2 x δ 2. (2.2) 17

18 18 Adaptive Filter Die Wahrscheinlichkeit, dass der gesuchte Wert im Intervall [ x δ, x + δ] liegt, ist also beschränkt durch σ2 x δ 2. Beispielsweise ist die Wahrscheinlichkeit, dass der Wert außerhalb von ±σ liegt, beschränkt durch 100%, während das Intervall [ x 5σ x, x + 5σ x ] schon eine Beschränkung auf 4% zulässt. Im Folgenden wird angenommen, dass Mittelwert und Varianz des unbekannten Wertes bekannt sind. Durch geeignete Schätzmethoden kann der unbekannte Wert x durch den Wert ˆx geschätzt werden. Je nach Schätzverfahren können unterschiedlich gute Schätzwerte erhalten werden. Die Qualität der Schätzung kann durch ein Gütemaß ermittelt werden. Ein geeignetes Gütemaß könnte beispielsweise darin bestehen, den Abstand des Schätzwertes zum Zufallswert zu bestimmen: E[x ˆx]. (2.3) Offensichtlich gehen hier sowohl negative wie auch positive Werte ein und können durch Ausmitteln ein falsches Bild ergeben. Besser geeignet ist ein quadratisches Maß E[(x ˆx) 2 ]. Derjenige Schätzer, der für dieses Maß den geringsten Wert liefert, ist offensichtlich der Beste. Gesucht ist also ein Schätzverfahren, das folgendes Gütemaß minimiert: min ˆx E[(x ˆx) 2 ]. (2.4) Quadratische Gütemaße sind sehr beliebt, da sie mathematisch einfach zu manipulieren sind und üblicherweise zu analytischen Lösungen führen. Andere Gütemaße, wie die l 1 -Norm (Absolutnorm) sind bei manchen Problemen aber auch sehr aufschlußreich und führen manchmal zu geringerem Aufwand in der Realisierung. Lemma 2.1 Gegeben sei Mittelwert x und Varianz σ 2 x einer Zufallsvariablen x. Der LMS (Least-Mean-Squares) Schätzer ˆx ist optimal, wenn gilt: ˆx = x. Beweis: E[(x ˆx) 2 ] = E [([x x] + [ x ˆx]) 2 ] = σ 2 x + ( x ˆx) 2. Offensichtlich ist in Abwesenheit von weiterer Information der beste Wert zum Schätzen, der Mittelwert. Man betrachte den Schätzfehler e: e = x ˆx = x x. An dieser Stelle ist es Wert zu bemerken, dass die Varianz des Schätzfehlers genauso groß ist, wie die Varianz der Zufallsvariablen x 1. Offensichtlich hat unser Schätzverfahren die anfängliche Unsicherheit bzgl. x nicht verändert. 1 Man prüfe dies nach.

19 Univ.-Prof. DI. Dr.-Ing. Markus Rupp 19 Im Folgenden werden wir annehmen, dass unser Wissen bzgl. x dadurch vergößert wird, dass wir eine zu x korrelierte Zufallsvariable y kennen. Da die Korrelation zwischen den beiden Zufallsvariablen eine Information über das gemeinsame Verhalten der beiden trägt, können wir davon ausgehen, durch y auch mehr Information über x zu erhalten. Diese zusätzliche Information muß sich so formulieren lassen, dass unser Schätzwert ˆx für x besser wird. Nehmen wir an, dass eine funktionale Abbildung von y auf den Schätzer für x derart existiert, dass ˆx = h[y]. Diese Funktion h[ ] wird Schätzverfahren oder Schätzer (engl. estimator) genannt. Beim Einsetzen eines Argumentes erhalten wir einen Schätzwert (engl. estimate). Bemerkenswert ist, dass es sich beim Schätzwert auch um eine Zufallsvariable handelt, da sie ja als Abbildung aus einer anderen Zufallsvariablen entstanden ist. Lemma 2.2 Das LMS Schätzverfahren (LMSE=least mean squares estimator) von x gegeben y ist E[x y]. (Der LMS Schätzwert lautet E[x y = y].) Das minimale Fehlerquadrat (MMSE= Minimum mean-square-error) ist gegeben durch: Beweis: Per Definition gilt min ˆx E[(x ˆx) 2 ] = E[x 2 ] E[ˆx 2 ]. E[(x ˆx) 2 ] = E[(x h[y]) 2 ] (2.5) = (x h[y]) 2 f x,y (x, y)dxdy (2.6) ( ) = f y (y)dy (x h[y]) 2 f x y (x y)dx. (2.7) Da der erste Term f y (y) 0, kann er als positiver Gewichtungsterm gedeutet werden. Wir können uns also dem zweiten Term zuwenden. Dieser lässt sich bzgl. ˆx differenzieren und man erhält als Lösung für das Minimum: ˆx = E[x y = y] = xf x y (x y)dx. (2.8) Beispiel 2.1: Betrachtet wird eine Zufallsvariable z = x + y. Die beiden Zufallsvariablen x und y seien unabhängig. x nehme die Werte ±1 mit gleicher Wahrscheinlichkeit an und y sei mittelwertfrei gaußverteilt mit Varianz σ 2 y. Gesucht ist der LMS Schätzer für x gegeben z = z.

20 20 Adaptive Filter Lösung: The LMS Schätzer ist gegeben durch ˆx = E(x z = z) = xf x z (x z)dx. (2.9) Um die bedingte Wahrscheinlichkeit zu erhalten, wird zunächst die Wahrscheinlichkeitsdichtefunktion f z (z) berechnet. Da x nur zwei Werte annimmt und dies mit gleicher Wahrscheinlichkeit, gilt: f z (z) = 1 2 f y(z + 1) f y(z 1). Im nächsten Schritt wird die Verbunddichtefunktion f x,z (x, z) bestimmt: f x,z (x, z) = f x,y (x, z x) (2.10) = 1 2 f y(z + 1)δ(x + 1) f y(z 1)δ(x 1), (2.11) wobei δ(x) die Diracsche Delta Funktion beschreibt. Somit lässt sich die Verbunddichte geschlossen angeben: f x z (x z) = f y(z 1)δ(x 1) f y (z + 1) + f y (z 1) + f y(z + 1)δ(x + 1) f y (z + 1) + f y (z 1) Das Integral in (2.9) lässt sich somit lösen. Man erhält: f y (z 1) ˆx = f y (z + 1) + f y (z 1) f y (z + 1) f y (z + 1) + f y (z 1) ( ) z = tanh σ 2 y (2.12) (2.13) Der beste Schätzer, der bei gegebener Beobachtung z, einen Schätzwert für x liefert ist offensichtlich ˆx = tanh(z). Üblicherweise ist es nicht einfach einen expliziten Ausdruck anzugeben. Wenn x und z verbunden gaußverteilt sind, ist dies gewöhnlich möglich. Geometrische Interpretation: Betrachtet werde die Funktion g( ) auf einer Zufallsvariablen y. Da folgender Zusammenhang gilt: gilt auch Somit gilt also: E(x) = E y [E x (x y)], (2.14) E[xg(y)] = E y (E x [xg(y) y]) = E y (E x [x y]g(y)) = E[ˆxg(y)]. (2.15) E[(x ˆx)g(y)] = 0. (2.16) Die Fehlerzufallsvariable e = x ˆx ist somit unkorreliert zu beliebigen Funktionen einer zweiten korrelierten Zufallsvariablen. Man sagt auch: der Fehler steht orthogonal.

21 Univ.-Prof. DI. Dr.-Ing. Markus Rupp 21 Übung 2.1 Gegeben seien zwei mittelwertfreie, komplexwertige, verbundgaußverteilte Zufallsvariablenvektoren x und y der Dimensionen p 1 und q 1. Ihre Wahrscheinlichkeitsdichtefunktionen sind gegeben durch Weiterhin gilt, dass R xy = R H yx 0. Man berechne: f x (x) = 1 π p 1 det R xx exp{ xh R 1 xxx} (2.17) f y (y) = 1 1 π q exp{ y H Ryyy}. 1 (2.18) det R yy 1. Die Verbundwahrscheinlichkeitsdichte f x,y (x, y). 2. Die bedingte Wahrscheinlichkeitsdichte f x y (x y). 3. Die Terme der bedingten Wahrscheinlichkeitsdichte sind so zu arrangieren, dass ein Term nur von y abhängt. Hinweis: [ Rxx R xy R yx R yy ] 1 [ = I 0 I R 1 yyr yx Dabei muss Σ noch bestimmt werden! 4. Man gebe den optimalen Schätzer h(y) für x an. 5. Man gebe den MMSE für die Schätzung von x an. ] [ Σ R 1 yy ] [ I Rxy R 1 yy 0 I 6. Wie lässt sich die Lösung modifizieren, wenn die Zufallsvariablen nicht mittelwertfrei sind? ] 2.2 Linear Least-Mean-Squares Nachdem im vorhergehenden Abschnitt gezeigt wurde, dass die Lösung zum LMS Problem durch den bedingten Erwartungswert ˆx = E[x y 1, y 2,..., y n ] gegeben ist, werden wir uns in diesem Abschnitt speziellen Lösungen zuwenden. Wie bereits gezeigt wurde, führen Verbund-Gaußprozesse bei den Observablen dazu, dass die Lösung des Problems linear beschreibbar ist. Wir werden uns daher konsequent mit den linearen Lösungen befassen. Diese sind dann von großem Interesse wenn die beteiligten

Teil II. Nichtlineare Optimierung

Teil II. Nichtlineare Optimierung Teil II Nichtlineare Optimierung 60 Kapitel 1 Einleitung In diesem Abschnitt wird die Optimierung von Funktionen min {f(x)} x Ω betrachtet, wobei Ω R n eine abgeschlossene Menge und f : Ω R eine gegebene

Mehr

Einführung in die Vektor- und Matrizenrechnung. Matrizen

Einführung in die Vektor- und Matrizenrechnung. Matrizen Einführung in die Vektor- und Matrizenrechnung Matrizen Definition einer Matrix Unter einer (reellen) m x n Matrix A versteht man ein rechteckiges Schema aus reellen Zahlen, die wie folgt angeordnet sind:

Mehr

Elemente der Analysis II

Elemente der Analysis II Elemente der Analysis II Kapitel 3: Lineare Abbildungen und Gleichungssysteme Informationen zur Vorlesung: http://www.mathematik.uni-trier.de/ wengenroth/ J. Wengenroth () 15. Mai 2009 1 / 35 3.1 Beispiel

Mehr

Entwurf robuster Regelungen

Entwurf robuster Regelungen Entwurf robuster Regelungen Kai Müller Hochschule Bremerhaven Institut für Automatisierungs- und Elektrotechnik z P v K Juni 25 76 5 OPTIMALE ZUSTANDSREGELUNG 5 Optimale Zustandsregelung Ein optimaler

Mehr

Extrema von Funktionen in zwei Variablen

Extrema von Funktionen in zwei Variablen Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik für Ökonomen 1 Dr. Thomas Zehrt Extrema von Funktionen in zwei Variablen Literatur: Gauglhofer, M. und Müller, H.: Mathematik für Ökonomen,

Mehr

9. Schätzen und Testen bei unbekannter Varianz

9. Schätzen und Testen bei unbekannter Varianz 9. Schätzen und Testen bei unbekannter Varianz Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Schätzen und Testen bei unbekannter Varianz Wenn wir die Standardabweichung σ nicht kennen,

Mehr

LINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow

LINEARE ALGEBRA Ferienkurs. Hanna Schäfer Philipp Gadow LINEARE ALGERA Ferienkurs Hanna Schäfer Philipp Gadow INHALT Eigenwerte und Eigenvektoren. asiswechsel.2 Eigenwertgleichung 2.3 Diagonalisierbarkeit 5.4 Trigonalisierung 8.5 Zusatzmaterial 8 Aufgaben 9

Mehr

KAPITEL 4. Lineare Ausgleichsrechnung Beispiel 4.1. Das Ohmsche Gesetz: U = RI. Eine Meßreihe von Daten:

KAPITEL 4. Lineare Ausgleichsrechnung Beispiel 4.1. Das Ohmsche Gesetz: U = RI. Eine Meßreihe von Daten: KAPITEL 4 Lineare Ausgleichsrechnung Beispiel 41 Das Ohmsche Gesetz: Eine Meßreihe von Daten: U = RI (U i, I i ) (Spannung, Stromstärke), i = 1,, m Aufgabe: man bestimme aus diesen Meßdaten den Widerstand

Mehr

3.3 Eigenwerte und Eigenräume, Diagonalisierung

3.3 Eigenwerte und Eigenräume, Diagonalisierung 3.3 Eigenwerte und Eigenräume, Diagonalisierung Definition und Lemma 3.3.1. Sei V ein K-Vektorraum, φ End K (V ), λ K. Wir defnieren den zu λ gehörigen Eigenraum von φ als Dies ist ein Unterraum von V.

Mehr

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x

Mehr

17. Penalty- und Barriere-Methoden

17. Penalty- und Barriere-Methoden H.J. Oberle Optimierung SoSe 01 17. Penalty- und Barriere-Methoden Penalty- und Barriere Methoden gehören zu den ältesten Ansätzen zur Lösung allgemeiner restringierter Optimierungsaufgaben. Die grundlegende

Mehr

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s

klar. Um die zweite Bedingung zu zeigen, betrachte u i U i mit u i = 0. Das mittlere -Zeichen liefert s Nachtrag zur allgemeinen Vektorraum-Theorie. 1.5.15. Direkte Summen. Sei V ein Vektorraum, seien U 1,..., U t Unterräume, wir schreiben V = U 1 U 2 U t = t i=1 U i falls die folgenden beiden Bedingungen

Mehr

Codierungstheorie Rudolf Scharlau, SoSe 2006 9

Codierungstheorie Rudolf Scharlau, SoSe 2006 9 Codierungstheorie Rudolf Scharlau, SoSe 2006 9 2 Optimale Codes Optimalität bezieht sich auf eine gegebene Quelle, d.h. eine Wahrscheinlichkeitsverteilung auf den Symbolen s 1,..., s q des Quellalphabets

Mehr

OPERATIONS-RESEARCH (OR)

OPERATIONS-RESEARCH (OR) OPERATIONS-RESEARCH (OR) Man versteht darunter die Anwendung mathematischer Methoden und Modelle zur Vorbereitung optimaler Entscheidungen bei einem Unternehmen. Andere deutsche und englische Bezeichnungen:

Mehr

PRAKTIKUM Experimentelle Prozeßanalyse 2. VERSUCH AS-PA-2 "Methoden der Modellbildung statischer Systeme" Teil 2 (für ausgewählte Masterstudiengänge)

PRAKTIKUM Experimentelle Prozeßanalyse 2. VERSUCH AS-PA-2 Methoden der Modellbildung statischer Systeme Teil 2 (für ausgewählte Masterstudiengänge) FACHGEBIET Systemanalyse PRAKTIKUM Experimentelle Prozeßanalyse 2 VERSUCH AS-PA-2 "Methoden der Modellbildung statischer Systeme" Teil 2 (für ausgewählte Masterstudiengänge) Verantw. Hochschullehrer: Prof.

Mehr

Seminararbeit für das SE Reine Mathematik- Graphentheorie

Seminararbeit für das SE Reine Mathematik- Graphentheorie Seminararbeit für das SE Reine Mathematik- Graphentheorie Der binäre Rang, der symplektische Graph, die Spektralzerlegung und rationale Funktionen Vortrag am 24.01.2012 Heike Farkas 0410052 Inhaltsverzeichnis

Mehr

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen Austausch- bzw. Übergangsrozesse und Gleichgewichtsverteilungen Wir betrachten ein System mit verschiedenen Zuständen, zwischen denen ein Austausch stattfinden kann. Etwa soziale Schichten in einer Gesellschaft:

Mehr

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Aufgabe 35: Thema: Singulärwertzerlegung und assoziierte Unterräume Sei A eine m n Matrix mit Rang r und A = UDV T ihre Singulärwertzerlegung.

Mehr

Lineare Algebra - alles was man wissen muß

Lineare Algebra - alles was man wissen muß Statistik für Bioinformatiker SoSe 3 Rainer Spang Lineare Algebra - alles was man wissen muß Der Titel ist natürlich gelogen, aber was wir hier zusammengetragen haben ist zumindest ein Anfang. Weniger

Mehr

Binäre abhängige Variablen

Binäre abhängige Variablen Binäre abhängige Variablen Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Einführung Oft wollen wir qualitative Variablen

Mehr

Untersuchungen zum Thema Tracking Error

Untersuchungen zum Thema Tracking Error Untersuchungen zum Thema Tracking Error J. Fulmek 24. August 2003 1 Einleitung Im Folgenden werden folgende Punkte untersucht: 1. verschiedene in der Literatur übliche Definitionen des Tracking Errors

Mehr

Allgemeine Beschreibung von Blockcodes

Allgemeine Beschreibung von Blockcodes Allgemeine Beschreibung von Blockcodes Bei Blockcodierung wird jeweils eine Sequenz von m q binären Quellensymbolen (M q = 2) durch einen Block von m c Codesymbolen mit dem Symbolumfang M c dargestellt.

Mehr

Risikomessung und Value at Risk Wintersemester 2013/14

Risikomessung und Value at Risk Wintersemester 2013/14 Risikomessung und Value at Risk Wintersemester 2013/14 Walter Sanddorf-Köhle Statistik und Ökonometrie Foliensatz Nr. 11 Version vom 24. Januar 2014 1 / 45 6.5.1 Bisherige Vorgehensweise zur Berechnung

Mehr

Optimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg

Optimierung I. 1 Einführung. Luise Blank. Wintersemester 2012/13. Universität Regensburg Universität Regensburg Wintersemester 2012/13 1 Einführung Anwendungen Finanzwirtschaft: maximale Gewinnrate unter Beschränkungen an das Risiko; Portfolio von Investments Produktion: maximiere Gewinn bei

Mehr

Vorlesung. Funktionen/Abbildungen 1

Vorlesung. Funktionen/Abbildungen 1 Vorlesung Funktionen/Abbildungen 1 1 Grundlagen Hinweis: In dieser Vorlesung werden Funktionen und Abbildungen synonym verwendet. In der Schule wird eine Funktion häufig als eindeutige Zuordnung definiert.

Mehr

2: Zahlentheorie / Restklassen 2.1: Modulare Arithmetik

2: Zahlentheorie / Restklassen 2.1: Modulare Arithmetik Stefan Lucks Diskrete Strukturen (WS 2009/10) 57 2: Zahlentheorie / Restklassen 2.1: Modulare Arithmetik Uhr: Stunden mod 24, Minuten mod 60, Sekunden mod 60,... Rechnerarithmetik: mod 2 w, w {8, 16, 32,

Mehr

PRAKTIKUM REGELUNGSTECHNIK 2

PRAKTIKUM REGELUNGSTECHNIK 2 FACHHOCHSCHULE LANDSHUT Fachbereich Elektrotechnik Prof. Dr. G. Dorn PRAKTIKUM REGELUNGSTECHNIK 2 1 Versuch 2: Übertragungsfunktion und Polvorgabe 1.1 Einleitung Die Laplace Transformation ist ein äußerst

Mehr

Theoretische Grundlagen der Informatik WS 09/10

Theoretische Grundlagen der Informatik WS 09/10 Theoretische Grundlagen der Informatik WS 09/10 - Tutorium 6 - Michael Kirsten und Kai Wallisch Sitzung 13 02.02.2010 Inhaltsverzeichnis 1 Formeln zur Berechnung Aufgabe 1 2 Hamming-Distanz Aufgabe 2 3

Mehr

Numerisches Programmieren

Numerisches Programmieren Technische Universität München SS 2012 Institut für Informatik Prof Dr Thomas Huckle Dipl-Inf Christoph Riesinger Dipl-Math Alexander Breuer Dipl-Math Dipl-Inf Jürgen Bräckle Dr-Ing Markus Kowarschik Numerisches

Mehr

Modul G.1 WS 07/08: Statistik 17.01.2008 1. Die Korrelation ist ein standardisiertes Maß für den linearen Zusammenhangzwischen zwei Variablen.

Modul G.1 WS 07/08: Statistik 17.01.2008 1. Die Korrelation ist ein standardisiertes Maß für den linearen Zusammenhangzwischen zwei Variablen. Modul G.1 WS 07/08: Statistik 17.01.2008 1 Wiederholung Kovarianz und Korrelation Kovarianz = Maß für den linearen Zusammenhang zwischen zwei Variablen x und y Korrelation Die Korrelation ist ein standardisiertes

Mehr

Angewandte Ökonometrie, WS 2012/13, 1. Teilprüfung am 6.12.2012 - Lösungen. Das folgende Modell ist ein GARCH(1,1)-Modell:

Angewandte Ökonometrie, WS 2012/13, 1. Teilprüfung am 6.12.2012 - Lösungen. Das folgende Modell ist ein GARCH(1,1)-Modell: Angewandte Ökonometrie, WS 2012/13, 1. Teilprüfung am 6.12.2012 - Lösungen LV-Leiterin: Univ.Prof.Dr. Sylvia Frühwirth-Schnatter 1 Wahr oder falsch? 1. Das folgende Modell ist ein GARCH(1,1)-Modell: Y

Mehr

Computer Vision: Optische Flüsse

Computer Vision: Optische Flüsse Computer Vision: Optische Flüsse D. Schlesinger TUD/INF/KI/IS Bewegungsanalyse Optischer Fluss Lokale Verfahren (Lukas-Kanade) Globale Verfahren (Horn-Schunck) (+ kontinuierliche Ansätze: mathematische

Mehr

Der Bipolar-Transistor und die Emitterschaltung Gruppe B412

Der Bipolar-Transistor und die Emitterschaltung Gruppe B412 TECHNISCHE UNIVERSITÄT MÜNCHEN Der Bipolar-Transistor und die Emitterschaltung Gruppe B412 Patrick Christ und Daniel Biedermann 16.10.2009 1. INHALTSVERZEICHNIS 1. INHALTSVERZEICHNIS... 2 2. AUFGABE 1...

Mehr

Kapitel 4: Binäre Regression

Kapitel 4: Binäre Regression Kapitel 4: Binäre Regression Steffen Unkel (basierend auf Folien von Nora Fenske) Statistik III für Nebenfachstudierende WS 2013/2014 4.1 Motivation Ausgangssituation Gegeben sind Daten (y i, x i1,...,

Mehr

Single Parity check Codes (1)

Single Parity check Codes (1) Single Parity check Codes (1) Der Single Parity check Code (SPC) fügt zu dem Informationsblock u = (u 1, u 2,..., u k ) ein Prüfbit (englisch: Parity) p hinzu: Die Grafik zeigt drei Beispiele solcher Codes

Mehr

Adaptive Filter. Elektrotechnik / Nachrichten- und Kommunikationstechnik

Adaptive Filter. Elektrotechnik / Nachrichten- und Kommunikationstechnik Adaptive Filter Fachbereich Lothar Klaas Elektrotechnik / Nachrichten- und Kommunikationstechnik ADFI Inhaltsverzeichnis Seite Seite Literatur 3 Nomenklatur 4 Einführung 5 Was ist ein adaptives Filter?

Mehr

K2 MATHEMATIK KLAUSUR. Aufgabe PT WTA WTGS Darst. Gesamtpunktzahl Punkte (max) 28 15 15 2 60 Punkte Notenpunkte

K2 MATHEMATIK KLAUSUR. Aufgabe PT WTA WTGS Darst. Gesamtpunktzahl Punkte (max) 28 15 15 2 60 Punkte Notenpunkte K2 MATHEMATIK KLAUSUR 26.2.24 Aufgabe PT WTA WTGS Darst. Gesamtpunktzahl Punkte (max 28 5 5 2 6 Punkte Notenpunkte PT 2 3 4 5 6 7 8 9 P. (max 2 2 2 4 5 3 3 4 3 Punkte WT Ana A.a b A.c Summe P. (max 7 5

Mehr

Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung

Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung Kapitel 3 Zufallsvariable Josef Leydold c 2006 Mathematische Methoden III Zufallsvariable 1 / 43 Lernziele Diskrete und stetige Zufallsvariable Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion

Mehr

Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt!

Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt! Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt! 1 Einführung 2 Wahrscheinlichkeiten kurz gefasst 3 Zufallsvariablen und Verteilungen 4 Theoretische Verteilungen (Wahrscheinlichkeitsfunktion)

Mehr

Multivariate Statistik

Multivariate Statistik Hermann Singer Multivariate Statistik 1 Auflage 15 Oktober 2012 Seite: 12 KAPITEL 1 FALLSTUDIEN Abbildung 12: Logistische Regression: Geschätzte Wahrscheinlichkeit für schlechte und gute Kredite (rot/blau)

Mehr

Rekursionen (Teschl/Teschl 8.1-8.2)

Rekursionen (Teschl/Teschl 8.1-8.2) Rekursionen (Teschl/Teschl 8.1-8.2) Eine Rekursion kter Ordnung für k N ist eine Folge x 1, x 2, x 3,... deniert durch eine Rekursionsvorschrift x n = f n (x n 1,..., x n k ) für n > k, d. h. jedes Folgenglied

Mehr

Charakteristikenmethode im Beispiel

Charakteristikenmethode im Beispiel Charakteristikenmethode im Wir betrachten die PDE in drei Variablen xu x + yu y + (x + y )u z = 0. Das charakteristische System lautet dann ẋ = x ẏ = y ż = x + y und besitzt die allgemeine Lösung x(t)

Mehr

Sprechen wir über Zahlen (Karl-Heinz Wolff)

Sprechen wir über Zahlen (Karl-Heinz Wolff) Sprechen wir über Zahlen (Karl-Heinz Wolff) Die Überschrift ist insoweit irreführend, als der Autor ja schreibt und nicht mit dem Leser spricht. Was Mathematik im allgemeinen und Zahlen im besonderen betrifft,

Mehr

(λ Ri I A+BR)v Ri = 0. Lässt sich umstellen zu

(λ Ri I A+BR)v Ri = 0. Lässt sich umstellen zu Herleitung der oppenecker-formel (Wiederholung) Für ein System ẋ Ax + Bu (B habe Höchstrang) wird eine Zustandsregelung u x angesetzt. Der geschlossene egelkreis gehorcht der Zustands-Dgl. ẋ (A B)x. Die

Mehr

Stefan Lucks Krypto und Mediensicherheit (2009) 4: Stromchiffren

Stefan Lucks Krypto und Mediensicherheit (2009) 4: Stromchiffren 4: Stromchiffren Zwei Grundbausteine der symmetrischen Kryptographie: Stromchiffren Verschlüsseln beliebig langer Klartexte, interner Zustand Blockchiffren Verschlüsseln von Blocks einer festen Größe,

Mehr

Regressionsanalysen. Zusammenhänge von Variablen. Ziel der Regression. ( Idealfall )

Regressionsanalysen. Zusammenhänge von Variablen. Ziel der Regression. ( Idealfall ) Zusammenhänge von Variablen Regressionsanalysen linearer Zusammenhang ( Idealfall ) kein Zusammenhang nichtlinearer monotoner Zusammenhang (i.d.regel berechenbar über Variablentransformationen mittels

Mehr

Tangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort:

Tangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort: Tangentengleichung Wie Sie wissen, gibt die erste Ableitung einer Funktion deren Steigung an. Betrachtet man eine fest vorgegebene Stelle, gibt f ( ) also die Steigung der Kurve und somit auch die Steigung

Mehr

Ein neuer Beweis, dass die Newton sche Entwicklung der Potenzen des Binoms auch für gebrochene Exponenten gilt

Ein neuer Beweis, dass die Newton sche Entwicklung der Potenzen des Binoms auch für gebrochene Exponenten gilt Ein neuer Beweis, dass die Newton sche Entwicklung der Potenzen des Binoms auch für gebrochene Exponenten gilt Leonhard Euler 1 Wann immer in den Anfängen der Analysis die Potenzen des Binoms entwickelt

Mehr

Beispiel 11.2. Wenn p ein Polynom vom Grad größer gleich 1 ist, ist q : C Ĉ definiert durch q (z) =

Beispiel 11.2. Wenn p ein Polynom vom Grad größer gleich 1 ist, ist q : C Ĉ definiert durch q (z) = Funktionentheorie, Woche Funktionen und Polstellen. Meromorphe Funktionen Definition.. Sei U C offen und sei f : U gilt, nennt man f meromorph auf U: Ĉ eine Funktion. Wenn folgendes. P := f hat keine Häufungspunkte;.

Mehr

Einführung in die Kodierungstheorie

Einführung in die Kodierungstheorie Einführung in die Kodierungstheorie Einführung Vorgehen Beispiele Definitionen (Code, Codewort, Alphabet, Länge) Hamming-Distanz Definitionen (Äquivalenz, Coderate, ) Singleton-Schranke Lineare Codes Hamming-Gewicht

Mehr

Messgeräte: Mess-System-Analyse und Messmittelfähigkeit

Messgeräte: Mess-System-Analyse und Messmittelfähigkeit Messgeräte: Mess-System-Analyse und Messmittelfähigkeit Andreas Berlin 14. Juli 2009 Bachelor-Seminar: Messen und Statistik Inhalt: 1 Aspekte einer Messung 2 Mess-System-Analyse 2.1 ANOVA-Methode 2.2 Maße

Mehr

Zusammenhänge zwischen metrischen Merkmalen

Zusammenhänge zwischen metrischen Merkmalen Zusammenhänge zwischen metrischen Merkmalen Darstellung des Zusammenhangs, Korrelation und Regression Daten liegen zu zwei metrischen Merkmalen vor: Datenpaare (x i, y i ), i = 1,..., n Beispiel: x: Anzahl

Mehr

Der Huffman Algorithmus

Der Huffman Algorithmus Der Huffman Algorithmus Für das Folgende setzen wir voraus, dass die Quellensymbole q ν einem Alphabet {q μ } = {A, B, C,...} mit dem Symbolumfang M entstammen und statistisch voneinander unabhängig seien.

Mehr

Kirstin Hübner Armin Burgmeier Gruppe 15 10. Dezember 2007

Kirstin Hübner Armin Burgmeier Gruppe 15 10. Dezember 2007 Protokoll zum Versuch Transistorschaltungen Kirstin Hübner Armin Burgmeier Gruppe 15 10. Dezember 2007 1 Transistor-Kennlinien 1.1 Eingangskennlinie Nachdem wir die Schaltung wie in Bild 13 aufgebaut hatten,

Mehr

SLAM. Simultaneous Localization and Mapping. KogSys-Sem-M2: Reading Club - SLAM - Andreas Habermann

SLAM. Simultaneous Localization and Mapping. KogSys-Sem-M2: Reading Club - SLAM - Andreas Habermann SLAM Simultaneous Localization and Mapping KogSys-Sem-M2: Reading Club - SLAM - Andreas Habermann Simultaneous Localization And Mapping SLAM Problematik SLAM Arten SLAM Methoden: (E)KF SLAM GraphSLAM Fast

Mehr

ax 2 + bx + c = 0, (4.1)

ax 2 + bx + c = 0, (4.1) Kapitel 4 Komplexe Zahlen Wenn wir uns auf die reellen Zahlen beschränken, ist die Operation des Wurzelziehens (also die Umkehrung der Potenzierung) nicht immer möglich. Zum Beispiel können wir nicht die

Mehr

ε heteroskedastisch BINARY CHOICE MODELS Beispiele: Wahlentscheidung Kauf langlebiger Konsumgüter Arbeitslosigkeit Schätzung mit OLS?

ε heteroskedastisch BINARY CHOICE MODELS Beispiele: Wahlentscheidung Kauf langlebiger Konsumgüter Arbeitslosigkeit Schätzung mit OLS? BINARY CHOICE MODELS 1 mit Pr( Y = 1) = P Y = 0 mit Pr( Y = 0) = 1 P Beispiele: Wahlentscheidung Kauf langlebiger Konsumgüter Arbeitslosigkeit Schätzung mit OLS? Y i = X i β + ε i Probleme: Nonsense Predictions

Mehr

Digitale Signalbearbeitung und statistische Datenanalyse

Digitale Signalbearbeitung und statistische Datenanalyse Digitale Signalbearbeitung und statistische Datenanalyse Teil 5 8 Aus ontinuierlichem Signal werden in onstanten Zeitintervallen Daten entnommen ontinuierliches Signal x(t) Einheitsimpulsfuntion Gewichtete

Mehr

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt - 17 - Die Frage ist hier also: Für welche x R gilt x = x + 1? Das ist eine quadratische Gleichung für x. Es gilt x = x + 1 x x 3 = 0, und man kann quadratische Ergänzung machen:... ( ) ( ) x x + = 3 +

Mehr

Fachhochschule Köln Fakultät IME - NT Bereich Regelungstechnik Prof. Dr.-Ing. R. Bartz. DSS Diskrete Signale und Systeme.

Fachhochschule Köln Fakultät IME - NT Bereich Regelungstechnik Prof. Dr.-Ing. R. Bartz. DSS Diskrete Signale und Systeme. Fachhochschule Köln Fakultät IME - NT Bereich Regelungstechnik Prof. Dr.-Ing. R. Bartz DSS Diskrete Signale und Systeme Teampartner: Praktikum Versuch 1 Laborplatz: Name: Vorname: Studiengang /-richtung

Mehr

Investition & Finanzierung. 2. Investitionsrechnung unter Sicherheit

Investition & Finanzierung. 2. Investitionsrechnung unter Sicherheit Investition & Finanzierung 2. Investitionsrechnung unter Univ.-Prof. Dr. Dr. Andreas Löffler (AL@wacc.de) 1 Unter Cashflows verstehen wir Ein- sowie Auszahlungen. Wir konzentrieren uns vollkommen auf diese

Mehr

Probeklausur Signale + Systeme Kurs TIT09ITA

Probeklausur Signale + Systeme Kurs TIT09ITA Probeklausur Signale + Systeme Kurs TIT09ITA Dipl.-Ing. Andreas Ströder 13. Oktober 2010 Zugelassene Hilfsmittel: Alle außer Laptop/PC Die besten 4 Aufgaben werden gewertet. Dauer: 120 min 1 Aufgabe 1

Mehr

Multinomiale logistische Regression

Multinomiale logistische Regression Multinomiale logistische Regression Die multinomiale logistische Regression dient zur Schätzung von Gruppenzugehörigkeiten bzw. einer entsprechenden Wahrscheinlichkeit hierfür, wobei als abhänginge Variable

Mehr

Profil A 49,3 48,2 50,7 50,9 49,8 48,7 49,6 50,1 Profil B 51,8 49,6 53,2 51,1 51,1 53,4 50,7 50 51,5 51,7 48,8

Profil A 49,3 48,2 50,7 50,9 49,8 48,7 49,6 50,1 Profil B 51,8 49,6 53,2 51,1 51,1 53,4 50,7 50 51,5 51,7 48,8 1. Aufgabe: Eine Reifenfirma hat für Winterreifen unterschiedliche Profile entwickelt. Bei jeweils gleicher Geschwindigkeit und auch sonst gleichen Bedingungen wurden die Bremswirkungen gemessen. Die gemessenen

Mehr

3.2 Spiegelungen an zwei Spiegeln

3.2 Spiegelungen an zwei Spiegeln 3 Die Theorie des Spiegelbuches 45 sehen, wenn die Person uns direkt gegenüber steht. Denn dann hat sie eine Drehung um die senkrechte Achse gemacht und dabei links und rechts vertauscht. 3.2 Spiegelungen

Mehr

2.3 Binäre Übertragung

2.3 Binäre Übertragung 62 2 Grundlegende Verfahren zur Übertragung digitaler Signale Missverständnisse soll die Bezeichnung digitale Übertragung im Folgenden benutzt werden. Eine Übertragung von analogen Quellensignalen, z.

Mehr

Aufabe 7: Baum-Welch Algorithmus

Aufabe 7: Baum-Welch Algorithmus Effiziente Algorithmen VU Ausarbeitung Aufabe 7: Baum-Welch Algorithmus Florian Fest, Matr. Nr.0125496 baskit@generationfun.at Claudia Hermann, Matr. Nr.0125532 e0125532@stud4.tuwien.ac.at Matteo Savio,

Mehr

Kapitel 15: Differentialgleichungen

Kapitel 15: Differentialgleichungen FernUNI Hagen WS 00/03 Kapitel 15: Differentialgleichungen Differentialgleichungen = Gleichungen die Beziehungen zwischen einer Funktion und mindestens einer ihrer Ableitungen herstellen. Kommen bei vielen

Mehr

Molekularfeldtheorie (MFT)

Molekularfeldtheorie (MFT) 29.06.2006 Motivation Anwendungen der MFT MFT-Herleitung mittels Variationsansatz und Anwendung Grenzen der Anwendung der MFT Motivation Meisten Probleme nur unter Berücksichtigung von Wechselwirkungen

Mehr

6 Symmetrische Matrizen und quadratische Formen

6 Symmetrische Matrizen und quadratische Formen Mathematik für Ingenieure II, SS 9 Freitag. $Id: quadrat.tex,v.5 9//5 ::59 hk Exp $ $Id: orthogonal.tex,v.4 9// ::54 hk Exp $ $Id: fourier.tex,v. 9// :: hk Exp $ Symmetrische Matrizen und quadratische

Mehr

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Vollständigkeit halber aufgeführt. Gehen wir einmal davon aus, dass die von uns angenommenen 70% im Beispiel exakt berechnet sind. Was würde

Mehr

High-Speed Optical Transmission Systems Grundlagen der numerischen Simulation

High-Speed Optical Transmission Systems Grundlagen der numerischen Simulation High-Speed Optical Transmission Systems Grundlagen der numerischen Simulation 8. Februar 2 In dieser Übung sollen einige Grundlagen der numerischen Simulation mit dem Programm VPItransmissionMaker behandelt

Mehr

Berechnung von Eigenwerten und Eigenvektoren

Berechnung von Eigenwerten und Eigenvektoren Kapitel 5 Berechnung von Eigenwerten und Eigenvektoren 5.1 Einführung Bemerkung 5.1 Aufgabenstellung. Diese Kapitel behandelt numerische Verfahren zur Lösung des Eigenwertproblems. Gegeben sei A R n n.

Mehr

Mathematica - Notebooks als Bonusmaterial zum Lehrbuch

Mathematica - Notebooks als Bonusmaterial zum Lehrbuch R. Brigola, TH Nürnberg Georg Simon Ohm, 2014 Mathematica - Notebooks als Bonusmaterial zum Lehrbuch [1] Rolf Brigola Fourier-Analysis und Distributionen, Eine Einführung mit Anwendungen, edition swk,

Mehr

2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen

2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen 4. Datenanalyse und Modellbildung Deskriptive Statistik 2-1 2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen Für die Auswertung einer Messreihe, die in Form

Mehr

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002) 6. Bayes-Klassifikation (Schukat-Talamazzini 2002) (Böhm 2003) (Klawonn 2004) Der Satz von Bayes: Beweis: Klassifikation mittels des Satzes von Bayes (Klawonn 2004) Allgemeine Definition: Davon zu unterscheiden

Mehr

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen 4.3.2 Zusammengesetzte Zufallsvariablen Beispiel 48 Ein Würfel werde zweimal geworfen. X bzw. Y bezeichne die Augenzahl im ersten bzw. zweiten Wurf. Sei Z := X + Y die Summe der gewürfelten Augenzahlen.

Mehr

0, v 6 = 2 2. 1, v 4 = 1. 2. span(v 1, v 5, v 6 ) = span(v 1, v 2, v 3, v 4, v 5, v 6 ) 4. span(v 1, v 2, v 4 ) = span(v 2, v 3, v 5, v 6 )

0, v 6 = 2 2. 1, v 4 = 1. 2. span(v 1, v 5, v 6 ) = span(v 1, v 2, v 3, v 4, v 5, v 6 ) 4. span(v 1, v 2, v 4 ) = span(v 2, v 3, v 5, v 6 ) Aufgabe 65. Ganz schön span(n)end. Gegeben sei folgende Menge M von 6 Vektoren v, v,..., v 6 R 4 aus Aufgabe P 6: M = v =, v =, v =, v 4 =, v 5 =, v 6 = Welche der folgenden Aussagen sind wahr? span(v,

Mehr

Nichtlebenversicherungsmathematik Aus welchen Teilen besteht eine Prämie Zufallsrisiko, Parameterrisiko, Risikokapital Risikomasse (VaR, ES) Definition von Kohärenz Zusammengesetze Poisson: S(i) CP, was

Mehr

Martingale. Kapitel 6. 6.1 Martingale in diskreter Zeit. 6.1.1 Definition und Beispiele

Martingale. Kapitel 6. 6.1 Martingale in diskreter Zeit. 6.1.1 Definition und Beispiele Kapitel 6 Martingale In der Statistik modellieren Martingale z.b. Glücksspiele oder Handelsstrategien in Finanzmärkten und sind ein grundlegendes Hilfsmittel für die statistische Inferenz stochastischer

Mehr

Seite 1 von 2. Teil Theorie Praxis S Punkte 80+25 120+73 200+98 erreicht

Seite 1 von 2. Teil Theorie Praxis S Punkte 80+25 120+73 200+98 erreicht Seite 1 von 2 Ostfalia Hochschule Fakultät Elektrotechnik Wolfenbüttel Prof. Dr.-Ing. T. Harriehausen Bearbeitungszeit: Theoretischer Teil: 60 Minuten Praktischer Teil: 60 Minuten Klausur FEM für elektromagnetische

Mehr

Funktionen (linear, quadratisch)

Funktionen (linear, quadratisch) Funktionen (linear, quadratisch) 1. Definitionsbereich Bestimme den Definitionsbereich der Funktion f(x) = 16 x 2 2x + 4 2. Umkehrfunktionen Wie lauten die Umkehrfunktionen der folgenden Funktionen? (a)

Mehr

Lenstras Algorithmus für Faktorisierung

Lenstras Algorithmus für Faktorisierung Lenstras Algorithmus für Faktorisierung Bertil Nestorius 9 März 2010 1 Motivation Die schnelle Faktorisierung von Zahlen ist heutzutage ein sehr wichtigen Thema, zb gibt es in der Kryptographie viele weit

Mehr

Delta-Gamma-Verfahren als Standard- Risikomodell für Lebensversicherer

Delta-Gamma-Verfahren als Standard- Risikomodell für Lebensversicherer Delta-Gamma-Verfahren als Standard- Risikomodell für Lebensversicherer 1 Einleitung Im Rahmen des SST wird teilweise vereinfachend angenommen, dass der Zusammenhang zwischen der Veränderung des risikotragenden

Mehr

Übungsklausur. Bitte wählen Sie fünf Aufgaben aus! Aufgabe 1. Übungsklausur zu Mathematik I für BWL und VWL (WS 2008/09) PD Dr.

Übungsklausur. Bitte wählen Sie fünf Aufgaben aus! Aufgabe 1. Übungsklausur zu Mathematik I für BWL und VWL (WS 2008/09) PD Dr. Übungsklausur zu Mathematik I für BWL und VWL (WS 2008/09) PD Dr. Gert Zöller Übungsklausur Hilfsmittel: Taschenrechner, Formblatt mit Formeln. Lösungswege sind stets anzugeben. Die alleinige Angabe eines

Mehr

(2) (x 2 1 + x 2 2 + + x 2 n)(y 2 1 + y 2 2 + + y 2 n) = z 2 1 + z 2 2 + + z 2 n

(2) (x 2 1 + x 2 2 + + x 2 n)(y 2 1 + y 2 2 + + y 2 n) = z 2 1 + z 2 2 + + z 2 n Über die Komposition der quadratischen Formen von beliebig vielen Variablen 1. (Nachrichten von der k. Gesellschaft der Wissenschaften zu Göttingen, Mathematisch-physikalische Klasse, 1898, S. 309 316.)

Mehr

Der Zwei-Quadrate-Satz von Fermat

Der Zwei-Quadrate-Satz von Fermat Der Zwei-Quadrate-Satz von Fermat Proseminar: Das BUCH der Beweise Fridtjof Schulte Steinberg Institut für Informatik Humboldt-Universität zu Berlin 29.November 2012 1 / 20 Allgemeines Pierre de Fermat

Mehr

Analyse bivariater Kontingenztafeln

Analyse bivariater Kontingenztafeln Analyse bivariater Kontingenztafeln Werden zwei kategoriale Merkmale mit nicht zu vielen möglichen Ausprägungen gemeinsam analysiert, so kommen zur Beschreibung der gemeinsamen Verteilung im allgemeinen

Mehr

Monte Carlo Methoden in Kreditrisiko-Management

Monte Carlo Methoden in Kreditrisiko-Management Monte Carlo Methoden in Kreditrisiko-Management P Kreditportfolio bestehend aus m Krediten; Verlustfunktion L = n i=1 L i; Die Verluste L i sind unabhängig bedingt durch einen Vektor Z von ökonomischen

Mehr

Approximationsalgorithmen: Klassiker I. Kombinatorische Optimierung Absolute Gütegarantie Graph-Coloring Clique Relative Gütegarantie Scheduling

Approximationsalgorithmen: Klassiker I. Kombinatorische Optimierung Absolute Gütegarantie Graph-Coloring Clique Relative Gütegarantie Scheduling Approximationsalgorithmen: Klassiker I Kombinatorische Optimierung Absolute Gütegarantie Graph-Coloring Clique Relative Gütegarantie Scheduling VO Approximationsalgorithmen WiSe 2011/12 Markus Chimani

Mehr

GF(2 2 ) Beispiel eines Erweiterungskörpers (1)

GF(2 2 ) Beispiel eines Erweiterungskörpers (1) GF(2 2 ) Beispiel eines Erweiterungskörpers (1) Im Kapitel 2.1 wurde bereits gezeigt, dass die endliche Zahlenmenge {0, 1, 2, 3} q = 4 nicht die Eigenschaften eines Galoisfeldes GF(4) erfüllt. Vielmehr

Mehr

4 Greedy-Algorithmen (gierige Algorithmen)

4 Greedy-Algorithmen (gierige Algorithmen) Greedy-Algorithmen (gierige Algorithmen) Greedy-Algorithmen werden oft für die exakte oder approximative Lösung von Optimierungsproblemen verwendet. Typischerweise konstruiert ein Greedy-Algorithmus eine

Mehr

Kybernetik Systemidentifikation

Kybernetik Systemidentifikation Kberneti Sstemidentifiation Mohamed Oubbati Institut für euroinformati Tel.: +49 73 / 50 2453 mohamed.oubbati@uni-ulm.de 2. 06. 202 Was ist Sstemidentifiation? Der Begriff Sstemidentifiation beschreibt

Mehr

Kurs 00091: Finanzierungs- und entscheidungstheoretische Grundlagen der Betriebswirtschaftslehre

Kurs 00091: Finanzierungs- und entscheidungstheoretische Grundlagen der Betriebswirtschaftslehre Grundlagen der Betriebswirtschaftslehre, Kurs 00091, KE 4, 5 und 6, SS 2008 1 Kurs 00091: Finanzierungs- und entscheidungstheoretische Grundlagen der Betriebswirtschaftslehre Lösungshinweise zur Einsendearbeit

Mehr

34 5. FINANZMATHEMATIK

34 5. FINANZMATHEMATIK 34 5. FINANZMATHEMATIK 5. Finanzmathematik 5.1. Ein einführendes Beispiel Betrachten wir eine ganz einfache Situation. Wir haben einen Markt, wo es nur erlaubt ist, heute und in einem Monat zu handeln.

Mehr

Quantitative Methoden der Bildungsforschung

Quantitative Methoden der Bildungsforschung Glieung Wieholung Korrelationen Grundlagen lineare Regression Lineare Regression in SPSS Übung Wieholung Korrelationen Standardisiertes Zusammenhangsmaß (unstandardisiert: Kovarianz) linearer Zusammenhang

Mehr

Transformation und Darstellung funktionaler Daten

Transformation und Darstellung funktionaler Daten Transformation und Darstellung funktionaler Daten Seminar - Statistik funktionaler Daten Jakob Bossek Fakultät für Statistik 7. Mai 2012 Übersicht Einleitung Einordnung im Seminar Motivation am Beispiel

Mehr

Mathematische Grundlagen der Kryptographie. 1. Ganze Zahlen 2. Kongruenzen und Restklassenringe. Stefan Brandstädter Jennifer Karstens

Mathematische Grundlagen der Kryptographie. 1. Ganze Zahlen 2. Kongruenzen und Restklassenringe. Stefan Brandstädter Jennifer Karstens Mathematische Grundlagen der Kryptographie 1. Ganze Zahlen 2. Kongruenzen und Restklassenringe Stefan Brandstädter Jennifer Karstens 18. Januar 2005 Inhaltsverzeichnis 1 Ganze Zahlen 1 1.1 Grundlagen............................

Mehr

Einführung in MATLAB

Einführung in MATLAB Kapitel 4 Einführung in MATLAB 41 Allgemeines MATLAB ist eine kommerzielle mathematische Software zur Lösung mathematischer Probleme und zur graphischen Darstellung der Ergebnisse Die Verfahren in MATLAB

Mehr

Statistik I für Wirtschaftswissenschaftler Klausur am 06.07.2007, 14.00 16.00.

Statistik I für Wirtschaftswissenschaftler Klausur am 06.07.2007, 14.00 16.00. 1 Statistik I für Wirtschaftswissenschaftler Klausur am 06.07.2007, 14.00 16.00. Bitte unbedingt beachten: a) Gewertet werden alle 9 gestellten Aufgaben. b) Lösungswege sind anzugeben. Die Angabe des Endergebnisses

Mehr