Kapitel 8: Zeitdiskrete Zufallssignale
|
|
- Achim Schubert
- vor 6 Jahren
- Abrufe
Transkript
1 ZHAW, DSV2, 2007, Rumc, 8-1 Kapitel 8: Zeitdiskrete Zufallssignale Inhaltsverzeichnis 1. STOCHASTISCHER PROZESS STATISTISCHE EIGENSCHAFTEN EINER ZUFALLSVARIABLEN STATISTISCHE EIGENSCHAFTEN VON 2 ZUFALLSVARIABLEN STATISTISCHE EIGENSCHAFTEN VON ZUFALLSSIGNALEN BESCHREIBUNG VON ZUFALLSSIGNALEN IM FREQUENZBEREICH DISKRETE FILTERUNG VON ZUFALLSSIGNALEN...11 Literatur [1] S.J. Mitra, Digital Signal Processing, 3rd Edition, Mc Graw Hill, 2006, ISBN Stochastischer Prozess Das zeitdiskrete Zufallssignal Z[.] =..., Z[-1], Z[0], Z[1],... ist ein stochastischer Prozess und besteht typischerweise aus einer unendlich langen Folge bzw. einem Ensemble von Zufallsvariablen Z[n], n = -,...,. Der Verlauf eines Zufallssignals Z[.] lässt sich nicht mit einer mathematischen Formel beschreiben. Man kann aber die statistischen Eigenschaften wie z.b. den Mittelwert der Amplitude der Zufallsvariablen Z[n] zum Zeitpunkt nt s beschreiben. Weiter kann man auch den statistischen Zusammenhang zwischen den Zufallsvariablen Z[m] und Z[n] zu den Zeitpunkten mt s und nt s beschreiben. In Abbildung 8-1 sind zwei verschiedene Musterverläufe eines zeitdiskreten Zufallssignals Z[.] dargestellt.
2 ZHAW, DSV2, 2007, Rumc, 8-2 Abbildung 8-1: Zwei verschiedene Musterverläufe eines zeitdiskreten Zufallssignals. Die Amplitude der Zufallsvariablen Z[n] ist in diesem Beispiel mittelwertfrei und normalbzw. gaussverteilt, unabhängig vom Zeitpunkt nt s. Kleine Werte sind also wahrscheinlicher als grosse Werte. Es ist kein statistischer Zusammenhang zwischen zwei aufeinander folgenden Zufallsvariablen Z[n] und Z[n+1] zu erkennen. Das Signal ändert manchmal beliebig schnell. 2. Statistische Eigenschaften von 1 Zufallsvariablen Die statistischen Eigenschaften einer Zufallsvariablen Z hängen von ihrer Wahrscheinlichkeitsdichtefunktion p Z (z) ab. Für jede Wahrscheinlichkeitsdichtefunktion p Z (z) gilt: p z(z) dz=1 - (8.1) P(z<α) α = p z(z) dz (8.2) Der Mittelwert E{Z} und der quadratische Mittelwert E{Z 2 } einer reellwertigen Zufallsvariablen Z sind wie folgt definiert: E{Z} = z p z(z) dz, (8.3) 2 E{Z } = z 2 p z(z) dz. (8.4)
3 ZHAW, DSV2, 2007, Rumc, 8-3 Der Erwartungswert E{.} ist ein linearer Operator, d.h. für zwei Zufallsvariablen Z 1 und Z 2 und zwei Konstanten k 1 und k 2 gilt: E{k 1 Z 1 +k 2 Z 2 } = k 1 E{Z 1 } + k 2 E{Z 2 }. (8.5) Die Varianz ist die mittlere quadratische Abweichung vom Mittelwert E{Z}, d.h. Var(Z) = E{ (Z-E{Z}) 2 } (8.6) Durch Ausmultiplizieren und Verwenden der Linearitätseigenschaft (8.5) erhält man die nützliche Identität Var(Z) = E{Z 2 } (E{Z}) 2. (8.7) Die Standardabweichung ist wie folgt definiert: σ Z = (Var(Z)). Betrachten Sie die uniforme Wahrscheinlichkeitsdichtefunktion p Z (z) der Zufallsvariablen Z in Abbildung p Z (z) 1 Abbildung 8-2: Uniforme Wahrscheinlichkeitsdichtefunktion. Diese Wahrscheinlichkeitsdichtefunktion p Z (z) erfüllt die Bedingung (8.1). Die Wahrscheinlichkeit P(z<0.75), dass der Wert z der Zufallsvariablen Z kleiner als 0.75 ist, ist 75%. Für den Mittelwert und den quadratischen Mittelwert gelten: E{Z} = 1/2 und E[Z 2 ] = 1/3. Für die Varianz gilt mit (8.7): Var(Z) = 1/3 (1/2) 2 = 1/12. In Abbildung 8-3 ist die Gauss sche Wahrscheinlichkeitsdichtefunktion Z 2 (z-e[z]) - 2 2σ Z 1 p Z(z)= e σ 2π (8.8) mit Mittelwert E{Z} = 0 und Standardabweichung σ Z = (Var(Z) = 1 dargestellt.
4 ZHAW, DSV2, 2007, Rumc, 8-4 Abbildung 8-3: Wahrscheinlichkeitsdichtefuntkion einer Gauss schen Zufallsvariablen mit Mittelwert Null und Standardabweichung 1. Bekanntlich liegen fast 70% der Werte z der Zufallsvariablen Z im Intervall [-σ Z, σ Z ] und ca. 95% im Intervall [-2σ Z, 2σ Z ]. Diese Tatsache folgt aus Gleichung (8.2) und den Tabellenwerten P(z 1) = bzw. P(z 2) = sowie der Symmetrieeigenschaft P(z -α) = 1 - P(z α). Es gibt auch Zufallsvariablen, die nur diskrete Amplitudenwerte z k annehmen können. Für solche Zufallsvariablen sind die Gleichungen (8.1) bis (8.4) entsprechend zu modifizieren (Summen statt Integrale). Betrachten Sie die Augenzahl Z eines fairen Würfels. Die Wahrscheinlichkeit P Z (1) =... = P Z (6) = 1/6. Die Summe der Wahrscheinlichkeiten gibt 1. Für den Erwartungswert gilt: 1 1 k Z k = = 3.5. k = E{Z} = z P (z ) 3. Statistische Eigenschaften von 2 Zufallsvariablen Bei zwei Zufallsvariablen X und Y interessieren neben den individuellen, statistischen Eigenschaften auch die sogenannten Verbundeigenschaften. Für die Verbund-Wahrscheinlichkeitsdichtefunktion p XY (x,y) von X und Y gilt: p xy(x,y) dx dy = 1 (8.9) - α β P(x α,y β)= (8.10) p (x,y) dx dy xy Die Verbundeigenschaften der Zufallsvariablen X und Y werden durch die (Kreuz-) Korrelation und die (Kreuz-) Covarianz beschrieben. Sie sind wie folgt definiert:
5 ZHAW, DSV2, 2007, Rumc, 8-5 Korrelation: E{X Y} = x y p (x,y) dx dy (8.11) xy - Covarianz: E{(X-E[X]) (Y-E[Y])} = E{X Y} - E{X} E{Y} (8.12) Zwei Zufallsvariablen sind unkorreliert, wenn gilt und statistisch unabhängig, wenn gilt E{X Y} = E{X} E{Y}, (8.13) p XY (x,y) = p X (x) p Y (y). (8.14) Statistisch unabhängige Zufallsvariablen X und Y sind unkorreliert, weil E{X Y} = x y p (x,y) dx dy xy xp - (x) dx yp (y) dy = E{X} E{Y} X - - Y gilt. Das Umgekehrte trifft nicht immer zu, d.h. zwei unkorrelierte Zufallsvariablen X und Y sind nicht notwendigerweise statistisch unabhängig. Durch Einsetzen von (8.13) in (8.12) folgt, dass die Covarianz von zwei unkorrelierten Zufallsvariablen X und Y Null ist. 4. Statistische Eigenschaften von Zufallssignalen Der Mittelwert des diskreten Zufallssignals Z[.] zum Zeitpunkt nt s ist gegeben durch den Mittelwert E{Z[n]} der Zufallsvariablen Z[n] zum Zeitpunkt nt s, d.h. E{Z[n]} = z p (z) dz. (8.15) Z[n] Der mittlere, quadratische Wert bzw. der mean-square-wert des diskreten Zufallssignals Z[.] zum Zeitpunkt nt s ist gegeben durch Z[n]. (8.16) 2 2 E{(Z[n]) } = z p (z) dz Oft interessiert der statistische Zusammenhang zwischen zwei Zufallsvariablen Z[m] und Z[n] eines diskreten Zufallssignals Z[.] zu zwei verschiedenen Zeitpunkten m und n. So einen Zusammenhang stellt die Autokorrelationsfunktion (AKF) R ZZ [m,n] = E{Z[m] Z[n]} (8.17) her. Sie ist ein Mass für die Ähnlichkeit benachbarter Sample im Zufallssignal Z[.].
6 ZHAW, DSV2, 2007, Rumc, 8-6 Ein weiterer Zusammenhang liefert die Auto-Covarianz-Funktion E{ (Z[m]-E{Z[m]}) (Z[n]-E{Z[n]) } = R ZZ [m,n] - E{Z[m]} E{Z[n]}. (8.18) Die Korrelation zwischen zwei diskreten Zufallssignalen X[.] und Y[.] wird durch die Kreuzkorrelationsfunktion (KKF) und die Kreuz-Covarianz-Funktion R XY [m,n] = E{X[m] Y[n]} (8.19) E{ (X[m]-E{ X[m]}) (Y[n]-E{Y[n]}) } = R XY [m,n] - E{X[m]} E{Y[n]} (8.20) beschrieben. Die KKF ist ein Mass für die Ähnlichkeit der Zufallssignale X[.] und Y[.]. Sowohl Autokorrelations- und Auto-Covarianz-Funktionen wie auch Kreuzkorrelations- und Kreuz-Covarianz-Funktionen sind Funktionen von zwei Zeitindizes m und n. Es gibt aber eine grosse Klasse von Zufallssignalen, die sogenannten wide-sense oder schwach stationären Zufallssignale, bei denen die statistischen Eigenschaften unabhängig vom Zeitindex n sind, d.h. für alle m und n. E{Z[n]} = m Z R ZZ [m,n] = R ZZ [m-n] = R ZZ [n-m] (8.21) R XY [m,n] = R XY [m-n] = R YX [n-m] In der Praxis ist oft nur eine beschränkte Anzahl Signalwerte z[n] eines Musters eines diskreten Zufallssignals Z[.] verfügbar. Aus diesen Werten können die statistischen Eigenschaften geschätzt werden, wenn das Zufallssignal stationär und ergodisch ist und die Anzahl bekannter Werte genügend gross ist. Bei einem ergodischen Signal stimmen Zeit- und Ensemble-Mittelwert im Grenzfall überein, d.h. 1 N mz = E{Z[n]} = lim z[n] N 2N+1, (8.22) n = N 1 N R ZZ[m] = E{Z[n] Z[n+m]} = lim z[n] z[n+m] N 2N+1. (8.23) n = N In der Praxis approximiert man natürlich die unendlichen Summen mit endlichen Summen.
7 ZHAW, DSV2, 2007, Rumc, 8-7 In Abbildung 8-4 sind 1000 Werte von 2 verschiedenen Zufallssignalen Z1[.] und Z2[.] sowie ihre AKF R Z1Z1 [.] und R Z2Z2 [.] dargestellt. Abbildung 8-4: Zwei verschiedene Zufallssignale und resultierende AKF. Benachbarte Werte von Z1[.] sind wenig korreliert bzw. sind sich fast nicht ähnlich. Das Zufallssignal Z1[.] ändert sich schnell. Benachbarte Werte von Z2[.] sind stark korreliert bzw. sind sich ähnlich. Das Zufallssignal Z2[.] ändert sich nur langsam.
8 ZHAW, DSV2, 2007, Rumc, 8-8 Die folgenden 30 Signalwerte x[n] =..., ,... stammen von einem stationären, ergodischen Zufallssignal X[.] mit unabhängigen Zufallsvariablen X[n], für die P X (-1) = P X (1) = 0.5 gilt, siehe auch Abbildung 8-5. Abbildung 8-5: Zwei bipolare, stationäre, ergodische Zufallssignale. Aus diesen 30 Werten lassen sich die statistischen Eigenschaften von X[.] tatsächlich ziemlich genau schätzen, wie die folgenden Vergleiche zeigen: Mittelwert (Ensemble): m X = E{X[n]} = 0.5 (-1) = 0 Mittelwert (Zeit): ( (-1)) / 30 = -2/30 = -1/15 Autokorrelation (Ensemble): R XX [0] = E{(X[n]) 2 } = 1 Autokorrelation (Zeit): (30 1)/30 = 1 Autokorrelation (Ensemble): R XX [1] = E{X[n] X[n+1]} = E{X[n]} E{X[n+1]} = 0 Autokorrelation (Zeit): ( (-1))/29 = 1/29 Zwei aufeinander folgende Signalwerte sind unkorreliert. Das Signal weist schnelle Änderungen auf, siehe Abbildung 8-5.
9 ZHAW, DSV2, 2007, Rumc, 8-9 Filtert man die 30 Signalwerte aus dem letzten Beispiel mit dem Filter H(z) = z -1, so resultieren die folgenden (zufälligen) Ausgangswerte (Anfangswert = -1) y[n] =..., ,... siehe Abbildung 8-5. Für die Autokorrelationsfunktion an den Stellen n=0 und n=1 findet man: Autokorrelation (Ensemble): R YY [0] = E{(Y[n]) 2 } = E{ (0.5 X[n]+0.5 X[n-1]) 2 } = 0.5 Autokorrelation (Zeit): 16/30 Autokorrelation (Ensemble): R YY [1] = E{Y[n] Y[n+1]} = E{(0.5 X[n]+0.5 X[n-1]) (0.5 X[n+1]+0.5 X[n])} = 0.25 E{(X[n]) 2 } = 0.25 Autokorrelation (Zeit): 7/30 Zwei aufeinander folgende Werte sind wegen der Filterung korreliert. Das Zufallssignal Y[.] am Ausgang des TP-Filters ändert weniger schnell als das Zufallssignal X[.] am Filtereingang, siehe Abbildung 8-5. Der Autokorrelationswert kann wieder gut mit dem Zeitmittelwert geschätzt werden. Beispiel Der mean-square-wert E{z 2 [n]} stellt eigentlich die Leistung von z[n] dar. Das deterministische Sinus-Signal z[n] = sin(2πn/n) hat die Leistung: 1 N-1 E{z 2 [n]} = sin 2 (2πn/N) = 0.5 N n = 0
10 ZHAW, DSV2, 2007, Rumc, Beschreibung von Zufallssignalen im Frequenzbereich Zufallssignale können nicht nur im Zeitbereich, sondern auch im Frequenzbereich charakterisiert werden. Im Folgenden betrachten wir ausschliesslich schwach-stationäre, mittelwertfreie, reellwertige Zufallssignale Z[.]. Zufallssignale Z[.] haben kein eigentliches Spektrum wie es die deterministischen Signale haben. Zufallssignale Z[.] haben aber ein Leistungsdichtespektrum P ZZ (f) [W/Hz]. Wiener und Khintchine haben gezeigt, dass das Leistungsdichtespektrum P ZZ (f) eines Zufallssignals Z[.] und die Autokorrelationsfunktion AKF R ZZ [m] ein Fourierpaar bilden, d.h. ZZ ZZ -jm2πft s = R ZZ (z=e j2πfts ) (8.24) m= P (f)= R [m] e f s /2 1 jm2πfts R ZZ[m] = P ZZ(f) e df fs f s /2 (8.25) Das Leistungsdichtespektrum P ZZ (f) ist eine reellwertige und gerade Funktion. Aus (8.25) folgt für die mittlere Leistung des Zufallssignals Z[.]: 2 1 E{ Z [n]} =R ZZ[0] = P (f) df f s f s /2 ZZ. (8.26) f s /2 Beispiel Wir betrachten ein schwach-stationäres, (mittelwertfreies), reellwertiges Zufallssignal Z[.] mit unkorrelierten Signalwerten, d.h. E{Z[n] Z[n+m]} = E{Z[n]} E{Z[n+m]} = 0 wenn m 0. Das Zufallssignal Z[.] hat eine impulsartige Autokorrelationsfunktion (AKF), d.h. R ZZ [m] = E{Z 2 [n]} δ[m], wobei δ[.] die Dirac-Delta-Folge darstellt, siehe Abbildung 8-6. Aus dem Wiener-Khintchine-Theorem (8.24) folgt, dass das betrachtete Zufallssignal Z[.] ein konstantes Leistungsdichtespektrum besitzt, d.h. P ZZ (f) = R ZZ [0], siehe Abbildung 8-6. Das Zufallssignal Z[.] wird deshalb auch weisses Rauschen genannt. R ZZ [m] P ZZ (f) E[Z 2 [n]] m -f s /2 f s /2 f Abbildung 8-6: AKF und Leistungsdichtespektrum von weissem Rauschen.
11 ZHAW, DSV2, 2007, Rumc, 8-11 Beispiel Das Zufallssignal Z 1 [.] in Abbildung 8-4 besitzt wegen der impulsartigen AKF ein weisses bzw. flaches Spektrum. Der Signalverlauf weist schnelle Änderungen auf. Es ist keine Korrelation bzw. Ähnlichkeit zwischen den Signalwerten erkennbar. Das Zufallssignal Z 2 [.] in Abbildung 8-4 besitzt ein TP-artiges Spektrum. Der Signalverlauf ändert nur langsam. Benachbarte Signalwerte sind stark korreliert bzw. ähnlich. Analog zum Leistungsdichtespektrum ist das Kreuz-Leistungsdichtespektrum für die Zufallssignale X[.] und Y[.] definiert: XY XY -jm2πft s. (8.27) m= P (f)= R [m] e 6. Diskrete Filterung von Zufallssignalen Wenn am Eingang eines linearen, zeitdiskreten, zeitinvarianten bzw. digitalen Filters H(z) ein schwach-stationäres, mittelwertfreies, reellwertiges Zufallssignal X[.] anliegt, ist das Ausgangssignal Y[.] auch wieder ein schwach-stationäres, mittelwertfreies, reellwertiges Zufallssignal, siehe auch Abbildung 8-7. X[.] H(z) Y[.] Abbildung 8-7: Filterung eines Zufallssignals mit einem digitalen Filter H(z). Zwischen den Leistungsdichtespektren des Ein- und des Ausgangssignals gilt der folgende Zusammenhang (ohne Beweis) P YY (f) = IH(f)I 2 P XX (f), (8.28) wobei H(f) den Frequenzgang des digitalen Filters H(z) darstellt, d.h. H(f) = H(z=e j2πfts ). Weiter gilt der folgende Zusammenhang zwischen dem Leistungsdichtespektrum des Eingangssignals und dem Kreuz-Leistungsdichtespektrum zwischen dem Ein- und dem Ausgangssignal (ohne Beweis) P YX (f) = H(f) P XX (f). (8.29) Beide Gleichungen (8.28) und (8.29) werden in der Praxis für die Systemidentifikation [von H(z)] verwendet. Meistens wird am Filtereingang weisses Rauschen verwendet. Die Leistungsdichtespektren können z.b. mit Hilfe der DFT/FFT aus den entsprechenden Korrelationsfunktionen gewonnen werden.
12 ZHAW, DSV2, 2007, Rumc, 8-12 Beispiel Beim Zufallssignal Z 2 [.] in Abbildung 8-4 handelt es sich um TP-gefiltertes, weisses Rauschen. Das Betragsspektrum des TP-Filters in db kann mit Gleichung (8.28) wie folgt bestimmt werden: IH(f)I [db] = 10 log 10 [P YY (f)/konst]. In Abbildung 8-8 ist das geglättete Betragsspektrum des gesuchten TP-Filters dargestellt. Es handelt sich um ein Butterworth-TP 4. Ordnung (4 mal 6 db pro Oktave) mit einer Grenzfrequenz von 100 Hz. Abbildung 8-8: Via Leistungsdichtespektren identifiziertes TP-Filter.
Adaptive Systeme. Sommersemester Prof. Dr. -Ing. Heinz-Georg Fehn. Prof. Dr. rer. nat. Nikolaus Wulff
Adaptive Systeme Sommersemester 2015 Prof. Dr. -Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Prof. Dr. H.-G. Fehn und Prof. Dr. N. Wulff 1 Adaptive Systeme Adaptives System: ein System, das
MehrÜbung 7: Methode der kleinsten Quadrate
ZHAW, DSV2, 2007, Rumc, 1/8 Übung 7: Methode der kleinsten Quadrate Aufgabe 1: Lineare Annäherung im Skalarprodukt-Raum. Finden Sie für den Vektor y = [2 2 2] T eine Linearkombination y e der Vektoren
MehrSignale und Systeme Reaktion linearer Systeme auf stationäre stochastische Signale
Signale und Systeme Reaktion linearer Systeme auf stationäre stochastische Signale Gerhard Schmidt Christian-Albrechts-Universität zu Kiel Technische Faculty of Engineering Fakultät Elektrotechnik Institute
MehrZufallsvariablen [random variable]
Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden
MehrKapitel 2.1: Die stochastische Sicht auf Signale Georg Dorffner 67
Kapitel 2.1: Die stochastische Sicht auf Signale 215 Georg Dorffner 67 Stochastische Prozesse Stochastische Prozesse sind von Zufall geprägte Zeitreihen x n f x, n 1 xn2,... n vorhersagbarer Teil, Signal
Mehr2. Eigenschaften digitaler Nachrichtensignale
FH OOW / Fachb. Technik / Studiengang Elektrotechnik u. Automatisierungstechnik Seite 2-2. Eigenschaften digitaler Nachrichtensignale 2. Abgrenzung zu analogen Signalen Bild 2.- Einteilung der Signale
MehrVorlesung 8a. Kovarianz und Korrelation
Vorlesung 8a Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X, Y ] := E [ (X EX)(Y EY ) ] Insbesondere
MehrÜbung 1: Wiederholung Wahrscheinlichkeitstheorie
Übung 1: Wiederholung Wahrscheinlichkeitstheorie Ü1.1 Zufallsvariablen Eine Zufallsvariable ist eine Variable, deren numerischer Wert solange unbekannt ist, bis er beobachtet wird. Der Wert einer Zufallsvariable
MehrWahrscheinlichkeitstheorie und Statistik vom
INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen
MehrDie Varianz (Streuung) Definition
Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ
MehrZufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten
Zufallsgrößen Ergebnisse von Zufallsexperimenten werden als Zahlen dargestellt 0 Einführung Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Hypothesentests
MehrDynamische Lasten. 1. Kraft- und Weganregung 2. Deterministische Lasten. 3. Stochastische Lasten
Dynamische Lasten 1. Kraft- und Weganregung 2. Deterministische Lasten 2.1 Allgemeine zeitabhängige Lasten 2.2 Periodische Lasten 2.3 Harmonische Lasten 3. Stochastische Lasten 3.1 Instationäre stochastische
MehrDieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen.
Dieses Quiz soll Ihnen helfen, Kapitel 2.5-2. besser zu verstehen. Frage Wir betrachten ein Würfelspiel. Man wirft einen fairen, sechsseitigen Würfel. Wenn eine oder eine 2 oben liegt, muss man 2 SFr zahlen.
MehrKapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska
Mehr1 Autokorrelation, Leistung und Wahrscheinlichkeitsdichtefunktion eines Sinussignals
Audiotechnik II Digitale Audiotechnik: 2. utorium Prof. Dr. Stefan Weinzierl 5. November 213 Musterlösung: 5. November 213, 18:25 1 Autokorrelation, Leistung und Wahrscheinlichkeitsdichtefunktion eines
MehrRegression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate
Regression ein kleiner Rückblick Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate 05.11.2009 Gliederung 1. Stochastische Abhängigkeit 2. Definition Zufallsvariable 3. Kennwerte 3.1 für
Mehr9 Erwartungswert, Varianz und Standardabweichung einer Zufallsgröÿe
Übungsmaterial 9 Erwartungswert, Varianz und Standardabweichung einer Zufallsgröÿe 9. Erwartungswert Fragt man nach dem mittleren Wert einer Zufallsgröÿe X pro Versuch, so berechnet man den Erwartungswert
Mehr(Bitte geben Sie bei der Beantwortung von Fragen eine Begründung bzw. bei der Lösung von Kurzaufgaben eine kurze Berechnung an!)
Teil 1: Fragen und Kurzaufgaben (Bitte geben Sie bei der Beantwortung von Fragen eine Begründung bzw. bei der Lösung von Kurzaufgaben eine kurze Berechnung an!) Frage 1 (6 Punkte) Es wird ein analoges
MehrLösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) für Studierende des Maschinenbaus vom 7. Juli (Dauer: 8 Minuten) Übersicht über die
MehrStatistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Themen dieses Kapitels sind:
Statistik 2 für SoziologInnen Normalverteilung Univ.Prof. Dr. Marcus Hudec Statistik 2 für SoziologInnen 1 Normalverteilung Inhalte Themen dieses Kapitels sind: Das Konzept stetiger Zufallsvariablen Die
MehrGrundbegriffe der Wahrscheinlichkeitsrechnung
Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.
Mehr3.3 Bedingte Wahrscheinlichkeit
28 3.3 Bedingte Wahrscheinlichkeit Oft ist die Wahrscheinlichkeit eines Ereignisses B gesucht unter der Bedingung (bzw. dem Wissen), dass ein Ereignis A bereits eingetreten ist. Man bezeichnet diese Wahrscheinlichkeit
MehrGesetze der großen Zahlen
Kapitel 0 Gesetze der großen Zahlen 0. Einführung Im ersten Kapitel wurde auf eine Erfahrungstatsache im Umgang mit zufälligen Erscheinungen aufmerksam gemacht, die man gewöhnlich als empirisches Gesetz
Mehr3. Kombinatorik und Wahrscheinlichkeit
3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:
MehrKapitel 6 Martingale
Kapitel 6 Martingale Martingale spielen eine große Rolle in der Finanzmathematik, und sind zudem ein wichtiges Hilfsmittel für die statistische Inferenz stochastischer Prozesse, insbesondere auch für Zählprozesse
MehrVarianz und Kovarianz
KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]
MehrLösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über
MehrStochastische Signale
Universität Koblenz-Landau Abteilung Koblenz Sommersemester 2005 Dozent: Dr. Merten Joost Seminarausarbeitung zum Thema: Stochastische Signale verfasst von: Daniel Schüller dschueller@uni-koblenz.de Koblenz
MehrStatistik, Datenanalyse und Simulation
Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 31. Mai 2011 4. Methode der kleinsten Quadrate Geschichte: Von Legendre, Gauß und Laplace zu Beginn des 19. Jahrhunderts eingeführt. Die Methode der
MehrInhaltsverzeichnis Determinierte Signale in linearen zeitinvarianten Systemen Fourier-Transformation
Inhaltsverzeichnis 1. Determinierte Signale in linearen zeitinvarianten Systemen 1 1.1 Elementarsignale... 1 1.2 ZumBegriffdesSystems... 5 1.3 LinearezeitinvarianteSysteme... 6 1.4 DasFaltungsintegral...
Mehr2 Zufallsvariable, Verteilungen, Erwartungswert
2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments
MehrSpezielle stetige Verteilungen
Spezielle stetige Verteilungen schon bekannt: Die Exponentialverteilung mit Parameter k R, k > 0 hat die Dichte f (x) = ke kx für x 0 und die Verteilungsfunktion F (x) = 1 e kx für x 0. Eigenschaften Für
MehrSignale und Systeme II
TECHNISCHE FAKULTÄT DER CHRISTIAN-ALBRECHTS-UNIVERSITÄT ZU KIEL DIGITALE SIGNALVERARBEITUNG UND SYSTEMTHEORIE DSS Signale und Systeme II Lösung zur Modulklausur SS 201 Prüfer: Prof. Dr.-Ing. Gerhard Schmidt
MehrKonfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert
Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir
MehrVerzerrungsfreies System
Verzerrungsfreies System x(n) y(n) n n x(n) h(n) y(n) y(n) A 0 x(n a) A 0 x(n) (n a) h(n) A 0 (n a) H(z) A 0 z a Digitale Signalverarbeitung Liedtke 8.1.1 Erzeugung einer linearen Phase bei beliebigem
MehrVersuch 3: Anwendungen der schnellen Fourier-Transformation (FFT)
Versuch 3: Anwendungen der schnellen Fourier-Transformation (FFT) Ziele In diesem Versuch lernen Sie zwei Anwendungen der Diskreten Fourier-Transformation in der Realisierung als recheneffiziente schnelle
MehrVorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten
Vorlesung 8b Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten 1 Wie gehabt, denken wir uns ein zufälliges Paar X = (X 1,X 2 ) auf zweistufige Weise zustande gekommen:
Mehrf = T φ ist negative für nacheilende Funktionen φ ist positive für voreilende Funktionen 2 Signale im Zeitbereich 2.1 Harmonische Funktionen
2 Signale im Zeitbereich 2.1 Harmonische Funktionen = Xˆ sin( ω t) 1 f = T Einheiten: [ f ] = Hz ω = 2 π -1 [ ω] = s f mit Phasenverschiebung (hier: nacheilend) : = Xˆ sin( ω t - ϕ) φ ist negative für
MehrMathematik 3 für Informatik
Gunter Ochs Wintersemester 5/6 Mathematik 3 für Informatik Lösungen zum Hausaufgabenblatt Lösungshinweise ohne Garnatie auf Fehlerfreiheit c 5. Berechnen Sie die folgenden unbestimmten Integrale: a x 4
MehrFaltung, Korrelation, Filtern
Faltung, Korrelation, Filtern Wie beschreibe ich lineare Systeme (z.b. Seismometer) -> Faltung, Konvolution, Dekonvolution? Wie quantifiziere ich die Ähnlichkeit von Zeitreihen (-> Korrelation) Wie quantifiziere
MehrLösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6
1 Lösungen ausgewählter Übungsaufgaben zum Buch Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6 Aufgaben zu Kapitel 5 Zu Abschnitt 5.1 Ü5.1.1 Finden Sie eine maximum-likelihood-schätzung
MehrFaltung und Korrelation kontinuierlicher Signale
Universität Koblenz Institut für integrierte Naturwissenschaften Abteilung Physik Faltung und Korrelation kontinuierlicher Signale Seminar Digitale Signalverarbeitung Dr. Merten Joost von Kristina Weyerhäuser
MehrKapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell
Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften
MehrWahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie
Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie Martin Hutzenthaler & Dirk Metzler 11. Mai 2011 Inhaltsverzeichnis 1 Deterministische und zufällige
MehrWeihnachtszettel zur Vorlesung. Stochastik I. Wintersemester 2011/2012
Weihnachtszettel zur Vorlesung Stochastik I Wintersemester 0/0 Aufgabe. Der Weihnachtsmann hat vergessen die Weihnachtsgeschenke mit Namen zu beschriften und muss sie daher zufällig verteilen. Dabei enthält
MehrMathematik II Frühlingsemester 2015 Kap. 9: Funktionen von mehreren Variablen 9.2 Partielle Differentiation
Mathematik II Frühlingsemester 2015 Kap. 9: Funktionen von mehreren Variablen 9.2 Partielle Differentiation www.math.ethz.ch/education/bachelor/lectures/fs2015/other/mathematik2 biol Prof. Dr. Erich Walter
MehrTaylorreihen. Kapitel 9. Lernziele. Taylorreihe. (x x 0 ) + f (x 0 ) 2! (x x 0 ) f (n) (x 0 ) (x x 0 ) n. Taylorreihe und MacLaurinreihe
Kapitel 9 Taylorreihen Josef Leydold c 2006 Mathematische Methoden IX Taylorreihen 1 / 25 Lernziele Taylorreihe und MacLaurinreihe Beispiele Alternative Schreibweisen Approimation der Veränderung einer
MehrBachelor BEE Statistik Übung: Blatt 1 Ostfalia - Hochschule für angewandte Wissenschaften Fakultät Versorgungstechnik Aufgabe (1.1): Gegeben sei die folgende Messreihe: Nr. ph-werte 1-10 6.4 6.3 6.7 6.5
MehrInstitut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg. PROGNOSE II - Vertiefung Aufgaben und Lösungen Sommersemester 2004
Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg PROGNOSE II - Vertiefung Aufgaben und Lösungen Sommersemester 2004 Aufgabe 1 U t bedeute weißes Rauschen und B den Backshift
MehrDefinition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion
Kapitel 2 Erwartungswert 2.1 Erwartungswert einer Zufallsvariablen Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion È ist definiert als Ü ÜÈ Üµ Für spätere
MehrÜbungsaufgaben zu Statistik II
Übungsaufgaben zu Statistik II Prof. Dr. Irene Prof. Dr. Albrecht Ungerer Die Kapitel beziehen sich auf das Buch: /Ungerer (2016): Statistik für Wirtschaftswissenschaftler Springer Gabler 4 Übungsaufgaben
MehrInformatik II Grundbegriffe der Wahrscheinlichkeitsrechnung
lausthal Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Begriffe Definition: Unter einem Zufallsexperiment versteht man einen,
MehrUnabhängigkeit KAPITEL 4
KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht
MehrÜbungsblatt 9. f(x) = e x, für 0 x
Aufgabe 1: Übungsblatt 9 Basketball. Ein Profi wirft beim Training aus einer Entfernung von sieben Metern auf den Korb. Er trifft bei jedem Wurf mit einer Wahrscheinlichkeit von p = 1/2. Die Zufallsvariable
MehrZufallssignal Stationär (z.b. gleichverteiltes Rauschen) Nicht-stationär (z.b. normalverteiltes Rauschen mit wechselnder Streuung) Deterministisches
Zufallssignal Stationär (z.b. gleichverteiltes Rauschen) Nicht-stationär (z.b. normalverteiltes Rauschen mit wechselnder Streuung) Deterministisches Signal Periodisch harmonische Schwingung Summe harmonischer
MehrKapitel VI - Lage- und Streuungsparameter
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VI - Lage- und Streuungsparameter Markus Höchstötter Lehrstuhl für Statistik, Ökonometrie
MehrKenngrößen von Zufallsvariablen
Kenngrößen von Zufallsvariablen Die Wahrscheinlichkeitsverteilung kann durch die sogenannten Kenngrößen beschrieben werden, sie charakterisieren sozusagen die Verteilung. Der Erwartungswert Der Erwartungswert
MehrExemplar für Prüfer/innen
Exemplar für Prüfer/innen Kompensationsprüfung zur standardisierten kompetenzorientierten schriftlichen Reifeprüfung AHS Juni 2016 Mathematik Kompensationsprüfung 3 Angabe für Prüfer/innen Hinweise zur
Mehr13.5 Der zentrale Grenzwertsatz
13.5 Der zentrale Grenzwertsatz Satz 56 (Der Zentrale Grenzwertsatz Es seien X 1,...,X n (n N unabhängige, identisch verteilte zufällige Variablen mit µ := EX i ; σ 2 := VarX i. Wir definieren für alle
Mehr1 Dichte- und Verteilungsfunktion
Tutorium Yannick Schrör Klausurvorbereitungsaufgaben Statistik Lösungen Yannick.Schroer@rub.de 9.2.26 ID /455 Dichte- und Verteilungsfunktion Ein tüchtiger Professor lässt jährlich 2 Bücher drucken. Die
Mehr11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient
11.4 Korrelation Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient (X 1,X 2 ) = cov (X 1,X 2 ) σ X1 σ X2 Korrelationskoeffizient der Zufallsgrößen
MehrEine zweidimensionale Stichprobe
Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,
Mehr27 Taylor-Formel und Taylor-Entwicklungen
136 IV. Unendliche Reihen und Taylor-Formel 27 Taylor-Formel und Taylor-Entwicklungen Lernziele: Konzepte: klein o - und groß O -Bedingungen Resultate: Taylor-Formel Kompetenzen: Bestimmung von Taylor-Reihen
MehrK8 Stetige Zufallsvariablen Theorie und Praxis
K8 Stetige Zufallsvariablen Theorie und Praxis 8.1 Theoretischer Hintergrund Wir haben (nicht abzählbare) Wahrscheinlichkeitsräume Meßbare Funktionen Zufallsvariablen Verteilungsfunktionen Dichten in R
MehrKapitel 7. Funktionentheorie. 7.1 Holomorphe und harmonische Funktionen. 1. Definitionen
Kapitel 7 Funktionentheorie In diesem Kapitel geht es meistens um Funktionen, die auf einem Gebiet G C definiert sind und komplexe Werte annehmen. Nach Lust, Laune und Bedarf wird C mit R identifiziert,
MehrWahrscheinlichkeitsrechnung und Quantentheorie
Physikalische Chemie II: Atombau und chemische Bindung Winter 2013/14 Wahrscheinlichkeitsrechnung und Quantentheorie Messergebnisse können in der Quantenmechanik ganz prinzipiell nur noch mit einer bestimmten
MehrTechnische Universität München
Stand der Vorlesung Kapitel 2: Auffrischung einiger mathematischer Grundlagen Mengen, Potenzmenge, Kreuzprodukt (Paare, Tripel, n-tupel) Relation: Teilmenge MxN Eigenschaften: reflexiv, symmetrisch, transitiv,
MehrKlausur Stochastik und Statistik 31. Juli 2012
Klausur Stochastik und Statistik 31. Juli 2012 Prof. Dr. Matthias Schmid Institut für Statistik, LMU München Wichtig: ˆ Überprüfen Sie, ob Ihr Klausurexemplar vollständig ist. Die Klausur besteht aus fünf
MehrÜ b u n g s b l a t t 13
Einführung in die Stochastik Sommersemester 06 Dr. Walter Oevel 5. 6. 006 Ü b u n g s b l a t t 3 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben
MehrAufgabenblock 3. Durch zählen erhält man P(A) = 10 / 36 P(B) = 3 / 36 P(C) = 18 / 36 und P(A B) = 3 /
Aufgabenblock 3 Aufgabe ) A sei das Ereignis: schwerer Verkehrsunfall B sei das Ereignis: Alkohol ist im Spiel Herr Walker betrachtet die Wahrscheinlichkeit P(B A) = 0.3 und errechnet daraus P(-B A) =
Mehr3.3 Das Abtasttheorem
17 3.3 Das Abtasttheorem In der Praxis kennt man von einer zeitabhängigen Funktion f einem Signal meist nur diskret abgetastete Werte fn, mit festem > und ganzzahligem n. Unter welchen Bedingungen kann
MehrDiskrete Mathematik 1
Ruhr-Universität Bochum Lehrstuhl für Kryptologie und IT-Sicherheit Prof Dr Alexander May M Ritzenhofen, M Mansour Al Sawadi, A Meurer Lösungsblatt zur Vorlesung Diskrete Mathematik WS 008/09 Blatt 4 /
MehrDigitale Signalverarbeitung auf FPGAs
Digitale Signalverarbeitung auf FPGAs INP: Interpolation Upsampling und D/A- Wandlung Teil 1 Upsampling 2016 Dr. Christian Münker INP: Überblick Upsampling D/A-Wandlung Interpolation Oversampling (Sigma-Delta
MehrFunktionen mehrerer Variabler
Funktionen mehrerer Variabler Fakultät Grundlagen Juli 2015 Fakultät Grundlagen Funktionen mehrerer Variabler Übersicht Funktionsbegriff 1 Funktionsbegriff Beispiele Darstellung Schnitte 2 Partielle Ableitungen
Mehrf(x, y) = 0 Anschaulich bedeutet das, dass der im Rechteck I J = {(x, y) x I, y J}
9 Der Satz über implizite Funktionen 41 9 Der Satz über implizite Funktionen Wir haben bisher Funktionen g( von einer reellen Variablen immer durch Formelausdrücke g( dargestellt Der Zusammenhang zwischen
Mehr4.4 Taylorentwicklung
4.4. TAYLORENTWICKLUNG 83 4.4 Taylorentwicklung. Definitionen f sei eine reellwertige m + -mal stetig differenzierbare Funktion der n Variablen x bis x n auf einem Gebiet M R n. Die Verbindungsgerade der
MehrP (A B) P (B) = P ({3}) P ({1, 3, 5}) = 1 3.
2 Wahrscheinlichkeitstheorie Beispiel. Wie wahrscheinlich ist es, eine Zwei oder eine Drei gewürfelt zu haben, wenn wir schon wissen, dass wir eine ungerade Zahl gewürfelt haben? Dann ist Ereignis A das
MehrVorteile digitaler Filter
Digitale Filter Vorteile digitaler Filter DF haben Eigenschaften, die mit analogen Filtern nicht realisiert werden können (z.b. lineare Phase). DF sind unabhängig von der Betriebsumgebung (z.b. Temperatur)
Mehr1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6
Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere
MehrStochastik für die Naturwissenschaften
Stochastik für die Naturwissenschaften Dr. C.J. Luchsinger 6. Ausgewählte Verteilungen (Distributions) * diskret: Bernoulli, Binomial, Geometrisch, Poisson * stetig: Uniform, Exponential, Normal, χ 2,
MehrSeminar Digitale Signalverarbeitung Thema: Digitale Filter
Seminar Digitale Signalverarbeitung Thema: Digitale Filter Autor: Daniel Arnold Universität Koblenz-Landau, August 2005 Inhaltsverzeichnis i 1 Einführung 1.1 Allgemeine Informationen Digitale Filter sind
MehrStatistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 27
Statistik II II. Univariates lineares Regressionsmodell Martin Huber 1 / 27 Übersicht Definitionen (Wooldridge 2.1) Schätzmethode - Kleinste Quadrate Schätzer / Ordinary Least Squares (Wooldridge 2.2)
MehrStatistische Thermodynamik I Lösungen zur Serie 1
Statistische Thermodynamik I Lösungen zur Serie Zufallsvariablen, Wahrscheinlichkeitsverteilungen 4. März 2. Zwei Lektoren lesen ein Buch. Lektor A findet 2 Druckfehler, Lektor B nur 5. Von den gefundenen
Mehralso ist Sx m eine Cauchyfolge und somit konvergent. Zusammen sagen die Sätze 11.1 und 11.2, dass B (X) ein abgeschlossenes zweiseitiges
11. Kompakte Operatoren Seien X, Y Banachräume, und sei T : X Y ein linearer Operator. Definition 11.1. T heißt kompakt, enn T (B) eine kompakte Teilmenge von Y ist für alle beschränkten Mengen B X. Wir
MehrÜbungen zu Partielle Differentialgleichungen, WS 2016
Übungen zu Partielle Differentialgleichungen, WS 2016 Ulisse Stefanelli 16. Januar 2017 1 Beispiele 1. Betrachten Sie die Beispiele von nichtlinearen PDG und Systemen, die wir im Kurs diskutiert haben,
MehrGemeinsame Wahrscheinlichkeitsverteilungen
Gemeinsame Wahrscheinlichkeitsverteilungen Worum geht es in diesem Modul? Gemeinsame Wahrscheinlichkeits-Funktion zweier Zufallsvariablen Randverteilungen Bedingte Verteilungen Unabhängigkeit von Zufallsvariablen
Mehrx, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω
5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,
MehrMathematische und statistische Methoden II
Statistik & Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte
Mehr+ z -1 z z -1 + z -1 + z -1 + z -1 + z -1
Formelsammlung Systemtheorie II 06.02.12 C.Pieper (keine Gewähr auf Richtigkeit! Korrekturen an christoph.pieper@rwth-aachen.de) Regelungsnormalform steuerbar Existiert nur für erreichbare Systeme (->
MehrReihen/Partialsummenfolgen und vollständige Induktion. Robert Klinzmann
Reihen/Partialsummenfolgen und vollständige Induktion Robert Klinzmann 3. Mai 00 Reihen / Partialsummen 1 Inhaltsverzeichnis 1 Vorwort Das Prinzip der vollständigen Induktion 3 3 Herleitung der Gauß schen
Mehr1. Übungsblatt Aufgaben mit Lösungen
. Übungsblatt Aufgaben mit Lösungen Aufgabe : Sei I R ein Intervall. Geben Sie Beispiele für Differentialgleichungen für Funktionen y = y in I mit den folgenden Eigenschaften an: Beispiel separabel, nicht
Mehr5 Potenzreihenansatz und spezielle Funktionen
5 Potenzreihenansatz und spezielle Funktionen In diesem Kapitel betrachten wir eine Methode zur Lösung linearer Differentialgleichungen höherer Ordnung, die sich anwenden läßt, wenn sich alle Koeffizienten
MehrEinführung in die Integralrechnung. Mag. Mone Denninger 13. November 2005
Einführung in die Integralrechnung Mag. Mone Denninger. November 5 INHALTSVERZEICHNIS 8. Klasse Inhaltsverzeichnis Einleitung Berechnung einfacher Stammfunktionen. Integrationsregeln.........................
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 8. Dezember 2010 Teil V Schließende Statistik 1 Parameterschätzung Erwartungstreue und Konsistenz Maximum-Likelihood
MehrThema14 Der Satz über inverse Funktionen und der Satz über implizite Funktionen
Thema14 Der Satz über inverse Funktionen und der Satz über implizite Funktionen In diesem Kapitel betrachten wir die Invertierbarkeit von glatten Abbildungen bzw. die Auflösbarkeit von impliziten Gleichungen.
MehrÜbung 2: Spektrum periodischer Signale
ZHAW, SiSy, Rumc, Übung : Spektrum periodischer Signale Augabe Verschiedene Darstellungen der Fourierreihe. Betrachten Sie das periodische Signal s(t) = + sin(π t). a) Bestimmen Sie die A k - und B k -Koeizienten
MehrVorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten
Vorlesung 9b Bedingte Verteilungen und bedingte Wahrscheinlichkeiten 1 Voriges Mal: Aufbau der gemeinsamen Verteilung von X 1 und X 2 aus der Verteilung ρ von X 1 und Übergangswahrscheinlichkeiten P(a
MehrKapitel V - Erwartungstreue Schätzfunktionen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel V - Erwartungstreue Schätzfunktionen Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh
Mehr9 Die Normalverteilung
9 Die Normalverteilung Dichte: f(x) = 1 2πσ e (x µ)2 /2σ 2, µ R,σ > 0 9.1 Standard-Normalverteilung µ = 0, σ 2 = 1 ϕ(x) = 1 2π e x2 /2 Dichte Φ(x) = 1 x 2π e t2 /2 dt Verteilungsfunktion 331 W.Kössler,
MehrAngewandte Ökonometrie Übung. Endogenität, VAR, Stationarität und Fehlerkorrekturmodell
Angewandte Ökonometrie Übung 3 Endogenität, VAR, Stationarität und Fehlerkorrekturmodell Zeitreihenmodelle Zeitreihenmodelle Endogenität Instrumentvariablenschätzung Schätzung eines VARs Tests auf Anzahl
Mehr