Kapitel 8: Zeitdiskrete Zufallssignale

Größe: px
Ab Seite anzeigen:

Download "Kapitel 8: Zeitdiskrete Zufallssignale"

Transkript

1 ZHAW, DSV2, 2007, Rumc, 8-1 Kapitel 8: Zeitdiskrete Zufallssignale Inhaltsverzeichnis 1. STOCHASTISCHER PROZESS STATISTISCHE EIGENSCHAFTEN EINER ZUFALLSVARIABLEN STATISTISCHE EIGENSCHAFTEN VON 2 ZUFALLSVARIABLEN STATISTISCHE EIGENSCHAFTEN VON ZUFALLSSIGNALEN BESCHREIBUNG VON ZUFALLSSIGNALEN IM FREQUENZBEREICH DISKRETE FILTERUNG VON ZUFALLSSIGNALEN...11 Literatur [1] S.J. Mitra, Digital Signal Processing, 3rd Edition, Mc Graw Hill, 2006, ISBN Stochastischer Prozess Das zeitdiskrete Zufallssignal Z[.] =..., Z[-1], Z[0], Z[1],... ist ein stochastischer Prozess und besteht typischerweise aus einer unendlich langen Folge bzw. einem Ensemble von Zufallsvariablen Z[n], n = -,...,. Der Verlauf eines Zufallssignals Z[.] lässt sich nicht mit einer mathematischen Formel beschreiben. Man kann aber die statistischen Eigenschaften wie z.b. den Mittelwert der Amplitude der Zufallsvariablen Z[n] zum Zeitpunkt nt s beschreiben. Weiter kann man auch den statistischen Zusammenhang zwischen den Zufallsvariablen Z[m] und Z[n] zu den Zeitpunkten mt s und nt s beschreiben. In Abbildung 8-1 sind zwei verschiedene Musterverläufe eines zeitdiskreten Zufallssignals Z[.] dargestellt.

2 ZHAW, DSV2, 2007, Rumc, 8-2 Abbildung 8-1: Zwei verschiedene Musterverläufe eines zeitdiskreten Zufallssignals. Die Amplitude der Zufallsvariablen Z[n] ist in diesem Beispiel mittelwertfrei und normalbzw. gaussverteilt, unabhängig vom Zeitpunkt nt s. Kleine Werte sind also wahrscheinlicher als grosse Werte. Es ist kein statistischer Zusammenhang zwischen zwei aufeinander folgenden Zufallsvariablen Z[n] und Z[n+1] zu erkennen. Das Signal ändert manchmal beliebig schnell. 2. Statistische Eigenschaften von 1 Zufallsvariablen Die statistischen Eigenschaften einer Zufallsvariablen Z hängen von ihrer Wahrscheinlichkeitsdichtefunktion p Z (z) ab. Für jede Wahrscheinlichkeitsdichtefunktion p Z (z) gilt: p z(z) dz=1 - (8.1) P(z<α) α = p z(z) dz (8.2) Der Mittelwert E{Z} und der quadratische Mittelwert E{Z 2 } einer reellwertigen Zufallsvariablen Z sind wie folgt definiert: E{Z} = z p z(z) dz, (8.3) 2 E{Z } = z 2 p z(z) dz. (8.4)

3 ZHAW, DSV2, 2007, Rumc, 8-3 Der Erwartungswert E{.} ist ein linearer Operator, d.h. für zwei Zufallsvariablen Z 1 und Z 2 und zwei Konstanten k 1 und k 2 gilt: E{k 1 Z 1 +k 2 Z 2 } = k 1 E{Z 1 } + k 2 E{Z 2 }. (8.5) Die Varianz ist die mittlere quadratische Abweichung vom Mittelwert E{Z}, d.h. Var(Z) = E{ (Z-E{Z}) 2 } (8.6) Durch Ausmultiplizieren und Verwenden der Linearitätseigenschaft (8.5) erhält man die nützliche Identität Var(Z) = E{Z 2 } (E{Z}) 2. (8.7) Die Standardabweichung ist wie folgt definiert: σ Z = (Var(Z)). Betrachten Sie die uniforme Wahrscheinlichkeitsdichtefunktion p Z (z) der Zufallsvariablen Z in Abbildung p Z (z) 1 Abbildung 8-2: Uniforme Wahrscheinlichkeitsdichtefunktion. Diese Wahrscheinlichkeitsdichtefunktion p Z (z) erfüllt die Bedingung (8.1). Die Wahrscheinlichkeit P(z<0.75), dass der Wert z der Zufallsvariablen Z kleiner als 0.75 ist, ist 75%. Für den Mittelwert und den quadratischen Mittelwert gelten: E{Z} = 1/2 und E[Z 2 ] = 1/3. Für die Varianz gilt mit (8.7): Var(Z) = 1/3 (1/2) 2 = 1/12. In Abbildung 8-3 ist die Gauss sche Wahrscheinlichkeitsdichtefunktion Z 2 (z-e[z]) - 2 2σ Z 1 p Z(z)= e σ 2π (8.8) mit Mittelwert E{Z} = 0 und Standardabweichung σ Z = (Var(Z) = 1 dargestellt.

4 ZHAW, DSV2, 2007, Rumc, 8-4 Abbildung 8-3: Wahrscheinlichkeitsdichtefuntkion einer Gauss schen Zufallsvariablen mit Mittelwert Null und Standardabweichung 1. Bekanntlich liegen fast 70% der Werte z der Zufallsvariablen Z im Intervall [-σ Z, σ Z ] und ca. 95% im Intervall [-2σ Z, 2σ Z ]. Diese Tatsache folgt aus Gleichung (8.2) und den Tabellenwerten P(z 1) = bzw. P(z 2) = sowie der Symmetrieeigenschaft P(z -α) = 1 - P(z α). Es gibt auch Zufallsvariablen, die nur diskrete Amplitudenwerte z k annehmen können. Für solche Zufallsvariablen sind die Gleichungen (8.1) bis (8.4) entsprechend zu modifizieren (Summen statt Integrale). Betrachten Sie die Augenzahl Z eines fairen Würfels. Die Wahrscheinlichkeit P Z (1) =... = P Z (6) = 1/6. Die Summe der Wahrscheinlichkeiten gibt 1. Für den Erwartungswert gilt: 1 1 k Z k = = 3.5. k = E{Z} = z P (z ) 3. Statistische Eigenschaften von 2 Zufallsvariablen Bei zwei Zufallsvariablen X und Y interessieren neben den individuellen, statistischen Eigenschaften auch die sogenannten Verbundeigenschaften. Für die Verbund-Wahrscheinlichkeitsdichtefunktion p XY (x,y) von X und Y gilt: p xy(x,y) dx dy = 1 (8.9) - α β P(x α,y β)= (8.10) p (x,y) dx dy xy Die Verbundeigenschaften der Zufallsvariablen X und Y werden durch die (Kreuz-) Korrelation und die (Kreuz-) Covarianz beschrieben. Sie sind wie folgt definiert:

5 ZHAW, DSV2, 2007, Rumc, 8-5 Korrelation: E{X Y} = x y p (x,y) dx dy (8.11) xy - Covarianz: E{(X-E[X]) (Y-E[Y])} = E{X Y} - E{X} E{Y} (8.12) Zwei Zufallsvariablen sind unkorreliert, wenn gilt und statistisch unabhängig, wenn gilt E{X Y} = E{X} E{Y}, (8.13) p XY (x,y) = p X (x) p Y (y). (8.14) Statistisch unabhängige Zufallsvariablen X und Y sind unkorreliert, weil E{X Y} = x y p (x,y) dx dy xy xp - (x) dx yp (y) dy = E{X} E{Y} X - - Y gilt. Das Umgekehrte trifft nicht immer zu, d.h. zwei unkorrelierte Zufallsvariablen X und Y sind nicht notwendigerweise statistisch unabhängig. Durch Einsetzen von (8.13) in (8.12) folgt, dass die Covarianz von zwei unkorrelierten Zufallsvariablen X und Y Null ist. 4. Statistische Eigenschaften von Zufallssignalen Der Mittelwert des diskreten Zufallssignals Z[.] zum Zeitpunkt nt s ist gegeben durch den Mittelwert E{Z[n]} der Zufallsvariablen Z[n] zum Zeitpunkt nt s, d.h. E{Z[n]} = z p (z) dz. (8.15) Z[n] Der mittlere, quadratische Wert bzw. der mean-square-wert des diskreten Zufallssignals Z[.] zum Zeitpunkt nt s ist gegeben durch Z[n]. (8.16) 2 2 E{(Z[n]) } = z p (z) dz Oft interessiert der statistische Zusammenhang zwischen zwei Zufallsvariablen Z[m] und Z[n] eines diskreten Zufallssignals Z[.] zu zwei verschiedenen Zeitpunkten m und n. So einen Zusammenhang stellt die Autokorrelationsfunktion (AKF) R ZZ [m,n] = E{Z[m] Z[n]} (8.17) her. Sie ist ein Mass für die Ähnlichkeit benachbarter Sample im Zufallssignal Z[.].

6 ZHAW, DSV2, 2007, Rumc, 8-6 Ein weiterer Zusammenhang liefert die Auto-Covarianz-Funktion E{ (Z[m]-E{Z[m]}) (Z[n]-E{Z[n]) } = R ZZ [m,n] - E{Z[m]} E{Z[n]}. (8.18) Die Korrelation zwischen zwei diskreten Zufallssignalen X[.] und Y[.] wird durch die Kreuzkorrelationsfunktion (KKF) und die Kreuz-Covarianz-Funktion R XY [m,n] = E{X[m] Y[n]} (8.19) E{ (X[m]-E{ X[m]}) (Y[n]-E{Y[n]}) } = R XY [m,n] - E{X[m]} E{Y[n]} (8.20) beschrieben. Die KKF ist ein Mass für die Ähnlichkeit der Zufallssignale X[.] und Y[.]. Sowohl Autokorrelations- und Auto-Covarianz-Funktionen wie auch Kreuzkorrelations- und Kreuz-Covarianz-Funktionen sind Funktionen von zwei Zeitindizes m und n. Es gibt aber eine grosse Klasse von Zufallssignalen, die sogenannten wide-sense oder schwach stationären Zufallssignale, bei denen die statistischen Eigenschaften unabhängig vom Zeitindex n sind, d.h. für alle m und n. E{Z[n]} = m Z R ZZ [m,n] = R ZZ [m-n] = R ZZ [n-m] (8.21) R XY [m,n] = R XY [m-n] = R YX [n-m] In der Praxis ist oft nur eine beschränkte Anzahl Signalwerte z[n] eines Musters eines diskreten Zufallssignals Z[.] verfügbar. Aus diesen Werten können die statistischen Eigenschaften geschätzt werden, wenn das Zufallssignal stationär und ergodisch ist und die Anzahl bekannter Werte genügend gross ist. Bei einem ergodischen Signal stimmen Zeit- und Ensemble-Mittelwert im Grenzfall überein, d.h. 1 N mz = E{Z[n]} = lim z[n] N 2N+1, (8.22) n = N 1 N R ZZ[m] = E{Z[n] Z[n+m]} = lim z[n] z[n+m] N 2N+1. (8.23) n = N In der Praxis approximiert man natürlich die unendlichen Summen mit endlichen Summen.

7 ZHAW, DSV2, 2007, Rumc, 8-7 In Abbildung 8-4 sind 1000 Werte von 2 verschiedenen Zufallssignalen Z1[.] und Z2[.] sowie ihre AKF R Z1Z1 [.] und R Z2Z2 [.] dargestellt. Abbildung 8-4: Zwei verschiedene Zufallssignale und resultierende AKF. Benachbarte Werte von Z1[.] sind wenig korreliert bzw. sind sich fast nicht ähnlich. Das Zufallssignal Z1[.] ändert sich schnell. Benachbarte Werte von Z2[.] sind stark korreliert bzw. sind sich ähnlich. Das Zufallssignal Z2[.] ändert sich nur langsam.

8 ZHAW, DSV2, 2007, Rumc, 8-8 Die folgenden 30 Signalwerte x[n] =..., ,... stammen von einem stationären, ergodischen Zufallssignal X[.] mit unabhängigen Zufallsvariablen X[n], für die P X (-1) = P X (1) = 0.5 gilt, siehe auch Abbildung 8-5. Abbildung 8-5: Zwei bipolare, stationäre, ergodische Zufallssignale. Aus diesen 30 Werten lassen sich die statistischen Eigenschaften von X[.] tatsächlich ziemlich genau schätzen, wie die folgenden Vergleiche zeigen: Mittelwert (Ensemble): m X = E{X[n]} = 0.5 (-1) = 0 Mittelwert (Zeit): ( (-1)) / 30 = -2/30 = -1/15 Autokorrelation (Ensemble): R XX [0] = E{(X[n]) 2 } = 1 Autokorrelation (Zeit): (30 1)/30 = 1 Autokorrelation (Ensemble): R XX [1] = E{X[n] X[n+1]} = E{X[n]} E{X[n+1]} = 0 Autokorrelation (Zeit): ( (-1))/29 = 1/29 Zwei aufeinander folgende Signalwerte sind unkorreliert. Das Signal weist schnelle Änderungen auf, siehe Abbildung 8-5.

9 ZHAW, DSV2, 2007, Rumc, 8-9 Filtert man die 30 Signalwerte aus dem letzten Beispiel mit dem Filter H(z) = z -1, so resultieren die folgenden (zufälligen) Ausgangswerte (Anfangswert = -1) y[n] =..., ,... siehe Abbildung 8-5. Für die Autokorrelationsfunktion an den Stellen n=0 und n=1 findet man: Autokorrelation (Ensemble): R YY [0] = E{(Y[n]) 2 } = E{ (0.5 X[n]+0.5 X[n-1]) 2 } = 0.5 Autokorrelation (Zeit): 16/30 Autokorrelation (Ensemble): R YY [1] = E{Y[n] Y[n+1]} = E{(0.5 X[n]+0.5 X[n-1]) (0.5 X[n+1]+0.5 X[n])} = 0.25 E{(X[n]) 2 } = 0.25 Autokorrelation (Zeit): 7/30 Zwei aufeinander folgende Werte sind wegen der Filterung korreliert. Das Zufallssignal Y[.] am Ausgang des TP-Filters ändert weniger schnell als das Zufallssignal X[.] am Filtereingang, siehe Abbildung 8-5. Der Autokorrelationswert kann wieder gut mit dem Zeitmittelwert geschätzt werden. Beispiel Der mean-square-wert E{z 2 [n]} stellt eigentlich die Leistung von z[n] dar. Das deterministische Sinus-Signal z[n] = sin(2πn/n) hat die Leistung: 1 N-1 E{z 2 [n]} = sin 2 (2πn/N) = 0.5 N n = 0

10 ZHAW, DSV2, 2007, Rumc, Beschreibung von Zufallssignalen im Frequenzbereich Zufallssignale können nicht nur im Zeitbereich, sondern auch im Frequenzbereich charakterisiert werden. Im Folgenden betrachten wir ausschliesslich schwach-stationäre, mittelwertfreie, reellwertige Zufallssignale Z[.]. Zufallssignale Z[.] haben kein eigentliches Spektrum wie es die deterministischen Signale haben. Zufallssignale Z[.] haben aber ein Leistungsdichtespektrum P ZZ (f) [W/Hz]. Wiener und Khintchine haben gezeigt, dass das Leistungsdichtespektrum P ZZ (f) eines Zufallssignals Z[.] und die Autokorrelationsfunktion AKF R ZZ [m] ein Fourierpaar bilden, d.h. ZZ ZZ -jm2πft s = R ZZ (z=e j2πfts ) (8.24) m= P (f)= R [m] e f s /2 1 jm2πfts R ZZ[m] = P ZZ(f) e df fs f s /2 (8.25) Das Leistungsdichtespektrum P ZZ (f) ist eine reellwertige und gerade Funktion. Aus (8.25) folgt für die mittlere Leistung des Zufallssignals Z[.]: 2 1 E{ Z [n]} =R ZZ[0] = P (f) df f s f s /2 ZZ. (8.26) f s /2 Beispiel Wir betrachten ein schwach-stationäres, (mittelwertfreies), reellwertiges Zufallssignal Z[.] mit unkorrelierten Signalwerten, d.h. E{Z[n] Z[n+m]} = E{Z[n]} E{Z[n+m]} = 0 wenn m 0. Das Zufallssignal Z[.] hat eine impulsartige Autokorrelationsfunktion (AKF), d.h. R ZZ [m] = E{Z 2 [n]} δ[m], wobei δ[.] die Dirac-Delta-Folge darstellt, siehe Abbildung 8-6. Aus dem Wiener-Khintchine-Theorem (8.24) folgt, dass das betrachtete Zufallssignal Z[.] ein konstantes Leistungsdichtespektrum besitzt, d.h. P ZZ (f) = R ZZ [0], siehe Abbildung 8-6. Das Zufallssignal Z[.] wird deshalb auch weisses Rauschen genannt. R ZZ [m] P ZZ (f) E[Z 2 [n]] m -f s /2 f s /2 f Abbildung 8-6: AKF und Leistungsdichtespektrum von weissem Rauschen.

11 ZHAW, DSV2, 2007, Rumc, 8-11 Beispiel Das Zufallssignal Z 1 [.] in Abbildung 8-4 besitzt wegen der impulsartigen AKF ein weisses bzw. flaches Spektrum. Der Signalverlauf weist schnelle Änderungen auf. Es ist keine Korrelation bzw. Ähnlichkeit zwischen den Signalwerten erkennbar. Das Zufallssignal Z 2 [.] in Abbildung 8-4 besitzt ein TP-artiges Spektrum. Der Signalverlauf ändert nur langsam. Benachbarte Signalwerte sind stark korreliert bzw. ähnlich. Analog zum Leistungsdichtespektrum ist das Kreuz-Leistungsdichtespektrum für die Zufallssignale X[.] und Y[.] definiert: XY XY -jm2πft s. (8.27) m= P (f)= R [m] e 6. Diskrete Filterung von Zufallssignalen Wenn am Eingang eines linearen, zeitdiskreten, zeitinvarianten bzw. digitalen Filters H(z) ein schwach-stationäres, mittelwertfreies, reellwertiges Zufallssignal X[.] anliegt, ist das Ausgangssignal Y[.] auch wieder ein schwach-stationäres, mittelwertfreies, reellwertiges Zufallssignal, siehe auch Abbildung 8-7. X[.] H(z) Y[.] Abbildung 8-7: Filterung eines Zufallssignals mit einem digitalen Filter H(z). Zwischen den Leistungsdichtespektren des Ein- und des Ausgangssignals gilt der folgende Zusammenhang (ohne Beweis) P YY (f) = IH(f)I 2 P XX (f), (8.28) wobei H(f) den Frequenzgang des digitalen Filters H(z) darstellt, d.h. H(f) = H(z=e j2πfts ). Weiter gilt der folgende Zusammenhang zwischen dem Leistungsdichtespektrum des Eingangssignals und dem Kreuz-Leistungsdichtespektrum zwischen dem Ein- und dem Ausgangssignal (ohne Beweis) P YX (f) = H(f) P XX (f). (8.29) Beide Gleichungen (8.28) und (8.29) werden in der Praxis für die Systemidentifikation [von H(z)] verwendet. Meistens wird am Filtereingang weisses Rauschen verwendet. Die Leistungsdichtespektren können z.b. mit Hilfe der DFT/FFT aus den entsprechenden Korrelationsfunktionen gewonnen werden.

12 ZHAW, DSV2, 2007, Rumc, 8-12 Beispiel Beim Zufallssignal Z 2 [.] in Abbildung 8-4 handelt es sich um TP-gefiltertes, weisses Rauschen. Das Betragsspektrum des TP-Filters in db kann mit Gleichung (8.28) wie folgt bestimmt werden: IH(f)I [db] = 10 log 10 [P YY (f)/konst]. In Abbildung 8-8 ist das geglättete Betragsspektrum des gesuchten TP-Filters dargestellt. Es handelt sich um ein Butterworth-TP 4. Ordnung (4 mal 6 db pro Oktave) mit einer Grenzfrequenz von 100 Hz. Abbildung 8-8: Via Leistungsdichtespektren identifiziertes TP-Filter.

Adaptive Systeme. Sommersemester Prof. Dr. -Ing. Heinz-Georg Fehn. Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Sommersemester Prof. Dr. -Ing. Heinz-Georg Fehn. Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Sommersemester 2015 Prof. Dr. -Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Prof. Dr. H.-G. Fehn und Prof. Dr. N. Wulff 1 Adaptive Systeme Adaptives System: ein System, das

Mehr

Übung 7: Methode der kleinsten Quadrate

Übung 7: Methode der kleinsten Quadrate ZHAW, DSV2, 2007, Rumc, 1/8 Übung 7: Methode der kleinsten Quadrate Aufgabe 1: Lineare Annäherung im Skalarprodukt-Raum. Finden Sie für den Vektor y = [2 2 2] T eine Linearkombination y e der Vektoren

Mehr

Signale und Systeme Reaktion linearer Systeme auf stationäre stochastische Signale

Signale und Systeme Reaktion linearer Systeme auf stationäre stochastische Signale Signale und Systeme Reaktion linearer Systeme auf stationäre stochastische Signale Gerhard Schmidt Christian-Albrechts-Universität zu Kiel Technische Faculty of Engineering Fakultät Elektrotechnik Institute

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

Kapitel 2.1: Die stochastische Sicht auf Signale Georg Dorffner 67

Kapitel 2.1: Die stochastische Sicht auf Signale Georg Dorffner 67 Kapitel 2.1: Die stochastische Sicht auf Signale 215 Georg Dorffner 67 Stochastische Prozesse Stochastische Prozesse sind von Zufall geprägte Zeitreihen x n f x, n 1 xn2,... n vorhersagbarer Teil, Signal

Mehr

2. Eigenschaften digitaler Nachrichtensignale

2. Eigenschaften digitaler Nachrichtensignale FH OOW / Fachb. Technik / Studiengang Elektrotechnik u. Automatisierungstechnik Seite 2-2. Eigenschaften digitaler Nachrichtensignale 2. Abgrenzung zu analogen Signalen Bild 2.- Einteilung der Signale

Mehr

Vorlesung 8a. Kovarianz und Korrelation

Vorlesung 8a. Kovarianz und Korrelation Vorlesung 8a Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X, Y ] := E [ (X EX)(Y EY ) ] Insbesondere

Mehr

Übung 1: Wiederholung Wahrscheinlichkeitstheorie

Übung 1: Wiederholung Wahrscheinlichkeitstheorie Übung 1: Wiederholung Wahrscheinlichkeitstheorie Ü1.1 Zufallsvariablen Eine Zufallsvariable ist eine Variable, deren numerischer Wert solange unbekannt ist, bis er beobachtet wird. Der Wert einer Zufallsvariable

Mehr

Wahrscheinlichkeitstheorie und Statistik vom

Wahrscheinlichkeitstheorie und Statistik vom INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen

Mehr

Die Varianz (Streuung) Definition

Die Varianz (Streuung) Definition Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ

Mehr

Zufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten

Zufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten Zufallsgrößen Ergebnisse von Zufallsexperimenten werden als Zahlen dargestellt 0 Einführung Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Hypothesentests

Mehr

Dynamische Lasten. 1. Kraft- und Weganregung 2. Deterministische Lasten. 3. Stochastische Lasten

Dynamische Lasten. 1. Kraft- und Weganregung 2. Deterministische Lasten. 3. Stochastische Lasten Dynamische Lasten 1. Kraft- und Weganregung 2. Deterministische Lasten 2.1 Allgemeine zeitabhängige Lasten 2.2 Periodische Lasten 2.3 Harmonische Lasten 3. Stochastische Lasten 3.1 Instationäre stochastische

Mehr

Dieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen.

Dieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen. Dieses Quiz soll Ihnen helfen, Kapitel 2.5-2. besser zu verstehen. Frage Wir betrachten ein Würfelspiel. Man wirft einen fairen, sechsseitigen Würfel. Wenn eine oder eine 2 oben liegt, muss man 2 SFr zahlen.

Mehr

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska

Mehr

1 Autokorrelation, Leistung und Wahrscheinlichkeitsdichtefunktion eines Sinussignals

1 Autokorrelation, Leistung und Wahrscheinlichkeitsdichtefunktion eines Sinussignals Audiotechnik II Digitale Audiotechnik: 2. utorium Prof. Dr. Stefan Weinzierl 5. November 213 Musterlösung: 5. November 213, 18:25 1 Autokorrelation, Leistung und Wahrscheinlichkeitsdichtefunktion eines

Mehr

Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate

Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate Regression ein kleiner Rückblick Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate 05.11.2009 Gliederung 1. Stochastische Abhängigkeit 2. Definition Zufallsvariable 3. Kennwerte 3.1 für

Mehr

9 Erwartungswert, Varianz und Standardabweichung einer Zufallsgröÿe

9 Erwartungswert, Varianz und Standardabweichung einer Zufallsgröÿe Übungsmaterial 9 Erwartungswert, Varianz und Standardabweichung einer Zufallsgröÿe 9. Erwartungswert Fragt man nach dem mittleren Wert einer Zufallsgröÿe X pro Versuch, so berechnet man den Erwartungswert

Mehr

(Bitte geben Sie bei der Beantwortung von Fragen eine Begründung bzw. bei der Lösung von Kurzaufgaben eine kurze Berechnung an!)

(Bitte geben Sie bei der Beantwortung von Fragen eine Begründung bzw. bei der Lösung von Kurzaufgaben eine kurze Berechnung an!) Teil 1: Fragen und Kurzaufgaben (Bitte geben Sie bei der Beantwortung von Fragen eine Begründung bzw. bei der Lösung von Kurzaufgaben eine kurze Berechnung an!) Frage 1 (6 Punkte) Es wird ein analoges

Mehr

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) für Studierende des Maschinenbaus vom 7. Juli (Dauer: 8 Minuten) Übersicht über die

Mehr

Statistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Themen dieses Kapitels sind:

Statistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Themen dieses Kapitels sind: Statistik 2 für SoziologInnen Normalverteilung Univ.Prof. Dr. Marcus Hudec Statistik 2 für SoziologInnen 1 Normalverteilung Inhalte Themen dieses Kapitels sind: Das Konzept stetiger Zufallsvariablen Die

Mehr

Grundbegriffe der Wahrscheinlichkeitsrechnung

Grundbegriffe der Wahrscheinlichkeitsrechnung Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.

Mehr

3.3 Bedingte Wahrscheinlichkeit

3.3 Bedingte Wahrscheinlichkeit 28 3.3 Bedingte Wahrscheinlichkeit Oft ist die Wahrscheinlichkeit eines Ereignisses B gesucht unter der Bedingung (bzw. dem Wissen), dass ein Ereignis A bereits eingetreten ist. Man bezeichnet diese Wahrscheinlichkeit

Mehr

Gesetze der großen Zahlen

Gesetze der großen Zahlen Kapitel 0 Gesetze der großen Zahlen 0. Einführung Im ersten Kapitel wurde auf eine Erfahrungstatsache im Umgang mit zufälligen Erscheinungen aufmerksam gemacht, die man gewöhnlich als empirisches Gesetz

Mehr

3. Kombinatorik und Wahrscheinlichkeit

3. Kombinatorik und Wahrscheinlichkeit 3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:

Mehr

Kapitel 6 Martingale

Kapitel 6 Martingale Kapitel 6 Martingale Martingale spielen eine große Rolle in der Finanzmathematik, und sind zudem ein wichtiges Hilfsmittel für die statistische Inferenz stochastischer Prozesse, insbesondere auch für Zählprozesse

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über

Mehr

Stochastische Signale

Stochastische Signale Universität Koblenz-Landau Abteilung Koblenz Sommersemester 2005 Dozent: Dr. Merten Joost Seminarausarbeitung zum Thema: Stochastische Signale verfasst von: Daniel Schüller dschueller@uni-koblenz.de Koblenz

Mehr

Statistik, Datenanalyse und Simulation

Statistik, Datenanalyse und Simulation Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 31. Mai 2011 4. Methode der kleinsten Quadrate Geschichte: Von Legendre, Gauß und Laplace zu Beginn des 19. Jahrhunderts eingeführt. Die Methode der

Mehr

Inhaltsverzeichnis Determinierte Signale in linearen zeitinvarianten Systemen Fourier-Transformation

Inhaltsverzeichnis Determinierte Signale in linearen zeitinvarianten Systemen Fourier-Transformation Inhaltsverzeichnis 1. Determinierte Signale in linearen zeitinvarianten Systemen 1 1.1 Elementarsignale... 1 1.2 ZumBegriffdesSystems... 5 1.3 LinearezeitinvarianteSysteme... 6 1.4 DasFaltungsintegral...

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

Spezielle stetige Verteilungen

Spezielle stetige Verteilungen Spezielle stetige Verteilungen schon bekannt: Die Exponentialverteilung mit Parameter k R, k > 0 hat die Dichte f (x) = ke kx für x 0 und die Verteilungsfunktion F (x) = 1 e kx für x 0. Eigenschaften Für

Mehr

Signale und Systeme II

Signale und Systeme II TECHNISCHE FAKULTÄT DER CHRISTIAN-ALBRECHTS-UNIVERSITÄT ZU KIEL DIGITALE SIGNALVERARBEITUNG UND SYSTEMTHEORIE DSS Signale und Systeme II Lösung zur Modulklausur SS 201 Prüfer: Prof. Dr.-Ing. Gerhard Schmidt

Mehr

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir

Mehr

Verzerrungsfreies System

Verzerrungsfreies System Verzerrungsfreies System x(n) y(n) n n x(n) h(n) y(n) y(n) A 0 x(n a) A 0 x(n) (n a) h(n) A 0 (n a) H(z) A 0 z a Digitale Signalverarbeitung Liedtke 8.1.1 Erzeugung einer linearen Phase bei beliebigem

Mehr

Versuch 3: Anwendungen der schnellen Fourier-Transformation (FFT)

Versuch 3: Anwendungen der schnellen Fourier-Transformation (FFT) Versuch 3: Anwendungen der schnellen Fourier-Transformation (FFT) Ziele In diesem Versuch lernen Sie zwei Anwendungen der Diskreten Fourier-Transformation in der Realisierung als recheneffiziente schnelle

Mehr

Vorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten

Vorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten Vorlesung 8b Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten 1 Wie gehabt, denken wir uns ein zufälliges Paar X = (X 1,X 2 ) auf zweistufige Weise zustande gekommen:

Mehr

f = T φ ist negative für nacheilende Funktionen φ ist positive für voreilende Funktionen 2 Signale im Zeitbereich 2.1 Harmonische Funktionen

f = T φ ist negative für nacheilende Funktionen φ ist positive für voreilende Funktionen 2 Signale im Zeitbereich 2.1 Harmonische Funktionen 2 Signale im Zeitbereich 2.1 Harmonische Funktionen = Xˆ sin( ω t) 1 f = T Einheiten: [ f ] = Hz ω = 2 π -1 [ ω] = s f mit Phasenverschiebung (hier: nacheilend) : = Xˆ sin( ω t - ϕ) φ ist negative für

Mehr

Mathematik 3 für Informatik

Mathematik 3 für Informatik Gunter Ochs Wintersemester 5/6 Mathematik 3 für Informatik Lösungen zum Hausaufgabenblatt Lösungshinweise ohne Garnatie auf Fehlerfreiheit c 5. Berechnen Sie die folgenden unbestimmten Integrale: a x 4

Mehr

Faltung, Korrelation, Filtern

Faltung, Korrelation, Filtern Faltung, Korrelation, Filtern Wie beschreibe ich lineare Systeme (z.b. Seismometer) -> Faltung, Konvolution, Dekonvolution? Wie quantifiziere ich die Ähnlichkeit von Zeitreihen (-> Korrelation) Wie quantifiziere

Mehr

Lösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6

Lösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6 1 Lösungen ausgewählter Übungsaufgaben zum Buch Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6 Aufgaben zu Kapitel 5 Zu Abschnitt 5.1 Ü5.1.1 Finden Sie eine maximum-likelihood-schätzung

Mehr

Faltung und Korrelation kontinuierlicher Signale

Faltung und Korrelation kontinuierlicher Signale Universität Koblenz Institut für integrierte Naturwissenschaften Abteilung Physik Faltung und Korrelation kontinuierlicher Signale Seminar Digitale Signalverarbeitung Dr. Merten Joost von Kristina Weyerhäuser

Mehr

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie

Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie Wahrscheinlichkeitsrechnung und Statistik für Biologen 3. Grundlagen aus der Wahrscheinlichkeitstheorie Martin Hutzenthaler & Dirk Metzler 11. Mai 2011 Inhaltsverzeichnis 1 Deterministische und zufällige

Mehr

Weihnachtszettel zur Vorlesung. Stochastik I. Wintersemester 2011/2012

Weihnachtszettel zur Vorlesung. Stochastik I. Wintersemester 2011/2012 Weihnachtszettel zur Vorlesung Stochastik I Wintersemester 0/0 Aufgabe. Der Weihnachtsmann hat vergessen die Weihnachtsgeschenke mit Namen zu beschriften und muss sie daher zufällig verteilen. Dabei enthält

Mehr

Mathematik II Frühlingsemester 2015 Kap. 9: Funktionen von mehreren Variablen 9.2 Partielle Differentiation

Mathematik II Frühlingsemester 2015 Kap. 9: Funktionen von mehreren Variablen 9.2 Partielle Differentiation Mathematik II Frühlingsemester 2015 Kap. 9: Funktionen von mehreren Variablen 9.2 Partielle Differentiation www.math.ethz.ch/education/bachelor/lectures/fs2015/other/mathematik2 biol Prof. Dr. Erich Walter

Mehr

Taylorreihen. Kapitel 9. Lernziele. Taylorreihe. (x x 0 ) + f (x 0 ) 2! (x x 0 ) f (n) (x 0 ) (x x 0 ) n. Taylorreihe und MacLaurinreihe

Taylorreihen. Kapitel 9. Lernziele. Taylorreihe. (x x 0 ) + f (x 0 ) 2! (x x 0 ) f (n) (x 0 ) (x x 0 ) n. Taylorreihe und MacLaurinreihe Kapitel 9 Taylorreihen Josef Leydold c 2006 Mathematische Methoden IX Taylorreihen 1 / 25 Lernziele Taylorreihe und MacLaurinreihe Beispiele Alternative Schreibweisen Approimation der Veränderung einer

Mehr

Bachelor BEE Statistik Übung: Blatt 1 Ostfalia - Hochschule für angewandte Wissenschaften Fakultät Versorgungstechnik Aufgabe (1.1): Gegeben sei die folgende Messreihe: Nr. ph-werte 1-10 6.4 6.3 6.7 6.5

Mehr

Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg. PROGNOSE II - Vertiefung Aufgaben und Lösungen Sommersemester 2004

Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg. PROGNOSE II - Vertiefung Aufgaben und Lösungen Sommersemester 2004 Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg PROGNOSE II - Vertiefung Aufgaben und Lösungen Sommersemester 2004 Aufgabe 1 U t bedeute weißes Rauschen und B den Backshift

Mehr

Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion

Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion Kapitel 2 Erwartungswert 2.1 Erwartungswert einer Zufallsvariablen Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion È ist definiert als Ü ÜÈ Üµ Für spätere

Mehr

Übungsaufgaben zu Statistik II

Übungsaufgaben zu Statistik II Übungsaufgaben zu Statistik II Prof. Dr. Irene Prof. Dr. Albrecht Ungerer Die Kapitel beziehen sich auf das Buch: /Ungerer (2016): Statistik für Wirtschaftswissenschaftler Springer Gabler 4 Übungsaufgaben

Mehr

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung lausthal Informatik II rundbegriffe der Wahrscheinlichkeitsrechnung. Zachmann lausthal University, ermany zach@in.tu-clausthal.de Begriffe Definition: Unter einem Zufallsexperiment versteht man einen,

Mehr

Unabhängigkeit KAPITEL 4

Unabhängigkeit KAPITEL 4 KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht

Mehr

Übungsblatt 9. f(x) = e x, für 0 x

Übungsblatt 9. f(x) = e x, für 0 x Aufgabe 1: Übungsblatt 9 Basketball. Ein Profi wirft beim Training aus einer Entfernung von sieben Metern auf den Korb. Er trifft bei jedem Wurf mit einer Wahrscheinlichkeit von p = 1/2. Die Zufallsvariable

Mehr

Zufallssignal Stationär (z.b. gleichverteiltes Rauschen) Nicht-stationär (z.b. normalverteiltes Rauschen mit wechselnder Streuung) Deterministisches

Zufallssignal Stationär (z.b. gleichverteiltes Rauschen) Nicht-stationär (z.b. normalverteiltes Rauschen mit wechselnder Streuung) Deterministisches Zufallssignal Stationär (z.b. gleichverteiltes Rauschen) Nicht-stationär (z.b. normalverteiltes Rauschen mit wechselnder Streuung) Deterministisches Signal Periodisch harmonische Schwingung Summe harmonischer

Mehr

Kapitel VI - Lage- und Streuungsparameter

Kapitel VI - Lage- und Streuungsparameter Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VI - Lage- und Streuungsparameter Markus Höchstötter Lehrstuhl für Statistik, Ökonometrie

Mehr

Kenngrößen von Zufallsvariablen

Kenngrößen von Zufallsvariablen Kenngrößen von Zufallsvariablen Die Wahrscheinlichkeitsverteilung kann durch die sogenannten Kenngrößen beschrieben werden, sie charakterisieren sozusagen die Verteilung. Der Erwartungswert Der Erwartungswert

Mehr

Exemplar für Prüfer/innen

Exemplar für Prüfer/innen Exemplar für Prüfer/innen Kompensationsprüfung zur standardisierten kompetenzorientierten schriftlichen Reifeprüfung AHS Juni 2016 Mathematik Kompensationsprüfung 3 Angabe für Prüfer/innen Hinweise zur

Mehr

13.5 Der zentrale Grenzwertsatz

13.5 Der zentrale Grenzwertsatz 13.5 Der zentrale Grenzwertsatz Satz 56 (Der Zentrale Grenzwertsatz Es seien X 1,...,X n (n N unabhängige, identisch verteilte zufällige Variablen mit µ := EX i ; σ 2 := VarX i. Wir definieren für alle

Mehr

1 Dichte- und Verteilungsfunktion

1 Dichte- und Verteilungsfunktion Tutorium Yannick Schrör Klausurvorbereitungsaufgaben Statistik Lösungen Yannick.Schroer@rub.de 9.2.26 ID /455 Dichte- und Verteilungsfunktion Ein tüchtiger Professor lässt jährlich 2 Bücher drucken. Die

Mehr

11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient

11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient 11.4 Korrelation Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient (X 1,X 2 ) = cov (X 1,X 2 ) σ X1 σ X2 Korrelationskoeffizient der Zufallsgrößen

Mehr

Eine zweidimensionale Stichprobe

Eine zweidimensionale Stichprobe Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,

Mehr

27 Taylor-Formel und Taylor-Entwicklungen

27 Taylor-Formel und Taylor-Entwicklungen 136 IV. Unendliche Reihen und Taylor-Formel 27 Taylor-Formel und Taylor-Entwicklungen Lernziele: Konzepte: klein o - und groß O -Bedingungen Resultate: Taylor-Formel Kompetenzen: Bestimmung von Taylor-Reihen

Mehr

K8 Stetige Zufallsvariablen Theorie und Praxis

K8 Stetige Zufallsvariablen Theorie und Praxis K8 Stetige Zufallsvariablen Theorie und Praxis 8.1 Theoretischer Hintergrund Wir haben (nicht abzählbare) Wahrscheinlichkeitsräume Meßbare Funktionen Zufallsvariablen Verteilungsfunktionen Dichten in R

Mehr

Kapitel 7. Funktionentheorie. 7.1 Holomorphe und harmonische Funktionen. 1. Definitionen

Kapitel 7. Funktionentheorie. 7.1 Holomorphe und harmonische Funktionen. 1. Definitionen Kapitel 7 Funktionentheorie In diesem Kapitel geht es meistens um Funktionen, die auf einem Gebiet G C definiert sind und komplexe Werte annehmen. Nach Lust, Laune und Bedarf wird C mit R identifiziert,

Mehr

Wahrscheinlichkeitsrechnung und Quantentheorie

Wahrscheinlichkeitsrechnung und Quantentheorie Physikalische Chemie II: Atombau und chemische Bindung Winter 2013/14 Wahrscheinlichkeitsrechnung und Quantentheorie Messergebnisse können in der Quantenmechanik ganz prinzipiell nur noch mit einer bestimmten

Mehr

Technische Universität München

Technische Universität München Stand der Vorlesung Kapitel 2: Auffrischung einiger mathematischer Grundlagen Mengen, Potenzmenge, Kreuzprodukt (Paare, Tripel, n-tupel) Relation: Teilmenge MxN Eigenschaften: reflexiv, symmetrisch, transitiv,

Mehr

Klausur Stochastik und Statistik 31. Juli 2012

Klausur Stochastik und Statistik 31. Juli 2012 Klausur Stochastik und Statistik 31. Juli 2012 Prof. Dr. Matthias Schmid Institut für Statistik, LMU München Wichtig: ˆ Überprüfen Sie, ob Ihr Klausurexemplar vollständig ist. Die Klausur besteht aus fünf

Mehr

Ü b u n g s b l a t t 13

Ü b u n g s b l a t t 13 Einführung in die Stochastik Sommersemester 06 Dr. Walter Oevel 5. 6. 006 Ü b u n g s b l a t t 3 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben

Mehr

Aufgabenblock 3. Durch zählen erhält man P(A) = 10 / 36 P(B) = 3 / 36 P(C) = 18 / 36 und P(A B) = 3 /

Aufgabenblock 3. Durch zählen erhält man P(A) = 10 / 36 P(B) = 3 / 36 P(C) = 18 / 36 und P(A B) = 3 / Aufgabenblock 3 Aufgabe ) A sei das Ereignis: schwerer Verkehrsunfall B sei das Ereignis: Alkohol ist im Spiel Herr Walker betrachtet die Wahrscheinlichkeit P(B A) = 0.3 und errechnet daraus P(-B A) =

Mehr

3.3 Das Abtasttheorem

3.3 Das Abtasttheorem 17 3.3 Das Abtasttheorem In der Praxis kennt man von einer zeitabhängigen Funktion f einem Signal meist nur diskret abgetastete Werte fn, mit festem > und ganzzahligem n. Unter welchen Bedingungen kann

Mehr

Diskrete Mathematik 1

Diskrete Mathematik 1 Ruhr-Universität Bochum Lehrstuhl für Kryptologie und IT-Sicherheit Prof Dr Alexander May M Ritzenhofen, M Mansour Al Sawadi, A Meurer Lösungsblatt zur Vorlesung Diskrete Mathematik WS 008/09 Blatt 4 /

Mehr

Digitale Signalverarbeitung auf FPGAs

Digitale Signalverarbeitung auf FPGAs Digitale Signalverarbeitung auf FPGAs INP: Interpolation Upsampling und D/A- Wandlung Teil 1 Upsampling 2016 Dr. Christian Münker INP: Überblick Upsampling D/A-Wandlung Interpolation Oversampling (Sigma-Delta

Mehr

Funktionen mehrerer Variabler

Funktionen mehrerer Variabler Funktionen mehrerer Variabler Fakultät Grundlagen Juli 2015 Fakultät Grundlagen Funktionen mehrerer Variabler Übersicht Funktionsbegriff 1 Funktionsbegriff Beispiele Darstellung Schnitte 2 Partielle Ableitungen

Mehr

f(x, y) = 0 Anschaulich bedeutet das, dass der im Rechteck I J = {(x, y) x I, y J}

f(x, y) = 0 Anschaulich bedeutet das, dass der im Rechteck I J = {(x, y) x I, y J} 9 Der Satz über implizite Funktionen 41 9 Der Satz über implizite Funktionen Wir haben bisher Funktionen g( von einer reellen Variablen immer durch Formelausdrücke g( dargestellt Der Zusammenhang zwischen

Mehr

4.4 Taylorentwicklung

4.4 Taylorentwicklung 4.4. TAYLORENTWICKLUNG 83 4.4 Taylorentwicklung. Definitionen f sei eine reellwertige m + -mal stetig differenzierbare Funktion der n Variablen x bis x n auf einem Gebiet M R n. Die Verbindungsgerade der

Mehr

P (A B) P (B) = P ({3}) P ({1, 3, 5}) = 1 3.

P (A B) P (B) = P ({3}) P ({1, 3, 5}) = 1 3. 2 Wahrscheinlichkeitstheorie Beispiel. Wie wahrscheinlich ist es, eine Zwei oder eine Drei gewürfelt zu haben, wenn wir schon wissen, dass wir eine ungerade Zahl gewürfelt haben? Dann ist Ereignis A das

Mehr

Vorteile digitaler Filter

Vorteile digitaler Filter Digitale Filter Vorteile digitaler Filter DF haben Eigenschaften, die mit analogen Filtern nicht realisiert werden können (z.b. lineare Phase). DF sind unabhängig von der Betriebsumgebung (z.b. Temperatur)

Mehr

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6 Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere

Mehr

Stochastik für die Naturwissenschaften

Stochastik für die Naturwissenschaften Stochastik für die Naturwissenschaften Dr. C.J. Luchsinger 6. Ausgewählte Verteilungen (Distributions) * diskret: Bernoulli, Binomial, Geometrisch, Poisson * stetig: Uniform, Exponential, Normal, χ 2,

Mehr

Seminar Digitale Signalverarbeitung Thema: Digitale Filter

Seminar Digitale Signalverarbeitung Thema: Digitale Filter Seminar Digitale Signalverarbeitung Thema: Digitale Filter Autor: Daniel Arnold Universität Koblenz-Landau, August 2005 Inhaltsverzeichnis i 1 Einführung 1.1 Allgemeine Informationen Digitale Filter sind

Mehr

Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 27

Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 27 Statistik II II. Univariates lineares Regressionsmodell Martin Huber 1 / 27 Übersicht Definitionen (Wooldridge 2.1) Schätzmethode - Kleinste Quadrate Schätzer / Ordinary Least Squares (Wooldridge 2.2)

Mehr

Statistische Thermodynamik I Lösungen zur Serie 1

Statistische Thermodynamik I Lösungen zur Serie 1 Statistische Thermodynamik I Lösungen zur Serie Zufallsvariablen, Wahrscheinlichkeitsverteilungen 4. März 2. Zwei Lektoren lesen ein Buch. Lektor A findet 2 Druckfehler, Lektor B nur 5. Von den gefundenen

Mehr

also ist Sx m eine Cauchyfolge und somit konvergent. Zusammen sagen die Sätze 11.1 und 11.2, dass B (X) ein abgeschlossenes zweiseitiges

also ist Sx m eine Cauchyfolge und somit konvergent. Zusammen sagen die Sätze 11.1 und 11.2, dass B (X) ein abgeschlossenes zweiseitiges 11. Kompakte Operatoren Seien X, Y Banachräume, und sei T : X Y ein linearer Operator. Definition 11.1. T heißt kompakt, enn T (B) eine kompakte Teilmenge von Y ist für alle beschränkten Mengen B X. Wir

Mehr

Übungen zu Partielle Differentialgleichungen, WS 2016

Übungen zu Partielle Differentialgleichungen, WS 2016 Übungen zu Partielle Differentialgleichungen, WS 2016 Ulisse Stefanelli 16. Januar 2017 1 Beispiele 1. Betrachten Sie die Beispiele von nichtlinearen PDG und Systemen, die wir im Kurs diskutiert haben,

Mehr

Gemeinsame Wahrscheinlichkeitsverteilungen

Gemeinsame Wahrscheinlichkeitsverteilungen Gemeinsame Wahrscheinlichkeitsverteilungen Worum geht es in diesem Modul? Gemeinsame Wahrscheinlichkeits-Funktion zweier Zufallsvariablen Randverteilungen Bedingte Verteilungen Unabhängigkeit von Zufallsvariablen

Mehr

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω 5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Statistik & Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte

Mehr

+ z -1 z z -1 + z -1 + z -1 + z -1 + z -1

+ z -1 z z -1 + z -1 + z -1 + z -1 + z -1 Formelsammlung Systemtheorie II 06.02.12 C.Pieper (keine Gewähr auf Richtigkeit! Korrekturen an christoph.pieper@rwth-aachen.de) Regelungsnormalform steuerbar Existiert nur für erreichbare Systeme (->

Mehr

Reihen/Partialsummenfolgen und vollständige Induktion. Robert Klinzmann

Reihen/Partialsummenfolgen und vollständige Induktion. Robert Klinzmann Reihen/Partialsummenfolgen und vollständige Induktion Robert Klinzmann 3. Mai 00 Reihen / Partialsummen 1 Inhaltsverzeichnis 1 Vorwort Das Prinzip der vollständigen Induktion 3 3 Herleitung der Gauß schen

Mehr

1. Übungsblatt Aufgaben mit Lösungen

1. Übungsblatt Aufgaben mit Lösungen . Übungsblatt Aufgaben mit Lösungen Aufgabe : Sei I R ein Intervall. Geben Sie Beispiele für Differentialgleichungen für Funktionen y = y in I mit den folgenden Eigenschaften an: Beispiel separabel, nicht

Mehr

5 Potenzreihenansatz und spezielle Funktionen

5 Potenzreihenansatz und spezielle Funktionen 5 Potenzreihenansatz und spezielle Funktionen In diesem Kapitel betrachten wir eine Methode zur Lösung linearer Differentialgleichungen höherer Ordnung, die sich anwenden läßt, wenn sich alle Koeffizienten

Mehr

Einführung in die Integralrechnung. Mag. Mone Denninger 13. November 2005

Einführung in die Integralrechnung. Mag. Mone Denninger 13. November 2005 Einführung in die Integralrechnung Mag. Mone Denninger. November 5 INHALTSVERZEICHNIS 8. Klasse Inhaltsverzeichnis Einleitung Berechnung einfacher Stammfunktionen. Integrationsregeln.........................

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 8. Dezember 2010 Teil V Schließende Statistik 1 Parameterschätzung Erwartungstreue und Konsistenz Maximum-Likelihood

Mehr

Thema14 Der Satz über inverse Funktionen und der Satz über implizite Funktionen

Thema14 Der Satz über inverse Funktionen und der Satz über implizite Funktionen Thema14 Der Satz über inverse Funktionen und der Satz über implizite Funktionen In diesem Kapitel betrachten wir die Invertierbarkeit von glatten Abbildungen bzw. die Auflösbarkeit von impliziten Gleichungen.

Mehr

Übung 2: Spektrum periodischer Signale

Übung 2: Spektrum periodischer Signale ZHAW, SiSy, Rumc, Übung : Spektrum periodischer Signale Augabe Verschiedene Darstellungen der Fourierreihe. Betrachten Sie das periodische Signal s(t) = + sin(π t). a) Bestimmen Sie die A k - und B k -Koeizienten

Mehr

Vorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten

Vorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten Vorlesung 9b Bedingte Verteilungen und bedingte Wahrscheinlichkeiten 1 Voriges Mal: Aufbau der gemeinsamen Verteilung von X 1 und X 2 aus der Verteilung ρ von X 1 und Übergangswahrscheinlichkeiten P(a

Mehr

Kapitel V - Erwartungstreue Schätzfunktionen

Kapitel V - Erwartungstreue Schätzfunktionen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel V - Erwartungstreue Schätzfunktionen Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh

Mehr

9 Die Normalverteilung

9 Die Normalverteilung 9 Die Normalverteilung Dichte: f(x) = 1 2πσ e (x µ)2 /2σ 2, µ R,σ > 0 9.1 Standard-Normalverteilung µ = 0, σ 2 = 1 ϕ(x) = 1 2π e x2 /2 Dichte Φ(x) = 1 x 2π e t2 /2 dt Verteilungsfunktion 331 W.Kössler,

Mehr

Angewandte Ökonometrie Übung. Endogenität, VAR, Stationarität und Fehlerkorrekturmodell

Angewandte Ökonometrie Übung. Endogenität, VAR, Stationarität und Fehlerkorrekturmodell Angewandte Ökonometrie Übung 3 Endogenität, VAR, Stationarität und Fehlerkorrekturmodell Zeitreihenmodelle Zeitreihenmodelle Endogenität Instrumentvariablenschätzung Schätzung eines VARs Tests auf Anzahl

Mehr