Seminararbeit: Modeling DNA Sequences

Größe: px
Ab Seite anzeigen:

Download "Seminararbeit: Modeling DNA Sequences"

Transkript

1 Seminararbeit: Modeling DNA Sequences Lisa Klein-Schmeink 29. März 22 Inhaltsverzeichnis Einleitung 2 Methoden zur Analyse einer DNA-Sequenz? 3 3 Lange Ketten 4 4 r-scans 7 4. Geballtes Auftreten Auftreten in regelmäßigen Intervallen Fazit 2

2 Einleitung Abbildung : DNA-Struktur Dieser Seminarvortrag gibt eine Einführung in die Modellierung von DNA-Sequenzen auf Basis von Statistical Methods in Bioinformatics: An Introduction Ewans, Grant, 25). Bevor man diese analysieren kann, muss man zunächst natürlich verstehen, was sich hinter einer DNA-Sequenz tatsächlich verbirgt. DNA-Sequenzen Desoxyribonukleinsäure) sind Moleküle, die einen Hauptbestandteil der Zellkerne aller Lebewesen der Eukaryoten) darstellen und als Träger von Erbinformationen dienen. DNA-Sequenzen sind Nukleinsäuren, die aus Nukleotiden aufgebaut sind. Diese bestehen aus einer Phosphatgruppe, einem Zucker Desoxyribose bei DNA) und einer stickstoff-

3 haltigen Base Adenin A), Cytosin C), Guanin G) oder Thymin T). Diese bilden das DNA-Alphabet {A, C, G, T }. Dabei liegt eine komplementäre Basenpaarung vor: Adenin ist verbunden mit Thymin A-T) und Cytosin mit Guanin C-G). Ein DNA-Molekül hat die Form einer Doppelhelix. Die Längsstränge dieser verdrehten Strickleiter bestehen aus sich abwechselnden Desoxribose- und Phosphatmolekülen. Die beiden Stränge verlaufen in entgegengesetzter Richtung, so dass ein 3 -Ende eines Stranges einem 5 -Ende gegenüber liegt. Daher wird auch nur ein Strang einer DNA-Sequenz angegeben, um diese zu charakterisieren. Meist betrachtet man die proteinkodierenden Gene, das sind die Teilstücke eines DNA- Strangs, durch die Proteine erstellt werden können. Proteine sind Makromoleküle, die aus den 2 verschiedenen Aminosäuren bestehen. Der Hauptbestandteil dieser proteinkodierenden Gene sind Nukleobasen-Tripletts Codons), die jeweils eine Aminosäure kodieren. Der genetische Code ist die Art, wie die Codons in Aminosäuren übersetzt werden. Ein solches Gen beginnt mit einem Start-Codon und endet mit einem Stop- bzw. Nonsense-Codon. Abbildung 2: Schema der Proteinsynthese Proteine werden aus Genen gewonnen, indem sie zunächst durch Transkription in RNA umgewandelt wird. Dabei werden nur die kodierenden Bereiche, die Exons für expressed region), 2

4 benutzt während die nicht-kodierenden Regionen, die Introns für intervening region), durch die sie unterbrochen werden, aus der Sequenz herausgespleißt werden. RNA Ribonukleinsäure) sind einzelsträngige Ketten von Nukleotiden ähnlich der DNA, die als Zucker Ribose verwenden und bei dem die Base Thymin durch Uracil U) ersetzt sind. Die durch die Synthese anhand von DNA gewonnene RNA wird auch Boten-RNA oder mrna für messenger RNA) genannt. Im zweiten Schritt, der Translation, wird die mrna benutzt, um ein Protein zu generieren. 2 Methoden zur Analyse einer DNA-Sequenz? Bei der Analyse von uncharakterisierten DNA-Sequenzen interessiert man sich häufig dafür, ob diese in einer kodierenden Region liegen. Introns und intergenische Bereiche weisen andere Eigenschaften als Exons auf, so dass z.b. unter der simpelsten Annahme, der unabhängigen und identischen Verteilung i.i.d.) der Nukleotiden, die Auftrittshäufigkeiten der einzelnen Nukleotiden in Exons bzw. Introns betrachtet werden. Dafür ermittelt man aus schon charakterisierten Sequenzen, sogenannten Trainingsdaten, die Verteilung der Nukleotiden. Man testet die Unabhängigkeits-Hypothese mit Hilfe von Markov-Ketten gegen die Alternative, dass die Nukleotiden Markov-abhängig sind, d.h. dass die Auftrittswahrscheinlichkeit eines Nukleotides nur von der vorhergehenden Nukleotiden abhängt, bzw. gegen Markov-Abhängigkeit höherer Ordnung bzw. nichtlinearer. Definition. Eine stochastische Folge M = M n ) n, also eine Folge von Zufallsexperimenten, mit Zustandsraum S, S) heißt Markov-Kette, wenn sie die Markov-Eigenschaft besitzt, d.h. PM n+ A M,..., M n ) = PM n+ A M n ) für alle n und alle A S. ) Die stochastische Folge heißt Markov-Kette k-ter Ordnung, wenn sie folgender Eigenschaft genügt PM n+ A M,, M n ) = PM n+ A M n t+,..., M n ) 2) für alle n und alle A S. Die Wahrscheinlichkeit für M n+ hängt hier also von den k vorherigen M i ab. In den meisten Fällen ergibt ein solcher Assoziationstest, dass die Markov-Modelle die Realität weit aus besser widerspiegeln, wobei auch sowohl Hypothese und Alternative falsch seien können. In der Praxis testet man ob die betrachtete DNA-Sequenz zu einem Signal gehört. Definition 2. Ein Signal ist eine kurze Sequenz, die einem spezifischen Zweck, wie eine Grenze zwischen Exon und Intron zu definieren, dient. Dies ermöglicht, dass Gene erkannt und in Proteine umgewandelt werden können. Dabei existieren oft viele Mitglieder eines Signals, also DNA-Sequenzen, die die gleiche Funktion haben. Meist sind nicht alle Mitglieder bekannt, so dass diejenigen, die bekannt sind, benutzt werden, um festzustellen, ob die betrachtete Sequenz auch zu dem Signal gehört. Außerdem kommen sie manchmal auch zufällig in nichtkodierenden Regionen vor. Man schränkt das Modell auf die empirisch meist begründete Annahme ein, dass Mitglieder eines Signals durchgängig die gleiche Länge n haben. 3

5 3 Lange Ketten Eine weitere Möglichkeit besteht darin, die Hypothese, dass ein Nukleotid zufällig auftritt gegen die Alternative, dass eine Tendenz für ein wiederholtes Auftreten dieses Nukleotiden in Folge besteht, zu testen. Definition 3. Definiere unter der Zufälligkeits-Hypothese die Zufallsvariable Y als die Länge einer Kette der Nukleotiden a in einer DNA-Sequenz der groß genügenden Länge N nach dem letzten Auftreten eines anderen Nukleotiden. Da dies der Anzahl der Erfolge nach einem Misserfolg entspricht, hat sie eine geometrische Verteilung mit einem bekannten Parameter p. Die Wahrscheinlichkeit, dass a an einem beliebigen Ort in der Sequenz auftritt ist also: P Y y) = PY = y) = p)p y 3) Definition 4. Unter einer Ordnungsstatistik X ),..., X n) versteht man die Ordnung der Realisationen x,..., x n einer Zufallsvariablen X der Größe nach. X i) bezeichnet die i-te Ordnungsstatistik. Insbesondere sind damit X max und X min die n-te bzw. die -te Ordnungsstatistik. Satz 5. Für n solche Sequenzen folgt dann für die längste unter diesen Sequenzen, der Ordnungsstatistik Y max : PY max y) = p y ) n 4) Beweis. Sei F Ymax y) die Verteilungsfunktion von Y max, dann gilt PY max y) = PY max y ) = F Ymax y)) n = p y ) n Um den Wert in 4) zu bestimmen, muss die Anzahl dieser Sequenzen n approximiert werden. Im folgenden sei unter ein gerundetes Ergebnis und unter die asymptotische Annäherung d.h. für n ) gemeint. Lemma 6. Man geht unter der Hypothese davon aus, dass die Misserfolge binomialverteilt sind, also lässt sich die Wahrscheinlichkeit, dass Y max größer als ein beobachteter Wert y max ist, wie folgt abschätzen: PY max y max ) p ymax ) p)n 5) Beweis. Da man von einer Binomialverteilung ausgeht, wird erwartet, dass p)n Misserfolge und, da Ketten von Erfolgen wobei diese auch die Länge haben dürfen) sich einem Misserfolg anschließen, ebenso auch p)n Erfolge auftreten. Damit erhält man das gewünschte Ergebnis für eine maximale beobachtete Länge y max. Korolar 7. Wenn p)np ymax ist, gilt sogar PY max y max ) e p)npymax 6) 4

6 Beweis. Da für große n und t gilt, dass + t n) n e n, folgt für p)np ymax : PY max y max ) p ymax ) p)n e p)npymax Im folgenden Beispiel erkennt man, dass diese Abschätzungen gute Ergebnisse liefern: Beispiel 8. Sei N =,, p = 4, dann ergibt Gleichung 5) ungefähr und 6) Auch die Annahme, dass die Misserfolge binomialverteilt sind, lässt sich hiermit nachvollziehen. Für p = 3 4 und Y max folgt mit dem binomischen Lehrsatz a + b) n = n n k= k) a k b n k : PY max ) = = =, j=, j= 3 =, j= 4 + 4, j, j ) 3 4 ) j ), j 4 ) ) 3 j ), j 4 4 ) ), 3 j ), j ) ) j j ), ) ) ) 3, ) ), ) ) j 4 Somit stimmen die Wahrscheinlichkeiten bei 4) - 6) bis zur siebten Nachkommastelle überein. Für diese Werte könnte man allerdings für keinen der gängigen Fehler. Art, also das Zurückweisen der Hypothese, obwohl diese wahr ist, die Hypothese ablehnen. Als Fehler. Art wird meist.5 oder. gewählt. Satz 9. Der Erwartungswert und die Varianz von Y max seien definiert durch: 7) µ max γ + logn) logp) Dabei sei γ.5772 die Eulerkonstante. 2, σ2 max π 2 6log p) ) Beweis. Definiere zunächst eine Z max Expp), so dass Y max = Z max mit p = e λ. Dies gilt, da der ganzzahlige Anteil einer exponentialverteilten Zufallsvariablen geometrisch verteilt ist: P Z max y) = Py Z max < y+) Expe λ ) = e λy+) ) n e λy ) n 4) = PY max y) 5

7 Definiere nun die Zufallsvariable D = Z max Z max. Da D, ) und für große n die Wahrscheinlichkeiten aller möglichen Werte annähernd identisch ist, gilt approximativ D R, ). Damit folgt EZ max ) 2 und VZ max) 2. Weiter ist EZ max ) = λ λn wegen der Eigenschaft der Gedächtnislosigkeit der Exponentialverteilung) und auf Grund ihrer Unabhängigkeit somit ebenso VZ max ) = Wegen der Eigenschaften der harmonischen Reihen λ 2 λn) n 2 *) k γ + logn) und **) = π2 6 folgt k= k= k 2 EY max ) = EZ max ) ED) = λ... λn 2 = λ = γ + logn) logp) 2. Und da die Kovarianz KZ max, D) = für n n k= VY max ) = VZ max ) + VD) = λ λn) = λ 2 ) γ + logn) λ 2 = π ) ) γ + logn) k 2 λ 2 n k= ) k Korolar. Seien µ = µ max + 2, σ ) 2 = σmax 2 2. Dann lässt sich Gleichung 4) durch sehr gut abschätzen. PY max y max ) e e πymax µ )/σ 6)+γ) 9) Beweis. Parametrisiere p als p = e λ um und setze λ = π σ, damit ist 6 PY max y max ) = p ymax ) n = e λymax ) n e n e λymax ), wegen lim + t n = e n n) t für beliebige t Da λ y max logn) ) λ = e e λymax logn)/λ) ) = λ y max logn) ) = λ logp) πymax µ ) ) = σ + γ folgt somit die Abschätzung. 6 y max logn) logp) γ ) ) + γ λ 6

8 Ähnlich kann man auch auf wiederholtes Auftreten beliebiger Nukleotiden testen. Dies wird besonders für Basentripletts bei der Untersuchung auf Krankheiten benutzt. Korolar. Für den einfachen Fall, dass die Wahrscheinlichkeiten für alle Nukleotiden gleich sind, also p = 4, folgt für den Erwartungswert und die Varianz von Y max damit: µ max γ + logn) log4) + 2, σ2 max π 2 6log 4) ) Beweis. Die gleichen Varianzen und nur um verschobenen Erwartungswerte ergeben sich bei Betrachtung des Auftretens eines Nukleotiden an einem beliebigen Ort, definiert als Erfolg. Es sei Y die Länge einer Folge von Erfolgen. Bei Betrachtung beliebiger Wiederholungen liegt ein Erfolg vor, wenn eine Nukleotide mit einer benachbarten übereinstimmt. Die Länge einer solchen Abfolge beläuft sich dann auf + Y 2, die erste Nukleotide plus die Länge der sich anschließenden Folge. Da für identische Nukleotidenwahrscheinlichkeiten Y und Y 2 die gleiche Verteilung haben, ist E + Y 2 ) = + EY 2 ) = EY ) und V + Y 2 ) = VY ). 4 r-scans Als nächstes teste man, ob bestimmte genomische Eigenschaften, wie Gene, an unabhängigen und gleichverteilten Orten innerhalb eines Teils des Genoms auftreten. Diese Tests für die räumliche Ungleichmäßigkeit der Verteilung der Eigenschaft werden r-scans genannt. Man nimmt an, dass die Gene relativ zur betrachteten Sequenz so kurz sind, dass ihre Lage als Punkt verstanden werden kann. Im Folgenden werden Tests unter der Hypothese der Unabhängigkeit und Gleichverteilung hier normiert auf die Gleichverteilung auf dem Intervall, )) gegen die Alternativen. des geballten Auftretens der Gene Teststatistik: U max 2. des Auftretens in regelmäßigen Intervallen Teststatistik: U min vorgestellt. Definition 2. Seien X,..., X n die Lagen der n Punkte. Man betrachte ihre Ordnungsstatistiken X ),..., X n), die das Intervall, ) in n + Teilintervalle der Längen U,..., U n+ teilen. Dabei seien U = X ), U 2 = X 2) X ),..., U n+ = X n) U U 2 U n U n+ X ) X 2) X n ) X n) Lemma 3. Die gemeinsame Dichtefunktion der Ordnungsstatistik X i) ist: f X),...,X n) x ),..., x n) ) = n! ) 7

9 Beweis. Da die X i) i.i.d. verteilt sind, folgt n f X),...,X n) x ),..., x n) ) = n! f Xi) x i) ) = n! ) n = n! i= Um nun die gemeinsame Verteilung der U,..., U n+ zu bestimmen, muss die Dichte in ) auf die Funktionen U i = U i X ),..., X n) ), i =,..., n transformiert werden. Dafür wird folgender Satz benötigt: Satz 4. Seien X,..., X n stetige Zufallsvariablen und V i = V i X,..., X n ) für i =,..., n injektive und differenzierbare Funktionen von X,..., X n mit einer differenzierbaren Inversen. Dann ist die gemeinsame Dichtefunktion der V,..., V n definiert durch mit der Jakobi-Matrix J = f Vi v,..., v n ) = f Xn) x ),..., x n) ) J v v x v 2 v 2 x v x 4 v 2 x 4 x 2 x v 4 x v 4 x 2 Beweis. siehe z.b. Nichtparametrische statistische Methoden Brüning, Trenkle, 994) Korolar 5. Die gemeinsame Dichte der U i ist: v 4 x 4 f Ui u,..., u n ) = n!, u j >, n u j. 2) Dabei sei U i = U,..., U i ), i =,..., n+, wobei U n+ wegen U n+ = U + +U n ) durch U i,..., U n bestimmt wird. ) Beweis. Die Jakobi-Matrizen der U i sind J =. j=.... J =. J = ist. Dadurch erhält man die gemeinsame Dichte der U i : f Ui u,..., u n ) = f Xn) x ),..., x n) ) J = n!......, so dass 4. Geballtes Auftreten Man teste nun zunächst die Hypothese gegen die Alternative, dass die Punkte, an denen die Genomeigenschaft auftritt, geballt auftreten, also Klumpen bilden. Dafür betrachte man als die Teststatistik das Maximum U max der U,..., U n+ und bestimme ihre Verteilung unter der Hypothese. Wenn zufällig g der Teilintervalle U,..., U n+ ausgewählt werden, suche zunächst 8

10 die Wahrscheinlichkeit, dass alle der g gewählten U i länger als ein beliebiges u, ) sind. Dabei sei ohne Einschränkung ug <, da für ug > die Wahrscheinlichkeit ist. Die gemeinsame Dichtefunktion f Ug u,..., u g ) einer g-elementigen Teilmenge der U,..., U n+ ist unabhängig von der Wahl der Teilmenge, da die Dichte 2) symmetrisch ist. Lemma 6. Die gemeinsame Dichte der U,..., U g ist: f Ug u,..., u g ) = n! n g)! u u g ) n g 3) Beweis. Die gemeinsame Dichte berechnet sich dann als Randdichte von U,..., U g, wobei die oberen Intervallgrenzen wegen n j= u j durch w j = u u j i definiert sind. Dies ergibt: wg+ wn f Ug u,..., u g ) = n! u u n ) du n... du g+ wg+ wn 2 [ ] = n! u u n 2 )u n u2 wn n du n 2... du g+ 2 wg+ wn 2 n! = 2 u u n 2 ) 2 du n 2... du g+ wg+ wn 3 n! = [ u u n 2 ) 3 ] wn 2 du n 3... du g+ 2 3 wg+ wn 3 n! = u u n 2 ) 3)) du n 3... du g+ 6 = n! = n g)! u u g ) n g Beachte, dass dies auch als f Ug u,..., u g ) = n g) n j= u j) n g g! geschrieben werden kann. Korolar 7. Die Wahrscheinlichkeit, dass alle Abstände U,..., U g größer als u sind, ist damit: PU > u,..., U g > u) = gu) n 4) Beweis. Die gesuchte Wahrscheinlichkeit ergibt sich durch Integration über die verbleibenden U,..., U g wobei wie oben die oberen Intervallgrenzen ergeben. PU > u,..., U g > u) = = w u u = wg u u wg u = gu) n n! n g)! u u g ) n g du g du n! n g + )! u u g u) n g+ du g du 9

11 Satz 8. Sei h u die größte natürliche Zahl so dass h u u <. Die Dichte der Ordnungsstatistik U max ist definiert durch f Umax u) = n h u g= ) n + ) g+ g gu) n 5) g Beweis. Definiere die Ereignisse A i = {U i u}, i =,..., n +. Seien weiter i,..., i g paarweise verschiedene Indizes, dann gilt, damit die Bedingung ug < nicht verletzt wird: { gu) n, g h u PA i A ig ) = 6), g > h u. Mit Hilfe des Einschluss-Ausschluss-Prinzips folgt dann für die Wahrscheinlichkeit, dass mindestens eines der Ereignisse eintritt, also dass das Maximum der U i länger als u ist: PA i A ig ) = j= PA ij )+ + ) g PA i A ig ) = h u g= ) n + ) g+ gu) n. g 7) Hieraus lässt sich über die Verteilungsfunktion F Umax u) von U max die Dichte f Umax u) berechnen, weil 7) = F Umax u): f Umax u) = u F U max u)) = h u ) n + ) g+ gu) n u g g= 8) h u ) n + = n ) g+ g gu) n g g= Korolar 9. Die Wahrscheinlichkeit in 7) lässt sich durch folgende Abschätzungen vereinfachen: PU max u) e n+) e n+)u 9) Wenn n + ) e n+)u klein genug ist, gilt sogar: PU max u) n + ) e n+)u 2) ) Beweis. Benutze den Erwartungswert µ max = n+ n+ + n + + σ 2 max = und die Varianz π2 ohne Beweis, siehe Karlin and Macken 99a,b)) von U 6n+) 2 max, dann ergibt sich

12 Abschätzung 9): PU max u) e 6)+γ) e πu µmax)/σmax e e πu n+ n+ k= k)/ n+ e e n+)u k= k +γ ) e e n+)u lnn+)) n+) e n+)u e π n+) ) ) +γ Dies gilt wieder, da die asymptotische Entwicklung der harmonischen Reihe n k= k = γ + ln n + O n ) ist. Ist außerdem n + ) e n+)u klein genug, benutze weiter die Approximation: e x x + für x klein genug, um 2) zu erhalten. Das folgende Beispiel zeigt, dass die obigen Approximationen immerhin für große n gute Ergebnisse liefern. Beispiel 2. Wähle u =., n + =, dann liefert die exakte Gleichung folgendes Ergebnis: 7): 99 ) g+ g g= 9): e e.444 und 2): e.454 ).g) verglichen mit 4.2 Auftreten in regelmäßigen Intervallen Teste nun mit der Teststatistik U min die Hypothese gegen die Alternative, dass die Punkte regelmäßige Abstände haben, und lehne somit die Gleichverteilungs und Unabhängigkeits Hypothese ab, wenn die Realisation u von U min zu groß ist. Mit der Wahrscheinlichkeit aus 6) folgt für g = n +, dass für alle u, n+ ) damit wieder ug < bleibt) für die Wahrscheinlichkeit, dass alle n + Intervalllängen länger als u sind: Satz 2. Die Dichte von U min ist definiert durch: PU min u) = n + )u) n. 2) f Umin u) = n n + ) n + )u) n, < u < n + Beweis. Da Gleichung 2) wieder F Umin u) entspricht, folgt analog zu 8): f Umin u) = u F U min u) = u n + )u)n ) = n n + ) n + )u) n 22)

13 5 Fazit Dieser Vortrag hat nur einen kleinen Einblick in die Analyse von DNA-Sequenzen geben können. Es wurden zum einen die grundsätzlichen Annahmen - Unabhängigkeit gegen Markovabhängigkeiten - eingeführt. Zum anderen wurden die Tests, ob eine Tendenz zur Wiederholung von Nukleotiden vorliegt und welche Art der räumlichen Verteilung vorliegt, vorgestellt. Ein weiterer Analyseansatz, der hier nicht mehr vorgestellt werden kann, ist die Musteranalyse, die letztendlich auf einer Poisson-Verteilung basiert. Hierbei testet man zum einen, wie häufig bestimmte Wörter bzw. ganze Gruppen von Nukleotiden-Wörtern, sogenannte Motive, in einer DNA-Sequenz auftreten und zum anderen, welcher Abstand zwischen zwischen einzelnen Auftritten besteht. 2

Diskrete Strukturen II

Diskrete Strukturen II SS 2004 Diskrete Strukturen II Ernst W. Mayr Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2004ss/ds/index.html.de 18. Juni 2004 Exponentialverteilung als Grenzwert der geometrischen

Mehr

Satz 104 (Skalierung exponentialverteilter Variablen)

Satz 104 (Skalierung exponentialverteilter Variablen) 2.3.1 Eigenschaften der Exponentialverteilung Satz 104 (Skalierung exponentialverteilter Variablen) Sei X eine exponentialverteilte Zufallsvariable mit dem Parameter λ. Für a > 0 ist die Zufallsvariable

Mehr

DWT 3.3 Warteprobleme mit der Exponentialverteilung 275/467 Ernst W. Mayr

DWT 3.3 Warteprobleme mit der Exponentialverteilung 275/467 Ernst W. Mayr Poisson-Prozess Wir hatten bei der Diskussion der geometrischen und der Poisson-Verteilung festgestellt: Wenn der zeitliche Abstand der Treffer geometrisch verteilt ist, so ist ihre Anzahl in einer festen

Mehr

1 1 e x2 =2 d x 1. e (x2 +y 2 )=2 d x d y : Wir gehen nun zu Polarkoordinaten uber und setzen x := r cos und y := r sin.

1 1 e x2 =2 d x 1. e (x2 +y 2 )=2 d x d y : Wir gehen nun zu Polarkoordinaten uber und setzen x := r cos und y := r sin. Lemma 92 Beweis: Wir berechnen zunachst I 2 : I 2 = Z 1 I := e x2 =2 d x p = 2: 1 Z 1 1 Z 1 Z 1 = 1 1 Z 1 e x2 =2 d x 1 e (x2 +y 2 )=2 d x d y : e y2 =2 d y Wir gehen nun zu Polarkoordinaten uber und setzen

Mehr

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y]

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y] Gedächtnislosigkeit Satz 105 (Gedächtnislosigkeit) Eine (positive) kontinuierliche Zufallsvariable X mit Wertebereich R + ist genau dann exponentialverteilt, wenn für alle x, y > 0 gilt, dass Pr[X > x

Mehr

Wahrscheinlichkeitstheorie und Statistik

Wahrscheinlichkeitstheorie und Statistik Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter

Mehr

Wirtschaftsmathematik

Wirtschaftsmathematik Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A

Mehr

Wie groß ist die Wahrscheinlichkeit Pr[X > y + x X > x]? Da bei den ersten x Versuchen kein Erfolg eintrat, stellen wir uns vor, dass das

Wie groß ist die Wahrscheinlichkeit Pr[X > y + x X > x]? Da bei den ersten x Versuchen kein Erfolg eintrat, stellen wir uns vor, dass das Sei X geometrisch verteilt mit Erfolgswahrscheinlichkeit p. Dann ist Pr[X = k] die Wahrscheinlichkeit, dass wir bei einem binären Experiment mit Erfolgswahrscheinlichkeit p genau in der k-ten unabhängigen

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Vorlesung 5a. Zufallsvariable mit Dichten

Vorlesung 5a. Zufallsvariable mit Dichten Vorlesung 5a 1 Vorlesung 5a Zufallsvariable mit Dichten Vorlesung 5a Zufallsvariable mit Dichten Teil 1 Uniforme Verteilung, Exponentialverteilung. Kontinuierlich uniform verteilte Zufallsvariable: 2 Kontinuierlich

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

Stochastik Aufgaben zum Üben: Teil 2

Stochastik Aufgaben zum Üben: Teil 2 Prof. Dr. Z. Kabluchko Wintersemester 205/206 Hendrik Flasche Januar 206 Aufgabe Stochastik Aufgaben zum Üben: Teil 2 Es sei X eine Zufallsvariable mit Dichte f X (y) = cy 5 I y>. Bestimmen Sie c, P[2

Mehr

Statistik I für Betriebswirte Vorlesung 4

Statistik I für Betriebswirte Vorlesung 4 Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit Übung 2 24..23 Ü b u n g 2 Aufgabe Die Poissonverteilung P(λ) hat die Wahrscheinlichkeitsfunktion p(x) = λx e λ (x ) x! Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung

Mehr

Statistik I für Betriebswirte Vorlesung 3

Statistik I für Betriebswirte Vorlesung 3 Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April

Mehr

TU DORTMUND Sommersemester 2018

TU DORTMUND Sommersemester 2018 Fakultät Statistik. April 08 Blatt Aufgabe.: Wir betrachten das Zufallsexperiment gleichzeitiges Werfen zweier nicht unterscheidbarer Würfel. Sei A das Ereignis, dass die Augensumme beider Würfel ungerade

Mehr

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)

Mehr

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung 2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 240/476 c Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 240/476 c Ernst W. Mayr 1.4.4 Laplace-Prinzip in kontinuierlichen Wahrscheinlichkeitsräumen Das folgende Beispiel zeigt, dass im kontinuierlichen Fall die Bedeutung von gleichwahrscheinlich nicht immer ganz klar sein muss. Bertrand

Mehr

Statistik für Ingenieure Vorlesung 5

Statistik für Ingenieure Vorlesung 5 Statistik für Ingenieure Vorlesung 5 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 28. November 2017 3.4 Wichtige stetige Verteilungen 3.4.1 Exponentialverteilung Parameter:

Mehr

Dr. L. Meier Statistik und Wahrscheinlichkeitsrechnung Sommer Musterlösung

Dr. L. Meier Statistik und Wahrscheinlichkeitsrechnung Sommer Musterlösung Dr. L. Meier Statistik und Wahrscheinlichkeitsrechnung Sommer 014 Musterlösung 1. 8 Punkte) a) 1 Pt)Für das Komplement gilt PR A) = 1 PR c A) = 0.968. b) 1 Pt)Nach Definition der bedingten Wahrscheinlichkeit

Mehr

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme Binomialverteilung Wahrscheinlichkeitsfunktion Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder

Mehr

Wahrscheinlichkeitstheorie und Statistik vom

Wahrscheinlichkeitstheorie und Statistik vom INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen

Mehr

4. Verteilungen von Funktionen von Zufallsvariablen

4. Verteilungen von Funktionen von Zufallsvariablen 4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten

Mehr

Satz 61 (Chebyshev-Ungleichung)

Satz 61 (Chebyshev-Ungleichung) Die folgende Abschätzung ist nach Pavnuty Lvovich Chebyshev (1821 1894) benannt, der ebenfalls an der Staatl. Universität in St. Petersburg wirkte. Satz 61 (Chebyshev-Ungleichung) Sei X eine Zufallsvariable,

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2

Mehr

Beispiel 6 (Einige Aufgaben zur Gleichverteilung)

Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Aufgabe (Anwendung der Chebyshev-Ungleichung) Sei X eine Zufallsvariable mit E(X) = µ und var(x) = σ a) Schätzen Sie die Wahrscheinlichkeit dafür, daß

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

Zentralübung zur Vorlesung Diskrete Wahrscheinlichkeitstheorie

Zentralübung zur Vorlesung Diskrete Wahrscheinlichkeitstheorie SS 2014 Zentralübung zur Vorlesung Diskrete Wahrscheinlichkeitstheorie Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2014ss/dwt/uebung/ 5. Juni 2014 ZÜ DWT ZÜ VI Übersicht:

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Binomialverteilung. Häufigkeit, mit der Ereignis A bei n unabhängigen Versuchen eintritt. Träger von X : X = {0, 1, 2,..., n}.

Binomialverteilung. Häufigkeit, mit der Ereignis A bei n unabhängigen Versuchen eintritt. Träger von X : X = {0, 1, 2,..., n}. Binomialverteilung Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder nicht. X = Häufigkeit, mit

Mehr

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de WS 2008/2009

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr 1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir

Mehr

Musterlösung zur Klausur im Fach Fortgeschrittene Statistik am Gesamtpunktzahl: 60

Musterlösung zur Klausur im Fach Fortgeschrittene Statistik am Gesamtpunktzahl: 60 WESTFÄLISCHE WILHELMS - UNIVERSITÄT MÜNSTER Wirtschaftswissenschaftliche Faktultät Prof. Dr. Bernd Wilfling Professur für VWL, insbesondere Empirische Wirtschaftsforschung Musterlösung zur Klausur im Fach

Mehr

1. Grundbegri e der Stochastik

1. Grundbegri e der Stochastik Wiederholung von Grundwissen der Stochastik. Grundbegri e der Stochastik Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

Wahrscheinlichkeit und Statistik BSc D-INFK

Wahrscheinlichkeit und Statistik BSc D-INFK Prof. Dr. P. Embrechts ETH Zürich Sommer 2015 Wahrscheinlichkeit und Statistik BSc D-INFK Name: Vorname: Stud. Nr.: Das Folgende bitte nicht ausfüllen! Aufg. Summe Kontr. Pkte.-Max. 1 10 2 10 3 10 4 10

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Dichte der geometrischen Verteilung

Dichte der geometrischen Verteilung 0,8 Ô ¼ 0,8 Ô ¼ 0,6 0,6 0,4 0,4 0,2 0,2 0,0 1 2 3 4 5 6 7 8 9 10 0,0 1 2 3 4 5 6 7 8 9 10 0,8 Ô ¼ 0,8 Ô ¼ ¾ 0,6 0,6 0,4 0,4 0,2 0,2 0,0 0,0 1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10 Dichte der geometrischen

Mehr

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6 Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere

Mehr

4.2 Moment und Varianz

4.2 Moment und Varianz 4.2 Moment und Varianz Def. 2.10 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: EX p

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer« Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«Werner Linde WS 2008/09 Inhaltsverzeichnis 1 Wahrscheinlichkeiten 2 1.1 Wahrscheinlichkeitsräume...........................

Mehr

1. Eigenschaften einer Zufallsstichprobe

1. Eigenschaften einer Zufallsstichprobe 1. Eigenschaften einer Zufallsstichprobe 1.1 Grundkonzepte Definition 1.1.1: Man nennt die Zufallsvariablen X 1,..., X n zufällige Stichprobe oder Zufallsstichprobe vom Umfang n aus der Population (Grundgesamtheit)

Mehr

Wahrscheinlichkeitstheorie und Statistik vom

Wahrscheinlichkeitstheorie und Statistik vom INSTITUT FÜR STOCHASTIK SS 2010 Karlsruher Institut für Technologie Priv.-Doz. Dr. D. Kadelka Klausur Wahrscheinlichkeitstheorie und Statistik vom 14.9.2010 Musterlösungen Aufgabe 1: Gegeben sei eine Urliste

Mehr

Lösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI

Lösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI Lösungen zu Übungsblatt 9 Höhere Mathematik/Stochastik Anpassung von Verteilungen Zu Aufgabe ) a) Zeichnen des Histogranmmes: Um das Histogramm zu zeichnen, benötigen wir die Höhe der Balken. Die Höhe

Mehr

Molekulargenetik Biologie am Inhaltsverzeichnis Die Begriffe DNA, Nukleotid, Gen, Chromosom und Epigenom definieren...

Molekulargenetik Biologie am Inhaltsverzeichnis Die Begriffe DNA, Nukleotid, Gen, Chromosom und Epigenom definieren... Molekulargenetik Inhaltsverzeichnis Die Begriffe DNA, Nukleotid, Gen, Chromosom und Epigenom definieren... 2 Beschreiben, wie die DNA aufgebaut ist... 3 Den Ablauf der Replikation erklären und dabei die

Mehr

Mathematik 3 für Informatik

Mathematik 3 für Informatik Gunter Ochs Wintersemester 20/6 Mathematik 3 für Informatik Lösungen zum Hausaufgabenblatt 4 Lösungshinweise (ohne Ganantie auf Fehlerfreiheit. Wenn man beim Roulette auf Rot oder Schwarz setzt, erhält

Mehr

Dichte der geometrischen Verteilung

Dichte der geometrischen Verteilung 0,8 Ô ¼ 0,8 Ô ¼ 0,6 0,6 0,4 0,4 0,2 0,2 0,0 1 2 3 4 5 6 7 8 9 10 0,0 1 2 3 4 5 6 7 8 9 10 0,8 Ô ¼ 0,8 Ô ¼ ¾ 0,6 0,6 0,4 0,4 0,2 0,2 0,0 1 2 3 4 5 6 7 8 9 10 0,0 1 2 3 4 5 6 7 8 9 10 Dichte der geometrischen

Mehr

Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen

Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen Georg Bol georg.bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de Stetige Verteilungen Definition: Sei

Mehr

Stochastik Approximationen der Binomialverteilung

Stochastik Approximationen der Binomialverteilung Stochastik Approximationen der Binomialverteilung Stefan Englert stefan.englert@gmx.net 21. April 2007 Inhaltsverzeichnis 1 Approximation von n! und b n,p (k) 2 2 Der Satz von de Moivre-Laplace 6 3 Die

Mehr

Denition 57 Eine geometrisch verteilte Zufallsvariable X mit Parameter (Erfolgswahrscheinlichkeit) p 2 (0; 1] und q := 1 p hat die Dichte

Denition 57 Eine geometrisch verteilte Zufallsvariable X mit Parameter (Erfolgswahrscheinlichkeit) p 2 (0; 1] und q := 1 p hat die Dichte 5.3 Geometrische Verteilung Man betrachte ein Experiment, das so lange wiederholt wird, bis Erfolg eintritt. Gelingt ein einzelner Versuch mit Wahrscheinlichkeit p, so ist die Anzahl der Versuche bis zum

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

Mehrdimensionale Zufallsvariablen

Mehrdimensionale Zufallsvariablen Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

In den Proteinen der Lebewesen treten in der Regel 20 verschiedene Aminosäuren auf. Deren Reihenfolge muss in der Nucleotidsequenz der mrna und damit

In den Proteinen der Lebewesen treten in der Regel 20 verschiedene Aminosäuren auf. Deren Reihenfolge muss in der Nucleotidsequenz der mrna und damit In den Proteinen der Lebewesen treten in der Regel 20 verschiedene Aminosäuren auf. Deren Reihenfolge muss in der Nucleotidsequenz der mrna und damit in der Nucleotidsequenz der DNA verschlüsselt (codiert)

Mehr

1.5 Mehrdimensionale Verteilungen

1.5 Mehrdimensionale Verteilungen Poisson eine gute Näherung, da np = 0 und 500p = 5 00 = n. Wir erhalten somit als Näherung Exakte Rechnung ergibt P(2 X 0) = k=2 0 k=2 π (k) = 0,26424. 0 ( ) 00 P(2 X 0) = 0,0 k 0,99 00 k = 0,264238. k.4.2.4

Mehr

Vorlesung 5b. Zufallsvariable mit Dichten

Vorlesung 5b. Zufallsvariable mit Dichten Vorlesung 5b 1 Vorlesung 5b Zufallsvariable mit Dichten Vorlesung 5b Zufallsvariable mit Dichten Wiederholung aus Vorlesung 2b+: Kontinuierlich uniform verteilte Zufallsvariable: Sei S eine Teilmenge des

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 15. Jänner 2017 Evelina Erlacher Inhaltsverzeichnis 1 Mengen 2 2 Wahrscheinlichkeiten 3 3 Zufallsvariablen 5 3.1 Diskrete Zufallsvariablen............................

Mehr

Statistik für Ingenieure Vorlesung 3

Statistik für Ingenieure Vorlesung 3 Statistik für Ingenieure Vorlesung 3 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 14. November 2017 3. Zufallsgrößen 3.1 Zufallsgrößen und ihre Verteilung Häufig sind

Mehr

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von

Mehr

Heute. Die Binomialverteilung. Poissonverteilung. Approximation der Binomialverteilung durch die Normalverteilung

Heute. Die Binomialverteilung. Poissonverteilung. Approximation der Binomialverteilung durch die Normalverteilung Heute Die Binomialverteilung Poissonverteilung Approximation der Binomialverteilung durch die Normalverteilung Arbeiten mit Wahrscheinlichkeitsverteilungen Die Binomialverteilung Man werfe eine Münze n

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

i =1 i =2 i =3 x i y i 4 0 1

i =1 i =2 i =3 x i y i 4 0 1 Aufgabe (5+5=0 Punkte) (a) Bei einem Minigolfturnier traten 6 Spieler gegeneinander an. Die Anzahlen der von ihnen über das gesamte Turnier hinweg benötigten Schläge betrugen x = 24, x 2 = 27, x = 2, x

Mehr

3 Grundlagen statistischer Tests (Kap. 8 IS)

3 Grundlagen statistischer Tests (Kap. 8 IS) 3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung

Mehr

Die Probabilistische Methode

Die Probabilistische Methode Die Probabilistische Methode Wladimir Fridman 233827 Hauptseminar im Sommersemester 2004 Extremal Combinatorics Zusammenfassung Die Probabilistische Methode ist ein mächtiges Werkzeug zum Führen von Existenzbeweisen.

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

Finanzmathematische Modelle und Simulation

Finanzmathematische Modelle und Simulation Finanzmathematische Modelle und Simulation WS 9/1 Rebecca Henkelmann In meiner Ausarbeitung Grundbegriffe der Stochastik I, geht es darum die folgenden Begriffe für die nächsten Kapitel einzuführen. Auf

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenho Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2 Elementare

Mehr

f(x) = P (X = x) = 0, sonst heißt Poisson-verteilt mit Parameter (oder Rate) λ > 0, kurz X P o(λ). Es gilt x x! 1 Wahrscheinlichkeitsrechnung 212

f(x) = P (X = x) = 0, sonst heißt Poisson-verteilt mit Parameter (oder Rate) λ > 0, kurz X P o(λ). Es gilt x x! 1 Wahrscheinlichkeitsrechnung 212 1.6.2 Poisson Verteilung Eine weitere wichtige diskrete Verteilung ist die Poisson-Verteilung. Sie modelliert die Anzahl (eher seltener) Ereignisse in einem Zeitintervall (Unfälle, Todesfälle; Sozialkontakte,

Mehr

Fortgeschrittene Ökonometrie: Maximum Likelihood

Fortgeschrittene Ökonometrie: Maximum Likelihood Universität Regensburg, Lehrstuhl für Ökonometrie Sommersemester 202 Fortgeschrittene Ökonometrie: Maximum Likelihood Poissonverteilung Man betrachte die poisson-verteilten Zufallsvariablen y t, t =, 2,...,

Mehr

Lösung Semesterendprüfung

Lösung Semesterendprüfung MAE4 Mathematik: Analysis für Ingenieure 4 Frühlingssemester 26 Dr. Christoph Kirsch ZHAW Winterthur Aufgabe : Lösung Semesterendprüfung Wir betrachten die Ergebnismenge Ω : {, 2,, 4, 5, 6} 2 6 2 6 Elemente,

Mehr

Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL)

Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL) Prof. Dr. P. Embrechts ETH Zürich Sommer 204 Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL) Schreiben Sie für Aufgabe 2-4 stets alle Zwischenschritte und -rechnungen sowie Begründungen auf. Vereinfachen

Mehr

16. Biomoleküle : Nucleinsäuren

16. Biomoleküle : Nucleinsäuren Inhalt Index 16. Biomoleküle : Nucleinsäuren Die gesamte Erbinformation ist in den Desoxyribonucleinsäuren (DNA) enthalten. Die Übersetzung dieser Information in die Synthese der Proteine wird von den

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse

Mehr

3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.22 (allgemeines Theorem von Bayes)

3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.22 (allgemeines Theorem von Bayes) 3.4 Bayes-Verfahren 203 3.4.1 Begrifflicher Hintergrund Satz 3.22 (allgemeines Theorem von Bayes) Seien X und U zwei Zufallsvariablen mit gemeinsamer Wahrscheinlichkeitsfunktion f X,U ( ) bzw. Dichte f

Mehr

Chi-Quadrat-Verteilung

Chi-Quadrat-Verteilung Chi-Quadrat-Verteilung Wikipedia http://de.wikipedia.org/wiki/chi-quadrat-verteilung 1 von 7 6/18/2009 6:13 PM Chi-Quadrat-Verteilung aus Wikipedia, der freien Enzyklopädie Die Chi-Quadrat-Verteilung ist

Mehr

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe

Mehr

Biostatistik, Sommer 2017

Biostatistik, Sommer 2017 1/51 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Verteilungen, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 8. Vorlesung: 09.06.2017 2/51 Inhalt 1 Verteilungen Normalverteilung Normalapproximation

Mehr

Statistik II. Statistische Tests. Statistik II

Statistik II. Statistische Tests. Statistik II Statistik II Statistische Tests Statistik II - 12.5.2006 1 Test auf Anteilswert: Binomialtest Sei eine Stichprobe unabhängig, identisch verteilter ZV (i.i.d.). Teile diese Stichprobe in zwei Teilmengen

Mehr

Stochastik Serie 11. ETH Zürich HS 2018

Stochastik Serie 11. ETH Zürich HS 2018 ETH Zürich HS 208 RW, D-MATL, D-MAVT Prof. Marloes Maathuis Koordinator Dr. Marvin Müller Stochastik Serie. Diese Aufgabe behandelt verschiedene Themenbereiche aus dem gesamten bisherigen Vorlesungsmaterial.

Mehr

Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik

Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. C. Löh/M. Blank 27. Juli 2012 Name: Matrikelnummer: Vorname: Übungsleiter: Diese Klausur besteht aus 8 Seiten. Bitte überprüfen

Mehr

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Marcel Thoms Mathematik Online Herbst 211 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge

Mehr

Statistik für Ingenieure Vorlesung 6

Statistik für Ingenieure Vorlesung 6 Statistik für Ingenieure Vorlesung 6 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 05. Dezember 2017 3.4.3 Stetige Gleichverteilung Parameter: Intervall [a, b] R. Zufallsgröße

Mehr

Kapitel 5 Erneuerungs- und Semi-Markov-Prozesse

Kapitel 5 Erneuerungs- und Semi-Markov-Prozesse Kapitel 5 Erneuerungs- und Semi-Markov-Prozesse Definition: Erneuerungsprozess Sei {T n, n N} eine Folge unabhängiger, nichtnegativer Zufallsvariablen mit Verteilungsfunktion F, mit F () < 1. Dann heißt

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Zufallsvariable Erinnerung: Merkmal, Merkmalsausprägung Deskriptive Statistik:

Mehr

Fit for Abi & Study Stochastik

Fit for Abi & Study Stochastik Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen

Mehr

6.6 Poisson-Verteilung

6.6 Poisson-Verteilung 6.6 Poisson-Verteilung Die Poisson-Verteilung ist eine Wahrscheinlichkeitsverteilung, die zur Modellierung der Anzahl von zufälligen Vorkommnissen in einem bestimmten räumlichen oder zeitlichen Abschnitt

Mehr

Anzahl der Versuche, bei denen A eingetreten ist : Anzahl aller Versuche Mit Hilfe des obigen Gesetzes der groen Zahlen folgt Z = Pr[jZ pj ] ";

Anzahl der Versuche, bei denen A eingetreten ist : Anzahl aller Versuche Mit Hilfe des obigen Gesetzes der groen Zahlen folgt Z = Pr[jZ pj ] ; Wahrscheinlichkeit und relative Haugkeit. Sei X eine Indikatorvariable fur ein Ereignis A, Pr[A] = p. Somit ist X Bernoulli-verteilt mit E[X] = p. Z = 1 n (X 1 + : : : + X n ) gibt die relative Haugkeit

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

Aufgaben. d) Seien X und Y Poissonverteilt mit Parameter µ, X, Y P(µ). 2. Dann ist die Summe auch Poissonverteilt mit (X + Y ) P(2µ).

Aufgaben. d) Seien X und Y Poissonverteilt mit Parameter µ, X, Y P(µ). 2. Dann ist die Summe auch Poissonverteilt mit (X + Y ) P(2µ). Aufgaben 1. Bei den folgenden 10 Fragen ist jeweils genau eine Antwort richtig. Es gibt pro richtig beantwortete Frage 1 Punkt und pro falsche Antwort 1/2 Punkt Abzug. Minimal erhält man für die gesamte

Mehr