Seminararbeit: Modeling DNA Sequences
|
|
- Ursula Reuter
- vor 5 Jahren
- Abrufe
Transkript
1 Seminararbeit: Modeling DNA Sequences Lisa Klein-Schmeink 29. März 22 Inhaltsverzeichnis Einleitung 2 Methoden zur Analyse einer DNA-Sequenz? 3 3 Lange Ketten 4 4 r-scans 7 4. Geballtes Auftreten Auftreten in regelmäßigen Intervallen Fazit 2
2 Einleitung Abbildung : DNA-Struktur Dieser Seminarvortrag gibt eine Einführung in die Modellierung von DNA-Sequenzen auf Basis von Statistical Methods in Bioinformatics: An Introduction Ewans, Grant, 25). Bevor man diese analysieren kann, muss man zunächst natürlich verstehen, was sich hinter einer DNA-Sequenz tatsächlich verbirgt. DNA-Sequenzen Desoxyribonukleinsäure) sind Moleküle, die einen Hauptbestandteil der Zellkerne aller Lebewesen der Eukaryoten) darstellen und als Träger von Erbinformationen dienen. DNA-Sequenzen sind Nukleinsäuren, die aus Nukleotiden aufgebaut sind. Diese bestehen aus einer Phosphatgruppe, einem Zucker Desoxyribose bei DNA) und einer stickstoff-
3 haltigen Base Adenin A), Cytosin C), Guanin G) oder Thymin T). Diese bilden das DNA-Alphabet {A, C, G, T }. Dabei liegt eine komplementäre Basenpaarung vor: Adenin ist verbunden mit Thymin A-T) und Cytosin mit Guanin C-G). Ein DNA-Molekül hat die Form einer Doppelhelix. Die Längsstränge dieser verdrehten Strickleiter bestehen aus sich abwechselnden Desoxribose- und Phosphatmolekülen. Die beiden Stränge verlaufen in entgegengesetzter Richtung, so dass ein 3 -Ende eines Stranges einem 5 -Ende gegenüber liegt. Daher wird auch nur ein Strang einer DNA-Sequenz angegeben, um diese zu charakterisieren. Meist betrachtet man die proteinkodierenden Gene, das sind die Teilstücke eines DNA- Strangs, durch die Proteine erstellt werden können. Proteine sind Makromoleküle, die aus den 2 verschiedenen Aminosäuren bestehen. Der Hauptbestandteil dieser proteinkodierenden Gene sind Nukleobasen-Tripletts Codons), die jeweils eine Aminosäure kodieren. Der genetische Code ist die Art, wie die Codons in Aminosäuren übersetzt werden. Ein solches Gen beginnt mit einem Start-Codon und endet mit einem Stop- bzw. Nonsense-Codon. Abbildung 2: Schema der Proteinsynthese Proteine werden aus Genen gewonnen, indem sie zunächst durch Transkription in RNA umgewandelt wird. Dabei werden nur die kodierenden Bereiche, die Exons für expressed region), 2
4 benutzt während die nicht-kodierenden Regionen, die Introns für intervening region), durch die sie unterbrochen werden, aus der Sequenz herausgespleißt werden. RNA Ribonukleinsäure) sind einzelsträngige Ketten von Nukleotiden ähnlich der DNA, die als Zucker Ribose verwenden und bei dem die Base Thymin durch Uracil U) ersetzt sind. Die durch die Synthese anhand von DNA gewonnene RNA wird auch Boten-RNA oder mrna für messenger RNA) genannt. Im zweiten Schritt, der Translation, wird die mrna benutzt, um ein Protein zu generieren. 2 Methoden zur Analyse einer DNA-Sequenz? Bei der Analyse von uncharakterisierten DNA-Sequenzen interessiert man sich häufig dafür, ob diese in einer kodierenden Region liegen. Introns und intergenische Bereiche weisen andere Eigenschaften als Exons auf, so dass z.b. unter der simpelsten Annahme, der unabhängigen und identischen Verteilung i.i.d.) der Nukleotiden, die Auftrittshäufigkeiten der einzelnen Nukleotiden in Exons bzw. Introns betrachtet werden. Dafür ermittelt man aus schon charakterisierten Sequenzen, sogenannten Trainingsdaten, die Verteilung der Nukleotiden. Man testet die Unabhängigkeits-Hypothese mit Hilfe von Markov-Ketten gegen die Alternative, dass die Nukleotiden Markov-abhängig sind, d.h. dass die Auftrittswahrscheinlichkeit eines Nukleotides nur von der vorhergehenden Nukleotiden abhängt, bzw. gegen Markov-Abhängigkeit höherer Ordnung bzw. nichtlinearer. Definition. Eine stochastische Folge M = M n ) n, also eine Folge von Zufallsexperimenten, mit Zustandsraum S, S) heißt Markov-Kette, wenn sie die Markov-Eigenschaft besitzt, d.h. PM n+ A M,..., M n ) = PM n+ A M n ) für alle n und alle A S. ) Die stochastische Folge heißt Markov-Kette k-ter Ordnung, wenn sie folgender Eigenschaft genügt PM n+ A M,, M n ) = PM n+ A M n t+,..., M n ) 2) für alle n und alle A S. Die Wahrscheinlichkeit für M n+ hängt hier also von den k vorherigen M i ab. In den meisten Fällen ergibt ein solcher Assoziationstest, dass die Markov-Modelle die Realität weit aus besser widerspiegeln, wobei auch sowohl Hypothese und Alternative falsch seien können. In der Praxis testet man ob die betrachtete DNA-Sequenz zu einem Signal gehört. Definition 2. Ein Signal ist eine kurze Sequenz, die einem spezifischen Zweck, wie eine Grenze zwischen Exon und Intron zu definieren, dient. Dies ermöglicht, dass Gene erkannt und in Proteine umgewandelt werden können. Dabei existieren oft viele Mitglieder eines Signals, also DNA-Sequenzen, die die gleiche Funktion haben. Meist sind nicht alle Mitglieder bekannt, so dass diejenigen, die bekannt sind, benutzt werden, um festzustellen, ob die betrachtete Sequenz auch zu dem Signal gehört. Außerdem kommen sie manchmal auch zufällig in nichtkodierenden Regionen vor. Man schränkt das Modell auf die empirisch meist begründete Annahme ein, dass Mitglieder eines Signals durchgängig die gleiche Länge n haben. 3
5 3 Lange Ketten Eine weitere Möglichkeit besteht darin, die Hypothese, dass ein Nukleotid zufällig auftritt gegen die Alternative, dass eine Tendenz für ein wiederholtes Auftreten dieses Nukleotiden in Folge besteht, zu testen. Definition 3. Definiere unter der Zufälligkeits-Hypothese die Zufallsvariable Y als die Länge einer Kette der Nukleotiden a in einer DNA-Sequenz der groß genügenden Länge N nach dem letzten Auftreten eines anderen Nukleotiden. Da dies der Anzahl der Erfolge nach einem Misserfolg entspricht, hat sie eine geometrische Verteilung mit einem bekannten Parameter p. Die Wahrscheinlichkeit, dass a an einem beliebigen Ort in der Sequenz auftritt ist also: P Y y) = PY = y) = p)p y 3) Definition 4. Unter einer Ordnungsstatistik X ),..., X n) versteht man die Ordnung der Realisationen x,..., x n einer Zufallsvariablen X der Größe nach. X i) bezeichnet die i-te Ordnungsstatistik. Insbesondere sind damit X max und X min die n-te bzw. die -te Ordnungsstatistik. Satz 5. Für n solche Sequenzen folgt dann für die längste unter diesen Sequenzen, der Ordnungsstatistik Y max : PY max y) = p y ) n 4) Beweis. Sei F Ymax y) die Verteilungsfunktion von Y max, dann gilt PY max y) = PY max y ) = F Ymax y)) n = p y ) n Um den Wert in 4) zu bestimmen, muss die Anzahl dieser Sequenzen n approximiert werden. Im folgenden sei unter ein gerundetes Ergebnis und unter die asymptotische Annäherung d.h. für n ) gemeint. Lemma 6. Man geht unter der Hypothese davon aus, dass die Misserfolge binomialverteilt sind, also lässt sich die Wahrscheinlichkeit, dass Y max größer als ein beobachteter Wert y max ist, wie folgt abschätzen: PY max y max ) p ymax ) p)n 5) Beweis. Da man von einer Binomialverteilung ausgeht, wird erwartet, dass p)n Misserfolge und, da Ketten von Erfolgen wobei diese auch die Länge haben dürfen) sich einem Misserfolg anschließen, ebenso auch p)n Erfolge auftreten. Damit erhält man das gewünschte Ergebnis für eine maximale beobachtete Länge y max. Korolar 7. Wenn p)np ymax ist, gilt sogar PY max y max ) e p)npymax 6) 4
6 Beweis. Da für große n und t gilt, dass + t n) n e n, folgt für p)np ymax : PY max y max ) p ymax ) p)n e p)npymax Im folgenden Beispiel erkennt man, dass diese Abschätzungen gute Ergebnisse liefern: Beispiel 8. Sei N =,, p = 4, dann ergibt Gleichung 5) ungefähr und 6) Auch die Annahme, dass die Misserfolge binomialverteilt sind, lässt sich hiermit nachvollziehen. Für p = 3 4 und Y max folgt mit dem binomischen Lehrsatz a + b) n = n n k= k) a k b n k : PY max ) = = =, j=, j= 3 =, j= 4 + 4, j, j ) 3 4 ) j ), j 4 ) ) 3 j ), j 4 4 ) ), 3 j ), j ) ) j j ), ) ) ) 3, ) ), ) ) j 4 Somit stimmen die Wahrscheinlichkeiten bei 4) - 6) bis zur siebten Nachkommastelle überein. Für diese Werte könnte man allerdings für keinen der gängigen Fehler. Art, also das Zurückweisen der Hypothese, obwohl diese wahr ist, die Hypothese ablehnen. Als Fehler. Art wird meist.5 oder. gewählt. Satz 9. Der Erwartungswert und die Varianz von Y max seien definiert durch: 7) µ max γ + logn) logp) Dabei sei γ.5772 die Eulerkonstante. 2, σ2 max π 2 6log p) ) Beweis. Definiere zunächst eine Z max Expp), so dass Y max = Z max mit p = e λ. Dies gilt, da der ganzzahlige Anteil einer exponentialverteilten Zufallsvariablen geometrisch verteilt ist: P Z max y) = Py Z max < y+) Expe λ ) = e λy+) ) n e λy ) n 4) = PY max y) 5
7 Definiere nun die Zufallsvariable D = Z max Z max. Da D, ) und für große n die Wahrscheinlichkeiten aller möglichen Werte annähernd identisch ist, gilt approximativ D R, ). Damit folgt EZ max ) 2 und VZ max) 2. Weiter ist EZ max ) = λ λn wegen der Eigenschaft der Gedächtnislosigkeit der Exponentialverteilung) und auf Grund ihrer Unabhängigkeit somit ebenso VZ max ) = Wegen der Eigenschaften der harmonischen Reihen λ 2 λn) n 2 *) k γ + logn) und **) = π2 6 folgt k= k= k 2 EY max ) = EZ max ) ED) = λ... λn 2 = λ = γ + logn) logp) 2. Und da die Kovarianz KZ max, D) = für n n k= VY max ) = VZ max ) + VD) = λ λn) = λ 2 ) γ + logn) λ 2 = π ) ) γ + logn) k 2 λ 2 n k= ) k Korolar. Seien µ = µ max + 2, σ ) 2 = σmax 2 2. Dann lässt sich Gleichung 4) durch sehr gut abschätzen. PY max y max ) e e πymax µ )/σ 6)+γ) 9) Beweis. Parametrisiere p als p = e λ um und setze λ = π σ, damit ist 6 PY max y max ) = p ymax ) n = e λymax ) n e n e λymax ), wegen lim + t n = e n n) t für beliebige t Da λ y max logn) ) λ = e e λymax logn)/λ) ) = λ y max logn) ) = λ logp) πymax µ ) ) = σ + γ folgt somit die Abschätzung. 6 y max logn) logp) γ ) ) + γ λ 6
8 Ähnlich kann man auch auf wiederholtes Auftreten beliebiger Nukleotiden testen. Dies wird besonders für Basentripletts bei der Untersuchung auf Krankheiten benutzt. Korolar. Für den einfachen Fall, dass die Wahrscheinlichkeiten für alle Nukleotiden gleich sind, also p = 4, folgt für den Erwartungswert und die Varianz von Y max damit: µ max γ + logn) log4) + 2, σ2 max π 2 6log 4) ) Beweis. Die gleichen Varianzen und nur um verschobenen Erwartungswerte ergeben sich bei Betrachtung des Auftretens eines Nukleotiden an einem beliebigen Ort, definiert als Erfolg. Es sei Y die Länge einer Folge von Erfolgen. Bei Betrachtung beliebiger Wiederholungen liegt ein Erfolg vor, wenn eine Nukleotide mit einer benachbarten übereinstimmt. Die Länge einer solchen Abfolge beläuft sich dann auf + Y 2, die erste Nukleotide plus die Länge der sich anschließenden Folge. Da für identische Nukleotidenwahrscheinlichkeiten Y und Y 2 die gleiche Verteilung haben, ist E + Y 2 ) = + EY 2 ) = EY ) und V + Y 2 ) = VY ). 4 r-scans Als nächstes teste man, ob bestimmte genomische Eigenschaften, wie Gene, an unabhängigen und gleichverteilten Orten innerhalb eines Teils des Genoms auftreten. Diese Tests für die räumliche Ungleichmäßigkeit der Verteilung der Eigenschaft werden r-scans genannt. Man nimmt an, dass die Gene relativ zur betrachteten Sequenz so kurz sind, dass ihre Lage als Punkt verstanden werden kann. Im Folgenden werden Tests unter der Hypothese der Unabhängigkeit und Gleichverteilung hier normiert auf die Gleichverteilung auf dem Intervall, )) gegen die Alternativen. des geballten Auftretens der Gene Teststatistik: U max 2. des Auftretens in regelmäßigen Intervallen Teststatistik: U min vorgestellt. Definition 2. Seien X,..., X n die Lagen der n Punkte. Man betrachte ihre Ordnungsstatistiken X ),..., X n), die das Intervall, ) in n + Teilintervalle der Längen U,..., U n+ teilen. Dabei seien U = X ), U 2 = X 2) X ),..., U n+ = X n) U U 2 U n U n+ X ) X 2) X n ) X n) Lemma 3. Die gemeinsame Dichtefunktion der Ordnungsstatistik X i) ist: f X),...,X n) x ),..., x n) ) = n! ) 7
9 Beweis. Da die X i) i.i.d. verteilt sind, folgt n f X),...,X n) x ),..., x n) ) = n! f Xi) x i) ) = n! ) n = n! i= Um nun die gemeinsame Verteilung der U,..., U n+ zu bestimmen, muss die Dichte in ) auf die Funktionen U i = U i X ),..., X n) ), i =,..., n transformiert werden. Dafür wird folgender Satz benötigt: Satz 4. Seien X,..., X n stetige Zufallsvariablen und V i = V i X,..., X n ) für i =,..., n injektive und differenzierbare Funktionen von X,..., X n mit einer differenzierbaren Inversen. Dann ist die gemeinsame Dichtefunktion der V,..., V n definiert durch mit der Jakobi-Matrix J = f Vi v,..., v n ) = f Xn) x ),..., x n) ) J v v x v 2 v 2 x v x 4 v 2 x 4 x 2 x v 4 x v 4 x 2 Beweis. siehe z.b. Nichtparametrische statistische Methoden Brüning, Trenkle, 994) Korolar 5. Die gemeinsame Dichte der U i ist: v 4 x 4 f Ui u,..., u n ) = n!, u j >, n u j. 2) Dabei sei U i = U,..., U i ), i =,..., n+, wobei U n+ wegen U n+ = U + +U n ) durch U i,..., U n bestimmt wird. ) Beweis. Die Jakobi-Matrizen der U i sind J =. j=.... J =. J = ist. Dadurch erhält man die gemeinsame Dichte der U i : f Ui u,..., u n ) = f Xn) x ),..., x n) ) J = n!......, so dass 4. Geballtes Auftreten Man teste nun zunächst die Hypothese gegen die Alternative, dass die Punkte, an denen die Genomeigenschaft auftritt, geballt auftreten, also Klumpen bilden. Dafür betrachte man als die Teststatistik das Maximum U max der U,..., U n+ und bestimme ihre Verteilung unter der Hypothese. Wenn zufällig g der Teilintervalle U,..., U n+ ausgewählt werden, suche zunächst 8
10 die Wahrscheinlichkeit, dass alle der g gewählten U i länger als ein beliebiges u, ) sind. Dabei sei ohne Einschränkung ug <, da für ug > die Wahrscheinlichkeit ist. Die gemeinsame Dichtefunktion f Ug u,..., u g ) einer g-elementigen Teilmenge der U,..., U n+ ist unabhängig von der Wahl der Teilmenge, da die Dichte 2) symmetrisch ist. Lemma 6. Die gemeinsame Dichte der U,..., U g ist: f Ug u,..., u g ) = n! n g)! u u g ) n g 3) Beweis. Die gemeinsame Dichte berechnet sich dann als Randdichte von U,..., U g, wobei die oberen Intervallgrenzen wegen n j= u j durch w j = u u j i definiert sind. Dies ergibt: wg+ wn f Ug u,..., u g ) = n! u u n ) du n... du g+ wg+ wn 2 [ ] = n! u u n 2 )u n u2 wn n du n 2... du g+ 2 wg+ wn 2 n! = 2 u u n 2 ) 2 du n 2... du g+ wg+ wn 3 n! = [ u u n 2 ) 3 ] wn 2 du n 3... du g+ 2 3 wg+ wn 3 n! = u u n 2 ) 3)) du n 3... du g+ 6 = n! = n g)! u u g ) n g Beachte, dass dies auch als f Ug u,..., u g ) = n g) n j= u j) n g g! geschrieben werden kann. Korolar 7. Die Wahrscheinlichkeit, dass alle Abstände U,..., U g größer als u sind, ist damit: PU > u,..., U g > u) = gu) n 4) Beweis. Die gesuchte Wahrscheinlichkeit ergibt sich durch Integration über die verbleibenden U,..., U g wobei wie oben die oberen Intervallgrenzen ergeben. PU > u,..., U g > u) = = w u u = wg u u wg u = gu) n n! n g)! u u g ) n g du g du n! n g + )! u u g u) n g+ du g du 9
11 Satz 8. Sei h u die größte natürliche Zahl so dass h u u <. Die Dichte der Ordnungsstatistik U max ist definiert durch f Umax u) = n h u g= ) n + ) g+ g gu) n 5) g Beweis. Definiere die Ereignisse A i = {U i u}, i =,..., n +. Seien weiter i,..., i g paarweise verschiedene Indizes, dann gilt, damit die Bedingung ug < nicht verletzt wird: { gu) n, g h u PA i A ig ) = 6), g > h u. Mit Hilfe des Einschluss-Ausschluss-Prinzips folgt dann für die Wahrscheinlichkeit, dass mindestens eines der Ereignisse eintritt, also dass das Maximum der U i länger als u ist: PA i A ig ) = j= PA ij )+ + ) g PA i A ig ) = h u g= ) n + ) g+ gu) n. g 7) Hieraus lässt sich über die Verteilungsfunktion F Umax u) von U max die Dichte f Umax u) berechnen, weil 7) = F Umax u): f Umax u) = u F U max u)) = h u ) n + ) g+ gu) n u g g= 8) h u ) n + = n ) g+ g gu) n g g= Korolar 9. Die Wahrscheinlichkeit in 7) lässt sich durch folgende Abschätzungen vereinfachen: PU max u) e n+) e n+)u 9) Wenn n + ) e n+)u klein genug ist, gilt sogar: PU max u) n + ) e n+)u 2) ) Beweis. Benutze den Erwartungswert µ max = n+ n+ + n + + σ 2 max = und die Varianz π2 ohne Beweis, siehe Karlin and Macken 99a,b)) von U 6n+) 2 max, dann ergibt sich
12 Abschätzung 9): PU max u) e 6)+γ) e πu µmax)/σmax e e πu n+ n+ k= k)/ n+ e e n+)u k= k +γ ) e e n+)u lnn+)) n+) e n+)u e π n+) ) ) +γ Dies gilt wieder, da die asymptotische Entwicklung der harmonischen Reihe n k= k = γ + ln n + O n ) ist. Ist außerdem n + ) e n+)u klein genug, benutze weiter die Approximation: e x x + für x klein genug, um 2) zu erhalten. Das folgende Beispiel zeigt, dass die obigen Approximationen immerhin für große n gute Ergebnisse liefern. Beispiel 2. Wähle u =., n + =, dann liefert die exakte Gleichung folgendes Ergebnis: 7): 99 ) g+ g g= 9): e e.444 und 2): e.454 ).g) verglichen mit 4.2 Auftreten in regelmäßigen Intervallen Teste nun mit der Teststatistik U min die Hypothese gegen die Alternative, dass die Punkte regelmäßige Abstände haben, und lehne somit die Gleichverteilungs und Unabhängigkeits Hypothese ab, wenn die Realisation u von U min zu groß ist. Mit der Wahrscheinlichkeit aus 6) folgt für g = n +, dass für alle u, n+ ) damit wieder ug < bleibt) für die Wahrscheinlichkeit, dass alle n + Intervalllängen länger als u sind: Satz 2. Die Dichte von U min ist definiert durch: PU min u) = n + )u) n. 2) f Umin u) = n n + ) n + )u) n, < u < n + Beweis. Da Gleichung 2) wieder F Umin u) entspricht, folgt analog zu 8): f Umin u) = u F U min u) = u n + )u)n ) = n n + ) n + )u) n 22)
13 5 Fazit Dieser Vortrag hat nur einen kleinen Einblick in die Analyse von DNA-Sequenzen geben können. Es wurden zum einen die grundsätzlichen Annahmen - Unabhängigkeit gegen Markovabhängigkeiten - eingeführt. Zum anderen wurden die Tests, ob eine Tendenz zur Wiederholung von Nukleotiden vorliegt und welche Art der räumlichen Verteilung vorliegt, vorgestellt. Ein weiterer Analyseansatz, der hier nicht mehr vorgestellt werden kann, ist die Musteranalyse, die letztendlich auf einer Poisson-Verteilung basiert. Hierbei testet man zum einen, wie häufig bestimmte Wörter bzw. ganze Gruppen von Nukleotiden-Wörtern, sogenannte Motive, in einer DNA-Sequenz auftreten und zum anderen, welcher Abstand zwischen zwischen einzelnen Auftritten besteht. 2
Diskrete Strukturen II
SS 2004 Diskrete Strukturen II Ernst W. Mayr Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2004ss/ds/index.html.de 18. Juni 2004 Exponentialverteilung als Grenzwert der geometrischen
MehrSatz 104 (Skalierung exponentialverteilter Variablen)
2.3.1 Eigenschaften der Exponentialverteilung Satz 104 (Skalierung exponentialverteilter Variablen) Sei X eine exponentialverteilte Zufallsvariable mit dem Parameter λ. Für a > 0 ist die Zufallsvariable
MehrDWT 3.3 Warteprobleme mit der Exponentialverteilung 275/467 Ernst W. Mayr
Poisson-Prozess Wir hatten bei der Diskussion der geometrischen und der Poisson-Verteilung festgestellt: Wenn der zeitliche Abstand der Treffer geometrisch verteilt ist, so ist ihre Anzahl in einer festen
Mehr1 1 e x2 =2 d x 1. e (x2 +y 2 )=2 d x d y : Wir gehen nun zu Polarkoordinaten uber und setzen x := r cos und y := r sin.
Lemma 92 Beweis: Wir berechnen zunachst I 2 : I 2 = Z 1 I := e x2 =2 d x p = 2: 1 Z 1 1 Z 1 Z 1 = 1 1 Z 1 e x2 =2 d x 1 e (x2 +y 2 )=2 d x d y : e y2 =2 d y Wir gehen nun zu Polarkoordinaten uber und setzen
MehrSatz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y]
Gedächtnislosigkeit Satz 105 (Gedächtnislosigkeit) Eine (positive) kontinuierliche Zufallsvariable X mit Wertebereich R + ist genau dann exponentialverteilt, wenn für alle x, y > 0 gilt, dass Pr[X > x
MehrWahrscheinlichkeitstheorie und Statistik
Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter
MehrWirtschaftsmathematik
Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A
MehrWie groß ist die Wahrscheinlichkeit Pr[X > y + x X > x]? Da bei den ersten x Versuchen kein Erfolg eintrat, stellen wir uns vor, dass das
Sei X geometrisch verteilt mit Erfolgswahrscheinlichkeit p. Dann ist Pr[X = k] die Wahrscheinlichkeit, dass wir bei einem binären Experiment mit Erfolgswahrscheinlichkeit p genau in der k-ten unabhängigen
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
MehrVorlesung 5a. Zufallsvariable mit Dichten
Vorlesung 5a 1 Vorlesung 5a Zufallsvariable mit Dichten Vorlesung 5a Zufallsvariable mit Dichten Teil 1 Uniforme Verteilung, Exponentialverteilung. Kontinuierlich uniform verteilte Zufallsvariable: 2 Kontinuierlich
MehrWahrscheinlichkeit und Statistik: Zusammenfassung
HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1
MehrStochastik Aufgaben zum Üben: Teil 2
Prof. Dr. Z. Kabluchko Wintersemester 205/206 Hendrik Flasche Januar 206 Aufgabe Stochastik Aufgaben zum Üben: Teil 2 Es sei X eine Zufallsvariable mit Dichte f X (y) = cy 5 I y>. Bestimmen Sie c, P[2
MehrStatistik I für Betriebswirte Vorlesung 4
Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
MehrÜbung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit
Übung 2 24..23 Ü b u n g 2 Aufgabe Die Poissonverteilung P(λ) hat die Wahrscheinlichkeitsfunktion p(x) = λx e λ (x ) x! Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung
MehrStatistik I für Betriebswirte Vorlesung 3
Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April
MehrTU DORTMUND Sommersemester 2018
Fakultät Statistik. April 08 Blatt Aufgabe.: Wir betrachten das Zufallsexperiment gleichzeitiges Werfen zweier nicht unterscheidbarer Würfel. Sei A das Ereignis, dass die Augensumme beider Würfel ungerade
MehrDefinition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=
Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)
Mehr2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung
2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von
MehrDWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 240/476 c Ernst W. Mayr
1.4.4 Laplace-Prinzip in kontinuierlichen Wahrscheinlichkeitsräumen Das folgende Beispiel zeigt, dass im kontinuierlichen Fall die Bedeutung von gleichwahrscheinlich nicht immer ganz klar sein muss. Bertrand
MehrStatistik für Ingenieure Vorlesung 5
Statistik für Ingenieure Vorlesung 5 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 28. November 2017 3.4 Wichtige stetige Verteilungen 3.4.1 Exponentialverteilung Parameter:
MehrDr. L. Meier Statistik und Wahrscheinlichkeitsrechnung Sommer Musterlösung
Dr. L. Meier Statistik und Wahrscheinlichkeitsrechnung Sommer 014 Musterlösung 1. 8 Punkte) a) 1 Pt)Für das Komplement gilt PR A) = 1 PR c A) = 0.968. b) 1 Pt)Nach Definition der bedingten Wahrscheinlichkeit
MehrWahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme
Binomialverteilung Wahrscheinlichkeitsfunktion Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder
MehrWahrscheinlichkeitstheorie und Statistik vom
INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen
Mehr4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
MehrSatz 61 (Chebyshev-Ungleichung)
Die folgende Abschätzung ist nach Pavnuty Lvovich Chebyshev (1821 1894) benannt, der ebenfalls an der Staatl. Universität in St. Petersburg wirkte. Satz 61 (Chebyshev-Ungleichung) Sei X eine Zufallsvariable,
Mehr8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.
8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2
MehrBeispiel 6 (Einige Aufgaben zur Gleichverteilung)
Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Aufgabe (Anwendung der Chebyshev-Ungleichung) Sei X eine Zufallsvariable mit E(X) = µ und var(x) = σ a) Schätzen Sie die Wahrscheinlichkeit dafür, daß
MehrWichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung
Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben
MehrZentralübung zur Vorlesung Diskrete Wahrscheinlichkeitstheorie
SS 2014 Zentralübung zur Vorlesung Diskrete Wahrscheinlichkeitstheorie Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2014ss/dwt/uebung/ 5. Juni 2014 ZÜ DWT ZÜ VI Übersicht:
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrBinomialverteilung. Häufigkeit, mit der Ereignis A bei n unabhängigen Versuchen eintritt. Träger von X : X = {0, 1, 2,..., n}.
Binomialverteilung Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder nicht. X = Häufigkeit, mit
MehrForschungsstatistik I
Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de WS 2008/2009
MehrDWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr
1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir
MehrMusterlösung zur Klausur im Fach Fortgeschrittene Statistik am Gesamtpunktzahl: 60
WESTFÄLISCHE WILHELMS - UNIVERSITÄT MÜNSTER Wirtschaftswissenschaftliche Faktultät Prof. Dr. Bernd Wilfling Professur für VWL, insbesondere Empirische Wirtschaftsforschung Musterlösung zur Klausur im Fach
Mehr1. Grundbegri e der Stochastik
Wiederholung von Grundwissen der Stochastik. Grundbegri e der Stochastik Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrStochastik. 1. Wahrscheinlichkeitsräume
Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.
MehrWahrscheinlichkeit und Statistik BSc D-INFK
Prof. Dr. P. Embrechts ETH Zürich Sommer 2015 Wahrscheinlichkeit und Statistik BSc D-INFK Name: Vorname: Stud. Nr.: Das Folgende bitte nicht ausfüllen! Aufg. Summe Kontr. Pkte.-Max. 1 10 2 10 3 10 4 10
MehrKapitel II Kontinuierliche Wahrscheinlichkeitsräume
Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten
MehrReelle Zufallsvariablen
Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen
MehrDichte der geometrischen Verteilung
0,8 Ô ¼ 0,8 Ô ¼ 0,6 0,6 0,4 0,4 0,2 0,2 0,0 1 2 3 4 5 6 7 8 9 10 0,0 1 2 3 4 5 6 7 8 9 10 0,8 Ô ¼ 0,8 Ô ¼ ¾ 0,6 0,6 0,4 0,4 0,2 0,2 0,0 0,0 1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10 Dichte der geometrischen
Mehr1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6
Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere
Mehr4.2 Moment und Varianz
4.2 Moment und Varianz Def. 2.10 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: EX p
Mehr5. Spezielle stetige Verteilungen
5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für
MehrEine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«
Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«Werner Linde WS 2008/09 Inhaltsverzeichnis 1 Wahrscheinlichkeiten 2 1.1 Wahrscheinlichkeitsräume...........................
Mehr1. Eigenschaften einer Zufallsstichprobe
1. Eigenschaften einer Zufallsstichprobe 1.1 Grundkonzepte Definition 1.1.1: Man nennt die Zufallsvariablen X 1,..., X n zufällige Stichprobe oder Zufallsstichprobe vom Umfang n aus der Population (Grundgesamtheit)
MehrWahrscheinlichkeitstheorie und Statistik vom
INSTITUT FÜR STOCHASTIK SS 2010 Karlsruher Institut für Technologie Priv.-Doz. Dr. D. Kadelka Klausur Wahrscheinlichkeitstheorie und Statistik vom 14.9.2010 Musterlösungen Aufgabe 1: Gegeben sei eine Urliste
MehrLösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI
Lösungen zu Übungsblatt 9 Höhere Mathematik/Stochastik Anpassung von Verteilungen Zu Aufgabe ) a) Zeichnen des Histogranmmes: Um das Histogramm zu zeichnen, benötigen wir die Höhe der Balken. Die Höhe
MehrMolekulargenetik Biologie am Inhaltsverzeichnis Die Begriffe DNA, Nukleotid, Gen, Chromosom und Epigenom definieren...
Molekulargenetik Inhaltsverzeichnis Die Begriffe DNA, Nukleotid, Gen, Chromosom und Epigenom definieren... 2 Beschreiben, wie die DNA aufgebaut ist... 3 Den Ablauf der Replikation erklären und dabei die
MehrMathematik 3 für Informatik
Gunter Ochs Wintersemester 20/6 Mathematik 3 für Informatik Lösungen zum Hausaufgabenblatt 4 Lösungshinweise (ohne Ganantie auf Fehlerfreiheit. Wenn man beim Roulette auf Rot oder Schwarz setzt, erhält
MehrDichte der geometrischen Verteilung
0,8 Ô ¼ 0,8 Ô ¼ 0,6 0,6 0,4 0,4 0,2 0,2 0,0 1 2 3 4 5 6 7 8 9 10 0,0 1 2 3 4 5 6 7 8 9 10 0,8 Ô ¼ 0,8 Ô ¼ ¾ 0,6 0,6 0,4 0,4 0,2 0,2 0,0 1 2 3 4 5 6 7 8 9 10 0,0 1 2 3 4 5 6 7 8 9 10 Dichte der geometrischen
MehrWahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen
Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen Georg Bol georg.bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de Stetige Verteilungen Definition: Sei
MehrStochastik Approximationen der Binomialverteilung
Stochastik Approximationen der Binomialverteilung Stefan Englert stefan.englert@gmx.net 21. April 2007 Inhaltsverzeichnis 1 Approximation von n! und b n,p (k) 2 2 Der Satz von de Moivre-Laplace 6 3 Die
MehrDenition 57 Eine geometrisch verteilte Zufallsvariable X mit Parameter (Erfolgswahrscheinlichkeit) p 2 (0; 1] und q := 1 p hat die Dichte
5.3 Geometrische Verteilung Man betrachte ein Experiment, das so lange wiederholt wird, bis Erfolg eintritt. Gelingt ein einzelner Versuch mit Wahrscheinlichkeit p, so ist die Anzahl der Versuche bis zum
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
MehrMehrdimensionale Zufallsvariablen
Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,
Mehr7.2 Moment und Varianz
7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p
MehrIn den Proteinen der Lebewesen treten in der Regel 20 verschiedene Aminosäuren auf. Deren Reihenfolge muss in der Nucleotidsequenz der mrna und damit
In den Proteinen der Lebewesen treten in der Regel 20 verschiedene Aminosäuren auf. Deren Reihenfolge muss in der Nucleotidsequenz der mrna und damit in der Nucleotidsequenz der DNA verschlüsselt (codiert)
Mehr1.5 Mehrdimensionale Verteilungen
Poisson eine gute Näherung, da np = 0 und 500p = 5 00 = n. Wir erhalten somit als Näherung Exakte Rechnung ergibt P(2 X 0) = k=2 0 k=2 π (k) = 0,26424. 0 ( ) 00 P(2 X 0) = 0,0 k 0,99 00 k = 0,264238. k.4.2.4
MehrVorlesung 5b. Zufallsvariable mit Dichten
Vorlesung 5b 1 Vorlesung 5b Zufallsvariable mit Dichten Vorlesung 5b Zufallsvariable mit Dichten Wiederholung aus Vorlesung 2b+: Kontinuierlich uniform verteilte Zufallsvariable: Sei S eine Teilmenge des
MehrWichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung
Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 15. Jänner 2017 Evelina Erlacher Inhaltsverzeichnis 1 Mengen 2 2 Wahrscheinlichkeiten 3 3 Zufallsvariablen 5 3.1 Diskrete Zufallsvariablen............................
MehrStatistik für Ingenieure Vorlesung 3
Statistik für Ingenieure Vorlesung 3 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 14. November 2017 3. Zufallsgrößen 3.1 Zufallsgrößen und ihre Verteilung Häufig sind
MehrStochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten
Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von
MehrHeute. Die Binomialverteilung. Poissonverteilung. Approximation der Binomialverteilung durch die Normalverteilung
Heute Die Binomialverteilung Poissonverteilung Approximation der Binomialverteilung durch die Normalverteilung Arbeiten mit Wahrscheinlichkeitsverteilungen Die Binomialverteilung Man werfe eine Münze n
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
Mehri =1 i =2 i =3 x i y i 4 0 1
Aufgabe (5+5=0 Punkte) (a) Bei einem Minigolfturnier traten 6 Spieler gegeneinander an. Die Anzahlen der von ihnen über das gesamte Turnier hinweg benötigten Schläge betrugen x = 24, x 2 = 27, x = 2, x
Mehr3 Grundlagen statistischer Tests (Kap. 8 IS)
3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung
MehrDie Probabilistische Methode
Die Probabilistische Methode Wladimir Fridman 233827 Hauptseminar im Sommersemester 2004 Extremal Combinatorics Zusammenfassung Die Probabilistische Methode ist ein mächtiges Werkzeug zum Führen von Existenzbeweisen.
Mehr13 Grenzwertsätze Das Gesetz der großen Zahlen
13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n
MehrFinanzmathematische Modelle und Simulation
Finanzmathematische Modelle und Simulation WS 9/1 Rebecca Henkelmann In meiner Ausarbeitung Grundbegriffe der Stochastik I, geht es darum die folgenden Begriffe für die nächsten Kapitel einzuführen. Auf
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenho Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2 Elementare
Mehrf(x) = P (X = x) = 0, sonst heißt Poisson-verteilt mit Parameter (oder Rate) λ > 0, kurz X P o(λ). Es gilt x x! 1 Wahrscheinlichkeitsrechnung 212
1.6.2 Poisson Verteilung Eine weitere wichtige diskrete Verteilung ist die Poisson-Verteilung. Sie modelliert die Anzahl (eher seltener) Ereignisse in einem Zeitintervall (Unfälle, Todesfälle; Sozialkontakte,
MehrFortgeschrittene Ökonometrie: Maximum Likelihood
Universität Regensburg, Lehrstuhl für Ökonometrie Sommersemester 202 Fortgeschrittene Ökonometrie: Maximum Likelihood Poissonverteilung Man betrachte die poisson-verteilten Zufallsvariablen y t, t =, 2,...,
MehrLösung Semesterendprüfung
MAE4 Mathematik: Analysis für Ingenieure 4 Frühlingssemester 26 Dr. Christoph Kirsch ZHAW Winterthur Aufgabe : Lösung Semesterendprüfung Wir betrachten die Ergebnismenge Ω : {, 2,, 4, 5, 6} 2 6 2 6 Elemente,
MehrStochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL)
Prof. Dr. P. Embrechts ETH Zürich Sommer 204 Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL) Schreiben Sie für Aufgabe 2-4 stets alle Zwischenschritte und -rechnungen sowie Begründungen auf. Vereinfachen
Mehr16. Biomoleküle : Nucleinsäuren
Inhalt Index 16. Biomoleküle : Nucleinsäuren Die gesamte Erbinformation ist in den Desoxyribonucleinsäuren (DNA) enthalten. Die Übersetzung dieser Information in die Synthese der Proteine wird von den
MehrPrüfungsvorbereitungskurs Höhere Mathematik 3
Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse
Mehr3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.22 (allgemeines Theorem von Bayes)
3.4 Bayes-Verfahren 203 3.4.1 Begrifflicher Hintergrund Satz 3.22 (allgemeines Theorem von Bayes) Seien X und U zwei Zufallsvariablen mit gemeinsamer Wahrscheinlichkeitsfunktion f X,U ( ) bzw. Dichte f
MehrChi-Quadrat-Verteilung
Chi-Quadrat-Verteilung Wikipedia http://de.wikipedia.org/wiki/chi-quadrat-verteilung 1 von 7 6/18/2009 6:13 PM Chi-Quadrat-Verteilung aus Wikipedia, der freien Enzyklopädie Die Chi-Quadrat-Verteilung ist
MehrEinführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen
Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe
MehrBiostatistik, Sommer 2017
1/51 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Verteilungen, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 8. Vorlesung: 09.06.2017 2/51 Inhalt 1 Verteilungen Normalverteilung Normalapproximation
MehrStatistik II. Statistische Tests. Statistik II
Statistik II Statistische Tests Statistik II - 12.5.2006 1 Test auf Anteilswert: Binomialtest Sei eine Stichprobe unabhängig, identisch verteilter ZV (i.i.d.). Teile diese Stichprobe in zwei Teilmengen
MehrStochastik Serie 11. ETH Zürich HS 2018
ETH Zürich HS 208 RW, D-MATL, D-MAVT Prof. Marloes Maathuis Koordinator Dr. Marvin Müller Stochastik Serie. Diese Aufgabe behandelt verschiedene Themenbereiche aus dem gesamten bisherigen Vorlesungsmaterial.
MehrKlausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik
Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. C. Löh/M. Blank 27. Juli 2012 Name: Matrikelnummer: Vorname: Übungsleiter: Diese Klausur besteht aus 8 Seiten. Bitte überprüfen
MehrStatistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen
Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg
MehrPrüfungsvorbereitungskurs Höhere Mathematik 3
Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Marcel Thoms Mathematik Online Herbst 211 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge
MehrStatistik für Ingenieure Vorlesung 6
Statistik für Ingenieure Vorlesung 6 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 05. Dezember 2017 3.4.3 Stetige Gleichverteilung Parameter: Intervall [a, b] R. Zufallsgröße
MehrKapitel 5 Erneuerungs- und Semi-Markov-Prozesse
Kapitel 5 Erneuerungs- und Semi-Markov-Prozesse Definition: Erneuerungsprozess Sei {T n, n N} eine Folge unabhängiger, nichtnegativer Zufallsvariablen mit Verteilungsfunktion F, mit F () < 1. Dann heißt
MehrZufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential
Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Zufallsvariable Erinnerung: Merkmal, Merkmalsausprägung Deskriptive Statistik:
MehrFit for Abi & Study Stochastik
Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen
Mehr6.6 Poisson-Verteilung
6.6 Poisson-Verteilung Die Poisson-Verteilung ist eine Wahrscheinlichkeitsverteilung, die zur Modellierung der Anzahl von zufälligen Vorkommnissen in einem bestimmten räumlichen oder zeitlichen Abschnitt
MehrAnzahl der Versuche, bei denen A eingetreten ist : Anzahl aller Versuche Mit Hilfe des obigen Gesetzes der groen Zahlen folgt Z = Pr[jZ pj ] ";
Wahrscheinlichkeit und relative Haugkeit. Sei X eine Indikatorvariable fur ein Ereignis A, Pr[A] = p. Somit ist X Bernoulli-verteilt mit E[X] = p. Z = 1 n (X 1 + : : : + X n ) gibt die relative Haugkeit
Mehr4. Gemeinsame Verteilung und Grenzwertsätze
4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen
Mehr4. Gemeinsame Verteilung und Grenzwertsätze
4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen
Mehr7.5 Erwartungswert, Varianz
7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k
MehrAufgaben. d) Seien X und Y Poissonverteilt mit Parameter µ, X, Y P(µ). 2. Dann ist die Summe auch Poissonverteilt mit (X + Y ) P(2µ).
Aufgaben 1. Bei den folgenden 10 Fragen ist jeweils genau eine Antwort richtig. Es gibt pro richtig beantwortete Frage 1 Punkt und pro falsche Antwort 1/2 Punkt Abzug. Minimal erhält man für die gesamte
Mehr