Stochastisches Matchen. Klaus Pommerening IMBEI Oberseminar Medizin-Informatik
|
|
- Rainer Biermann
- vor 5 Jahren
- Abrufe
Transkript
1 Stochastisches Matchen Klaus Pommerening IMBEI Oberseminar Medizin-Informatik
2 Entscheidungssituation Y = M U disjunkte Zerlegung γ Beobachtungsfunktion Γ Merkmalsraum τ Entscheidungsfunktion E = {ja, unentschieden, nein} Alle Mengen endlich. Aufgabe: Finde τ so, dass möglichst τ(γ(y)) = ja, wenn y M, τ(γ(y)) = nein, wenn y U. ja [Entscheidung zwischen M und U aufgrund der Beobachtung γ(y).] τ Beobachtungsdaten c = γ(y) unentschieden Entscheidungsfunktion nein
3 Beispiel (GPOH-PID-Dienst) Pflichtdaten (Name, Vorname, Geburtsdatum), optionale Daten (z. B. Wohnort). Entscheidungssituation z. B. S 0 X * O 0 : unsichere Daten (S 0 ), Prüfung auf Übereinstimmung oder Ähnlichkeit (X * ), ohne optionale Daten (O 0 ). Mögliche Ergebnisse passen zwei Datensätze? ja = Pflichtdaten stimmen exakt überein, unentschieden = Pflichtdaten ähnlich (i. w. Phonetik), nein = Pflichtdaten nicht ähnlich.
4 Entscheidungsfehler Fehler 1. Art (falsches Ja): y U mit τ(γ(y)) = ja. Fehlerrate 1. Art: α(τ) = P(ja U) = Σ c Γ u(c) δ τ(c),ja Gewichtsfaktor u(c) = P(c U). Fehler 2. Art (falsches Nein): y M mit τ(γ(y)) = nein. Fehlerrate 2. Art: α(τ) = P(nein M) = Σ c Γ m(c) δ τ(c),nein Gewichtsfaktor m(c) = P(c M). Unentschiedenheitsrate: η(τ) = P(un.) = Σ c Γ n(c) δ τ(c),un. Gewichtsfaktor n(c) = P(c).
5 Optimierungsziel γ τ Y Γ E Finde eine Entscheidungsfunktion τ, die bei gegebenen Schranken für die Fehlerraten 1. und 2. Art die Unentschiedenheitsrate minimiert. [Andere Optimierungsziele denkbar. Bsp. statistische Testsituation: Minimiere Fehlerrate 2. Art bei Schranke für Fehlerrate 1. Art und Unentschiedenheitsrate 0.]
6 Randomisierte Entscheidungen Stochastische Entscheidungsfunktion: τ: Γ [0,1]³ mit τ 1 + τ 2 + τ 3 = 1 konstant. τ 1 (c) = P(ja c) τ 2 (c) = P(unentschieden c) (0,0,1) nein τ 3 (c) = P(nein c) (0,1,0) unentschieden (1,0,0) ja
7 Fehlerraten Unentschiedenheitsrate: η(τ) = P(un.) = Σ c Γ P(c) P(un. c) = Σ c Γ n(c) τ 2 (c) Fehlerrate 1. Art: α(τ) = P(ja U) = Σ c Γ P(c U) P(ja c) = Σ c Γ u(c) τ 1 (c) Fehlerrate 2. Art: β(τ) = P(nein M) = Σ c Γ P(c M) P(nein c) = Σ c Γ m(c) τ 3 (c)
8 Schwellenwert-Verfahren γ τ Y Γ E (Score) T [-, ] τ(c) = (p,1-p,0) τ(c) = (0,1-q,q)
9 Die Gewichtsfunktion Das (i. w.) optimale stochastische Entscheidungsverfahren ist das Schwellenwert-Verfahren zur Gewichtsfunktion w := log m/u : Γ [-, ] D. h. w(c) = log P(c M) P(c U) (»Odds«). Falls Γ = Γ 1 Γ K (direktes Produkt, Gruppen unabhängiger Merkmale), wird die Gewichtsfunktion entsprechend additiv zerlegt.
10 Das Match-Problem Grundmenge Z (gedachte Population). Teilmengen A, B Z (mögliche Überschneidung). M = {(a,b) A B a = b} (»Matches«), U = {(a,b) A B a b} (»unpassende Paare«). Y = A B = M U (disjunkt). Datenerzeugende Prozesse (fehlerbehaftet) α: A X, β: B X. Entscheidungsproblem = Match-Problem.
11 Die Match-Situation Z A B Vergleichsfunktion δ: X X Γ. α β X X δ w [-, ] τ Γ [0,1]³ (z. B. Γ = X X, δ = identische Abb. oder Γ = {gleich, ungleich}). Beobachtungsfunktion γ = δ (α,β): A Β Γ. Homonymfehler = Fehler 1. Art, Synonymfehler = Fehler 2. Art.
12 Bestimmung der Gewichte (für jeweils unabhängige Merkmalsblöcke) Im allgemeinen nicht verfügbar, bestenfalls schätzbar. Beispiel: Komponente X des Merkmalsraums mit bekannten Wahrscheinlichkeiten p(x), x X, für das Vorkommen in Z, A, B, A B. Zwei typische Fälle: Prüfung auf Übereinstimmung: Γ = {gleich, ungleich}. Prüfung anhand der Werte: Γ = X X.
13 Prüfung auf Übereinstimmung u(gleich) = P(α(a) = β(b) a A, b B, a b) = Σ x X P(a b, α(a) = x, β(b) = x) Σ x X p(x)² u(ungleich) 1 - Σ x X p(x)² m(gleich) = P(α(a) = β(b) a A B) (1 - ε A )(1 - ε B ) [Eingabefehler, klein] m(ungleich) ε A + ε B - ε A ε B Zähler: Eingabefehler Nenner: Wahrscheinlichkeiten Achtung: Änderungen (z. B. im Namen) unter»eingabefehler«
14 Beispiele X gleichverteilt mit n = #X, ε = ε A = ε B. w(gleich) log n(1-2ε) (linear in log n) w(ungleich) log [2nε/(n-1)] (von n unabhängig) Beispiel 1: X = {, }, n = 2, ε = 5% w(gleich) log w(ungleich) log Beispiel 2: X = {Jan,..., Dez}, n = 12, ε = 5% w(gleich) log w(ungleich) log
15 Ohne Beweis: Prüfung anhand der Werte w(x,x) log w(x,x') log 1 - ε A + ε B p(x) p(x)ε B + p(x')ε A (n-1)p(x)p(x') für x x' Bei Gleichverteilung: w(x,x) = w(gleich) w(x,x') = w(ungleich) D. h. keine Änderung durch Berücksichtung der Werte.
16 Beispiel: Merkmal mit zwei Ausprägungen X = {x,x'}, p(x) = q, p(x') = 1-q z. B. ε = 10%, q = 1/4 w(gleich) log w(ungleich) log w(x,x) log [erhöht!] w(x',x') log [erniedrigt!] w(x,x') log
17 Typische Merkmale I Geschlecht: 2 Ausprägungen (ohne fehlende Werte), gleichverteilt: Unterscheidung gleich/ungleich reicht, zu schätzender Parameter nur ε. Geburtsmonat: analog mit n = 12. Geburtsjahr: nicht gleichverteilt: Verteilung und Fehlerraten zu schätzen. Vorname:»leicht«abhängig von Name und Geburtsjahr.
18 Typische Merkmale II Name: komplexes Modell für Beobachtungsfunktion Merkmalsraum X = Zeichenketten der Länge N. 1. Schritt: Normalisierung Name (N 1, N 2, N 3 ). 2. Schritt: Phonetik Ph K (Köln), Ph H (Hannover). Γ = X 10. γ(name, Name') = (N 1,N 2,N 3,Ph K (Name), Ph H (Name), N 1 ',...). Unterschiedliche Gewichte für Gleichheit, Ähnlichkeit in einem oder beiden phonetischen Codes.
19 Algorithmus Deterministische Vorentscheidung ( Blockbildung ) Stochastische Entscheidungen einbetten Gruppen unabhängiger Variablen definieren Welches Prüfverfahren für welche Merkmale? Komplizierte Merkmale: Namen,... - wie behandeln? Eingabefehler woher schätzen? Startwerte, dynamisches Update? Wahrscheinlichkeiten aus Datenbank schätzen! Startwerte? Dynamisches Update!
20 Fragen Passt die Theorie auf das Szenario: Jeweils 1 neuer Fall wird mit der Datenbank abgeglichen und ggf. neu hinzugefügt? Besondere Behandlung fehlender Werte? Wie geht man mit echten Homonymen um? Wie wirkt sich eine Fehlschätzung der Eingabefehlerraten aus?
21 Weiterführende Probleme I Optimierung des algorithmischen Ablaufs des Match- Verfahrens Optimierung abhängig von der Vergleichsfunktion? Stabilität des Verfahrens bei Schwankungen der geschätzten Parameter? Geht Optimalität verloren? Folgen der Verletzung von Unabhängigkeitsannahmen? Adjustierung der Gewichte genetischer Algorithmus? Wahl und Adjustierung der Schwellenwerte? Optimierung des Match-Verfahrens nach anderen Kriterien? (Z. B. Minimierung der HFR, Balance zwischen HFR/SFR?
22 Weiterführende Probleme II Andere Ansätze für das Match-Verfahren? Varianten? (Literatur!) Testweiser Parallelbetrieb von stochastischem und deterministischen Matchen mit Vergleich der Ergebnisse.
Stochastisches Matchen Schätzung der Eingabefehlerraten. Klaus Pommerening IMBEI Oberseminar Medizin-Informatik
Stochastisches Matchen Schätzung der Eingabefehlerraten Klaus Pommerening IMBEI Oberseminar Medizin-Informatik 3. 6. 2003 I. Entscheidungen mit drei Ausgängen Entscheidungssituation Y = M U disjunkte
MehrEffiziente Algorithmen (SS2015)
Effiziente Algorithmen (SS205) Kapitel 5 Approximation II Walter Unger Lehrstuhl für Informatik 2.06.205 07:59 5 Inhaltsverzeichnis < > Walter Unger 5.7.205 :3 SS205 Z Inhalt I Set Cover Einleitung Approximation
Mehr3 Grundlagen statistischer Tests (Kap. 8 IS)
3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung
MehrFlussdiagramm der ökonometrischen Methode
Flussdiagramm der ökonometrischen Methode z.b Sättigungs modell Parameter schätzung Daten Sach verhalt oder Spezifikation des ökonometrischen Modells geschätztes Modell phäno menologische Modellierung
MehrKapitel 2: Multiplikative Funktionen. 3 Multiplikative Funktionen. Definition 2.1 (arithmetische Funktion, (vollständig) multiplikative Funktion)
Kapitel 2: Multiplikative Funktionen 3 Multiplikative Funktionen Definition 2.1 (arithmetische Funktion, (vollständig) multiplikative Funktion) (a) Eine Funktion α : Z >0 C heißt arithmetisch (oder zahlentheoretisch).
MehrIn einem mathematischen Modell wird dies beschrieben durch einen funktionalen Zusammenhang: x = f (t).
Aktueller Überblick 0 Einführende Worte ( ) 1 Geschichtlicher Überblick ( ) 2 Zufall 3 Perfekte Sicherheit und ihre Grenzen 4 Angriffsszenarien 5 Der komplexitätstheoretische Ansatz 6 Pseudozufallsgeneratoren
MehrLogistische Regression
Logistische Regression Markus Kalisch 30.09.2014 1 Big Picture: Statistisches Lernen Supervised Learning (X,Y) Unsupervised Learning X VL 7, 11, 12 Regression Y kontinuierlich VL 1, 2, 4, 5, 6 Klassifikation
MehrKapitel VIII - Tests zum Niveau α
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel VIII - Tests zum Niveau α Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh Testsituationen
MehrStatistisches Testen
Statistisches Testen Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Differenzen Anteilswert Chi-Quadrat Tests Gleichheit von Varianzen Prinzip des Statistischen Tests Konfidenzintervall
Mehr1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung. 5 Hypothesentests.
0 Einführung 1 Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Intervallschätzung 5 Hypothesentests 6 Regression Lineare Regressionsmodelle Deskriptive Statistik:
MehrKategorielle Zielgrössen
Kategorielle Zielgrössen 27.11.2017 Motivation Bisher gesehen: Regressionsmodelle für diverse Arten von Zielgrössen Y. kontinuierliche Zielgrösse Lineare Regression Binäre/binomiale Zielgrösse Logistische
MehrAlgorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck. 10 Matching-Probleme
10 Matching-Probleme 10.1 Definition von Matching-Probleme Definition 21 [2-dimensionales Matching] Sei G = (V, E) ein ungerichteter Graph und E E. E ist ein Matching, wenn für alle Kantenpaare e 1, e
MehrDynamische Systeme und Zeitreihenanalyse // Saisonbereinigung und Glättung 10 p.2/??
Dynamische Systeme und Zeitreihenanalyse Saisonbereinigung und Glättung Kapitel 10 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Saisonbereinigung und Glättung
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Vorlesung am 7. Dezember 2017 INSTITUT FÜR THEORETISCHE 0 07.12.2017 Dorothea Wagner - Theoretische Grundlagen der Informatik INSTITUT FÜR THEORETISCHE KIT Die Forschungsuniversität
MehrElemente in Φ werden Wurzeln genannt. Bemerkung 3.2. (a) Zu einem Wurzelsystem können wir immer eine Spiegelungsgruppe definieren
3. Wurzelsysteme Als erstes führen wir den Begriff eines Wurzelsystems ein. Definition 3.1 (Wurzelsystem). Eine endliche Teilmenge Φ V {0} heißt Wurzelsystem falls gilt: (R1) Φ Rα = {±α} für α Φ, (R2)
MehrÜberblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung
Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes- Entscheidungsfunktionen
Mehr12 Ungleichungen. Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable.
12 Ungleichungen Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable. Dann gilt: min c R E(X c)2 = Var X. Beweis: Für alle reellen Zahlen c R gilt: E(X
MehrTheorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
MehrML-Schätzung. Likelihood Quotienten-Test. Zusammenhang Reparametrisierung und Modell unter linearer Restriktion. Es gilt: β = Bγ + d (3.
Reparametrisierung des Modells Gegeben sei das Modell (2.1) mit (2.5) unter der linearen Restriktion Aβ = c mit A R a p, rg(a) = a, c R a. Wir betrachten die lineare Restriktion als Gleichungssystem. Die
MehrVorlesung Wissensentdeckung
Vorlesung Wissensentdeckung Klassifikation und Regression: nächste Nachbarn Katharina Morik, Uwe Ligges 14.05.2013 1 von 24 Gliederung Funktionsapproximation 1 Funktionsapproximation Likelihood 2 Kreuzvalidierung
MehrPermutationstests II.
Resampling Methoden Dortmund, 2005 (Jenő Reiczigel) 1 Permutationstests II. 1. Zwei-Stichprobentest auf Variabilität 2. Mehrere Stichproben: Vergleich von Mittelwerten 3. Kurzer Exkurs: Präzision von Monte
MehrEin sortiertes Feld kann in O(log n) durchsucht werden, z.b. mit Binärsuche. Der Algorithmus 1 gibt den Pseudocode der binären Suche an.
2.5 Suchen Eine Menge S will nach einem Element durchsucht werden. Die Menge S ist statisch und S = n. S ist Teilmenge eines Universums auf dem eine lineare Ordnung definiert ist und soll so gespeichert
Mehr1.3 Knuth-Morris-Pratt-Algorithmus
1.3 Knuth-Morris-Pratt-Algorithmus Präprozessing bestimmt längste Ränder der Präfixe von P Die Kenntnis der Ränder erspart Vergleiche bei periodischen Suchwörtern Laufzeit: Θ(m) für das Präprozessing,
MehrInstitut für Stochastik, SoSe K L A U S U R , 8:00-11:00. Aufgabe Punkte erreichte Punkte Korrektur
Institut für Stochastik, SoSe 2014 Mathematische Statistik Paravicini/Heusel 2. K L A U S U R 29.9.2014, 8:00-11:00 Name: Geburtsdatum: Vorname: Matrikelnummer: Übungsgruppe bei: Studiengang & angestrebter
MehrEinfache lineare Regression. Statistik (Biol./Pharm./HST) FS 2015
Einfache lineare Regression Statistik (Biol./Pharm./HST) FS 2015 Wdh: Korrelation Big picture: Generalized Linear Models (GLMs) Bisher: Population wird mit einer Verteilung beschrieben Bsp: Medikament
MehrZeitreihenanalyse. Zerlegung von Zeitreihen Saisonindex, saisonbereinigte Zeitreihe Trend und zyklische Komponente Prognose Autokorrelation
Zeitreihenanalyse Zerlegung von Zeitreihen Saisonindex, saisonbereinigte Zeitreihe Trend und zyklische Komponente Prognose Autokorrelation Beispiel für Zeitreihe Andere Anwendungen Inventarmanagment Produktionsplanung
MehrFunktionslernen. 5. Klassifikation. 5.6 Support Vector Maschines (SVM) Reale Beispiele. Beispiel: Funktionenlernen
5. Klassifikation 5.6 Support Vector Maschines (SVM) übernommen von Stefan Rüping, Katharina Morik, Universität Dortmund Vorlesung Maschinelles Lernen und Data Mining, WS 2002/03 und Katharina Morik, Claus
MehrStatistische Methoden
Modeling of Data / Maximum Likelyhood methods Institut für Experimentelle und Angewandte Physik Christian-Albrechts-Universität zu Kiel 22.05.2006 Datenmodellierung Messung vs Modell Optimierungsproblem:
MehrLineare Klassifikationsmethoden
Verena Krieg Fakultät für Mathematik und Wirtschaftswissenschaften 08. Mai 2007 Inhaltsverzeichnis 1. Einführung 2. Lineare Regression 3. Lineare Diskriminanzanalyse 4. Logistische Regression 4.1 Berechnung
MehrKlausur Numerische Mathematik (für Elektrotechniker), 24. Februar 2016
Verständnisfragen-Teil ( Punkte) Jeder der Verständnisfragenblöcke besteht aus Verständnisfragen. Werden alle Fragen in einem Verständnisfragenblock richtig beantwortet, so gibt es für diesen Block Punkte.
MehrKapitel 8 Probabilistische und Possibilistische Logik. 23. Juni 2005
Kapitel 8 Probabilistische und Possibilistische Logik 23. Juni 2005 Zusammenfassung Kapitel 1-2 Grundlagen, Kapitel 3 Fuzzy-Mengen und -Relationen, Kapitel 4 Erweiterung des klassischen Beweisbegriffes,
MehrAllgemeine lineare Modelle
262 Merkpunkte Allgemeine lineare Modelle Multiple lineare Regression mit nicht-normalen Zufallsabweichungen bilden eine harmlose" Verallgemeinerung der multiplen lin. Regr. Beispiele: Gumbel-Regression,
MehrMethoden der Statistik Markov Chain Monte Carlo Methoden
Methoden der Statistik Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 08.02.2013 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem
Mehr11. Zeitreihen mit Trend und Saisonalität
In diesem Abschnitt geht es um ZR, die in eine Trend-, eine Saisonund eine Restkomponente zerlegt werden können. (Das Niveau sei in der Trendkomponente enthalten.) Beispiele für solche ZR sind in Abb.
Mehr15.3 Statistische Tests von Pseudozufallszahlen
15.3 Statistische Tests von Pseudozufallszahlen Def. 52 Ein Test ist eine Entscheidungsvorschrift, die über die Akzeptanz genau einer von zwei alternativen Hypothesen entscheidet. Bsp. 109 (Analogie zur
MehrRegressionsmodelle mit Anwendungen in der Versicherungs- und Finanzwirtschaft Probeklausur Wintersemester 2017/
Regressionsmodelle mit Anwendungen in der Versicherungs- und Finanzwirtschaft Probeklausur Wintersemester 2017/2018 06.12.2018 BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN Nachname:...................................................................
MehrEin Vergleich von 2-Stichproben-Verfahren mit Berücksichtigung von Baselinewerten bei ordinalen Zielvariablen
Ein Vergleich von 2-Stichproben-Verfahren mit Berücksichtigung von Baselinewerten bei ordinalen Zielvariablen Alexander Siemer Abteilung Medizinische Statistik Universität Göttingen 47. Biometrisches Kolloquium
MehrSignale und Codes Vorlesung 4
Signale und Codes Vorlesung 4 Nico Döttling December 6, 2013 1 / 18 2 / 18 Letztes Mal Allgemeine Hamming Codes als Beispiel linearer Codes Hamming Schranke: Obere Schranke für k bei gegebenem d bzw. für
MehrAlgorithmen und Datenstrukturen SS09. Foliensatz 15. Michael Brinkmeier. Technische Universität Ilmenau Institut für Theoretische Informatik
Foliensatz 15 Michael Brinkmeier Technische Universität Ilmenau Institut für Theoretische Informatik Sommersemester 2009 TU Ilmenau Seite 1 / 16 Untere Schranken für das Vergleichsbasierte Sortieren TU
MehrDas starke Banach-Tarski Paradox und Satz von Tarski (Teil I)
Das starke Banach-Tarski Paradox und Satz von Tarski (Teil I) Lukas Fischer 17. Oktober 2017 Die folgenden Inhalte entstammen dem Buch Lectures on Amenability von Volker Runde, insbesondere den Seiten
Mehrq 0 q gdw. nicht (q A) (q A) q i+1 q gdw. q i q oder ( a Σ) δ(q, a) i δ(q, a) L = {a n b n : n N} für a, b Σ, a b
Kap. 2: Endliche Automaten Myhill Nerode 2.4 Minimalautomat für reguläre Sprache Abschnitt 2.4.3 L Σ regulär der Äuivalenzklassen-Automat zu L ist ein DFA mit minimaler Zustandszahl (= index( L )) unter
MehrMixed Effects Models: Wachstumskurven
Mixed Effects Models: Wachstumskurven Markus Kalisch 07.10.2014 1 Überblick Wiederholte Messungen (z.b. Wachstumskurven): Korrelierte Beobachtungen Random Intercept Model (RI) Random Intercept and Random
MehrKapitel 2: Formale Sprachen Gliederung. 0. Grundbegriffe 1. Endliche Automaten 2. Formale Sprachen 3. Berechnungstheorie 4. Komplexitätstheorie
Gliederung. Grundbegriffe. Endliche Automaten 2. Formale Sprachen 3. Berechnungstheorie 4. Komplexitätstheorie 2.. Chomsky-Grammatiken 2.2. Reguläre Sprachen (noch weiter) 2.3. Kontextfreie Sprachen 2/4,
MehrEmpirische Wirtschaftsforschung
Empirische Wirtschaftsforschung Prof. Dr. Bernd Süßmuth Universität Leipzig Institut für Empirische Wirtschaftsforschung Volkswirtschaftslehre, insbesondere Ökonometrie 6.. Herleitung des OLS-Schätzers
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Belief Propagation, Strukturlernen Nico Piatkowski und Uwe Ligges 29.06.2017 1 von 13 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung
MehrStatistische Inferenz
Statistische Inferenz Prinzip der statistischen Inferenz Datensätze = Stichproben aus einer Gesamtpopulation (meistens) Beispiel : Messung der Körpertemperatur von 106 gesunden Individuen man vermutet,
MehrDynamische Systeme und Zeitreihenanalyse // Zustandsraummodelle und Kalman Filter 15 p.2/??
Dynamische Systeme und Zeitreihenanalyse Zustandsraummodelle und Kalman Filter Kapitel 15 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Zustandsraummodelle
MehrClusteranalyse: Gauß sche Mischmodelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
Mehr2. Übung Algorithmen I
Timo Bingmann, Christian Schulz INSTITUT FÜR THEORETISCHE INFORMATIK, PROF. SANDERS 1 KIT Timo Universität Bingmann, des LandesChristian Baden-Württemberg Schulz und nationales Forschungszentrum in der
MehrPrüfungsvorbereitungskurs Höhere Mathematik 3
Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse
MehrTheoretische Informatik. Exkurs: Komplexität von Optimierungsproblemen. Optimierungsprobleme. Optimierungsprobleme. Exkurs Optimierungsprobleme
Theoretische Informatik Exkurs Rainer Schrader Exkurs: Komplexität von n Institut für Informatik 13. Mai 2009 1 / 34 2 / 34 Gliederung Entscheidungs- und Approximationen und Gütegarantien zwei Greedy-Strategien
MehrVorlesung Wissensentdeckung
Gliederung Vorlesung Wissensentdeckung Additive Modelle Katharina Morik, Weihs 1 Merkmalsauswahl Gütemaße und Fehlerabschätzung.6.015 1 von 33 von 33 Ausgangspunkt: Funktionsapproximation Aufteilen der
MehrAkzeptierende Turing-Maschine
Akzeptierende Turing-Maschine Definition: Eine akzeptierende Turing-Maschine M ist ein Sechstupel M = (X, Z, z 0, Q, δ, F ), wobei (X, Z, z 0, Q, δ) eine Turing-Maschine ist und F Q gilt. Die von M akzeptierte
MehrAnwendungsbeispiele. PWP 1 Signalentdeckungstheorie. Bsp. Detektion von Tönen im Rauschen. SDT in der Psychologie
Anwendungsbeispiele PWP 1 Signalentdeckungstheorie Signal Detection Theory Psychophysik: 1000 Hz-Ton aus weißem Rauschen Diagnostik: bestimmter Befund vorhanden? Seismologie: Steht Erdbeben bevor? Zeugenaussagen:
MehrKlausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik
Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. C. Löh/M. Blank 27. Juli 2012 Name: Matrikelnummer: Vorname: Übungsleiter: Diese Klausur besteht aus 8 Seiten. Bitte überprüfen
MehrHypothesenbewertungen: Übersicht
Hypothesenbewertungen: Übersicht Wie kann man Fehler einer Hypothese abschätzen? Wie kann man einschätzen, ob ein Algorithmus besser ist als ein anderer? Trainingsfehler, wirklicher Fehler Kreuzvalidierung
MehrADS: Algorithmen und Datenstrukturen 2
ADS: Algorithmen und Datenstrukturen 2 Teil 6 Prof. Dr. Gerhard Heyer Institut für Informatik Abteilung Automatische Sprachverarbeitung Universität Leipzig 16. Mai 2018 [Letzte Aktualisierung: 18/05/2018,
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Übung am 16.12.2010 INSTITUT FÜR THEORETISCHE INFORMATIK 0 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft
MehrAnalysis I für Studierende der Ingenieurwissenschaften
Analysis I für Studierende der Ingenieurwissenschaften Ingenuin Gasser Department Mathematik Universität Hamburg Technische Universität Hamburg Harburg Wintersemester 2008/2009 1 Kapitel 1: Aussagen, Mengen
MehrBeispiel Wahlentscheidungen: Vierstufenmodell der Verkehrsplanung
Beispiel Wahlentscheidungen: Vierstufenmodell der Verkehrsplanung Simultanes Verfahren Verkehrs erzeugung Aktivitätenwahl Verkehrs erzeugung Verkehrs verteilung Verkehrs verteilung Wege/Zielwahl Verkehrs
Mehr1 Σ endliches Terminalalphabet, 2 V endliche Menge von Variablen (mit V Σ = ), 3 P (V (Σ ΣV )) {(S, ε)} endliche Menge von Regeln,
Theorie der Informatik 9. März 24 7. Reguläre Sprachen I Theorie der Informatik 7. Reguläre Sprachen I Malte Helmert Gabriele Röger Universität Basel 9. März 24 7. Reguläre Grammatiken 7.2 DFAs 7.3 NFAs
Mehr1 Σ endliches Terminalalphabet, 2 V endliche Menge von Variablen (mit V Σ = ), 3 P (V (Σ ΣV )) {(S, ε)} endliche Menge von Regeln,
Theorie der Informatik 8. März 25 8. Reguläre Sprachen I Theorie der Informatik 8. Reguläre Sprachen I 8. Reguläre Grammatiken Malte Helmert Gabriele Röger 8.2 DFAs Universität Basel 8. März 25 8.3 NFAs
MehrZerlegung von Zeitreihen
Kapitel 7 Zerlegung von Zeitreihen Josef Leydold c 2006 Mathematische Methoden VII Zerlegung von Zeitreihen 1 / 39 Lernziele Klassische Zerlegung von Zeitreihen Saisonbereinigungsverfahren: Gleitende Durchschnitte
Mehr1 Diskriminanzanalyse
Multivariate Lineare Modelle SS 2008 1 Diskriminanzanalyse 1. Entscheidungstheorie 2. DA für normalverteilte Merkmale 3. DA nach Fisher 1 Problemstellungen Jedes Subjekt kann einer von g Gruppen angehören
MehrLineare Regression 1 Seminar für Statistik
Lineare Regression 1 Seminar für Statistik Markus Kalisch 17.09.2014 1 Statistik 2: Ziele Konzepte von einer breiten Auswahl von Methoden verstehen Umsetzung mit R: Daten einlesen, Daten analysieren, Grafiken
MehrHauptklausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2011/2012
Institut für Theoretische Informatik Lehrstuhl Prof. Dr. D. Wagner Hauptklausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2011/2012 Hier Aufkleber mit Name und Matrikelnr. anbringen
MehrDie Nerode-Relation und der Index einer Sprache L
Die Nerode-Relation und der Index einer Sprache L Eine zweite zentrale Idee: Sei A ein vollständiger DFA für die Sprache L. Repäsentiere einen beliebigen Zustand p von A durch die Worte in Σ, die zu p
MehrAutomaten und Formale Sprachen alias Theoretische Informatik. Sommersemester 2011
Automaten und Formale Sprachen alias Theoretische Informatik Sommersemester 2011 Dr. Sander Bruggink Übungsleitung: Jan Stückrath Sander Bruggink Automaten und Formale Sprachen 1 Wir beschäftigen uns ab
MehrKap. 3ff: Untere Laufzeitschranke und Lineare Verfahren
Kap. 3ff: Untere Laufzeitschranke und Lineare Verfahren Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 8. VO DAP2 SS 2009 12. Mai 2009 1 1. Übungstest Termin:
MehrMotivation Überblick
Kap. ff: Untere Laufzeitschranke und Lineare Verfahren Professor Dr. Lehrstuhl für Algorithm Engineering, LS Fakultät für Informatik, TU Dortmund 8. VO DAP SS 009. Mai 009. Übungstest Termin: Di 9. Mai
MehrParametrische und nichtparametrische Tests
XIII. Nichtparametrische Tests Seite 1 Parametrische und nichtparametrische Tests Parametrische Tests: Hier wird eine bestimmte Verteilung vorausgesetzt, und getestet, ob die gewählten Parameter passen.
MehrDie Regressionsanalyse
Die Regressionsanalyse Zielsetzung: Untersuchung und Quantifizierung funktionaler Abhängigkeiten zwischen metrisch skalierten Variablen eine unabhängige Variable Einfachregression mehr als eine unabhängige
MehrMathematische Statistik Aufgaben zum Üben. Schätzer
Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch
MehrTheoretische Informatik für Wirtschaftsinformatik und Lehramt
Theoretische Informatik für Wirtschaftsinformatik und Lehramt Entscheidungsprobleme Priv.-Doz. Dr. Stefan Milius stefan.milius@fau.de Theoretische Informatik Friedrich-Alexander Universität Erlangen-Nürnberg
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
MehrÜbungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression
Übungsklausur Wahrscheinlichkeit und Regression 1. Welche der folgenden Aussagen treffen auf ein Zufallsexperiment zu? a) Ein Zufallsexperiment ist ein empirisches Phänomen, das in stochastischen Modellen
MehrFinanzmathematische Modelle und Simulation
Finanzmathematische Modelle und Simulation WS 9/1 Rebecca Henkelmann In meiner Ausarbeitung Grundbegriffe der Stochastik I, geht es darum die folgenden Begriffe für die nächsten Kapitel einzuführen. Auf
MehrExperimentelle Methoden der Teilchenphysik Sommersemester 2011/2012 Albert-Ludwigs-Universität Freiburg
Experimentelle Methoden der Teilchenphysik Sommersemester 2011/2012 Albert-Ludwigs-Universität Freiburg Prof. Markus Schumacher Physikalisches Institut, Westbau, 2. OG Raum 008 Telefon 07621 203 7612 E-Mail:
MehrSplitting. Impurity. c 1. c 2. c 3. c 4
Splitting Impurity Sei D(t) eine Menge von Lernbeispielen, in der X(t) auf die Klassen C = {c 1, c 2, c 3, c 4 } verteilt ist. Illustration von zwei möglichen Splits: c 1 c 2 c 3 c 4 ML: III-29 Decision
MehrHMMs und der Viterbi-Algorithmus
July 8, 2015 Das Problem Wir haben gesehen: wir können P( w q)p( q) ohne große Probleme ausrechnen ( w = b 1...b i, q = q 1...q i. P( w q)p( q) = π(q 1 )τ(b 1, q 1 )δ(q 1, q 2 )τ(b 2, q 2 )...δ(q i 1,
MehrEine Einführung in R: Statistische Tests
I. Einführungsbeispiel II. Theorie: Statistische Tests III. Zwei Klassiker: t-test und Wilcoxon-Rangsummen - Test IV. t-test und Wilcoxon-Rangsummen - Test in R Eine Einführung in R: Statistische Tests
MehrStochastik I. Vorlesungsmitschrift
Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................
MehrKapitel 3. Matrix Spiele. 3.1 Matrix-Spiele
Kapitel 3 Matrix Spiele Seminar Spieltheorie, SS 006 3. Matrix-Spiele Vorgegeben sei ein Nullsummenspiel Γ = (S, T, φ, φ mit endlichen Strategiemengen S und T, etwa S = (s,..., s m und T = (t,..., t n.
MehrAnpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood
Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood KARLSRUHER INSTITUT FÜR TECHNOLOGIE (KIT) 0 KIT 06.01.2012 Universität des Fabian Landes Hoffmann Baden-Württemberg und nationales Forschungszentrum
MehrLösung von Optimierungsproblemen mit Monte Carlo Methoden
Lösung von Optimierungsproblemen mit Monte Carlo Methoden Am Beispiel des Problem des Handlungsreisenden Vortragende: Alexandra Vosseler Inhaltsverzeichnis I. Einleitung II. Optimierung mit MCM II.i Vom
Mehr3 Konstruktion einer f.s. konvergente Folge
1 Einleitung Wir wollen uns mit stochastischen Gleichungen der Form R d = Q + C i R i (1.1 beschäftigen, wobei,q,(r i i 1,(C, C i i 1 stochastisch unabhängige nichtnegative Zufallsgrößen seien, (C, C i
MehrVon schwachen zu starken Lernern
Von schwachen zu starken Lernern Wir nehmen an, dass ein schwacher Lernalgorithmus L mit vielen Beispielen, aber großem Fehler ε = 1 2 θ gegeben ist. - Wie lässt sich der Verallgemeinerungsfehler ε von
MehrBZQ II: Stochastikpraktikum
BZQ II: Stochastikpraktikum Block 3: Lineares Modell, Klassifikation, PCA Randolf Altmeyer January 9, 2017 Überblick 1 Monte-Carlo-Methoden, Zufallszahlen, statistische Tests 2 Nichtparametrische Methoden
MehrStochastische Trends und Unit root-tests
Stochastische Trends und Unit root-tests Stichwörter: Random walk stochastischer Trend unit root Trend-Stationarität Differenz-Stationarität Dickey-Fuller (DF-)Test Augmented Dickey-Fuller (ADF-)Test o1-15.tex/0
MehrTechnische Universität München Zentrum Mathematik. Übungsblatt 7
Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 7 Hausaufgaben Aufgabe 7. Für n N ist die Matrix-Exponentialfunktion
MehrLösung zur Klausur. Grundlagen der Theoretischen Informatik im WiSe 2003/2004
Lösung zur Klausur Grundlagen der Theoretischen Informatik im WiSe 2003/2004 1. Geben Sie einen deterministischen endlichen Automaten an, der die Sprache aller Wörter über dem Alphabet {0, 1} akzeptiert,
MehrStatistikpraktikum. Carsten Rezny. Sommersemester Institut für angewandte Mathematik Universität Bonn
Statistikpraktikum Carsten Rezny Institut für angewandte Mathematik Universität Bonn Sommersemester 2014 Mehrdimensionale Datensätze: Multivariate Statistik Multivariate Statistik Mehrdimensionale Datensätze:
MehrAlgorithmische Methoden für schwere Optimierungsprobleme
Algorithmische Methoden für schwere Optimierungsprobleme Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund
Mehr12 Reihen mit beliebigen abzählbaren Indexmengen
12 Reihen mit beliebigen abzählbaren Indexmengen 12.2 Großer Umordnungssatz 12.3 Umordnungssatz für Doppelreihen 12.4 Produktreihe In 3 waren endliche Summen j J a j mit Hilfe einer Bijektion ϕ zwischen
MehrKapitel 2: Formale Sprachen Gliederung
Gliederung. Einleitung und Grundbegriffe. Endliche Automaten 2. Formale Sprachen 3. Berechnungstheorie 4. Komplexitätstheorie 2.. Chomsky-Grammatiken 2.2. Reguläre Sprachen Reguläre Grammatiken, ND-Automaten
MehrÜbung V Lineares Regressionsmodell
Universität Ulm 89069 Ulm Germany Dipl.-WiWi Michael Alpert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2007 Übung
MehrKategorielle Daten. Seminar für Statistik Markus Kalisch
Kategorielle Daten Markus Kalisch 1 Phase 3 Studie: Wirksamer als Placebo? Medikament Placebo Total Geheilt 15 9 24 Nicht geheilt 10 11 21 Total 25 20 45 Grundfrage: Sind Heilung und Medikamentengabe unabhängig?
MehrAutomaten und Formale Sprachen alias Theoretische Informatik. Sommersemester 2012
Automaten und Formale Sprachen alias Theoretische Informatik Sommersemester 2012 Dr. Sander Bruggink Übungsleitung: Jan Stückrath Sander Bruggink Automaten und Formale Sprachen 1 Einschub: Kellerautomaten
MehrStochastik Praktikum Markov Chain Monte Carlo Methoden
Stochastik Praktikum Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 14.10.2010 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem
Mehr