Clustering. Ausarbeitung von Michael Speckner. Proseminar Data Mining

Größe: px
Ab Seite anzeigen:

Download "Clustering. Ausarbeitung von Michael Speckner. Proseminar Data Mining"

Transkript

1 Clustering Ausarbeitung von Michael Speckner Proseminar Data Mining

2 Einleitung Das Clustering wird verwendet, wenn man keine Klassen vorhersagen kann, aber die Instanzen in natürliche Gruppen einteilen kann. Es gibt verschiedene Arten des Clustering : 1. Die Gruppen, die identifiziert wurden, schließen sich aus und somit gehört eine Instanz nur zu einer Gruppe. 2. Die Gruppen überlappen sich, und so kann es vorkommen, daß eine Instanz in mehrere Gruppen gehört. 3. Es kann auch sein, daß die Zugehörigkeit zu einer Gruppe durch die Wahrscheinlichkeit bestimmt wird. 4. Die Gruppen werden hierarchisch in einem Baum strukturiert. Problem : Um ein gutes Ergebnis zu erhalten, sollte man den dafür geeigneten Algorithmus wählen. Aber da nur wenige Algorithmen bekannt sind, kann man nicht immer den besten Algorithmus wählen, weil man ihn vielleicht noch gar nicht kennt. Man muß sich mit dem Algorithmus zufrieden geben, der von den Bekannten am Besten geeignet ist. k means Algorithm Der k means Algorithmus wird nur für numerische Werte benützt. Wie das nearest neighbor scheme des instance based learning ist der k means Algorithmus eine einfache Methode ist, die Jahrzehnte lang verwendet wurde. Methode : 1. Zuerst wählt man den Parameter k, der angibt, wieviel Cluster gebildet werden sollen. 2. Man wähle k Punkte zufällig aus, die dann als Zentrum eines jeweiligen Clusters dienen. 3. Die Instanzen werden nun zu ihrem nächsten Zentrum zugeteilt, wobei als Metrik die euklidische Abstandsfunktion dient. 4. Jetzt werden von diesen Clustern die Flächenschwerpunkte ausgerechnet. 5. Nun verwende die errechneten Schwerpunkte als neue Zentren für das Clustering. 6. Beginne mit diesen neuen Punkten wieder bei 3. bis sich keine Änderung mehr einstellt. Die Zentren haben sich stabilisiert und bleiben konstant. Problem : Der Algorithmus findet nicht immer eine vernünftige Gruppierung. Denn zum Beispiel sollten 4 Daten wie ein Rechteck angeordnet sein, so kann man an fast jeder Stelle die Anfangspunkte wählen und bekommt dann Cluster, welche jeweils die beiden Punkte an der kurzen Seite beinhalten. Sollte man aber die Anfangspunkte auf die beiden Seitenhalbierenden der langen Seite legen hat man auch eine stabile Form. Es befinden sich aber nun die beiden Punkte im Cluster, die durch die lange Seite getrennt wurden, welches nicht der Sinn dieses Algorithmus ist.

3 Um die Chancen zu steigern, ein globales Minimum zu finden, wiederholt man den ganzen Algorithmus mehrmals mit verschiedenen Ausgangspunkten und wählt danach die beste Aufteilung. Incremental clustering Die zweite Methode wurde in den späten 80iger Jahren entwickelt und durch zwei Systeme begründet, COBWEB für nominale Attribute und CLASSIT für numerische Attribute. Die Instanzen werden beim Clustering hierarchisch angeordnet. Die Instanzen werden in einen Baum eingeordnet. Dabei kann es vorkommen, daß nur eine Instanz in ein Blatt eingeordnet werden muß oder man eine radikale Umstrukturierung des Baumes vornehmen muß. Dazu benötigt man die Category utility, die die allgemeine Qualität der Teilung von Instanzen mißt. Anhand der folgenden Beispieldaten soll der Algorithmus erklärt werden. Man nimmt nun die erste Zeile und hängt sie an die Wurzel an ( Bild a ), wobei man eigentlich die Spalte play für die Einordnung weggelassen hat und im Diagramm nur notiert hat. Man rechnet nun mit der Category utility den Wert der Wahrscheinlichkeit eines Attributes aus, daß dieses Attribut in ein bestimmtes Cluster gehört. Man kann somit vergleichen, ob ein schon bestehender Knoten ein guter Wirt für den neuen Knoten wäre. Dies ist bei den ersten fünf Knoten nicht der Fall ( Bild b ). Die Zeile e und f unterscheiden sich nur in einem Wert nämlich windy und somit können diese beiden Blätter unter einem Knoten zusammengefaßt werden ( Bild c ). Die Zeile g wird jetzt wiederum an dieses neue Cluster angehängt, da es sich von f nur im Wert von outlook unterscheidet. Die Prozedur des Einordnens geht nun so von statten : Erst vergleicht man den Wert von g mit den fünf oberen Knoten und entscheidet daran in welchen er eingeordnet werden kann. Dies ist der Knoten ganz rechts. Darauf vergleicht man den Wert mit den schon bestehenden Blättern und erhält als Antwort, daß g ein neues Blatt bilden soll ( Bild d ).

4 Um nun h einzuordnen werden nun die Blätter a und d zusammengefaßt, da a der beste Vergleicher und d der zweitbeste Vergleicher in der obersten Etage ist. Diese werden beide von der category utility gespeichert, da sich h gegenüber a nur in temperature unterscheidet und gegenüber d nur in outlook. Da beide Werte gleich sind, werden sie nun zusammengefaßt und h dazu gehängt ( Bild e ). Wenn man diesen Algorithmus nun weiter verfolgt gelangt man dann für die Anfangsdaten zu einem Baum mit zwei Hauptclustern, welche wiederum Untercluster haben ( Bild f ). Bei diesem Algorithmus werden zwei Operationen angewandt. Die Erste ist merging. Dabei werden Blätter eines Clusters zusammengefaßt und bilden ein Untercluster. Im Beispiel wurde durch das Einfügen des h Blattes ein merge verursacht zwischen a und d. Die zweite Operation ist splitting, welche angewandt wird, wenn man den Besten Wirt identifiziert hat, aber das merging sich als nicht profitabel herausgestellt hat. Beim splitting wird genau das Gegenteil des merging gemacht indem man ein Knoten durch seine Kinder ersetzt. Beispiel hierfür wäre, wenn man in Bild d die Blätter e, f und g splitten würde, bekäme man die Wurzel und daran alle sieben Blätter auf der gleichen Ebene ( von a g ). In diesem Beispiel sieht man, daß nicht immer ein gutes Clustering entsteht. Es gibt hier kein reines Clustering, wo nur yes oder no steht. Es kommt bei der Eingabe auf die Reihenfolge an, denn Zeile a und Zeile b unterscheiden sich nur im Wert windy, enden aber in zwei völlig verschiedenen Clustern. Dies liegt daran, daß b sofort nach a kam und deshalb kein Untercluster bildete.

5 Category utility Die Category utility dient zur Berechnung zu welchem Blatt oder Knoten eine neue Instanz gehören soll. Formel für nominale Instanzen : Die Doppelsumme summiert alle Attribute. ai ist das i-te Attribut. Dieses Attribut hat die Werte vi1, vi2,..., die über j summiert werden. Die Summierung über l rechnet dann die Cluster mit ein. Im Inneren wird die Wahrscheinlichkeit, daß ein Attribut vorhanden ist von der Wahrscheinlichkeit, daß ein Attribut in diesem Cluster liegt abgezogen. Hat man nur ein Cluster, so ist die Differenz 0 und man erhält kein gutes Ergebnis. Sobald man mehrere Cluster bildet, erhält man unterschiedliche Wahrscheinlichkeiten und kann dann das Attribut einordnen, denn Ziel ist es, daß die Differenz möglichst groß wird. Durch k wird geteilt, da man ansonsten jeder Instanz ein eigens Cluster geben würde, und man sich dadurch nichts gespart hat. Am vorherigen Beispiel sieht man die Auswirkung dieser Formel am Besten. Um numerische Attribute zu verwenden wird mit der Normalverteilung gearbeitet und nach einigen Umformungen erhält man die Formel : Die äußere Summierung ist dieselbe, wie bei der Formel für nominale Attribute. In der Klammer wird von der Standardabweichung des Clusters die Standardabweichung des Attributes subtrahiert. Hier gilt ebenfalls, daß die Differenz möglichst groß sein sollte. Der Klammerausdruck ähnelt der Differenz der nominalen Formel, da dasselbe Ziel verfolgt wird. Probability based clustering Die Grundlage des statistischen Clustering ist das statistische finite mixture Modell. Dieses Clustering arbeitet nur noch mit numerischen Werten. Eine mixture ist ein Satz von Wahrscheinlichkeiten, die k Cluster darstellen, die die Attributwerte des jeweiligen Clusters abdecken. Hier hat jedes Cluster eine andere Verteilung. Jede Instanz gehört nur zu einem Cluster. Die Cluster sind nicht gleich wahrscheinlich, weil es eine Wahrscheinlichkeitsverteilung gibt, die die relative Bevölkerung dieses Clusters angibt. Die einfachste finite mixture Situation ist es, wenn man nur ein numerisches Attribut hat, das für jedes Cluster eine Gauß- oder Normalverteilung besitzt. Am Beispiel soll dieses näher erklärt werden. Man hat zwei Cluster A und B, welche beide einen Mittelwert

6 eine Standardabweichung und eine Wahrscheinlichkeit p haben. p gibt an, mit welcher Wahrscheinlichkeit eine Instanz zum Cluster A beziehungsweise zum Cluster B gehört. Hierbei kann A durch die Formel pa = ( 1 pb ) berechnet werden. Haben wir nun eine Instanz x gehört sie mit einer bestimmten Wahrscheinlichkeit zum Cluster A. Diese kann durch die Formeln ausgerechnet werden. Problem : Normalerweise kennt man weder die Verteilung noch die fünf Parameter ( zwei Mal der Mittelwert, zwei Mal die Standardabweichung und die Wahrscheinlichkeit ). Ein möglicher Algorithmus zur Berechnung dieser Parameter ist der EM Algorithmus.

7 Der EM Algorithmus Der EM Algorithmus ähnelt der Prozedur des k means Algorithmus und wiederholt diese. 1. Man mache eine Anfangsannahme für die fünf Parameter. 2. Verwende diese Werte um die Clusterwahrscheinlichkeit zu berechnen. 3. Verwende diese Wahrscheinlichkeiten, um die Parameter wieder auszurechnen. 4. Beginne wieder mit 2. Dieser Algorithmus hat nur ein Problem. Man kennt nur die Clusterwahrscheinlichkeiten und nicht die Cluster selbst. Diese Wahrscheinlichkeiten verhalten sich aber wie Gewichte. Die Wahrscheinlichkeiten wi ist die Wahrscheinlichkeit, daß die Instanz i zum Cluster A gehört. Um die Wahrscheinlichkeit zu berechnen kann wieder die Formel berechnet werden. Der EM Algorithmus hat aber noch ein weiteres Problem, da er in die Richtung eines festen Punktes konvergiert, diesen aber nie erreicht. Hier wird wieder nur ein lokales Maximum berechnet, das sich vom globalen stark unterscheiden kann. Aus diesem Grund sollte man mehrere Wiederholungen mit unterschiedlichen Anfangswerten für die Parameter durchführen. Extending the Mixture Model Extending the mixture Model ist die Anpassung des probability based Algorithmus auf die Realität, da man nicht nur mit zwei Klassen arbeitet. Die Basismethode ist dieselbe, wird jetzt nur auf mehrere Klassen angewandt. Die Wahrscheinlichkeiten jedes Attributes werden multipliziert, um die Gemeinschaftswahrscheinlichkeit für die Instanzen zu erhalten. Wenn bekannt ist, daß die Datei korrelierte Attribute enthält, kann man daraus folgern, daß die Unabhängigkeitsannahme nicht länger gültig ist. Mit n unabhängigen Attributen erhält man für jedes Attribut einen Mittelwert und eine Standardabweichung. Mit n covarianten Attributen erhält man n + n (n+1) / 2 Parameter und eine n x n Covarianzmatrix. Ein nominales Attribut mit v möglichen Werten wird durch v Zahlen charakterisiert, die die Wahrscheinlichkeit darstellen. Und ein anderer Satz an Zahlen wird für jede Klasse gebraucht, damit k * v Parameter im Ganzen. k steht für die Anzahl der Cluster. Wenn beide Formen ( numerische wie nominale Attribute ) verwendet werden ist es für diesen Algorithmus kein Problem. Fehlende Werte werden einfach weggelassen.

8 Bayesian clustering Das größte Problem des probability - based clustering ist das overfitting. Overfitting kann hier in zwei Formen auftreten: 1. Man wählt eine zu große Anzahl an Clustern 2. Man wählt eine Verteilung mit zu vielen Parametern. Der extremste Fall des ersten overfitting wäre, wenn man jeder Instanz ein eigenes Cluster zuordnen würde. Das zweite overfitting tritt ein, weil man nicht weiß, wie viele der Attribute kovariant sind. Deshalb sollte man verschiedene Möglichkeiten ausprobieren und wählt dann das Maximum. Man benützt die Bayes Methode um overfitting zu vermeiden. bayesian clustering AUTOCLASS ist ein bayes clustering Schema, daß das finite mixture Modell benützt. Es kann sowohl numerische als auch nominale Attribute verwenden und benützt den EM Algorithmus um zu schätzen, ob die Parameter der Wahrscheinlichkeitsverteilung am Besten zu den Daten passen. Der EM Algorithmus wird mehrere Male wiederholt, da man ja nicht gleich das globale Maximum erhält. Doch AUTOCLASS kann noch mehr, denn es betrachtet verschiedene Anzahlen von Clustern und betrachtet Maße der Kovarianz und verschiedene Wahrscheinlichkeitsverteilungsarten für die numerischen Attribute.

5. Clusteranalyse. Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften

5. Clusteranalyse. Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften 5. Clusteranalyse Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften benennen und anwenden können, einen Test auf das Vorhandensein einer Clusterstruktur kennen, verschiedene

Mehr

2. Datenvorverarbeitung

2. Datenvorverarbeitung Kurzreferat Das Ziel beim Clustering ist es möglichst gleich Datensätze zu finden und diese in Gruppen, sogenannte Cluster zu untergliedern. In dieser Dokumentation werden die Methoden k-means und Fuzzy

Mehr

Naive Bayes. Naive Bayes

Naive Bayes. Naive Bayes Naive Bayes Ein einfacher Klassifikator Wolfgang Konen Fachhochschule Köln November 007 W. Konen DMC WS007 Seite - 1 informatikö Inhalt Naive Bayes Der Ansatz Beispiel Wetterdaten Bayes sche Regel Das

Mehr

Hä?! Ich gebe dir zwei Beispiele, schau einfach mal! Kapitel 5: Berechnen wir die Wahrscheinlichkeit!

Hä?! Ich gebe dir zwei Beispiele, schau einfach mal! Kapitel 5: Berechnen wir die Wahrscheinlichkeit! Jetzt kommen wir zum Hauptgang des heutigen Tages! Endlich, ich hab Hunger! Der Bereich zwischen der Kurve und der x-achse kann als Prozentsatz und Wahrscheinlichkeit betrachtet werden beides! Hä?! o dw

Mehr

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke Vorlesungsplan 17.10. Einleitung 24.10. Ein- und Ausgabe 31.10. Reformationstag, Einfache Regeln 7.11. Naïve Bayes, Entscheidungsbäume 14.11. Entscheidungsregeln, Assoziationsregeln 21.11. Lineare Modelle,

Mehr

Bayes sches Lernen: Übersicht

Bayes sches Lernen: Übersicht Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 5: Naive Bayes + IBL (V.

Mehr

Vorab : Von dem indischen Mathematiker D. R. Kaprekar stammt folgender Zusammenhang :

Vorab : Von dem indischen Mathematiker D. R. Kaprekar stammt folgender Zusammenhang : Seite 1 Algorithmen zur Erzeugung von Kaprekar- Konstanten Autor : Dipl.- Ing. Josef Meiler ; Datum : März 015 Vorab : Von dem indischen Mathematiker D. R. Kaprekar stammt folgender Zusammenhang : a) man

Mehr

Sortierverfahren für Felder (Listen)

Sortierverfahren für Felder (Listen) Sortierverfahren für Felder (Listen) Generell geht es um die Sortierung von Daten nach einem bestimmten Sortierschlüssel. Es ist auch möglich, daß verschiedene Daten denselben Sortierschlüssel haben. Es

Mehr

Mathematik: LehrerInnenteam Arbeitsblatt Semester ARBEITSBLATT 12. Erwartungswert, Varianz und Standardabweichung

Mathematik: LehrerInnenteam Arbeitsblatt Semester ARBEITSBLATT 12. Erwartungswert, Varianz und Standardabweichung Mathematik: LehrerInnenteam Arbeitsblatt 7-7. Semester ARBEITSBLATT Erwartungswert, Varianz und Standardabweichung Die Begriffe Varianz und Standardabweichung sind uns bereits aus der Statistik bekannt

Mehr

Übungen mit dem Applet Vergleich von zwei Mittelwerten

Übungen mit dem Applet Vergleich von zwei Mittelwerten Vergleich von zwei Mittelwerten 1 Übungen mit dem Applet Vergleich von zwei Mittelwerten 1 Statistischer Hintergrund... 2 1.1 Typische Fragestellungen...2 1.2 Fehler 1. und 2. Art...2 1.3 Kurzbeschreibung

Mehr

1 Dichte- und Verteilungsfunktion

1 Dichte- und Verteilungsfunktion Tutorium Yannick Schrör Klausurvorbereitungsaufgaben Statistik Lösungen Yannick.Schroer@rub.de 9.2.26 ID /455 Dichte- und Verteilungsfunktion Ein tüchtiger Professor lässt jährlich 2 Bücher drucken. Die

Mehr

Mathematische Grundlagen III

Mathematische Grundlagen III Mathematische Grundlagen III Maschinelles Lernen II: Klassifikation mit Entscheidungsbäumen Vera Demberg Universität des Saarlandes 12. Juli 2012 Vera Demberg (UdS) Mathe III 12. Juli 2012 1 / 38 Einleitung

Mehr

Microsoft Excel 2007 Basis. Leseprobe

Microsoft Excel 2007 Basis. Leseprobe Microsoft Excel 2007 Basis Kapitel 4 - Mit Formeln und Funktionen arbeiten 4.1 Formeln und Funktionen eingeben 4.1.1 Aufbau von Formeln und mathematische Operatoren in Formeln 4.1.2 Aufbau von Funktionen

Mehr

Kapitel ML:IV (Fortsetzung)

Kapitel ML:IV (Fortsetzung) Kapitel ML:IV (Fortsetzung) IV. Statistische Lernverfahren Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen ML:IV-18 Statistical Learning c STEIN 2005-2011 Satz 3 (Bayes)

Mehr

Kenngrößen von Zufallsvariablen

Kenngrößen von Zufallsvariablen Kenngrößen von Zufallsvariablen Die Wahrscheinlichkeitsverteilung kann durch die sogenannten Kenngrößen beschrieben werden, sie charakterisieren sozusagen die Verteilung. Der Erwartungswert Der Erwartungswert

Mehr

SS 2016 Torsten Schreiber

SS 2016 Torsten Schreiber SS 01 Torsten Schreiber 15 Ein lineares Gleichungssystem besteht immer aus einer Anzahl an Variablen und Gleichungen. Die Zahlen vor den Variablen werden in der sogenannten zusammen gefasst und die Zahlen

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

Zeichnen von Graphen. graph drawing

Zeichnen von Graphen. graph drawing Zeichnen von Graphen graph drawing WS 2006 / 2007 Gruppe: D_rot_Ala0607 Christian Becker 11042315 Eugen Plischke 11042351 Vadim Filippov 11042026 Gegeben sei ein Graph G = (V; E) Problemstellung V E =

Mehr

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität 1 Clustering: Partitioniere Objektmenge in Gruppen(Cluster), so dass sich Objekte in einer Gruppe ähnlich sind und Objekte

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016 Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online

Mehr

Künstliche Intelligenz Maschinelles Lernen

Künstliche Intelligenz Maschinelles Lernen Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen

Mehr

Clusteranalyse: Gauß sche Mischmodelle

Clusteranalyse: Gauß sche Mischmodelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir

Mehr

Grundlegende Eigenschaften von Punktschätzern

Grundlegende Eigenschaften von Punktschätzern Grundlegende Eigenschaften von Punktschätzern Worum geht es in diesem Modul? Schätzer als Zufallsvariablen Vorbereitung einer Simulation Verteilung von P-Dach Empirische Lage- und Streuungsparameter zur

Mehr

Statistische Auswertung in der Betriebsprüfung

Statistische Auswertung in der Betriebsprüfung Dr. Harald Krehl Der Einsatz verteilungsbezogener Verfahren Der Einsatz verteilungsbezogener Verfahren etwa des Benford- Newcomb Verfahrens oder der Normalverteilung bzw. der LogNormalverteilung in der

Mehr

3. Das Reinforcement Lernproblem

3. Das Reinforcement Lernproblem 3. Das Reinforcement Lernproblem 1. Agierender Agent in der Umgebung 2. Discounted Rewards 3. Markov Eigenschaft des Zustandssignals 4. Markov sche Entscheidung 5. Werte-Funktionen und Bellman sche Optimalität

Mehr

1. Allgemeine Hinweise Alexander.Martin.Koenig@TU-Clausthal.de

1. Allgemeine Hinweise Alexander.Martin.Koenig@TU-Clausthal.de 1. Allgemeine Hinweise Alexander.Martin.Koenig@TU-Clausthal.de Man sollte eine Excel-Tabelle immer so übersichtlich wie möglich halten. Dazu empfiehlt es sich, alle benötigten Daten, Konstanten und Messwerte

Mehr

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über

Mehr

9 Faktorenanalyse. Wir gehen zunächst von dem folgenden Modell aus (Modell der Hauptkomponentenanalyse): Z = F L T

9 Faktorenanalyse. Wir gehen zunächst von dem folgenden Modell aus (Modell der Hauptkomponentenanalyse): Z = F L T 9 Faktorenanalyse Ziel der Faktorenanalyse ist es, die Anzahl der Variablen auf wenige voneinander unabhängige Faktoren zu reduzieren und dabei möglichst viel an Information zu erhalten. Hier wird davon

Mehr

Randomisierte Algorithmen 2. Erste Beispiele

Randomisierte Algorithmen 2. Erste Beispiele Randomisierte Algorithmen Randomisierte Algorithmen 2. Erste Beispiele Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2016/2017 1 / 35 Randomisierter Identitätstest

Mehr

Dynamisches Huffman-Verfahren

Dynamisches Huffman-Verfahren Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über

Mehr

Motivation. Themenblock: Klassifikation. Binäre Entscheidungsbäume. Ansätze. Praktikum: Data Warehousing und Data Mining.

Motivation. Themenblock: Klassifikation. Binäre Entscheidungsbäume. Ansätze. Praktikum: Data Warehousing und Data Mining. Motivation Themenblock: Klassifikation Praktikum: Data Warehousing und Data Mining Ziel Item hat mehrere Attribute Anhand von n Attributen wird (n+)-tes vorhergesagt. Zusätzliches Attribut erst später

Mehr

Bayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L

Bayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L Bayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L Inhalt Grundlagen aus der Wahrscheinlichkeitsrechnung Hypothesenwahl Optimale Bayes Klassifikator Naiver Bayes Klassifikator

Mehr

Einführung in die Wahrscheinlichkeitsrechnung

Einführung in die Wahrscheinlichkeitsrechnung Einführung in die Wahrscheinlichkeitsrechnung Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de Statistik 1 S. Garbade (SRH Heidelberg) Wahrscheinlichkeitsrechnung

Mehr

Arbeiten mit Excel. 1. Allgemeine Hinweise

Arbeiten mit Excel. 1. Allgemeine Hinweise 1. Allgemeine Hinweise Man sollte eine Excel Tabelle immer so übersichtlich wie möglich halten. Dazu empfiehlt es sich, alle benötigten Daten, Konstanten und Messwerte inklusive aller dazugehörigen Einheiten

Mehr

Anleitung: Standardabweichung

Anleitung: Standardabweichung Anleitung: Standardabweichung So kann man mit dem V200 Erwartungswert und Varianz bzw. Standardabweichung bei Binomialverteilungen für bestimmte Werte von n, aber für allgemeines p nach der allgemeinen

Mehr

Brückenkurs Statistik für Wirtschaftswissenschaften

Brückenkurs Statistik für Wirtschaftswissenschaften Peter von der Lippe Brückenkurs Statistik für Wirtschaftswissenschaften Weitere Übungsfragen UVK Verlagsgesellschaft mbh Konstanz Mit UVK/Lucius München UVK Verlagsgesellschaft mbh Konstanz und München

Mehr

Personalisierung. Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung. Data Mining.

Personalisierung. Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung. Data Mining. Personalisierung Personalisierung Thomas Mandl Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung Klassifikation Die Nutzer werden in vorab bestimmte Klassen/Nutzerprofilen

Mehr

5 Zwei spieltheoretische Aspekte

5 Zwei spieltheoretische Aspekte 5 Zwei spieltheoretische Aspekte In diesem Kapitel wollen wir uns mit dem algorithmischen Problem beschäftigen, sogenannte Und-Oder-Bäume (kurz UOB) auszuwerten. Sie sind ein Spezialfall von Spielbäumen,

Mehr

Carl-Engler-Schule Karlsruhe Physik-Labor (BS/BK/FS) 1 (5)

Carl-Engler-Schule Karlsruhe Physik-Labor (BS/BK/FS) 1 (5) Carl-Engler-Schule Karlsruhe Physik-Labor (BS/BK/FS) (5) Laborversuch: Bessel-Verfahren. Grundlagen Bei der Bestimmung der Brennweite einer Sammellinse lassen sich die Gegenstands- und Bildweite direkt

Mehr

Datenstrukturen & Algorithmen

Datenstrukturen & Algorithmen Datenstrukturen & Algorithmen Matthias Zwicker Universität Bern Frühling 2010 Übersicht Dynamische Programmierung Einführung Ablaufkoordination von Montagebändern Längste gemeinsame Teilsequenz Optimale

Mehr

Anpassungstests VORGEHENSWEISE

Anpassungstests VORGEHENSWEISE Anpassungstests Anpassungstests prüfen, wie sehr sich ein bestimmter Datensatz einer erwarteten Verteilung anpasst bzw. von dieser abweicht. Nach der Erläuterung der Funktionsweise sind je ein Beispiel

Mehr

4. Erstellen von Klassen

4. Erstellen von Klassen Statistik mit Tabellenkalkulation 4. Erstellen von Klassen Mit einem einfachen Befehl lässt sich eine Liste von Zahlen auf die Häufigkeit der einzelnen Werte untersuchen. Verwenden Sie dazu den Befehl

Mehr

Anhang 6. Eingangstest II. 1. Berechnen Sie den Durchschnitt von 6 + 3,9 + 12, 0 = 2. Berechnen Sie: : = 3. Berechnen Sie: = 3 und 6

Anhang 6. Eingangstest II. 1. Berechnen Sie den Durchschnitt von 6 + 3,9 + 12, 0 = 2. Berechnen Sie: : = 3. Berechnen Sie: = 3 und 6 Anhang 6 Eingangstest II 1. Berechnen Sie den Durchschnitt von 6 + 3,9 + 12, 0 = 8 4 2. Berechnen Sie: : = 3 1 2x x 3. Berechnen Sie: = 9 9 4. Wie groß ist die Summe von 4 3 und 6?. Berechnen Sie: 3 (

Mehr

Änderungsbekanntgabe vom

Änderungsbekanntgabe vom Änderungsbekanntgabe vom 28.07.2010 Mit Inkrafttreten der 19. Verordnung zur Änderung der Risikostruktur-Ausgleichsverordnung haben sich Verfahrensänderungen für die Ausgleichsjahre 2009 und 2010 ergeben,

Mehr

Anleitung zum Java - Applet

Anleitung zum Java - Applet Anleitung zum Java - Applet Stetige Verteilungen Visualisierung von Wahrscheinlichkeit und Zufallsstreubereich bearbeitet von: WS 2004 / 2005 E/TI 7 betreut von: Prof. Dr. Wilhelm Kleppmann Inhaltsverzeichnis

Mehr

Lage- und Streuungsparameter

Lage- und Streuungsparameter Lage- und Streuungsparameter Beziehen sich auf die Verteilung der Ausprägungen von intervall- und ratio-skalierten Variablen Versuchen, diese Verteilung durch Zahlen zu beschreiben, statt sie graphisch

Mehr

Dieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen.

Dieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen. Dieses Quiz soll Ihnen helfen, Kapitel 2.5-2. besser zu verstehen. Frage Wir betrachten ein Würfelspiel. Man wirft einen fairen, sechsseitigen Würfel. Wenn eine oder eine 2 oben liegt, muss man 2 SFr zahlen.

Mehr

Prof. Dr. Christoph Kleinn Institut für Waldinventur und Waldwachstum Arbeitsbereich Waldinventur und Fernerkundung

Prof. Dr. Christoph Kleinn Institut für Waldinventur und Waldwachstum Arbeitsbereich Waldinventur und Fernerkundung Systematische Stichprobe Rel. große Gruppe von Stichprobenverfahren. Allgemeines Merkmal: es existiert ein festes, systematisches Muster bei der Auswahl. Wie passt das zur allgemeinen Forderung nach Randomisierung

Mehr

Basiswissen Daten und Zufall Seite 1 von 8 1 Zufallsexperiment Ein Zufallsexperiment ist ein Versuchsaufbau mit zufälligem Ausgang, d. h. das Ergebnis kann nicht vorhergesagt werden. 2 Ergebnis (auch Ausgang)

Mehr

Bayessches Lernen Aufgaben

Bayessches Lernen Aufgaben Bayessches Lernen Aufgaben martin.loesch@kit.edu (0721) 608 45944 Aufgabe 1: Autodiebstahl-Beispiel Wie würde man ein NB-Klassifikator für folgenden Datensatz aufstellen? # Color Type Origin Stolen? 1

Mehr

Bitte am PC mit Windows anmelden!

Bitte am PC mit Windows anmelden! Einführung in SPSS Plan für heute: Grundlagen/ Vorwissen für SPSS Vergleich der Übungsaufgaben Einführung in SPSS http://weknowmemes.com/generator/uploads/generated/g1374774654830726655.jpg Standardnormalverteilung

Mehr

Wahrscheinlichkeitstheorie und Statistik vom

Wahrscheinlichkeitstheorie und Statistik vom INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen

Mehr

Anhang 5. Eingangstest I. 2. Berechnen Sie den Durchschnitt von 6 + 3,9 + 12, 0 = 3 und Wie groß ist die Summe von Berechnen Sie: : =

Anhang 5. Eingangstest I. 2. Berechnen Sie den Durchschnitt von 6 + 3,9 + 12, 0 = 3 und Wie groß ist die Summe von Berechnen Sie: : = Anhang 5 Eingangstest I 1. Berechnen Sie: 63,568 1000 = 2. Berechnen Sie den Durchschnitt von 6 + 3,9 + 12, 0 = 3. Wie groß ist die Summe von 4 3 und 6 5? 8 4 4. Berechnen Sie: : = 35 15 5. Berechnen Sie:

Mehr

Da die Hieroglyphen in der Präsentation nicht erkennbar waren, hier Kopien der Folien.

Da die Hieroglyphen in der Präsentation nicht erkennbar waren, hier Kopien der Folien. Da die Hieroglyphen in der Präsentation nicht erkennbar waren, hier Kopien der Folien. Die ältesten Zahlenangaben stammen aus der 1. und 2. Dynastie, die zwischen 3300 und 2740 vor Christus einzuordnen

Mehr

Bitte bearbeite zunächst alle Aufgaben bevor du einen Blick in die Lösungen wirfst.

Bitte bearbeite zunächst alle Aufgaben bevor du einen Blick in die Lösungen wirfst. Übungsblatt 2 - Varianz, Standardabweichung, Kovarianz Das zweite Übungsblatt umfasst die Themen Varianz, Standardabweichung und Kovarianz. Hinter den Aufgaben steht wie gewohnt in Klammern die durchschnittliche

Mehr

TECHNISCHE UNIVERSITÄT MÜNCHEN FAKULTÄT FÜR INFORMATIK

TECHNISCHE UNIVERSITÄT MÜNCHEN FAKULTÄT FÜR INFORMATIK TECHNISCHE UNIVERSITÄT MÜNCHEN FAKULTÄT FÜR INFORMATIK Lehrstuhl für Sprachen und Beschreibungsstrukturen SS 2009 Grundlagen: Algorithmen und Datenstrukturen Übungsblatt 11 Prof. Dr. Helmut Seidl, S. Pott,

Mehr

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de rbu leh ch s plu psych Heinz Holling Günther Gediga hogrefe.de Bachelorstudium Psychologie Statistik Testverfahren 18 Kapitel 2 i.i.d.-annahme dem unabhängig. Es gilt also die i.i.d.-annahme (i.i.d = independent

Mehr

Corinne Schenka Vorkurs Mathematik WiSe 2012/13

Corinne Schenka Vorkurs Mathematik WiSe 2012/13 4. Lineare Gleichungssysteme Ein lineares Gleichungssystem ist ein System aus Gleichungen mit Unbekannten, die nur linear vorkommen. Dieses kann abkürzend auch in Matrizenschreibweise 1 notiert werden:

Mehr

Wie viele Produkte müssen zerstörend in der Qualitätskontrolle geprüft werden? DRK-Blutspendedienst West

Wie viele Produkte müssen zerstörend in der Qualitätskontrolle geprüft werden? DRK-Blutspendedienst West Wie viele Produkte müssen zerstörend in der Qualitätskontrolle geprüft werden? Einschlägige Regelungen Es sind regelmäßig Qualitätskontrollen an Stichproben aus der laufenden Herstellung durchzuführen.

Mehr

12 (2-4)-Bäume Implementierbare Funktionen. (2-4)-Bäume sind durch folgende Eigenschaften deniert: 1. Alle Äste sind gleich lang

12 (2-4)-Bäume Implementierbare Funktionen. (2-4)-Bäume sind durch folgende Eigenschaften deniert: 1. Alle Äste sind gleich lang 12 (2-4)-Bäume (2-4)-Bäume sind durch folgende Eigenschaften deniert: 1. Alle Äste sind gleich lang 2. Die Ordnung (maximale Anzahl der Söhne eines Knotens) ist gleich 4 3. Innere Knoten haben 2 Söhne

Mehr

Kombinatorik: Abzählverfahren (Teschl/Teschl 7) Summenregel. Allgemeiner

Kombinatorik: Abzählverfahren (Teschl/Teschl 7) Summenregel. Allgemeiner Kombinatorik: Abzählverfahren Teschl/Teschl 7 Fragestellung: Wie viele verschiedene Möglichkeiten gibt es, Elemente auszuwählen, z. B. Anzahl verschiedener möglicher Passwörter, IPAdressen, Zahlenkombinationen

Mehr

Sonderanhang: Manuelle Berechnungen der Statistikaufgaben

Sonderanhang: Manuelle Berechnungen der Statistikaufgaben Albert/Marx 04: Empirisches Arbeiten Sonderanhang: Manuelle Berechnungen der Statistikaufgaben Kaum jemand führt heutzutage statistische Berechnungen noch von Hand durch, weil es sehr viele Computerprogramme

Mehr

Professionelle Seminare im Bereich MS-Office

Professionelle Seminare im Bereich MS-Office Der Name BEREICH.VERSCHIEBEN() ist etwas unglücklich gewählt. Man kann mit der Funktion Bereiche zwar verschieben, man kann Bereiche aber auch verkleinern oder vergrößern. Besser wäre es, die Funktion

Mehr

Streaming Data: Das Modell

Streaming Data: Das Modell Streaming Data: Das Modell Berechnungen, bei fortlaufend einströmenden Daten (x t t 0), sind in Echtzeit zu erbringen. Beispiele sind: - Verkehrsmessungen im Internet, - Datenanalyse in der Abwehr einer

Mehr

Clustering von Dokumenten (k-means, HCL)

Clustering von Dokumenten (k-means, HCL) Clustering von Dokumenten (k-means, HCL) Jonas Wolz Universität Ulm Zusammenfassung Ein Überblick über das Clustering von Dokumenten. Außerdem werden zwei dafür verwendete Algorithmen vorgestellt (k-means

Mehr

Grundwissen zur Stochastik

Grundwissen zur Stochastik Grundwissen zur Stochastik Inhalt: ABHÄNGIGE EREIGNISSE...2 ABHÄNGIGKEIT UND UNABHÄNGIGKEIT VON ERGEBNISSEN...2 ABHÄNGIGKEIT UND UNABHÄNGIGKEIT VON MERKMALEN IN VIERFELDERTAFELN...2 ABSOLUTE HÄUFIGKEIT...2

Mehr

Grundbegriffe der Wahrscheinlichkeitsrechnung

Grundbegriffe der Wahrscheinlichkeitsrechnung Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.

Mehr

Übung 1: Wiederholung Wahrscheinlichkeitstheorie

Übung 1: Wiederholung Wahrscheinlichkeitstheorie Übung 1: Wiederholung Wahrscheinlichkeitstheorie Ü1.1 Zufallsvariablen Eine Zufallsvariable ist eine Variable, deren numerischer Wert solange unbekannt ist, bis er beobachtet wird. Der Wert einer Zufallsvariable

Mehr

Grundlagen und Basisalgorithmus

Grundlagen und Basisalgorithmus Grundlagen und Basisalgorithmus Proseminar -Genetische Programmierung- Dezember 2001 David König Quelle: Kinnebrock W.: Optimierung mit genetischen und selektiven Algorithmen. München, Wien: Oldenbourg

Mehr

Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze

Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze Erich Schubert 6. Juli 2003 LMU München, Institut für Informatik, Erich Schubert Zitat von R. P. Feynman Richard P. Feynman (Nobelpreisträger

Mehr

Gruber I Neumann. Erfolg in VERA-8. Vergleichsarbeit Mathematik Klasse 8 Gymnasium

Gruber I Neumann. Erfolg in VERA-8. Vergleichsarbeit Mathematik Klasse 8 Gymnasium Gruber I Neumann Erfolg in VERA-8 Vergleichsarbeit Mathematik Klasse 8 Gymnasium . Zahlen Zahlen Tipps ab Seite, Lösungen ab Seite 0. Zahlen und Zahlenmengen Es gibt verschiedene Zahlenarten, z.b. ganze

Mehr

Alle bislang betrachteten Sortieralgorithmen hatten (worst-case) Laufzeit Ω(nlog(n)).

Alle bislang betrachteten Sortieralgorithmen hatten (worst-case) Laufzeit Ω(nlog(n)). 8. Untere Schranken für Sortieren Alle bislang betrachteten Sortieralgorithmen hatten (worst-case) Laufzeit Ω(nlog(n)). Werden nun gemeinsame Eigenschaften dieser Algorithmen untersuchen. Fassen gemeinsame

Mehr

Fehlerrechnung. Einführung. Jede Messung ist fehlerbehaftet! Ursachen:

Fehlerrechnung. Einführung. Jede Messung ist fehlerbehaftet! Ursachen: Fehlerrechnung Einführung Jede Messung ist fehlerbehaftet! Ursachen: Ablesefehler (Parallaxe, Reaktionszeit) begrenzte Genauigkeit der Messgeräte falsche Kalibrierung/Eichung der Messgeräte Digitalisierungs-Fehler

Mehr

KAPITEL 2. Kombinatorik

KAPITEL 2. Kombinatorik KAPITEL 2 Kombinatori In der Kombinatori geht es um das Abzählen von Kombinationen 21 Geburtstagsproblem Beispiel 211 (Geburtstagsproblem In einem Raum befinden sich 200 Studenten Wie groß ist die Wahrscheinlicheit,

Mehr

Statistik. Jan Müller

Statistik. Jan Müller Statistik Jan Müller Skalenniveau Nominalskala: Diese Skala basiert auf einem Satz von qualitativen Attributen. Es existiert kein Kriterium, nach dem die Punkte einer nominal skalierten Variablen anzuordnen

Mehr

Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp

Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp Datenanalyse (PHY31) Herbstsemester 015 Olaf Steinkamp 36-J- olafs@physik.uzh.ch 044 63 55763 Einführung, Messunsicherheiten, Darstellung von Messdaten Grundbegriffe der Wahrscheinlichkeitsrechnung und

Mehr

Statistik II Übung 1: Einfache lineare Regression

Statistik II Übung 1: Einfache lineare Regression Statistik II Übung 1: Einfache lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen dem Lohneinkommen von sozial benachteiligten Individuen (16-24 Jahre alt) und der Anzahl der

Mehr

Amortisierte Analysen

Amortisierte Analysen Amortisierte Analysen 26. Mai 2016 1 Einleitung Es gibt viele Datenstrukturen, bei deren Komplexitätsanalyse das Problem auftaucht, dass die Ausführung mancher Operationen Einfluss auf die Komplexität

Mehr

6 Vertiefende Themen aus des Mechanik

6 Vertiefende Themen aus des Mechanik 6 Vertiefende Themen aus des Mechanik 6.1 Diagramme 6.1.1 Steigung einer Gerade; Änderungsrate Im ersten Kapitel haben wir gelernt, was uns die Steigung (oft mit k bezeichnet) in einem s-t Diagramm ( k=

Mehr

Welche Verteilung sollte ich verwenden?

Welche Verteilung sollte ich verwenden? Welche Verteilung sollte ich verwenden? Die Auswahl eines Verteilungstyps für eine Annahme ist einer der schwierigsten Schritte beim Erstellen eines Crystal Ball-Modells. Crystal Ball verfügt über 21 kontinuierliche

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen 5. Zwei spieltheoretische Aspekte Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2015/2016 1 / 36 Überblick

Mehr

Methodenlehre. Vorlesung 10. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg

Methodenlehre. Vorlesung 10. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg Methodenlehre Vorlesung 10 Prof. Dr., Cognitive Biopsychology and Methods University of Fribourg 1 Methodenlehre II Woche Datum Thema 1 FQ Einführung, Verteilung der Termine 1 18.2.15 Psychologie als Wissenschaft

Mehr

Statistische Tests für unbekannte Parameter

Statistische Tests für unbekannte Parameter Konfidenzintervall Intervall, das den unbekannten Parameter der Verteilung mit vorgegebener Sicherheit überdeckt ('Genauigkeitsaussage' bzw. Zuverlässigkeit einer Punktschätzung) Statistischer Test Ja-Nein-Entscheidung

Mehr

Kapitel VI - Lage- und Streuungsparameter

Kapitel VI - Lage- und Streuungsparameter Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VI - Lage- und Streuungsparameter Markus Höchstötter Lehrstuhl für Statistik, Ökonometrie

Mehr

Kommentiertes Beispiel für das Gaußsche Eliminationsverfahren

Kommentiertes Beispiel für das Gaußsche Eliminationsverfahren Kommentiertes Beispiel für das Gaußsche Eliminationsverfahren oder: Wie rechnet eigentlich der TI 84, wenn lineare Gleichungssysteme gelöst werden? Hier wird an einem Beispiel das Gaußsche Verfahren zum

Mehr

Datenstrukturen & Algorithmen Lösungen zu Blatt 6 FS 14

Datenstrukturen & Algorithmen Lösungen zu Blatt 6 FS 14 Eidgenössische Technische Hochschule Zürich Ecole polytechnique fédérale de Zurich Politecnico federale di Zurigo Federal Institute of Technology at Zurich Institut für Theoretische Informatik 2. April

Mehr

Erzeugung zufälliger Graphen und Bayes-Netze

Erzeugung zufälliger Graphen und Bayes-Netze Erzeugung zufälliger Graphen und Bayes-Netze Proseminar Algorithmen auf Graphen Georg Lukas, IF2000 2002-07-09 E-Mail: georg@op-co.de Folien: http://op-co.de/bayes/ Gliederung 1. Einleitung 2. einfache

Mehr

Kombinatorik. Additions- und Multiplikationsgesetz

Kombinatorik. Additions- und Multiplikationsgesetz Kombinatorik Die Kombinatorik beschäftigt sich mit der Berechnung der Anzahl Möglichkeiten, eine Anzahl von Objekten aus einer Grundmenge auszuwählen. Z.B. beim Schweizer Zahlenlotto 6 aus 45. Dabei wird

Mehr

Tabellenkalkulation 1. Einheit 5 Rechnerpraktikum EDV

Tabellenkalkulation 1. Einheit 5 Rechnerpraktikum EDV Tabellenkalkulation 1 Einheit 5 Rechnerpraktikum EDV Inhalt Einführung in die Tabellenkalkulation Berechnungen in Excel Formeln und Bezüge Funktionen Arbeiten mit Datenlisten Sortieren und Filtern Übungen

Mehr

Konfidenzintervall für den Anteilswert θ. Konfidenzintervalle. Jost Reinecke. Universität Bielefeld. 13. Juni 2005

Konfidenzintervall für den Anteilswert θ. Konfidenzintervalle. Jost Reinecke. Universität Bielefeld. 13. Juni 2005 Universität Bielefeld 13. Juni 2005 Einführung Einführung Wie kann die Kenntnis der Wahrscheinlichkeitsverteilung der Parameter einer Stichprobe dazu verhelfen auf die wahren Werte der Grundgesamtheit

Mehr

Berechnung des LOG-RANK-Tests bei Überlebenskurven

Berechnung des LOG-RANK-Tests bei Überlebenskurven Statistik 1 Berechnung des LOG-RANK-Tests bei Überlebenskurven Hans-Dieter Spies inventiv Health Germany GmbH Brandenburger Weg 3 60437 Frankfurt hd.spies@t-online.de Zusammenfassung Mit Hilfe von Überlebenskurven

Mehr

Physikprotokoll: Fehlerrechnung. Martin Henning / Torben Zech / Abdurrahman Namdar / Juni 2006

Physikprotokoll: Fehlerrechnung. Martin Henning / Torben Zech / Abdurrahman Namdar / Juni 2006 Physikprotokoll: Fehlerrechnung Martin Henning / 736150 Torben Zech / 7388450 Abdurrahman Namdar / 739068 1. Juni 2006 1 Inhaltsverzeichnis 1 Einleitung 3 2 Vorbereitungen 3 3 Messungen und Auswertungen

Mehr

RECHNEN MIT WORD 2010

RECHNEN MIT WORD 2010 RECHNEN MIT WORD 2010 Viele Anwender wissen wahrscheinlich gar nicht, dass Word 2010 über eine versteckte Funktion verfügt, mit der man einfache Berechnungen im ganz normalen (Fließ)Text durchführen kann.

Mehr

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok Kurs über Lineare Gleichungssysteme PD Dr. Karin Halupczok Mathematisches Institut Albert-Ludwigs-Universität Freiburg http://home.mathematik.unifreiburg.de/halupczok/diverses.html karin.halupczok@math.uni-freiburg.de

Mehr

P (X = 2) = 1/36, P (X = 3) = 2/36,...

P (X = 2) = 1/36, P (X = 3) = 2/36,... 2.3 Zufallsvariablen 2.3 Zufallsvariablen Meist sind die Ereignisse eines Zufallseperiments bereits reelle Zahlen. Ist dies nicht der Fall, kann man Ereignissen eine reelle Zahl zuordnen. Zum Beispiel

Mehr

Diese Unterlage bezieht sich auf Excel 2003 (auf Deutsch). Die Benutzeroberfläche kann in anderen Versionen der Software erheblich anders aussehen.

Diese Unterlage bezieht sich auf Excel 2003 (auf Deutsch). Die Benutzeroberfläche kann in anderen Versionen der Software erheblich anders aussehen. Vorbemerkung Diese Unterlage bezieht sich auf Excel 2003 (auf Deutsch). Die Benutzeroberfläche kann in anderen Versionen der Software erheblich anders aussehen. Einiges, das bei der Bearbeitung der Übung

Mehr

Domain-independent. independent Duplicate Detection. Vortrag von Marko Pilop & Jens Kleine. SE Data Cleansing

Domain-independent. independent Duplicate Detection. Vortrag von Marko Pilop & Jens Kleine. SE Data Cleansing SE Data Cleansing Domain-independent independent Duplicate Detection Vortrag von Marko Pilop & Jens Kleine http://www.informatik.hu-berlin.de/~pilop/didd.pdf {pilop jkleine}@informatik.hu-berlin.de 1.0

Mehr

Signalverarbeitung 2. Volker Stahl - 1 -

Signalverarbeitung 2. Volker Stahl - 1 - - 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen

Mehr

Einführung 17. Teil I Kopfüber eintauchen in die Statistik 23. Kapitel 1 Kategoriale Daten zusammenfassen: Häufigkeiten und Prozente 25

Einführung 17. Teil I Kopfüber eintauchen in die Statistik 23. Kapitel 1 Kategoriale Daten zusammenfassen: Häufigkeiten und Prozente 25 Inhaltsverzeichnis Einführung 17 Über dieses Buch 17 Törichte Annahmen über den Leser 19 Wie dieses Buch aufgebaut ist 19 Teil I: Kopfüber eintauchen indie Statistik 19 Teil II: Von Wahrscheinlichkeiten,

Mehr