Friedrich Schiller - Universität. Räumliche Autokorrelation und deskriptive Methoden

Größe: px
Ab Seite anzeigen:

Download "Friedrich Schiller - Universität. Räumliche Autokorrelation und deskriptive Methoden"

Transkript

1 Friedrich Schiller - Universität Institut für Geographie Wintersemester 2004/2005 Hausarbeit zum Hauptseminar: Analyse und Modellierung räumlicher Daten Leiter: Dr. Martin Herold Thema: Räumliche Autokorrelation und deskriptive Methoden Verfasser: Christian Pfeifer Wanderslebenstr. 7, Jena Abgegeben am

2 Inhalt 1 Einleitung 2 2 Allgemeine deskriptive Methoden Mittelwerte Arithmetische Mittel Median und Modus Streuungsmaße Standartabweichung und Varianz Schiefe und Exzess Nearest Neighbor -Analyse Histogramm Datenniveaus Objektarten 7 3 Räumliche Autokorrelation Hinführung Das erste Gesetz der Geographie Berechnung der räumliche Autokorrelation Geary s (c) Index Moran s (I) Index Probleme Datenherkunft MAUP Spatial Sampling 13 4 Schlussbemerkung 15 Literatur 15 1

3 1 Einleitung Um herauszufinden wie bestimmte Eigenschaften im Raum verteilt sind bedarf es spezieller statistischer Methoden, besonders dann, wenn die zu untersuchenden Eigenschaften in Beziehung zum Raum oder zu anderen Merkmalen stehen. Um diese Beziehungen für den Betrachter sichtbar zu machen werden diese durch deskriptive Methoden analysiert und in Form einer einzigen oder weniger Zahlen ausgedrückt. In dieser Arbeit soll dabei ein Hauptaugenmerk auf die Datenanalyse in Bezug auf die räumliche Autokorrelation gelegt werden. Diese, soviel soll schon gesagt werden, beschäftigt sich mit der räumlichen Beziehung zwischen Objekten und ihren Nachbarn. Oder wie MORAN schon 1948 schrieb The presence, absence, or characteristics of some spatial objects may sometimes have significant impacts on the presence, absence, or characteristics of the neighboring objects. ( LO & YEUNG 2002: 117) Aber bevor auf diese spezielle deskriptive Methode der räumlichen Autokorrelation eingegangen wird, sollen zuvor ausgewählte, grundlegende Verfahren und Sachverhalte der traditionellen deskriptiven Statistik erläutert werden. 2 Allgemeine deskriptive Methoden Die deskriptive bzw. beschreibende Statistik befasst sich mit der Analyse und Darstellung von räumlichen und zeitlichen Daten. Die Methoden der deskriptiven Statistik haben das Ziel, die oft großen Datenmengen mit nur wenigen Zahlen zu charakterisieren, so dass sie für den Betrachter gut interpretierbar sind. Dabei zählt die Visualisierung der Daten, wie z.b. in einer Karte, zu den besten Methoden bestimmte Muster in den Daten zu erfassen. Zu den deskriptiven Methoden gehört der Mittelwert und die Streuung, welche nun kurz vorgestellt werden (LO & YEUNG 2002: 350 & HELMSCHROT & FINK 2001). 2.1 Mittelwerte Durch die Mittelwerte (engl. central tendency) wird das Zentrum der Verteilung charakterisiert. Mittelwerte können u.a. durch das arithmetische Mittel, den Median oder den Modus angeben werden (HELMSCHROT & FINK 2001) Arithmetische Mittel Das arithmetische Mittel berechnet man aus der Summe aller Einzelwerte, dividiert durch die Gesamtzahl aller Stichprobenfälle (siehe Formel 1). Man sollte diese Formel anwenden, wenn die Formel 1: Mittelwert x m Werte hauptsächlich um das arithmetische Mittel verteilt sind. Ist (HELMSCHROT & FINK 2001) die Stichprobe zu heterogen (weicht zu sehr von der Glockenform ab) bringt dieses Verfahren zu große Nachteile mit sich (HELMSCHROT & FINK 2001). 2

4 2.1.2 Median und Modus Der Median ist der Wert, der die nach der Größe geordnete Verteilung in 2 gleichgroße Bereiche teilt. Beispiel: Gegeben ist ein beliebige Zahlenreihe mit den Werten 1, 3, 5, 7, 66. Der mittlere Wert also der Median ist hier 5. Bei einer ungeraden Anzahl von Stichproben wird der Median von den beiden in der Mitte stehenden Zahlen gebildet. Der Median hat den Vorteil, dass er sich im Gegensatz zum arithmetischen Mittel nicht durch einzelne hohe Werte beeinflussen lässt. Der Modus hingegen zeigt den am häufigsten vorkommenden Merkmalswert einer Datenreihe oder einer Klasse auf (LO & YEUNG 2002: 351 & HELMSCHROT & FINK 2001). 2.2 Streuungsmaße Die Streuung (engl.: dispersion) gibt an, wie weit die Merkmalswerte um das Zentrum verteilt sind. Um die Streuung anzugeben gibt es vier gebräuchliche Möglichkeiten Standartabweichung und Varianz Nach LO & YEUNG (2002: 351) ist die Standartabweichung die wichtigste Maßeinheit um die Streuung zu charakterisieren. Um die Standartabweichung berechnen zu können, muss vorher die Varianz gebildet werden. Denn die Standartabweichung ergibt sich, aus der Wurzel der Varianz (siehe Fromel 3). Die Varianz selbst wird nach der Formel 2 berechnet. Hier muss die Summe der quadrierten Abweichungen vom Mittelwert x m, durch die Gesamtzahl der Elemente n dividiert werden. Formel 3: Varianz s² (HELMSCHROT & FINK 2001) Formel 2: Standartabweichung s (HELMSCHROT & FINK 2001) Die Standartabweichung gibt an, wie sich die Streuung einer Verteilung um den Mittelwert verhält. Allerdings hat sie den Nachteil, dass man die Standartabweichungen zweier verschiedener Stichproben nur vergleichen kann, wenn deren arithmetische Mittel in etwa gleichgroß sind (LO & YEUNG 2002: 351 & HELMSCHROT & FINK 2001). 3

5 2.2.2 Schiefe und Exzess Die Schiefe (engl.: skewness) wie der Exzess (engl.: kurtosis) sind Formenparameter, d.h. sie geben Auskunft über die Form der Verteilung. Die Schiefe [ ] stellt ein Maß für die Symmetrie der Verteilung um das arithmetische Mittel dar und errechnet sich (HELMSCHROT & FINK 2001) aus der Differenz des Mittelwert x m vom Median Me, welche durch die Standartabweichung s dividiert wird, wie in Formel 4 abgebildet. Wenn die Form der Verteilung symmetrisch ist, dann hat die Schiefe g einen Wert von 0, ist g größer als 0 handelt es sich um eine positive Schiefe, der Median ist links vom Mittel. Bei einer negativen Schiefe hingegen ist g kleiner als 0 und der Median rechts vom Mittel. Formel 4: Schiefe g (HELMSCHROT & FINK 2001) Formel 5: Exzess Ez (HELMSCHROT & FINK 2001) Der Exzess hingegen ist ein Maß für die Steilheit der Verteilung. So beschreibt er, ob die Merkmalsverteilung spitz oder flach um das Zentrum verteilt ist. Berechnet wird er, wie in Formel 5 aufgezeigt. Von einer spitzen Verteilung spricht man, wenn der Exzess Ez größer als eins ist und damit steiler zuläuft als eine Normalverteilung. Keinen Exzess (Ez = 1) findet man bei einer Normalverteilung vor. Ist der Exzess kleiner als eins (negativer Exzess) ist die Verteilung flacher als eine Normalverteilung (LO & YEUNG 2002: 351). 2.3 Nearest Neighbor -Analyse Bei der Nearest Neighbor -Analyse werden Verteilungsmuster von Punkten auf einer Fläche untersucht. Dabei kann bestimmt werden, ob die Messpunkte regelmäßig, unregelmäßig oder in Clustern (Gruppen) auftreten. Diese Einordnung [in regelmäßig, unregelmäßig oder in Clustern] erfolgt über das Messen der Distanzen zwischen gepaarten Datenpunkten. Gepaart werden dabei die Punkte mit der geringsten räumlichen Distanz zueinander - die Nearest Neighbor. (DUMFARTH & LORUP 2000) Um Verwechslungen mit der räumliche Autokorrelation aus dem Weg zu gehen, muss klar festgestellt werden, dass bei der Nearest Neighbor -Analyse nur die räumliche Verteilung der Punkte bestimmt wird, nicht aber im Zusammenhang mit den Ausmaß der Werte, den diese Punkte haben 4

6 Abbildung 1: Mögliche Verteilungsmuster (a) regelmäßig, (b) unregelmäßig, (c) gruppiert (DUMFARTH & LORUP 2000) Bei der Nearest Neighbor -Analyse gibt es einige Dinge zu beachten, um mögliche Ungenauigkeiten und Fehlmessungen so gering wie möglich zu halten. Weil es notwendig ist, die Punktdichte in dem Gebiet zu kennen, muss die Größe der Fläche, in dem die Analyse durchgeführt werden soll, genau festgelegt werden. Ist nämlich die zu untersuchende Fläche zu groß im Verhältnis zur Anzahl der Punkte, erhält man eine viel geringere Punktdichte als wenn man für die gleiche Anzahl von Punkten eine kleineres Gebiet für die Untersuchung verwendet. Auch das Problem des Kanteneffektes (engl.: edge effect) sollte nicht vernachlässigt werden. Das Problem liegt hier darin, dass es unter Umständen auch Punkte außerhalb der Grenzen der Untersuchungsmatrix gibt, zu denen aber von den Punkten am Rande der Matrix keine Distanz gemessen werden kann, obwohl diese am nächsten liegen. Um dies zu verhindern, sollte auch eine Messung zu Punkten außerhalb der Untersuchungsmatrix zugelassen werden (LO & YEUNG 2002: 357). 2.4 Histogramm Neben der Karte ist das Histogramm (siehe Diagramm 1) eine der verbreitesten Möglichkeiten Daten visuell darzustellen. Ein Histogramm zeigt an, wie viele Merkmalsausprägungen in einer bestimmten vorher festgelegten Klasse sind. Dabei gibt die y-achse Auskunft über die Häufigkeit der Variable (z.b.: Anzahl von Temperaturwerten) und die x- Achse zeigt die Klassen, in denen die Werte eingeordnet werden (z.b.: in der Klasse 0-5 C liegen 3 Werte). Es liegt also eine Klassenhäufigkeitsverteilung vor, durch die man erkennen kann, wie sich die Diagramm 1: Histogramm [rot] mit Normalverteilung [schwarz] (DUMFARTH & LORUP 2000) 5

7 Werte über das gestammte Wertespektrum verteilen. Die wichtigste Form einer Häufigkeitsverteilung ist die glockenförmige Normalverteilung. Diese ist so bedeutend, da viele statistische Methoden auf Daten angewiesen sind, die aus einer normalverteilten Grundgesamtheit kommen. Bei einer Normalverteilung liegt das arithmetisches Mittel und Median nahe beieinander (oder sind gleich) und repräsentieren die Mitte der Datenmenge (HELMSCHROT & FINK 2001). 2.5 Datenniveaus Da bestimmte deskriptive Methoden nur bei Daten bestimmter Skalenart angewendet werden können, sollen hier die verschieden Skalen kurz vorgestellt werden. Das Problem liegt hier in dem Umstand, dass Daten verschiedenste Merkmalsausprägungen repräsentieren, die in unterschiedlichsten Maßeinheiten gemessen werden. So kann ein Datensatz aus Temperaturdaten bestehen, die in C gespeichert werden oder aber die Entfernungen repräsentieren, die in Metern gemessen werden. Dabei muss beachtet werden, dass man zwar sagen kann, 2m sind doppelt so viel wie 4m, aber 10 C sind nicht doppelt so warm wie 5 C, weil die Maßeinheit Grad Celsius einen zufälligen Nullpunkt hat, im Gegensatz zu Kelvin oder dem metrischen System (HELMSCHROT & FINK 2001). Nominalskalierte Daten sind mit Werten unterschiedlicher Merkmale besetzt und eine Rangfolge der Merkmale kann nicht gebildet werden. Beispiele hierfür sind Namen, Religionszugehörigkeit aber auch bei Ja-Nein-Fragen wie Hat der Haushalt einen PKW?. Die Ordinalskala gilt für Werte, deren Merkmale in eine Rangfolge gebracht werden kann und die Abstände zwischen benachbarten Werten sind nicht immer identisch. Beispiele sind Erdzeitalter, Zensuren oder das Einkaufsverhalten (oft, regelmäßig, selten). Bei intervallskalierten Daten sind die Abstände zwischen benachbarten Werten identisch, aber es gibt keinen definierten Nullpunkt. Darunter fällt die schon oben erwähnte Maßeinheit Grad Celsius, aber auch der Intelligenzquotient. Ratioskalen unterscheiden sich von der intervallskalierten nur in dem Punkt, dass hier ein definierter Nullpunkt festgelegt ist. Dazu gehört die Angabe von Entfernung in Metern, das Gewicht in Kilogramm oder das Einkommen in Euro. (HELMSCHROT & FINK 2001) 6

8 2.6 Objektarten Ähnlich wie bei den Skalenarten ist die Anwendung von statistischen Methoden nur an bestimmte Objektarten gekoppelt (siehe Geary s (c) Index ). Geographische Objekte werden nach ihrer Topologieausdehnung, also der Art wie sie den Raum ausfüllen gemessen. Punkte haben keine dimensionale Ausbreitung, also auch keine Länge, Breite oder Höhe. Punkte können verwendet werden um die räumliche Verteilung von Ereignissen und deren Muster wiederzugeben. Linien haben genau eine Dimension, die Länge. Sie werden verwendet, um Distanzen zu messen oder lineare Objekte darzustellen, beispielsweise Strassen. Flächenobjekte haben eine zwei dimensionale Ausdehnung, die Länge und Breite, aber keine Höhe. Sie werden verwendet, um natürliche Objekte wie Felder oder künstliche Objekte wie Bevölkerungsverteilungen darzustellen. Oberflächen und Volumen sind dreidimensional. Sie finden Verwendung bei der Darstellung von natürlichen Objekten wie digitalen Geländemodellen oder bei Phänomenen wie das Besucherpotential eines Einkaufszentrums. Zeit wird oft als eine weitere Dimension angesehen, kann aber nach LONGLEY et al. (2002: 101) im GIS nur schwer simuliert werden. Wichtig ist noch zu wissen, wie sich die einzelnen Dimensionen zueinander verhalten. So kann man ein höher dimensionales Objekt auf eine niederes Herunterrechnen, aber nicht umgekehrt. Wie man ein Objekt letztendlich im GIS darstellt, hängt auch von dem Maßstab ab. For example, on a less-detailed map of the world, New York is represented as zerodimensional point. On a more-detailed map such as a road atlas it will be represented as twodimensional point. (LONGLEY et al. 2001: 101) In Wirklichkeit ist die Stadt aber dreidimensional und kann als solche auch von bestimmten Softwaresystemen wiedergegeben werden (LONGLEY et al. 2001: 101). 3 Räumliche Autokorrelation 3.1 Hinführung Das Problem der traditionellen statistischen Analysen ist, dass es bei der Untersuchung von Zusammenhängen, die eine stochastische Abhängigkeit aufweisen, zu fehlerhaften Resultaten kommt. So sind Fehlschätzungen der Korrelation zwischen stochastisch abhängigen Variablen möglich, wodurch Test- und Schätzverfahren verzerrte Ergebnisse liefern und Fehlinterpretationen die Folge sind. Allerdings kommen stochastische abhängige Variablen in der Statistik, sehr oft vor und ihre genaue Analyse ist meist von großem Interesse. (BAHRENBERG et al. 2003²: ) Stochastische Abhängigkeit heißt, dass bestimmte statistische Ereignisse nicht unabhängig voneinander auftreten. 7

9 Die Ursache für das Unvermögen der traditionellen Statistik mit Daten umzugehen, die stochastische Abhängig sind, liegt darin, dass sie auf Zufallsvariablen basiert. Darunter versteht man, dass die verschiednen Datenwerte der Zufallsvariable rein zufällig zustande kommen und somit unabhängig voneinander sind (ABLER et al. 1992: 154). Am Beispiel eines Würfelexperiments soll dies verdeutlicht werden. Würfelt man eine 6 hat dies keinerlei Einfluss auf den nächsten Würfeldurchgang. Die Wahrscheinlichkeit wieder eine 6 zu würfeln ist bei jeden Durchgang gleich groß. Vorherige Ereignisse haben keinen Einfluss auf nachfolgende Ereignisse. In Hinblick auf die räumliche Verteilung von Datenpunkten bedeutet dies, daß die verschiedenen Werte einer Variablen unabhängig von ihrer räumlichen Position zustande kommen. Erscheinungen wie Distanz der Werte zueinander, Nachbarschaft, Nähe, Richtung und dergleichen haben also keinen Einfluß auf den Wert eines bzw. aller Datenwerte. (DUMFARTH & LORUP 2000) Dass dies aber nicht den Gegebenheiten der Realität entspricht, ist leicht erkennbar und wird am Beispiel des Bodenmarktes deutlich. Denn dann würde die räumliche Verteilung der Grundstückspreise keinerlei Muster aufzeigen, da ja alles zufallsverteilt ist. Im Stadtzentrum beispielsweise würden sich willkürlich sehr teure Grundstücke mit sehr billigen oder mittelteuren abwechseln. Bei der Geostatistik geht man daher den Ansatz an, dass die Werte, die eine Variable annehmen kann, durch eine Funktion gesteuert wird, weshalb man von regionalisierten Variablen spricht. Das heißt, dass die Werte eines Gebietes bzw. einer Region einander ähnlich sind, weil sie sich ja untereinander beeinflussen können und dass mit zunehmender Entfernung die Ähnlichkeit abnimmt. Dies beschrieb W. TOBLER mit dem ersten Gesetz der Geographie, welches im nächsten Abschnitt erläutert werden wird. Weiterhin geht man davon aus, dass die Verbreitung eines Phänomens nur ausreichend mit zu Hilfenahme von räumlichen Eigenschaften (z.b.: Distanz oder Nachbarschaft) erklärt werden kann (DUMFARTH & LORUP 2000). 3.2 Das erste Gesetz der Geographie und mehr (und seine Folgen) W. TOBER formulierte 1970 das erste gesetzt der Geographie und beschrieb somit das schon seit langem bekannte Phänomen, das sich benachbarte Objekte oft ähnlicher waren als weit entfernte. The first law of geography is that everything is related to everything else, but near things are more related than distant things. (TOBLER 1970 in ABLER 1992: 155) Dieses Gesetz der Geographie ist, so LONGLEY et al. (2001: 99), die allgemeinste Formulierung über die Verteilung räumlicher Erscheinungen. Mit seinem Gesetzt beschreibt TOBLER die räumliche Autokorrelation, also den Grad, mit dem nahe und entfernte Dinge miteinander verbunden sind (LONGLEY et al. 2001: 99). Die räumliche Autokorrelation ist eine Bezeichnung für die Abhängigkeit zwischen benachbarten Orten, wie es überall auf der Erdoberfläche vorkommt. In practice, the 8

10 existence of spatial autocorrelation means that if A and B are close together, what happens at A is related to what happens at B, and vice-versa. (ABLER et al 1992: 287) Obwohl es logisch erscheint, dass Dinge die sich räumlich nahe sind, auch ähnliche Merkmale aufweisen, kann der Umkehrschluss, dass sich die Merkmale von Objekten, die weit entfernt von einander sind, stark unterscheiden, nicht so einfach gezogen werden. Für ABLER et al. (1992: 287) ist vielmehr die Frage entscheidend, wie weit zwei Orte von einander entfernt sein müssen, damit sich diese nicht gegenseitig beeinflussen, sie also unabhängig voneinander sind. Es soll nur kurz erwähnt werden, dass der gleiche Umstand auf die Zeit bezogen zeitliche Autokorrelation genannt wird (LONGLEY et al. 2001: 99). Bei der Bestimmung der räumliche Autokorrelation sind die Lage der Objekte zueinander und ihre Merkmalsausprägung die wichtigsten Faktoren. Dabei werden gleichzeitig die Gemeinsamkeiten im Ort und in der Eigenschaft miteinander verglichen (siehe Abschnitt 3.3 Berechnung der räumlichen Autokorrelation). Wenn Objekte nahe beieinander liegen bzw. benachbart sind und sie das gleichen Merkmal beinhalten, dann spricht man von einem Muster mit positiver räumlichen Autokorrelation. Conversely, negative Spatial autocorrelation is said to exist when features which are close together in space tend to be more dissimilar in attributes than features which are further apart (in opposition to Tobler s Law). (LONGLEY et al. 2001: 100,101) Eine räumliche Autokorrelation ist nicht vorhanden, wenn die Merkmale unabhängig vom Ort sind (LONGLEY et al. 2001: 101). Abbildung 2: Typen der räumlichen Autokorrelation (LO & YEUNG 2002: 117) An Abbildung 2 sind die drei wichtigsten Typen von räumliche Autokorrelationen aufgezeigt. Die Klassifizierung richtet sich nach der relativen Verteilung räumlicher Objekte und ihrer Nachbarn. Feld A zeigt die extremste Form positiver Autokorrelation zwischen benachbarten Zellen. Hier liegen jeweils die schwarzen und weißen Zellen in einer homogenen Fläche zusammen bzw. räumliche Objekte, die die gleichen Eigenschaften haben, liegen räumlich nah beieinander. Das genaue Gegenteil, also eine extrem negative räumliche Autokorrelation, zeigt das Feld C. Hier grenzen an jedes schwarze Feld jeweils nur weiße Felder und 9

11 Abbildung 3: Bevölkerungsverteilung in Kalifornien und Iowa (ABLER et al. 1992: 84) umgekehrt. Eine zufällige räumliche Autokorrelation sieht man im Feld B. Dort gibt es keine größeren Cluster von Objekten mit den gleichen Werten.( LONGLEY et al. 2001: 101 & LO & YEUNG 2002: 117) In Abbildung 3 sieht man ein praktisches Beispiel für die unterschiedliche Typen räumliche Autokorrelation. Hier wird auch deutlich, dass weniger die durchschnittliche Bevölkerungsdichte von Interesse ist (was auch in der traditionellen Statistik berechnet werden kann), sondern dass es für eine Interpretation viel interessanter (aber auch schwieriger) zu wissen ist, wo Ballungen und wo ländliche Gebiete sind. Beide Regionen sind von der Fläche her in etwa gleich groß, haben aber eine vollkommen unterschiedliche Bevölkerungsverteilung. In San Bernardino herrscht aufgrund des nur in wenigen Teilen erreichbaren Grundwassers eine starke räumliche Autokorrelation der Bevölkerung. Im Gegensatz dazu steht das Gebiet in Iowa, das nur eine schlechte räumliche Autokorrelation aufweist, was u.a. auf die gleichmäßig vorkommenden Ressourcen zurückzuführen ist (ABLER et al. 1992: 83). 3.3 Berechnung der räumliche Autokorrelation Bei der Berechnung der räumliche Autokorrelation werden zwei Werte miteinander verglichen. Erstens die Gleichwertigkeit der Attribute und zweitens die Ähnlichkeit des Ortes der Objekte, welche mit den Attributen besetzt sind. Dabei hängt es von dem verwendeten Datentyp ab, mit welcher Methode die Attribute miteinander verglichen werden können und von dem Objekttyp, 10

12 wie die Nachbarschaft festgestellt werden kann (LONGLEY et al. 2001: 114). Zwei der wichtigsten Methoden, die räumliche Autokorrelation anzugeben, ist der Geary s (c) Index und der Moran s (I) Index (LO & YEUNG 2002: 351) Geary s (c) Index Der von Geary entwickelte Index ist eine Maß zur Angabe der räumliche Autokorrelation für Objekte mit intervallskalierten Attributdaten. Deshalb kann man diesen Index gut bei der Analyse von Datenansammlungen verwenden, die von Erhebungsgebieten (engl. census tracts) stammen. Der Geary s (c) Index misst die Ähnlichkeit der Werte von i und j (siehe Formel 6). Die Variable z i entspricht dem Wert des Objektes c i. Die Ähnlichkeit des Ortes, wo sich i und j befinden, wird durch die boolesche Variable w ij angegeben, wobei w ij = 1 ist, wenn sie benachbart sind und wij = 0, wenn sie es nicht sind (LO & YEUNG 2002: 351,352). Aber das ist nur eine von vielen Möglichkeiten, w ij zu definieren, denn w ij repräsentiert die Nachbarschaftsbeziehungen und da diese je nach Aufgabe anders festgelegt werden können, muss diese auch in der Formel entsprechend definiert werden (BAHRENBERG et al. 2003²: ). Daraus ergibt sich dann der Index (c) wie in Formel 7 beschrieben, wobei s ² die Varianz des Merkmale z i ist. Wenn das Ergebnis von c = 1 ist, dann sind die Merkmale der Objekte unabhängig von ihrer Lage verteilt. Der Index (c) ist kleiner als eins, wenn gleiche Merkmale an gleichen Orten vorkommen, es also eine positive räumliche Autokorrelation gibt. Und schließlich kann (c) auch größer als eins sein, wenn sich Merkmale und Lage der Objekte unterscheiden, also eine negative räumliche Autokorrelation vorliegt (LO & YEUNG 2002: 351,352). Formel 6: Berechnung des Geary s (c) Index (LO & YEUNG 2002: 351) Formel 7: Berechnung des Geary s (c) Index (LO & YEUNG 2002: 351) 11

13 3.3.2 Moran s (I) Index Der Moran s (I) Index hat starke Ähnlichkeit mit Geary s Index mit dem Unterschied, dass hier die Ergebnisse dem Betrachter wahrscheinlich logischer erscheinen. Denn hier stehen positive Ergebnisse auch für eine positive räumliche Autokorrelation und negative für eine negative räumliche Autokorrelation. Wenn der Index 0 ist, weist dies auf unabhängige unkorrelierte Daten hin, mit zufälliger Anordnung. Die Variablen in der unteren Formel 8 zur Berechnung des Index (I) werden fast genauso definiert wie bei Geary s (c) Index. Allerdings wird c ij nach der oberen Formel 8 beschrieben. z i steht wieder für den Wert des Objektes i und j. Die Variable ist der Mittelwert, s² entspricht der Varianz von z i. Die räumliche Nähe für i und j wird wieder durch w ij, angegeben (LO & YEUNG 2002:352). Moran s and Gearie s Index kann man nur bei flächenhaften Objekten anwenden. Es gibt aber Punkt, Linien und Rasterobjekte für die auch über Umwege eine Berechnung der räumliche Autokorrelation möglich ist. Bei Punktdaten kann man beispielsweise die Punkte in Flächen umwandeln und dann so die oben erwähnten Indizes anwenden. Die räumliche Autokorrelation zwischen linienförmigen Objekte kann man berechen, Formel 8: Berechnung des Moran s (I) Index wenn die Linien Verbindungen zwischen (LO & YEUNG 2002: 352) Punkten repräsentieren, die mit Merkmalen besetzt sind. So wird dann die Merkmalsähnlichkeit von den Punktpaaren mit anderen Punktpaaren verglichen und die räumliche Nähe wird dadurch gemessen ob es eine direkte Verbindung zwischen den Punktpaaren gibt. Bei Rasterdaten wird einfach verglichen, ob einzelne Rasterzellen gleiche Außengrenzen haben (LO & YEUNG 2002: 352). 3.4 Probleme Datenherkunft Ein allgemeines Problem, das viele Analysen betrifft, ist, dass man nicht weiß, ob die Ergebnisse stimmen, weil man nicht sicher sein kann, dass die Daten, die diesen zu Grunde liegen, korrekt sind. Mit den Worten von LONGLEY et al. (2001: 137) ausgedrückt: Uncertainties in data lead to uncertainties in the result of analysis. Die Ursache liegt u.a. in der Generalisierung und Bündelung der rohen Ausgangsdaten (welche die Realität widerspiegeln sollen), z.b.: wenn Krankheitsfälle nur pro Bezirk angegeben werden oder 12

14 Bevölkerungszahlen nur für ein bestimmtes Gebiet angeboten werden. Obwohl man die Ursache für dieses Problem nicht beheben kann, ist es doch möglich, es genau zu quantifizieren, um so zumindest die schlimmsten Effekte zu verringern. Die Probleme kommen auch daher, weil in einen GIS Daten unterschiedlichster Herkunft, Maßstabes, Detailgenauigkeit und Klassifizierung miteinander verschmelzt werden (LONGLEY et al. 2001: 137) MAUP Das modifiable areal unit problem (MAUP) tritt auf, wenn willkürlich festgelegte Grenzen für die Berechnung von räumlichen Ereignissen genutzt werden. Dies tritt z.b. bei Volkszählungsdaten auf, die in bestimmten Flächen angegeben werden, oder die Angabe des Wahlergebnisses wird höchstens in der Größe von Stadtvierteln gemacht, nicht aber in der von Einzelpersonen. Vom statistischen Standpunkt her sind diese Grenzen beliebig festgelegt worden weil, They do not necessarily consider with breaks in the data. Thus, changing the boundaries of units [ ] can affect the appearance of the data. (HEYWOOD et al. 2002²: 125) Deshalb ist es sehr problematisch, zwei Karten oder Datensätze miteinander zu vergleichen, die denselben Ausschnitt zeigen, aber deren Flächeneinheiten sich unterscheiden (HEYWOOD et al. 2002²: 125 & LONGLEY et al. 2001: 138). 3.5 Spatial Sampling Als letztes soll noch kurz auf das spatial sampling eingegangen werden, da die durch das sampling reduzierten Daten auch bei der Analyse der räumliche Autokorrelation verwendet werden. Sampling ist ein Prozess, bei dem aus einem Feld mit vielen Objekten, einige wenige herausgesucht werden. Dies ist nötig, da die reale Welt unendlich komplex ist, ein GIS aber nicht unendlich viele Daten verarbeiten kann. Daher braucht es eine Reduzierung der Daten, wie es durch das sampling geschieht. Die sampling Modelle (engl.: sampling scheme, siehe Abbildung 4) bestimmen die räumliche Verteilung der einzelnen Stichprobenpunkte im Untersuchungsgebiet (LONGLEY et al. 2001: 103). Das Feld A in Abbildung 4 zeigt eine einfache zufällige Stichprobe, also eine, in der jeder Punkt die gleiche Wahrscheinlichkeit hatte, gezogen zu werden. Dieses Modell hat den Vorteil, dass es statistisch völlig korrekt ist, aber es weist in der Praxis einige Schwierigkeiten auf. So kann es vorkommen, das kleine, aber wichtige Bereiche unterpräsentiert werden, es sei denn es handelt sich um eine sehr große Anzahl von Stichproben. Bei einer systematischen Stichprobe wird der erste Punkt zufällig ermittelt und an diesem dann die restlichen entlang eines festen Schemas ausgerichtet, wie in Feld B zu sehen. Diese Methode ist einfach durchzuführen, kann aber bei Daten die periodischen Änderungen unterliegen, starke Fehler verursachen. 13

15 Eine strategische Zufallstichprobe findet man dann vor, wenn man das Untersuchungsgebiet in bestimmte Teilgebiete gliedert und dann in jedem Teilgebiet eine zufällige Stichrobe nimmt (siehe Abbildung 4, Feld C).Dieses Modell scheint am geeignetsten, weil nur eine geringe Anzahl von Stichproben gezogen werden muss. Allerdings leidet dieses Modell auch unter denselben Problemen wie die Zufallsstichprobe. Das letzte hier aufgeführte sampling Modell zeigt ein strategisches, systematisches und unangepasstes Modell. Wie der Name schon sagt, vereinigt es die Vorgehensweise und auch Vorteile der drei vorher genannten Modelle (LO & YEUNG 2002: 118,119). Zur Stichprobenanzahl lässt sich sagen, dass je heterogener räumliche Phänomene verteilt sind, desto mehr Stichproben sollten genommen werden, um die ganze breite des Umfanges zu erfassen. Und je homogener die Verteilung desto weniger Stichproben müssen genommen werden. Zu beachten ist, dass aus Gründen der Repräsentativität eine gewisse Mindestanzahl an Stichproben gesammelt werden müssen (LONGLEY et al. 2001: 118). Abbildung 4: Vier geographische sampling Modelle (LO & YEUNG 2002: 118 ) 14

16 4 Schlussbemerkung Wie hoffentlich gezeigt werden konnte ist die Analyse räumlich korrelierter Daten eine komplexe, aber aufschlussreiche Methodik mit vielfachen Anwendungsmöglichkeiten. Trotzdem ist mir beim lesen der vielfältigen Literatur aufgefallen, dass immer wieder erwähnt wird, dass die Methoden zur Analyse räumlichen korrelierter Daten nur schlecht oder gar nicht in GIS integriert sind, wie auch LO & YEUNG (2002: 350) bemängeln. Lediglich mit Idris32 so LO & YEUNG (2002: 350) ist es möglich räumlichen Autokorrelation mit den Modul AUTOCORR zu bestimmen. Hingegen bietet das weit verbreitet ArcInfo keine direkte Unterstützung bei der Analyse von räumlichen Autokorrelation. Nur durch eine Kopplung mit anderen Statistikprogrammen (z.b.: SPSS) kann diese Funktion implementiert werden. Bleibt zu hoffen, dass in Zukunft diesem Gebiet der Datenanalyse mehr Aufmerksamkeit geschenkt wird, um deren Bedeutung gerecht zu werden. Literatur ABLER R.F., MARCUS G. M. & J. M. OLSEN (1992): Geography s inner worlds, Pervasive Themes in Contemporary American Geography. New Jersey. BAHRENBERG G., GIESE E. & J. NIPPER (2003²): Statistische Methoden in der Geographie, Bd. 2. Berlin, Stuttgart. HEYWOOD I., CORNELIUS S. & S. CARVER (2002²): An Introduction to Geographical Information Systems. Essex. LO C. P. & A. K.W. YEUNG (2002): Concepts and Techniques of Geographic Information Systems. New Jersey. LONGLEY P. A., GOODCHILD M.F., MAGUIRE D. J. & D.W. RHIND (2001): Geographic Information, Systems and Science. Chichester, New York. Internetliteratur HELMSCHROT J. & M. FINK (2001): Skript zum Proseminar Statistik, (letzter Aufruf 2002) DUMFARTH E. & E. J. LORUP (2000): Geostatistik I - Theorie und Praxis, (letzter Aufruf ) 15

Evaluation der Normalverteilungsannahme

Evaluation der Normalverteilungsannahme Evaluation der Normalverteilungsannahme. Überprüfung der Normalverteilungsannahme im SPSS P. Wilhelm; HS SPSS bietet verschiedene Möglichkeiten, um Verteilungsannahmen zu überprüfen. Angefordert werden

Mehr

Grundlagen quantitativer Sozialforschung Interferenzstatistische Datenanalyse in MS Excel

Grundlagen quantitativer Sozialforschung Interferenzstatistische Datenanalyse in MS Excel Grundlagen quantitativer Sozialforschung Interferenzstatistische Datenanalyse in MS Excel 16.11.01 MP1 - Grundlagen quantitativer Sozialforschung - (4) Datenanalyse 1 Gliederung Datenanalyse (inferenzstatistisch)

Mehr

Transistor-Mismatch bei einem Strom-DAC in 65nm-Technologie

Transistor-Mismatch bei einem Strom-DAC in 65nm-Technologie Electronic Vision(s) Universität Heidelberg Transistor-Mismatch bei einem Strom-DAC in 65nm-Technologie Projektpraktikum Für den Studiengang Bachelor Physik Christian Graf 2011 1 Inhaltsverzeichnis Inhaltsverzeichnis

Mehr

1,11 1,12 1,13 1,14 1,15 1,16 1,17 1,17 1,17 1,18

1,11 1,12 1,13 1,14 1,15 1,16 1,17 1,17 1,17 1,18 3. Deskriptive Statistik Ziel der deskriptiven (beschreibenden) Statistik (explorativen Datenanalyse) ist die übersichtliche Darstellung der wesentlichen in den erhobenen Daten enthaltene Informationen

Mehr

Auswertung und Darstellung wissenschaftlicher Daten (1)

Auswertung und Darstellung wissenschaftlicher Daten (1) Auswertung und Darstellung wissenschaftlicher Daten () Mag. Dr. Andrea Payrhuber Zwei Schritte der Auswertung. Deskriptive Darstellung aller Daten 2. analytische Darstellung (Gruppenvergleiche) SPSS-Andrea

Mehr

Einfache Statistiken in Excel

Einfache Statistiken in Excel Einfache Statistiken in Excel Dipl.-Volkswirtin Anna Miller Bergische Universität Wuppertal Schumpeter School of Business and Economics Lehrstuhl für Internationale Wirtschaft und Regionalökonomik Raum

Mehr

Methoden der empirischen Sozialforschung I

Methoden der empirischen Sozialforschung I Methoden der empirischen Sozialforschung I Annelies Blom, PhD TU Kaiserslautern Wintersemester 2011/12 Übersicht Quantitative Datenauswertung: deskriptive und induktive Statistik Wiederholung: Die wichtigsten

Mehr

Auswertung mit dem Statistikprogramm SPSS: 30.11.05

Auswertung mit dem Statistikprogramm SPSS: 30.11.05 Auswertung mit dem Statistikprogramm SPSS: 30.11.05 Seite 1 Einführung SPSS Was ist eine Fragestellung? Beispiel Welche statistische Prozedur gehört zu welcher Hypothese? Statistische Berechnungen mit

Mehr

Deskriptive Statistik

Deskriptive Statistik Deskriptive Statistik In der beschreibenden Statistik werden Methoden behandelt, mit deren Hilfe man Daten übersichtlich darstellen und kennzeichnen kann. Die Urliste (=Daten in der Reihenfolge ihrer Erhebung)

Mehr

Analyse alt- und mittelpaläolithischer Steinartefaktinventare mittels Parallelkoordinatenplots

Analyse alt- und mittelpaläolithischer Steinartefaktinventare mittels Parallelkoordinatenplots Einleitung Analyse alt- und mittelpaläolithischer Steinartefaktinventare mittels Parallelkoordinatenplots von Irmela Herzog Im Rahmen der Herbsttagung der AG DANK (Datenanalyse und Numerische Klassifikation)

Mehr

Webergänzung zu Kapitel 10

Webergänzung zu Kapitel 10 Webergänzung zu Kapitel 10 10.1.4 Varianzanalyse (ANOVA: analysis of variance) Im Kapitel 10 haben wir uns hauptsächlich mit Forschungsbeispielen beschäftigt, die nur zwei Ergebnissätze hatten (entweder

Mehr

Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung

Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung Kapitel 3 Zufallsvariable Josef Leydold c 2006 Mathematische Methoden III Zufallsvariable 1 / 43 Lernziele Diskrete und stetige Zufallsvariable Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion

Mehr

2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen

2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen 4. Datenanalyse und Modellbildung Deskriptive Statistik 2-1 2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen Für die Auswertung einer Messreihe, die in Form

Mehr

Einführung in die Statistik mir R

Einführung in die Statistik mir R Einführung in die Statistik mir R ww w. syn t egris.de Überblick GESCHÄFTSFÜHRUNG Andreas Baumgart, Business Processes and Service Gunar Hofmann, IT Solutions Sven-Uwe Weller, Design und Development Jens

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung Übung 2 28.02.2008 1 Inhalt der heutigen Übung Beschreibende Statistik Gemeinsames Lösen der Übungsaufgaben 2.1: Häufigkeitsverteilung 2.2: Tukey Boxplot 25:Korrelation

Mehr

Willkommen zur Vorlesung Statistik

Willkommen zur Vorlesung Statistik Willkommen zur Vorlesung Statistik Thema dieser Vorlesung: Varianzanalyse Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften Prof. Dr. Wolfgang

Mehr

Multivariate Statistik

Multivariate Statistik Hermann Singer Multivariate Statistik 1 Auflage 15 Oktober 2012 Seite: 12 KAPITEL 1 FALLSTUDIEN Abbildung 12: Logistische Regression: Geschätzte Wahrscheinlichkeit für schlechte und gute Kredite (rot/blau)

Mehr

Modul G.1 WS 07/08: Statistik 17.01.2008 1. Die Korrelation ist ein standardisiertes Maß für den linearen Zusammenhangzwischen zwei Variablen.

Modul G.1 WS 07/08: Statistik 17.01.2008 1. Die Korrelation ist ein standardisiertes Maß für den linearen Zusammenhangzwischen zwei Variablen. Modul G.1 WS 07/08: Statistik 17.01.2008 1 Wiederholung Kovarianz und Korrelation Kovarianz = Maß für den linearen Zusammenhang zwischen zwei Variablen x und y Korrelation Die Korrelation ist ein standardisiertes

Mehr

Häufigkeitstabellen. Balken- oder Kreisdiagramme. kritischer Wert für χ2-test. Kontingenztafeln

Häufigkeitstabellen. Balken- oder Kreisdiagramme. kritischer Wert für χ2-test. Kontingenztafeln Häufigkeitstabellen Menüpunkt Data PivotTable Report (bzw. entsprechendes Icon): wähle Data Range (Zellen, die die Daten enthalten + Zelle mit Variablenname) wähle kategoriale Variable für Spalten- oder

Mehr

Linearer Zusammenhang von Datenreihen

Linearer Zusammenhang von Datenreihen Linearer Zusammenhang von Datenreihen Vielen Problemen liegen (möglicherweise) lineare Zusammenhänge zugrunde: Mein Internetanbieter verlangt eine Grundgebühr und rechnet minutenweise ab Ich bestelle ein

Mehr

Methoden Quantitative Datenanalyse

Methoden Quantitative Datenanalyse Leitfaden Universität Zürich ISEK - Andreasstrasse 15 CH-8050 Zürich Telefon +41 44 635 22 11 Telefax +41 44 635 22 19 www.isek.uzh.ch 11. September 2014 Methoden Quantitative Datenanalyse Vorbereitung

Mehr

0 Einführung: Was ist Statistik

0 Einführung: Was ist Statistik 0 Einführung: Was ist Statistik 1 Datenerhebung und Messung Die Messung Skalenniveaus 2 Univariate deskriptive Statistik 3 Multivariate Statistik 4 Regression 5 Ergänzungen Grundbegriffe Statistische Einheit,

Mehr

Messsystemanalyse (MSA)

Messsystemanalyse (MSA) Messsystemanalyse (MSA) Inhaltsverzeichnis Ursachen & Auswirkungen von Messabweichungen Qualifikations- und Fähigkeitsnachweise Vorteile einer Fähigkeitsuntersuchung Anforderungen an das Messsystem Genauigkeit

Mehr

Einseitig gerichtete Relation: Mit zunehmender Höhe über dem Meeresspiegel sinkt im allgemeinen die Lufttemperatur.

Einseitig gerichtete Relation: Mit zunehmender Höhe über dem Meeresspiegel sinkt im allgemeinen die Lufttemperatur. Statistik Grundlagen Charakterisierung von Verteilungen Einführung Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsverteilungen Schätzen und Testen Korrelation Regression Einführung Die Analyse und modellhafte

Mehr

Messgeräte: Mess-System-Analyse und Messmittelfähigkeit

Messgeräte: Mess-System-Analyse und Messmittelfähigkeit Messgeräte: Mess-System-Analyse und Messmittelfähigkeit Andreas Berlin 14. Juli 2009 Bachelor-Seminar: Messen und Statistik Inhalt: 1 Aspekte einer Messung 2 Mess-System-Analyse 2.1 ANOVA-Methode 2.2 Maße

Mehr

Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt!

Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt! Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt! 1 Einführung 2 Wahrscheinlichkeiten kurz gefasst 3 Zufallsvariablen und Verteilungen 4 Theoretische Verteilungen (Wahrscheinlichkeitsfunktion)

Mehr

SFB 833 Bedeutungskonstitution. Kompaktkurs. Datenanalyse. Projekt Z2 Tübingen, Mittwoch, 18. und 20. März 2015

SFB 833 Bedeutungskonstitution. Kompaktkurs. Datenanalyse. Projekt Z2 Tübingen, Mittwoch, 18. und 20. März 2015 SFB 833 Bedeutungskonstitution Kompaktkurs Datenanalyse Projekt Z2 Tübingen, Mittwoch, 18. und 20. März 2015 Messen und Skalen Relativ (Relationensystem): Menge A von Objekten und eine oder mehrere Relationen

Mehr

Management von Softwaresystemen Systembewertung: Metriken und Prozess

Management von Softwaresystemen Systembewertung: Metriken und Prozess Management von Softwaresystemen Systembewertung: Metriken und Prozess Referent: Vadym Alyokhin Betreuer: Florian Deißenböck Übersicht Definition Einführung in die Messtheorie Meilensteine von Software-Metriken

Mehr

Box-and-Whisker Plot -0,2 0,8 1,8 2,8 3,8 4,8

Box-and-Whisker Plot -0,2 0,8 1,8 2,8 3,8 4,8 . Aufgabe: Für zwei verschiedene Aktien wurde der relative Kurszuwachs (in % beobachtet. Aus den jeweils 20 Quartaldaten ergaben sich die folgenden Box-Plots. Box-and-Whisker Plot Aktie Aktie 2-0,2 0,8,8

Mehr

Skript zur Übung: Grundlagen der empirischen Sozialforschung - Datenanalyse

Skript zur Übung: Grundlagen der empirischen Sozialforschung - Datenanalyse Skript zur Übung: Grundlagen der empirischen Sozialforschung - Datenanalyse Phasen des Forschungsprozesses Auswahl des Forschungsproblems Theoriebildung Theoretische Phase Konzeptspezifikation / Operationalisierung

Mehr

Multiple Regression. Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren)

Multiple Regression. Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren) Multiple Regression 1 Was ist multiple lineare Regression? Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren) Annahme: Der Zusammenhang

Mehr

Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau

Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau 1 Einführung in die statistische Datenanalyse Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau 2 Gliederung 1.Grundlagen 2.Nicht-parametrische Tests a. Mann-Whitney-Wilcoxon-U Test b. Wilcoxon-Signed-Rank

Mehr

Abhängigkeit zweier Merkmale

Abhängigkeit zweier Merkmale Abhängigkeit zweier Merkmale Johannes Hain Lehrstuhl für Mathematik VIII Statistik 1/33 Allgemeine Situation Neben der Untersuchung auf Unterschiede zwischen zwei oder mehreren Untersuchungsgruppen hinsichtlich

Mehr

90-minütige Klausur Statistik für Studierende der Kommunikationswissenschaft

90-minütige Klausur Statistik für Studierende der Kommunikationswissenschaft Prof. Dr. Helmut Küchenhoff SS08 90-minütige Klausur Statistik für Studierende der Kommunikationswissenschaft am 22.7.2008 Anmerkungen Überprüfen Sie bitte sofort, ob Ihre Angabe vollständig ist. Sie sollte

Mehr

Profil A 49,3 48,2 50,7 50,9 49,8 48,7 49,6 50,1 Profil B 51,8 49,6 53,2 51,1 51,1 53,4 50,7 50 51,5 51,7 48,8

Profil A 49,3 48,2 50,7 50,9 49,8 48,7 49,6 50,1 Profil B 51,8 49,6 53,2 51,1 51,1 53,4 50,7 50 51,5 51,7 48,8 1. Aufgabe: Eine Reifenfirma hat für Winterreifen unterschiedliche Profile entwickelt. Bei jeweils gleicher Geschwindigkeit und auch sonst gleichen Bedingungen wurden die Bremswirkungen gemessen. Die gemessenen

Mehr

12. Vergleich mehrerer Stichproben

12. Vergleich mehrerer Stichproben 12. Vergleich mehrerer Stichproben Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Häufig wollen wir verschiedene Populationen, Verfahren, usw. miteinander vergleichen. Beipiel: Vergleich

Mehr

Prüfung zu Modul 26 (BA Bw) bzw. 10 (BA IB) (Wirtschaftsstatistik)

Prüfung zu Modul 26 (BA Bw) bzw. 10 (BA IB) (Wirtschaftsstatistik) 2 3 Klausur-Nr = Sitzplatz-Nr Prüfung zu Modul 26 (BA Bw) bzw. 10 (BA IB) (Wirtschaftsstatistik) Klausurteil 1: Beschreibende Statistik BeStat-1 (7 ) n = 400 Personen wurden gefragt, wie viele Stück eines

Mehr

Übungsserie Nr. 10 mit Lösungen

Übungsserie Nr. 10 mit Lösungen Übungsserie Nr. 10 mit Lösungen 1 Ein Untersuchungsdesign sieht einen multivariaten Vergleich einer Stichprobe von Frauen mit einer Stichprobe von Männern hinsichtlich der Merkmale X1, X2 und X3 vor (Codierung:

Mehr

Monte Carlo Simulation (Grundlagen)

Monte Carlo Simulation (Grundlagen) Der Titel des vorliegenden Beitrages wird bei den meisten Lesern vermutlich Assoziationen mit Roulette oder Black Jack hervorrufen. Allerdings haben das heutige Thema und die Spieltische nur den Namen

Mehr

Statistik im Bachelor-Studium der BWL und VWL

Statistik im Bachelor-Studium der BWL und VWL Max C. Wewel Statistik im Bachelor-Studium der BWL und VWL Methoden, Anwendung, Interpretation Mit herausnehmbarer Formelsammlung ein Imprint von Pearson Education München Boston San Francisco Harlow,

Mehr

Ziel: Ziel der Aufgabe Ziel ist es, die Funktionalitäten von qs-stat millennium, sowie die Beurteilung von Datensätzen kennen zu lernen.

Ziel: Ziel der Aufgabe Ziel ist es, die Funktionalitäten von qs-stat millennium, sowie die Beurteilung von Datensätzen kennen zu lernen. Datenqualität 1/19 Ziel: Ziel der Aufgabe Ziel ist es, die Funktionalitäten von qs-stat millennium, sowie die Beurteilung von Datensätzen kennen zu lernen. Ausgangssituation: Sie wollen anhand des Werteverlaufs

Mehr

Grundbegriffe (1) Grundbegriffe (2)

Grundbegriffe (1) Grundbegriffe (2) Grundbegriffe (1) S.1 Äquivalenzklasse Unter einer Äquivalenzklasse versteht man eine Klasse von Objekten, die man hinsichtlich bestimmter Merkmalsausprägungen als gleich (äquivalent) betrachtet. (z.b.

Mehr

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = 10.000. 485,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = 10.000. 485,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge 2.4 Stetige Zufallsvariable Beispiel. Abfüllung von 500 Gramm Packungen einer bestimmten Ware auf einer automatischen Abfüllanlage. Die Zufallsvariable X beschreibe die Füllmenge einer zufällig ausgewählten

Mehr

Räumliches Data Mining

Räumliches Data Mining Räumliches Data Mining Spatial Data Mining Data Mining = Suche nach "interessanten Mustern" in sehr großen Datensätzen => explorative Datenanlyse auch: Knowledge Discovery in Databases (KDD) verbreitete

Mehr

Versuchsauswertung mit Polynom-Regression in Excel

Versuchsauswertung mit Polynom-Regression in Excel Versuchsauswertung mit Polynom-Regression in Excel Aufgabenstellung: Gegeben sei die in Bild 1 gezeigte Excel-Tabelle mit Messwertepaaren y i und x i. Aufgrund bekannter physikalischer Zusammenhänge wird

Mehr

Elisabeth Raab-Steiner/Michael Benesch. Der Fragebogen. Von der Forschungsidee zur SPSS/PASW-Auswertung. 2., aktualisierte Auflage. facultas.

Elisabeth Raab-Steiner/Michael Benesch. Der Fragebogen. Von der Forschungsidee zur SPSS/PASW-Auswertung. 2., aktualisierte Auflage. facultas. Elisabeth Raab-Steiner/Michael Benesch Der Fragebogen Von der Forschungsidee zur SPSS/PASW-Auswertung 2., aktualisierte Auflage facultas.wuv Inhaltsverzeichnis 1 Elementare Definitionen 11 1.1 Deskriptive

Mehr

Kundenzufriedenheitsbefragung 2014

Kundenzufriedenheitsbefragung 2014 Kundenzufriedenheitsbefragung 2014 Auswertungsband über alle bisher erhobenen Augenoptiker Anton Optik e.k. Februar 2015, V100 Label TÜV SÜD Management Service GmbH 1 1 2 Hintergrund der Erhebung Zusammenfassung

Mehr

Verteilungsanalyse. Johannes Hain. Lehrstuhl für Mathematik VIII Statistik 1/35

Verteilungsanalyse. Johannes Hain. Lehrstuhl für Mathematik VIII Statistik 1/35 Verteilungsanalyse Johannes Hain Lehrstuhl für Mathematik VIII Statistik 1/35 Datentypen Als Sammeln von Daten bezeichnet man in der Statistik das Aufzeichnen von Fakten. Erhobene Daten klassifziert man

Mehr

Begriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining

Begriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining Gliederung 1. Einführung 2. Grundlagen Data Mining Begriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining 3. Ausgewählte Methoden des Data

Mehr

Inhaltsverzeichnis. Regressionsanalyse. http://mesosworld.ch - Stand vom: 20.1.2010 1

Inhaltsverzeichnis. Regressionsanalyse. http://mesosworld.ch - Stand vom: 20.1.2010 1 Inhaltsverzeichnis Regressionsanalyse... 2 Lernhinweise... 2 Einführung... 2 Theorie (1-8)... 2 1. Allgemeine Beziehungen... 3 2. 'Best Fit'... 3 3. 'Ordinary Least Squares'... 4 4. Formel der Regressionskoeffizienten...

Mehr

Varianzanalyse ANOVA

Varianzanalyse ANOVA Varianzanalyse ANOVA Johannes Hain Lehrstuhl für Mathematik VIII Statistik 1/23 Einfaktorielle Varianzanalyse (ANOVA) Bisher war man lediglich in der Lage, mit dem t-test einen Mittelwertsvergleich für

Mehr

Künstliche Intelligenz Dirk Krechel SS 2009

Künstliche Intelligenz Dirk Krechel SS 2009 Künstliche Intelligenz Dirk Krechel SS 2009 Überblick über das Modul 1. Einführung 2. Symbolische Verfahren Logik Aussagenlogik Prädikatenlogik Horn Logik Prolog 3. Suchen und Bewerten Problemlösen durch

Mehr

2. Eindimensionale (univariate) Datenanalyse

2. Eindimensionale (univariate) Datenanalyse 2. Eindimensionale (univariate) Datenanalyse Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Kennzahlen, Statistiken In der Regel interessieren uns nicht so sehr die beobachteten Einzeldaten

Mehr

Verteilungsanalyse. Johannes Hain. Lehrstuhl für Mathematik VIII Statistik 1/31

Verteilungsanalyse. Johannes Hain. Lehrstuhl für Mathematik VIII Statistik 1/31 Verteilungsanalyse Johannes Hain Lehrstuhl für Mathematik VIII Statistik 1/31 Datentypen Als Sammeln von Daten bezeichnet man in der Statistik das Aufzeichnen von Fakten. Erhobene Daten klassifziert man

Mehr

3 Deskriptive Statistik in R (univariat)

3 Deskriptive Statistik in R (univariat) (univariat) Markus Burkhardt (markus.burkhardt@psychologie.tu-chemnitz.de) Inhalt 3.1 Ziel... 1 3.2 Häufigkeiten... 1 3.3 Deskriptive Kennziffern I Lagemaße... 2 3.4 Streuungsmaße... 5 3.5 Standardisierung:

Mehr

Spatial Data Mining. Thomas Gäbler 04IN1

Spatial Data Mining. Thomas Gäbler 04IN1 Spatial Data Mining 1. Motivation 2. Räumliche Datenbanken 2.1 Unterschied zum klassischen Data Mining 2.2 topologische Beziehungen 2.3 metrische Beziehungen 2.4 gerichtete Beziehungen 3. Spatial Data

Mehr

Grundlagen von Versuchsmethodik und Datenanalyse

Grundlagen von Versuchsmethodik und Datenanalyse Grundlagen von Versuchsmethodik und Datenanalyse Der Anfang: Hypothesen über Ursache-Wirkungs-Zusammenhänge Ursache Wirkung Koffein verbessert Kurzzeitgedächtnis Gewaltfilme führen zu aggressivem Verhalten

Mehr

Analyse bivariater Kontingenztafeln

Analyse bivariater Kontingenztafeln Analyse bivariater Kontingenztafeln Werden zwei kategoriale Merkmale mit nicht zu vielen möglichen Ausprägungen gemeinsam analysiert, so kommen zur Beschreibung der gemeinsamen Verteilung im allgemeinen

Mehr

Der Chi Quadrat Test nicht nur für die digitalen Ziffernanalyse geeignet

Der Chi Quadrat Test nicht nur für die digitalen Ziffernanalyse geeignet Der Chi Quadrat Test nicht nur für die digitalen Ziffernanalyse geeignet 1. Einleitung Seit Anfang 2002 finden elektronische Betriebsprüfungen auf der Grundlage der Grundsätze zum Datenzugriff und zur

Mehr

Exploration und Klassifikation von BigData

Exploration und Klassifikation von BigData Exploration und Klassifikation von BigData Inhalt Einführung Daten Data Mining: Vorbereitungen Clustering Konvexe Hülle Fragen Google: Riesige Datenmengen (2009: Prozessieren von 24 Petabytes pro Tag)

Mehr

Diskriminanzanalyse Beispiel

Diskriminanzanalyse Beispiel Diskriminanzanalyse Ziel bei der Diskriminanzanalyse ist die Analyse von Gruppenunterschieden, d. h. der Untersuchung von zwei oder mehr Gruppen hinsichtlich einer Vielzahl von Variablen. Diese Methode

Mehr

1.4 Portfolio-Analyse (Marktwachstums-Marktanteils-Portfolio)

1.4 Portfolio-Analyse (Marktwachstums-Marktanteils-Portfolio) FACHHOCHSCHULE LAUSITZ Prof. Dr.-Ing. M. Strunz Lehrgebiet Projektmanagement Übungsskript l 1.4 Portfolio-Analyse (Marktwachstums-Marktanteils-Portfolio) Zu den bekanntesten Instrumenten des strategischen

Mehr

Effiziente Wärmeableitung von PCB-Power-Modulen

Effiziente Wärmeableitung von PCB-Power-Modulen Effiziente Wärmeableitung von PCB-Power-Modulen Entwickler von Stromversorgungsmodulen sind stets auf der Suche nach mehr Leistungsdichte auf kleinerem Raum. Dies trifft vor allem auf Server in Datencentern

Mehr

Datenanalyse und Statistik

Datenanalyse und Statistik Datenanalyse und Statistik p. 1/44 Datenanalyse und Statistik Vorlesung 2 (Graphik I) K.Gerald van den Boogaart http://www.stat.boogaart.de Datenanalyse und Statistik p. 2/44 Daten Schätzung Test Mathe

Mehr

Varianzanalytische Methoden Zweifaktorielle Versuchspläne 4/13. Durchführung in SPSS (File Trait Angst.sav)

Varianzanalytische Methoden Zweifaktorielle Versuchspläne 4/13. Durchführung in SPSS (File Trait Angst.sav) Zweifaktorielle Versuchspläne 4/13 Durchführung in SPSS (File Trait Angst.sav) Analysieren > Allgemeines Lineares Modell > Univariat Zweifaktorielle Versuchspläne 5/13 Haupteffekte Geschlecht und Gruppe

Mehr

ZERTIFIKATE spielend beherrschen

ZERTIFIKATE spielend beherrschen UDI ZAGST / MICHAEL HUBER RUDI ZAGST / MICHAEL HUBER ZERTIFIKATE ZERTIFIKATE spielend beherrschen spielend beherrschen Der Performance-Kick Der Performance-Kick für Ihr für Portfolio Ihr Portfolio inanzbuch

Mehr

Motivation. Themenblock: Data Preprocessing. Einsatzgebiete für Data Mining I. Modell von Gianotti und Pedreschi

Motivation. Themenblock: Data Preprocessing. Einsatzgebiete für Data Mining I. Modell von Gianotti und Pedreschi Motivation Themenblock: Data Preprocessing We are drowning in information, but starving for knowledge! (John Naisbett) Was genau ist Datenanalyse? Praktikum: Data Warehousing und Data Mining Was ist Data

Mehr

Korrelation - Regression. Berghold, IMI

Korrelation - Regression. Berghold, IMI Korrelation - Regression Zusammenhang zwischen Variablen Bivariate Datenanalyse - Zusammenhang zwischen 2 stetigen Variablen Korrelation Einfaches lineares Regressionsmodell 1. Schritt: Erstellung eines

Mehr

Kontingenzkoeffizient (nach Pearson)

Kontingenzkoeffizient (nach Pearson) Assoziationsmaß für zwei nominale Merkmale misst die Unabhängigkeit zweier Merkmale gibt keine Richtung eines Zusammenhanges an 46 o jl beobachtete Häufigkeiten der Kombination von Merkmalsausprägungen

Mehr

Umsetzung von DEA in Excel

Umsetzung von DEA in Excel Umsetzung von DEA in Excel Thorsten Poddig Armin Varmaz 30. November 2005 1 Vorbemerkungen In diesem Dokument, das als Begleitmaterial zum in der Zeitschrift,,Controlling, Heft 10, 2005 veröffentlichten

Mehr

Der Internetdienst für Ihre Online-Umfragen. Leitfaden statistische Auswertung

Der Internetdienst für Ihre Online-Umfragen. Leitfaden statistische Auswertung Der Internetdienst für Ihre Online-Umfragen Leitfaden statistische Auswertung Weitere in dieser Reihe bei 2ask erschienene Leitfäden Allgemeiner Leitfaden zur Fragebogenerstellung Sie möchten einen Fragebogen

Mehr

Risiko und Symmetrie. Prof. Dr. Andrea Wirth

Risiko und Symmetrie. Prof. Dr. Andrea Wirth Risiko und Symmetrie Prof. Dr. Andrea Wirth Gliederung 1. Einleitung Was ist eigentlich Risiko? 2. Risiko Mathematische Grundlagen 3. Anwendungsbeispiele Wo genau liegt der Schmerz des Risikos? 4. Sie

Mehr

3.2 Bivariate Verteilungen

3.2 Bivariate Verteilungen 3.2 Bivariate Verteilungen zwei Variablen X, Y werden gemeinsam betrachtet (an jedem Objekt i, i = 1,..., n, werden gleichzeitig zwei Merkmale beobachtet) Beobachtungswerte sind Paare/Kombinationen von

Mehr

Grundlagen der Datenanalyse am Beispiel von SPSS

Grundlagen der Datenanalyse am Beispiel von SPSS Grundlagen der Datenanalyse am Beispiel von SPSS Einführung Dipl. - Psych. Fabian Hölzenbein hoelzenbein@psychologie.uni-freiburg.de Einführung Organisatorisches Was ist Empirie? Was ist Statistik? Dateneingabe

Mehr

9 Resümee. Resümee 216

9 Resümee. Resümee 216 Resümee 216 9 Resümee In der vorliegenden Arbeit werden verschiedene Methoden der Datenreduktion auf ihre Leistungsfähigkeit im sozialwissenschaftlichstatistischen Umfeld anhand eines konkreten Anwendungsfalls

Mehr

Delta-Gamma-Verfahren als Standard- Risikomodell für Lebensversicherer

Delta-Gamma-Verfahren als Standard- Risikomodell für Lebensversicherer Delta-Gamma-Verfahren als Standard- Risikomodell für Lebensversicherer 1 Einleitung Im Rahmen des SST wird teilweise vereinfachend angenommen, dass der Zusammenhang zwischen der Veränderung des risikotragenden

Mehr

Entscheidungsanalyse unter Unsicherheit Entscheidungskriterien in ökonomischen Netzen

Entscheidungsanalyse unter Unsicherheit Entscheidungskriterien in ökonomischen Netzen Entscheidungsanalyse unter Unsicherheit Entscheidungskriterien in ökonomischen Netzen Referat von Guido RECKE Institut für Agrarökonomie der Georg-August-Universität Göttingen Platz der Göttinger Sieben

Mehr

Telezentrische Meßtechnik

Telezentrische Meßtechnik Telezentrische Meßtechnik Beidseitige Telezentrie - eine Voraussetzung für hochgenaue optische Meßtechnik Autor : Dr. Rolf Wartmann, Bad Kreuznach In den letzten Jahren erlebten die Techniken der berührungslosen,

Mehr

Schätzung des Lifetime Values von Spendern mit Hilfe der Überlebensanalyse

Schätzung des Lifetime Values von Spendern mit Hilfe der Überlebensanalyse Schätzung Lifetime Values von Spenn mit Hilfe Überlebensanalyse Einführung in das Verfahren am Beispiel Einzugsgenehmigung Überlebensanalysen o Ereignisdatenanalysen behandeln das Problem, mit welcher

Mehr

Vergleich verschiedener Optimierungsansätze

Vergleich verschiedener Optimierungsansätze Vergleich verschiedener Optimierungsansätze Inhaltsverzeichnis 1 Einleitung... 2 2 Welchen Nutzen schafft munio?... 3 3 Analysen... 3 3.1 Schritt 1: Optimierung anhand von Indizes... 3 3.2 Schritt 2: Manuell

Mehr

Einleitung 19. Teil I SPSS kennen lernen 25. Kapitel 1 In 25 Minuten zum SPSS-Profi 27

Einleitung 19. Teil I SPSS kennen lernen 25. Kapitel 1 In 25 Minuten zum SPSS-Profi 27 Inhaltsverzeichnis Einleitung 19 SPSS oder PASW oder was? 19 Über dieses Buch 20 Konventionen in diesem Buch 20 Was Sie nicht lesen müssen 21 Törichte Annahmen über den Leser 21 Wie dieses Buch aufgebaut

Mehr

Institut für Soziologie. Methoden 2. Regressionsanalyse I: Einfache lineare Regression

Institut für Soziologie. Methoden 2. Regressionsanalyse I: Einfache lineare Regression Institut für Soziologie Methoden 2 Regressionsanalyse I: Einfache lineare Regression Programm Anwendungsbereich Vorgehensweise Interpretation Annahmen Zusammenfassung Übungsaufgabe Literatur # 2 Anwendungsbereich

Mehr

Freiherr-vom-Stein Schule Fach: Mathematik Herr Pfaffenbach. Logistisches Wachstum. am Beispiel einer Hefekultur

Freiherr-vom-Stein Schule Fach: Mathematik Herr Pfaffenbach. Logistisches Wachstum. am Beispiel einer Hefekultur Freiherr-vom-Stein Schule Fach: Mathematik Herr Pfaffenbach Logistisches Wachstum am Beispiel einer Hefekultur 16.04.2012 Inhaltsverzeichnis 1.0 Vorwort...3 2.0 Logistisches Wachstum allgemein...4 2.1

Mehr

Risiken bei der Analyse sehr großer Datenmengen. Dr. Thomas Hoppe

Risiken bei der Analyse sehr großer Datenmengen. Dr. Thomas Hoppe Risiken bei der Analyse sehr großer Datenmengen Dr. Thomas Hoppe Datenaufbereitung Datenanalyse Data Mining Data Science Big Data Risiken der Analyse Sammlung Integration Transformation Fehlerbereinigung

Mehr

Beteiligung der Beschäftigten an betrieblicher Weiterbildung. und Unternehmensgröße

Beteiligung der Beschäftigten an betrieblicher Weiterbildung. und Unternehmensgröße Beteiligung der Beschäftigten an betrieblicher Weiterbildung und Unternehmensgröße Befunde auf der Grundlage von CVTS3 Friederike Behringer, Gudrun Schönfeld Bonn, Februar 2011 1 Vorbemerkung Im Folgenden

Mehr

Kapitel 33 Hoch-Tief-Diagramme

Kapitel 33 Hoch-Tief-Diagramme Kapitel 33 Hoch-Tief-Diagramme 33.1 Diagrammtypen In einem Hoch-Tief-Diagramm werden Wertepaare oder -tripel dargestellt. Einen typischen Anwendungsfall für Hoch-Tief-Diagramme bildet die Darstellung von

Mehr

SPSS-Skriptum. 1. Vorbereitungen für die Arbeit mit SPSS (im Seminar)

SPSS-Skriptum. 1. Vorbereitungen für die Arbeit mit SPSS (im Seminar) Die folgenden Erklärungen und Abbildungen sollen den Umgang mit SPSS im Rahmen des POK erleichtern. Diese beschreiben nicht alle Möglichkeiten, die SPSS bietet, sondern nur die Verfahren, die im Seminar

Mehr

Graphen: Einführung. Vorlesung Mathematische Strukturen. Sommersemester 2011

Graphen: Einführung. Vorlesung Mathematische Strukturen. Sommersemester 2011 Graphen: Einführung Vorlesung Mathematische Strukturen Zum Ende der Vorlesung beschäftigen wir uns mit Graphen. Graphen sind netzartige Strukturen, bestehend aus Knoten und Kanten. Sommersemester 20 Prof.

Mehr

Gibt es verschiedene Arten unendlich? Dieter Wolke

Gibt es verschiedene Arten unendlich? Dieter Wolke Gibt es verschiedene Arten unendlich? Dieter Wolke 1 Zuerst zum Gebrauch des Wortes unendlich Es wird in der Mathematik in zwei unterschiedlichen Bedeutungen benutzt Erstens im Zusammenhang mit Funktionen

Mehr

Eine computergestützte Einführung mit

Eine computergestützte Einführung mit Thomas Cleff Deskriptive Statistik und Explorative Datenanalyse Eine computergestützte Einführung mit Excel, SPSS und STATA 3., überarbeitete und erweiterte Auflage ^ Springer Inhaltsverzeichnis 1 Statistik

Mehr

Relationale Datenbanken Datenbankgrundlagen

Relationale Datenbanken Datenbankgrundlagen Datenbanksystem Ein Datenbanksystem (DBS) 1 ist ein System zur elektronischen Datenverwaltung. Die wesentliche Aufgabe eines DBS ist es, große Datenmengen effizient, widerspruchsfrei und dauerhaft zu speichern

Mehr

Untersuchungen zum Thema Tracking Error

Untersuchungen zum Thema Tracking Error Untersuchungen zum Thema Tracking Error J. Fulmek 24. August 2003 1 Einleitung Im Folgenden werden folgende Punkte untersucht: 1. verschiedene in der Literatur übliche Definitionen des Tracking Errors

Mehr

6 Architektur-Mittel (WOMIT)

6 Architektur-Mittel (WOMIT) 6 Architektur-Mittel (WOMIT) Abb. 6-1: Positionierung des Kapitels im Ordnungsrahmen. Dieses Kapitel befasst sich mit der WOMIT-Dimension des architektonischen Ordnungsrahmens, indem es grundlegende Konzepte

Mehr

6. METRISCHE UND KATEGORIALE MERKMALE

6. METRISCHE UND KATEGORIALE MERKMALE 6. METRISCHE UND KATEGORIALE MERKMALE wenn an einer Beobachtungseinheit eine (oder mehrere) metrische und eine (oder mehrere) kategoriale Variable(n) erhoben wurden Beispiel: Haushaltsarbeit von Teenagern

Mehr

Data Mining-Modelle und -Algorithmen

Data Mining-Modelle und -Algorithmen Data Mining-Modelle und -Algorithmen Data Mining-Modelle und -Algorithmen Data Mining ist ein Prozess, bei dem mehrere Komponenten i n- teragieren. Sie greifen auf Datenquellen, um diese zum Training,

Mehr

Anwendung von Statistik in Excel Deskriptive Statistik und Wirtschaftsstatistik

Anwendung von Statistik in Excel Deskriptive Statistik und Wirtschaftsstatistik Anwendung von Statistik in Excel Deskriptive Statistik und Wirtschaftsstatistik Wintersemester 08/09 Kai Schaal Universität zu Köln Organisatorisches und Einleitung (1) Was, wann, wo? Anwendung von Statistik

Mehr

Supply Chain Controlling: Entwicklung und Diskussion

Supply Chain Controlling: Entwicklung und Diskussion Supply Chain Controlling: Entwicklung und Diskussion von Christoph Eiser Erstauflage Diplomica Verlag 2015 Verlag C.H. Beck im Internet: www.beck.de ISBN 978 3 95485 266 6 schnell und portofrei erhältlich

Mehr

9. Schätzen und Testen bei unbekannter Varianz

9. Schätzen und Testen bei unbekannter Varianz 9. Schätzen und Testen bei unbekannter Varianz Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Schätzen und Testen bei unbekannter Varianz Wenn wir die Standardabweichung σ nicht kennen,

Mehr

werden können. Wenn der Benutzer zudem eine konkrete Differenz mit praktischen Konsequenzen angibt, berechnet der Assistent den Stichprobenumfang,

werden können. Wenn der Benutzer zudem eine konkrete Differenz mit praktischen Konsequenzen angibt, berechnet der Assistent den Stichprobenumfang, Dieses White Paper ist Teil einer Reihe von Veröffentlichungen, welche die Forschungsarbeiten der Minitab-Statistiker erläutern, in deren Rahmen die im Assistenten der Minitab 17 Statistical Software verwendeten

Mehr