Diplomarbeit. Beurteilung der Parametersensitivität und der Vorhersagesicherheit am Beispiel des hydrologischen Modells J2000.

Größe: px
Ab Seite anzeigen:

Download "Diplomarbeit. Beurteilung der Parametersensitivität und der Vorhersagesicherheit am Beispiel des hydrologischen Modells J2000."

Transkript

1 Friedrich-Schiller Universität Jena Geographisches Institut Fachbereich Geoinformatik, Geohydrologie und Modellierung Diplomarbeit mit dem Thema: Beurteilung der Parametersensitivität und der Vorhersagesicherheit am Beispiel des hydrologischen Modells J ,5 1,0 1,5 2,0 2, 0,3 0,4 0,5 0,6 0,7 0,8 tempfac [-] Vorgelegt von: Gutachter: Prof. W.A. Flügel Dr. P. Krause Frank Bäse Mühlberg Frauenprießnitz fbaese@web.de Jena, den

2 Danksagung Mein Dank gebührt meinem Betreuer Dr. Peter Krause, der mir stets beratend zur Seite stand und mich mit seinem Enthusiasmus immer wieder in meiner Arbeit bestärkt hat, Prof. Dr. Wolfgang-Albert Flügel, an dessen Lehrstuhl ich diese Arbeit verfassen durfte und allen Mitarbeitern des Lehrstuhls für Geoinformatik, Geohydrologie und Modellierung, welche für meine Fragen fortwährend ein offenes Ohr bereithielten. Insbesondere bedanke ich mich an dieser Stelle bei Cornelia Scheffler und Thomas Spreda für die guten Ratschläge und ihrer kritischen Auseinandersetzung mit meiner Arbeit. Mein herzlicher Dank gilt meiner geliebten Freundin Iris, die mich jederzeit in meinem Handeln moralisch und aktiv unterstützte. Besondere Dankbarkeit empfinde ich auch gegenüber meiner Familie, die mich immer nach allen Kräften unterstützte und meinem Handeln stets mit Zuversicht und Vertrauen gegenüber stand. Schließlich möchte ich allen Freunden und Kommilitonen danken, welche die Zeit meines Studiums so sehr bereicherten.

3 Selbstständigkeitserklärung Hiermit bestätige ich, dass ich diese Arbeit selbstständig und nur mit den angegebenen Quellen und Hilfsmitteln durchgeführt und verfasst habe. Ich habe aus anderen Werken entnommene Daten, Abbildungen sowie wörtliche und sinngemäße Zitate mit Quellenangaben gekennzeichnet. Jena, den Frank Bäse

4 III Inhalt Abbildungsverzeichnis Tabellenverzeichnis Abkürzungen V VII VIII 1 Einleitung 1 2 Stand der Forschung Sensitivitätsanalyse Klassische Sensitivitätsanalyse Sensitivitätsanalyse mittels einer Reaktionsoberfläche Generalisierte Sensitivitätsanalyse (GSA) Unsicherheitsanalyse GLUE (Generalized Likelihood Uncertainty Estimation) ParaSol und SUNGLASSES Die Einschätzung der Modellgenauigkeit durch Gütemaße Absolute Gütemaße Relative Gütemaße Das distributive, hydrologische Modell J Parameter des J Interzeptionsmodul Schneemodul Bodenwassermodul Grundwassermodul Reach Routing Modul Lateral Routing Modul Sensitivitätsanalyse im J Forschungsbedarf und Zielsetzung 41 4 Methodisches Vorgehen 43 5 Das Einzugsgebiet der Wilden Gera und Eingangsdaten 46

5 Inhaltsverzeichnis IV 6 Ergebnisse Parametersensitivität Parameterinteraktionen Parameteranpassung an die ermittelten Optimalbereiche Multidimensionale Sensitivitätsanalyse Unsicherheitsanalyse 60 7 Diskussion Parametersensitivitäten und Parameterinteraktionen aus der ein- und zweidimensionalen Sensitivitätsanalyse Parameteroptimierung Parametersensitivität aus der Generalisierten Sensitivitätsanalyse Vorhersagesicherheit des Modells J Schlussfolgerungen 76 9 Ausblick 80 Literatur 82 Anhang 87

6 V Abbildungsverzeichnis Abb Abb Graphische Darstellung des Sensitivitätsmaßes S, welches der mittleren Sensitivität entspricht (gestrichelte Linie). Die drei Haupttypen der Modellausgabereaktion: 1 = hohe Sensitivität über gesamten Wertebereich des Eingabeparameters, 2 = geringe Sensitivität über den gesamten Wertebereich, 3 = hohe Sensitivität über einen kleinen Teil des Wertebereichs 6 7 Abb Reaktionsoberfläche zweier Parameter auf die Modellgüte, dargestellt durch die Konturen Abb Komplexe Reaktionsoberflächen aus zwei Parametern, a) Parameterinteraktion, b) mehrere lokale Optima Abb Generalisierte Sensitivitätsanalyse. (a) Initiale kumulative Verteilung der Parameterwerte, (b) Kumulative Verteilung eines sensitiven Parameters, (c) Kumulative Verteilung eines unsensitiven Parameters Abb Modellschema mit den zu kalibrierenden Parametern des J Abb Abb Abb Abb Abb Abb Abb Reaktion der MPS-Sättigung und des Reduktionsfaktors auf die Variation des linear reduc Reaktion der MPS-Sättigung und des Reduktionsfaktors auf die Variation des poly reduc Verhalten des rel. LPS-Ausflusses in Abhängigkeit der LPS- Sättigung und des LPSout Relativer Anteil des Perkolationswassers am gesamten LPS- Ausfluss in Abhängigkeit der Hangneigung und des LatVertDist Auswirkung der Variation des distrg1rg2 auf den Eintrag in den oberen Grundwasserspeicher Auswirkung der Variation des distrg1rg2 auf den Eintrag in den unteren Grundwasserspeicher Verhalten des kapillaren Aufstiegs in Abhängigkeit der relativen MPS-Sättigung

7 Abbildungsverzeichnis VI Abb. 5.1 Lage des Einzugsgebiets 46 Abb. 5.2 Abb Relief des Einzugsgebietes der Wilden Gera mit dem Bezugspegel Gehlberg Verhalten der Gütemaße bei der Variation des Parameters poly reduc Abb Charakteristische Reaktionsoberfläche der Gruppe 1 52 Abb Charakteristische Reaktionsoberfläche der Gruppe 2 53 Abb Charakteristische Reaktionsoberfläche der Gruppe 3 53 Abb Charakteristische Reaktionsober-fläche der Gruppe 4 53 Abb Reaktionsoberfläche von E2 aus coldcontfac vs. ground Fac 55 Abb Reaktionsoberfläche von E2 aus temp Fac vs. ground Fac 55 Abb Reaktionsoberfläche von E2 aus Dist coef vs. Diff coef 55 Abb Reaktionsoberfläche von E2 aus Inf snow cover und recrd1 56 Abb Reaktionsoberfläche von E2 aus recrd1 und TA 56 Abb Variation der Sensitivität ausgewählter Modellparameter in Abhängigkeit des Modellverhaltens (Trennungsmaß: E2 = 0,6) Abb Modellgüte (E2) bei Variation der Parameterwerte ausgewählter Parameter mit Trennungsmaß (rot 0,6; blau 0,5) für die GSA (3000 Parameterkombinationen) Abb Nach der GLUE-Methode ermittelten Unsicherheitsgrenzen (5% Quantil und 95% Quantil) für das hydrologische Jahr 1991 Abb Nach der GLUE-Methode ermittelten Unsicherheitsgrenzen (5% Quantil und 95% Quantil) für das hydrologische Jahr Abb Sensitivität des Parameters TRS 64 Abb Sensitivität des Parameters ddf 66 Abb Reaktion der Gütemaße E2, lne und DSgrad bei Änderung des Parameters LPSout 70 Abb Sensitivität des Parameters αrain 71 Abb Kumulierte relative Häufigkeit ausgewählter Parameter gegen die Nash & Sutcliffe-Effizienz (vereinfachte Darstellung) 72

8 VII Tabellenverzeichnis Tab Tab Tab Tab Tab Klassifikation zur Bewertung der Parametersensitivitäten des TAC Modells Sensitivitätsklassen aus der maximalen vertikalen Distanz der kumulativen Verteilungen guter und schlechter Simulationen Maximale Speicherkapazitäten und Rückhaltekoeffizienten der im Einzugsgebiet vorkommenden hydrogeologischen Einheiten Die Parameter des J2000 mit Einheiten und ihrem a priori eingegrenzten Wertebereich, Teil 1 Die Parameter des J2000 mit Einheiten und ihrem a priori eingegrenzten Wertebereich, Teil Tab. 4.1 Parametereinstellungen des Ausgangsdatensatzes 43 Tab Sensitivitätsmatrix aus den Modellparametern und deren Gütemaße unter Berücksichtigung des beprobten Wertebereiches und die Parametersensitivitäten aus der Generalisierten Sensitivitätsanalyse (d max ) Tab Klassifikation zur Bewertung der Parametersensitivitäten des J Tab Die aus den Reaktionsoberflächen ermittelten Parameterinteraktionen Tab Tab Tab Tab. 8.1 Optimalbereiche der Parameter in Bezug auf den Spitzenabfluss (E2), Basisabfluss (lne) und Abflussvolumen (DSgrad), rot gekennzeichnete Parameter haben für alle Gütemaße die gleichen Optima Güte der Simulation vor und nach Anpassung der Parameter an die Optimalwerte der Gütemaße Änderung der maximalen Differenz (d max ) ausgewählter Parameter bei Verringerung des Trennungsmaßes von 0,6 auf 0,5 Quellen der Parametersensitivität (*potmr beinhaltet ddf, temp Fac, rain Fac, ground Fac)

9 VIII Abkürzungen Abb. ASCE bzw. C CC ca. cm CR d ddf d.h. DSgrad d max DWD E EFFIC emp. et al. ETP Fac g Gl. GLUE GOC GSA h HBV HPD HRU Abbildung Task committee on definition of criteria for evaluation of watershed models beziehungsweise Celsius cold content circa Zentimeter Confidence region Index of Agreement nach WILLMOTT (1981), die 2 steht für die zweite Potenz und die 1 für die erste Potenz in der Berechnungsformel day degree factor das heißt Doppelsummengradient maximal vertikale Distanz Deutscher Wetterdienst Modelleffizienz nach NASH & SUTCLIFFE (1970), die 2 steht für die zweite Potenz und die 1 für die erste Potenz in der Berechnungsformel Efficiency empirische und andere Evapotranspiration Factor Gramm Gleichung Generalised likelyhood uncertainty estimation global optimization criteria Generalized sensitivity analysis Stunde hydrologisches Modell high probability density Hydrological Response Unit

10 Abkürzungen IX I i.d.r. IP K Kap. km LAI lne LPS m MAE mm MPS MSE n NN O ParaSol PE potmr Q R r 2 RD1 RD2 RG1 RG2 RMSE Input in der Regel impervious areas Kelvin Kapitel Kilometer leaf area index logarithmierte Nash & Sutcliffe-Effizienz Large Pore Storage Meter mean absolute error Millimeter Middle Pore Storage mean square error nicht sensitiv Normalnull Output Parameter Solutuion potential error potentielle Schneeschmelzrate Abfluss Pearson`sche Produkt-Moment Korrelationskoeffizient Bestimtheitsmaß Direktabfluss Zwischenabfluss schneller Basisabfluss langsamer Basisabfluss root mean square error s wenig sensitiv S Sensitivitätsindex nach MCCUEN (1973) SAE Sum of absolute errors SCE-UA Shuffled complex evolution algorithm S i Normalisierter Sensitivitätsindex

11 Abkürzungen X SI Sensitivitätsindex nach DE ROO (1993) SLE Sum of squared log residuals SMR snow melt runoff ss sensitiv SSQ sum of the squares of the residual SSQR sum of the squares of the differences of the measured and simulated values after ranking sss sehr sensitiv SUNGLASSES Sources of uncertainty global assessment using split samples SWAT Soil and water assessment tool T Tab. TAC TK TRS Lufttemperatur Tabelle tracer aided catchment model Topographische Karte threshold VE vgl. vs. volume error vergleiche versus z.b. zum Beispiel

12 1 1 Einleitung Modelle helfen komplexe Zusammenhänge natürlicher Systeme vereinfacht darzustellen und schließlich besser zu verstehen. Ein solches, sehr komplexes Wirkungsgefüge stellen die Prozesse der Abflussbildung dar. Durch verschiedene Modellansätze wird versucht dem hydrologischen System gerecht zu werden. Das Ziel der hydrologischen Modellierung ist, ein besseres Verständnis über die Prozesse der Abflussbildung zu erlangen, um mit diesen Kenntnissen Aussagen über das zukünftige Verhalten des Systems machen zu können. Von besonderem Interesse ist die Systemreaktion bei Veränderung einzelner Systemkomponenten, wie beispielsweise das Klima oder die Landnutzung. Physikalisch basierte, distributive Modelle, wie J2000 bieten durch eine detaillierte Nachbildung der Abflussbildungsprozesse die Möglichkeit Veränderungen im natürlichen System darzustellen. Allerdings benötigen solche komplexe, hydrologische Modelle in der Regel eine Vielzahl von Parametern. Für das hydrologische Modell J2000 können bis zu 36 solcher Parameter verwendet werden. Sie werden im Kapitel 2.4 näher erläutert. Durch die räumliche Variabilität des Untersuchungsgebietes und auftretende Messfehler sind die Werte vieler dieser Parameter nicht exakt bekannt und zum Teil handelt es sich um freie, empirische Parameter, was die Notwendigkeit einer Modellkalibrierung nach sich zieht (ECKHARDT & ARNOLD 2001). Als Modellkalibrierung ist die Optimierung der Eingabeparameter für die Modellierung zu verstehen. Wobei ein Parametersatz als optimal angesehen wird, wenn das Modellergebnis eine bestmögliche Übereinstimmung mit den beobachteten Werten hat. Diese Übereinstimmung wird mit der Güte der Anpassung des Modells beschrieben, welche durch Gütemaße quantifiziert werden kann (FLEISCHBEIN 2004). Im Laufe der letzten Dekaden wurde eine breite Palette von Gütemaßen zur Einschätzung der Modellgüte entwickelt. Eine Auswahl der geläufigsten Gütemaße und deren Aussagekraft wird im Kapitel 2.3 diskutiert. Modelle dienen auch als wichtiges Werkzeug zur Entscheidungsfindung. Die Anwendung hydrologischer Modelle, z.b. in Bereichen des Hochwasserschutzes, erfordert zuverlässige Aussagen, um das Gefährdungspotential für die ufernahen Bereiche abzuschätzen und im Fall eines Hochwassers die richtigen Maßnahmen einzuleiten. Hier wird besonders deutlich, dass Modelle mit einer hohen Simulationsunsicherheit Entscheidungen ungünstig beeinflussen und schwerwiegende Folgen haben können. Somit sind Kenntnisse über die Zuverlässigkeit von Ergebnissen von besonderer Bedeutung. Mit einer Unsicherheitsanalyse sind diesbezüglich konkrete Aussagen möglich. Sie berücksichtigt idealer Weise alle Unsicherheitsquellen (physikalische Eingabe bzw. Datenerhebung, Parametereingabe, Modellstruktur und die inhärente Variabilität natürlicher Prozesse). Eine Auswahl verschiedener Methoden der Unsicherheitsanalyse werden in Kapitel 2.2 vorgestellt. Die Parameteroptimierung ist umso schwieriger, je mehr Parameter berücksichtigt werden müssen. Hinzu kommt die Gefahr der Überparametrisierung, wenn versucht wird, alle vermeintlich relevanten hydrologischen Prozesse zu simulieren (BEVEN 1989). Um die Bedeutung einzelner Parameter in Bezug auf das Modellergebnis herauszustellen, bedient sich der Modellierer der Sensitivitätsanalyse. Auch hier gibt es mehrere verschiedene Methoden

13 Einleitung 2 zur Analyse der Parametersensitivität, von denen eine Auswahl im Kapitel 2.1 vorgestellt wird. Die Beurteilung der Sensitivität am Beispiel des Einzugsgebietes der Wilden Gera im Thüringer Wald, welches im Kapitel 5 vorgestellt wird, bildet den Schwerpunkt dieser Arbeit. Dabei steht die Anwendung einer eindimensionalen Sensitivitätsanalyse (Kapitel 6.1), einer Sensitivitätsanalyse mittels Reaktionsoberflächen (Kapitel 7.2) und der Generalisierten Sensitivitätsanalyse (Kapitel 6.4) nach SPEAR & HORNBERGER (1980) im Vordergrund der Untersuchung. Aus der Anwendung der genannten Methoden soll herausgestellt werden, welche Informationen mit den einzelnen Analysen gewonnen werden können und wie durch eine Kombination dieser die Bedeutung und Wirkung der einzelnen Parameter herausgestellt werden kann. Mit Hilfe dieser Untersuchungen ist es möglich, sensitive und unsensitive Parameter als auch Parameterinteraktionen auszuweisen und zu begründen. Des Weiteren wurde versucht mit den aus der eindimensionalen Sensitivitätsanalyse ermittelten Parameterverhalten eine Parameteroptimierung vorzunehmen (Kapitel 6.3). Die Ergebnisse der Sensitivitätsanalysen gingen schließlich in die Beurteilung der Modelunsicherheit mit dem Analysewerkzeug GLUE von BEVEN & BINLEY (1992) (Kapitel 6.5) ein. Nach der Diskussion der gewonnenen Erkenntnisse in Kapitel 7 werden die sich daraus ergebenden Schlussfolgerungen im Kapitel 8 zusammengefasst. Noch offene Fragen, welche mit weiterführenden Arbeiten zu beantworten sind, werden im Ausblick (Kapitel 9) aufgezeigt.

14 3 2 Stand der Forschung Mit zunehmender Komplexität physikalisch basierter, distributiver Modelle ist auch die Anzahl der zu kalibrierenden Parameter gestiegen (DE ROO 1993). Dabei hat, in Abhängigkeit vom Einzugsgebiet nicht jeder Parameter einen Einfluss auf das Modellergebnis. Mittels der Sensitivitätsanalyse soll herausgestellt werden, welche Parameter für die Kalibrierung des Modells von besonderer Bedeutung sind und welche nicht. So kann beispielsweise durch die Fixierung eines unbedeutenden, d.h. unsensitiven Parameters auf einen plausiblen Wert, die Anzahl der zu kalibrierenden Parameter reduziert werden, was den Prozess der Kalibrierung beschleunigt. Um sensitive oder unsensitive Parameter ausfindig zu machen, können mehrere Herangehensweisen genutzt werden. Eine Auswahl der gebräuchlichsten Sensitivitätsanalysen wird im folgenden Kapitel 2.1 vorgestellt. Die modellhafte Darstellung eines Systems ist immer mit Unsicherheiten belastet. Diese Unsicherheiten resultieren aus verschiedenen Quellen, welche je nach Art des Modells im unterschiedlichen Ausmaß hervor treten. Mit der Unsicherheitsanalyse wird nun versucht, durch eine Schätzung der Vorhersageungenauigkeit, den Wert der Vorhersage bzw. der Simulation zu bestimmen. Für die Durchführung einer Unsicherheitsanalyse wurden verschiedene Methoden entwickelt, von denen einige im Kapitel 2.2 vorgestellt werden. Für die Einschätzung der Übereinstimmung von simulierten und gemessenen Abflusswerten steht dem Anwender eine breite Palette von Gütemaßen zur Verfügung. Im Kapitel 2.3 wird eine Auswahl dieser Gütemaße vorgestellt sowie deren Aussage erläutert und bewertet. Letztendlich wird die Aufarbeitung des aktuellen Forschungsstandes mit der Vorstellung des hydrologischen Modells J2000 abgeschlossen, dessen Kalibrierungsparameter die Grundlage der einzelnen Analysen bilden. In diesem Kapitel (2.4) werden auch die im J2000 implementierten Werkzeuge zur Bestimmung der Parametersensitivität und der Modellunsicherheit vorgestellt. 2.1 Sensitivitätsanalyse Die Sensitivität beschreibt das Ausmaß der Änderung eines Faktors in Bezug zu der Änderung eines anderen Faktors (MCCUEN 1973). In den meisten Fällen wird mit der Sensitivität die Änderung des Modellergebnisses bei der Variation eines Parameters beurteilt. Ist dabei die Reaktion des Modellergebnisses auf die Variation eines Parameters sehr stark, so wird von einem sensitiven Parameter gesprochen. Da ein deutlicher Zusammenhang zwischen der Qualität der zur Kalibrierung verwendeten Daten und der Vorhersagegenauigkeit eines Modells besteht, ist es wichtig den Wert der Sensitivität eines Parameters so genau wie möglich zu bestimmen. Die Sensitivitätsanalyse hilft an dieser Stelle herauszufinden, wo die Anstrengungen bei der Modellkalibrierung, d.h. der Parameteroptimierung konzentriert werden müssen (KIRKBY et al. 1993). So kann mittels einer vorherigen Sensitivitätsanalyse, in Verbindung mit einer Unsicherheitsanalyse, die Anzahl der zu kalibrierenden Parameter

15 Stand der Forschung - Sensitivitätsanalyse 4 verringert werden, indem die Parameter, deren Variation nahezu keinen Einfluss auf das Modellergebnis hat, auf einen Wert fixiert werden (JANSEN & HEUBERGER 1995). Demnach sollte eine Sensitivitätsanalyse anzeigen, wo mit Parameterschätzungen vorsichtig umgegangen werden muss und wo die Datenaufnahme auf Grund unzureichender Informationen konzentriert werden sollte (ANDERSON & BURT 1995). Des Weiteren kann durch eine Sensitivitätsanalyse die Art der Wechselbeziehungen zwischen den Parametern im Modell aufgezeigt werden (SCHRÖDER 2000). Parameterinteraktionen erschweren aber oft die Kalibrierung des Modells und führen somit zu Unsicherheiten bei der Ermittlung der passenden Parameterwerte (GAUME et al. 1998). Mit der Kenntnis dieser Wechselbeziehung und ihres Ursprungs kann somit die Modellunsicherheit quantifiziert werden. Im Allgemeinen hilft eine Sensitivitätsanalyse dem Modellierer dabei, das Modellverhalten kennen zu lernen und dieses besser zu verstehen (SCHRÖDER 2000). Die Praktiken zur Abschätzung der Sensitivität können nach DE ROO (1993) grob in Methoden mit deterministischem Ansatz und Methoden mit stochastischem Ansatz gegliedert werden. Der ersten Gruppe kann die klassische Sensitivitätsanalyse und die Analyse der Sensitivität anhand von Reaktionsoberflächen zugeordnet werden, wogegen dem zweiten Ansatz die Generalisierte Sensitivitätsanalyse (GSA = generalized sensitivity analysis) angehört Klassische Sensitivitätsanalyse Durch die klassische Sensitivitätsanalyse wird die Bedeutung eines einzelnen Parameters innerhalb eines Modells untersucht (ANDERSON & BURT 1995). Ihre Durchführung basiert auf der Abschätzung der Modellreaktion auf prozentuale Veränderungen jedes einzelnen Modellparameters, wobei die anderen Parameter konstant gehalten werden. Aufgrund der oft großen Anzahl von Parametern bei distributiven, hydrologischen Modellen bei gleichzeitig großen Wertebereichen einzelner Parameter ist die Durchführung einer Sensitivitätsanalyse auf diese Weise sehr aufwändig. Dennoch wird sie wegen ihrer einfachen Handhabung und der einfachen Abschätzung der Parametersensitivitäten häufig angewandt. Beispielsweise betrachtete UHLENBROOK (1999) für die Abflussmodellierung des Brugga- Einzugsgebietes mit dem semi-distributiven Einzugsgebietsmodell TAC (tracer aided catchment model) die Auswirkung einer zehnprozentigen Änderung einzelner Parameter auf das Modellergebnis anhand der Modelleffizienz nach Nash & Sutcliffe (vgl. Kap. 2.3). Auf der Basis der ermittelten Änderungen der Modelleffizienz unterteilte er die dafür verwendeten Parameter subjektiv in vier Klassen (vgl. Tabelle 2.1.1).

16 Stand der Forschung - Sensitivitätsanalyse 5 Tab : Klassifikation zur Bewertung der Parametersensitivitäten des TAC Modells Änderung der Modelleffizienz Parametersensitivität Kürzel < 0,001 nicht sensitiv n 0,001 0,002 wenig sensitiv s 0,002 0,004 sensitiv ss > 0,004 sehr sensitiv sss (Quelle: UHLENBROOK 1999) Da die prozentuale Änderung eines Parameters von seiner absoluten Größe abhängig ist, können bei einzelnen Parametern Probleme auftreten. So beispielsweise bei Temperaturangaben mit Schwellenwertfunktion um den 0 C Wert oder bei Parametern, die nach ihrer Bedeutung einen Relativwert repräsentieren. Dieses Problem kann durch die subjektive Festlegung einzelner Parametergrenzen und die Bestimmung der Sensitivität an diesen Grenzen umgangen werden. Es ist aber auch möglich die gesamte Sensitivitätsanalyse anhand einer schrittweisen Änderung der Parameter in subjektiv festgelegten Grenzen durchzuführen. Allerdings geht dabei die direkte Vergleichbarkeit der Parametersensitivitäten untereinander, als Vorteil der prozentualen Änderung, verloren (UHLENBROOK 1999). Auch RICHTER (2004) untersuchte für sechs Parameter des Bodenmoduls aus dem hydrologischen Modell J2000 die Sensitivität mittels einer prozentualen Änderung der Parameter. Dabei führte er ausgehend vom Kalibrierungswert eine fünf- und zehnprozentige Änderung in positiver und in negativer Richtung durch. Die Bewertung der Sensitivität erfolgte dann subjektiv nach der Änderung der Teilabflüsse, des Gesamtabflusses und der Modelleffizienz. Im Gegensatz zu den aufgeführten Anwendungsbeispielen beurteilt DE ROO (1993) die Sensitivität seiner Modellparameter auf der Grundlage eines Sensitivitätsindexes (SI). Der Sensitivitätsindex ist ein relatives Maß zur Beschreibung der Ergebnisvariation um einen mittleren Ausgabewert und erlaubt somit den Vergleich der Sensitivitäten unterschiedlicher Parameter (Gl ). SI 10 = Q P10 Q Q 0 M 10 (2.1.1) Q P10 : Modellergebnis bei zehnprozentiger Erhöhung des Parameters Q M10 : Modellergebnis bei zehnprozentiger Verringerung des Parameters : Modellergebnis mit dem Basiswert des Parameters Q 0 Ein Vorteil dieser Methode ist, dass für den betrachteten Ausgabewert (Q) neben der Verwendung von Gütemaßen auch andere Bezugsgrößen genutzt werden können. Weiterhin kann auch das Ausmaß der prozentualen Änderung des Parameters variiert werden. So verwendete GIERTZ (2004) den Gesamtabfluss, den Oberflächen- und Basisabfluss sowie die Evapotranspiration als Bezugsgrößen für die Sensitivitätsanalyse. Dabei zeigte sie, dass mit unterschiedlichem Grad der prozentualen Änderung des Parameters unterschiedlich starke Sensitivitäten auftreten. So ermittelte sie beispielsweise für die Veränderung des initialen

17 Stand der Forschung - Sensitivitätsanalyse 6 Grundwasserstandes erst bei Verringerung um mehr als zehn Prozent eine erhöhte sensitive Reaktion des Gesamtabflusses. Demnach hängt die Beurteilung der Parametersensitivität nach dieser Methode sehr stark vom betrachteten Wertebereich eines Parameters ab, was als ein Nachteil des Sensitivitätsindexes angesehen werden kann. Zusätzlich ist auch die fehlende Betrachtung der Wechselwirkungen zwischen den Parametern als weiterer Nachteil der Methode aufzuführen (GIERTZ 2004). Hier kann weder die Bedeutung von Interaktionen zwischen einzelnen Variablen berücksichtigt werden, noch wird die Datenungenauigkeit im Bezug auf ihren Einfluss auf den allgemeinen Modellfehler in die Parameterbetrachtung einbezogen. Dies ist dahingehend problematisch, da auch ein Parameter mit geringer Sensitivität durch die Interaktion mit einem anderen für das allgemeine Modellverhalten von Bedeutung sein kann (ANDERSON & BURT 1995). Alternativ zur prozentualen Änderung der Parameter schlagen KIRKBY et al. (1993) vor, die Eigenschaften einer Häufigkeitsverteilung für jeden Prozessparameter zu nutzen. So kann z.b. die Standardabweichung der Parametermittelwerte als feste Schrittweite der Parameteränderung zur Abschätzung der Modellreaktion betrachtet werden. Eine weitere Form der quantitativen Analyse der Sensitivität bietet das Sensitivitätsmaß (S) nach NEARING et al. (1997) (Gl ), welches eine Abwandlung des normalisierten Sensitivitätsindex nach MCCUEN (1973) darstellt. Hierbei ist (S) ein lineares Maß und beschreibt die relative, normalisierte Änderung der Modellausgabe zur relativen, normalisierten Änderung der zugehörigen Parameterwerte (SCHRÖDER 2000). Im wesentlichen handelt es sich hier um die Bestimmung des Gradienten aus der Funktion des kleinsten und des größten Parameterwertes. S = O 2 O O 1,2 1 I 2 I I 1,2 1 (2.1.2) I 1 = kleinste Parameterwert O 1 = Modellausgabe bei P 1 I 2 = größte Parameterwert O 2 = Modellausgabe bei P 2 Ι 1,2 = Mittelwert von I 1 und I 2 O 1, 2 = Mittelwert von O 1 und O 2. Abb : Graphische Darstellung des Sensitivitätsmaßes S, welches der mittleren Sensitivität entspricht (gestrichelte Linie). (Quelle: SCHRÖDER 2000) Dabei spannen die Werte von I 1 und I 2 den Parameterwertebereich auf und O repräsentiert die entsprechende Modellreaktion, die wie auch beim Sensitivitätsindex unterschiedliche Bezugsgrößen beinhalten kann. Die graphische Darstellung in Abbildung veranschaulicht diesen linearen Zusammenhang. Das Sensitivitätsmaß, d.h. der Anstieg der gestrichelten Linie in Abbildung 2.1.1, kann positive als auch negative Werte annehmen (SCHRÖDER 2000). Dabei wird das

18 Stand der Forschung - Sensitivitätsanalyse 7 Sensitivitätsmaß negativ, wenn sich bei zunehmenden Parameterwerten die Modellausgabewerte verringern. Für die Klassifizierung in sensitive und weniger sensitive Parameter wählten MISRA & ROSE (1996) den Schwellenwert S = 1. Parameter mit S < 1 wurde somit eine geringere und Parametern mit S > 1 eine stärkere Sensitivität zugesprochen. Der starke Anstieg der Kurve in Abbildung im linken Wertebereich des Parameters repräsentiert einen solchen Bereich hoher Sensitivität. SCHRÖDER (2000) gibt für die Klassifizierung der Parameter einen kleineren Grenzwert ( S 0,9) an und unterscheidet insgesamt drei Typen der Modellreaktion, welche in Abbildung aufgeführt werden. Type 1 entspricht einem Parameter hoher Sensitivität, welcher nahezu über den gesamten Parameterwertebereich einen großen Einfluss auf die Modellreaktion hat. Im Gegensatz dazu steht das Verhalten des Type 2, bei dem der Eingabeparameter nur einen sehr geringen Einfluss auf die Modellreaktion hat. Type 3 stellt im wesentlichen eine Kombination aus Type 1 und Type 2 dar und hat nur einen sehr engen Wertebereich, in dem eine starke Modellreaktion hervorgerufen wird. Abb : Die drei Haupttypen der Modellausgabereaktion: 1 = hohe Sensitivität über gesamten Wertebereich des Eingabeparameters, 2 = geringe Sensitivität über den gesamten Wertebereich, 3 = hohe Sensitivität über einen kleinen Teil des Wertebereichs (Quelle: SCHRÖDER 2000) In den meisten Fällen wird das Sensitivitätsmaß nur für ein charakteristisches Intervall der Parameterwerte und nicht für den gesamten Parameterbereich berechnet. Dies wird zum einen damit begründet, dass die Ausgabekurve der Modellreaktion in der Regel nicht linear verläuft und zum anderen meist nur der Wertebereich von Interesse ist, in dem die meisten Eingabeparameterschätzungen erfolgen (SCHRÖDER 2000). Als Nachteil dieses Sensitivitätsmaßes muss seine Eindimensionalität und somit sein Unvermögen Interaktionen zwischen den Parametern zu berücksichtigen, angesehen werden Sensitivitätsanalyse mittels einer Reaktionsoberfläche Für die Abschätzung der Interaktionen zwischen den einzelnen Parameter und der Reaktion des Modells auf die Veränderung eines Parameters ist es sinnvoll, eine Reaktionsoberfläche (response surface) aus zwei oder mehr Parametern zu erstellen. Eine solche Reaktionsoberfläche aus der Gegenüberstellung von zwei Parametern wird in Abbildung 2.1.3

19 Stand der Forschung - Sensitivitätsanalyse 8 dargestellt. Hier kann die Beurteilung der Parametersensitivität entweder anhand der vorhergesagten Größen (Spitzenabfluss, Abflussvolumen, Schneeschmelzrate, Wasserspiegel) oder mittels eines Gütemaßes erfolgen. Anschließend wird die Modellausgabe für alle Parameterkombinationen mit einer voreingestellten Auflösung berechnet. Die erhaltene Modellantwort, welche in der Regel durch ein Gütemaß gebildet wird stellt nun die dritte Dimension, die Reaktionsoberfläche, dar. Abb : Reaktionsoberfläche zweier Parameter Diese ist durchaus mit einem digitalen auf die Modellgüte, dargestellt durch die Konturen Geländemodell vergleichbar und kann auch auf (Quelle: BEVEN 2002) ähnliche Weise betrachtet werden. Es ist auch möglich, mehrere Parameter zu analysieren. Allerdings wird die Reaktionsoberfläche mit zunehmender Anzahl der Parameter komplexer und ist auch schwieriger zu visualisieren (BEVEN 2002). So sind bei der Gegenüberstellung zweier Parameter viele verschiedene Formen der Reaktionsoberfläche möglich. Dabei stellen bei der Verwendung von Gütemaßen Berge ein gutes Modellergebnis (Optimum) und Täler ein schlechtes Modellergebnis dar. Nun ist es in Folge starker Interaktionen zwischen Parametern möglich, dass sich Rücken (Abb a) oder auch mehrere Optima (mehrere Berge), wie in Abbildung 2.1.4b ausbilden (BEVEN 2002). Daraus ergibt sich der Ansatz der Equifinality von BEVEN & BINLEY (1992), bei dem unterschiedliche Parameterpaare bzw. - kombinationen ähnlich gute Ergebnisse liefern. Die Analyse der Reaktionsoberfläche kann zunächst nach ihrer Erscheinungsform visuell diskutiert und Parameterwerte, bei denen ein gutes Modellergebnis erzielt wird, abgetragen werden. Für die weitergehende Analyse zur Beurteilung der Sensitivität kann der Normalisierte Sensitivitätsindex (S i ) in Abhängigkeit des Parameters i hinzugezogen werden (vgl. Gleichung 2.1.3). Er ergibt sich aus der Berechnung des Gradienten der Reaktionsoberfläche in Richtung der gewählten Parameterachse. Demnach entspricht die Berechnung des S i einer zweidimensionalen Betrachtung der Modellreaktion und ist mit dem Sensitivitätsmaß S der Gleichung a) b) Abb : Komplexe Reaktionsoberflächen aus zwei Parametern, a) Parameterinteraktion, b) mehrere lokale Optima (Quelle: BEVEN 2002)

20 Stand der Forschung - Sensitivitätsanalyse 9 vergleichbar. Auch S i liefert nur eine sehr lokale Einschätzung der Sensitivität (BEVEN 2002). S i = x i dz (2.1.3) dx i Dabei ist x i der Wert des Parameters und z der Wert im Parameterraum (Ausgabevariable oder Gütemaß) beim Punkt x i (vgl. MCCUEN 1973). Mittels der Reaktionsoberfläche ist es also möglich Parameterinteraktionen zu ermitteln und korrelierende Parameter auszuweisen. Um aber einer möglichen Scheinkorrelation zu entgehen, sollte der mathematische Hintergrund im Modell betrachtet werden (GAUME et al. 1998) Generalisierte Sensitivitätsanalyse (GSA) Bei der globalen Sensitivitätsanalyse werden aus dem gesamten Parameterraum möglichst viele und möglichst gleichverteilt Proben entnommen. Um Parametersätze aus zufälligen Kombinationen der Parameterwerte zu erzeugen, hat sich die Beprobung mittels einer Kombination aus der Latin- Hypercube-Methode von MCKAY et al. (1979) und der Monte-Carlo-Prozedur als geeignet erwiesen (GIERTZ 2004). Allerdings muss die Anzahl der Modelldurchläufe hoch sein, damit die Beprobung statistisch repräsentativ ist. Nach Untersuchungen von HARLIN & KUNG (1992) konvergiert mit zunehmender Anzahl der Modelldurchläufe die mittlere Modelleffizienz und der mittlere Volumenfehler ab ca. 500 Modelldurchläufen. Es ist daher ratsam mehr als 500 Parameterkombinationen zu verwenden. Dabei ist zu beachten, dass wie bei der zuvor erläuterten Methode der Sensitivitätsanalyse mittels einer Reaktionsoberfläche auch hier das betrachtete Intervall der Parameterausprägungen die Spannweite der möglichen Parameterwerte widerspiegeln sollte. Abb : Generalisierte Sensitivitätsanalyse. (a) Initiale kumulative Verteilung der Parameterwerte, (b) Kumulative Verteilung eines sensitiven Parameters. (c) Kumulative Verteilung eines unsensitiven Parameters (Quelle: BEVEN 2002)

21 Stand der Forschung - Sensitivitätsanalyse 10 Die so gewonnen Modellergebnisse werden anhand eines Gütemaßes in gute (behavioral) und schlechte (nonbehavioral) Simulationen getrennt. Als Trennungsmaß dient ein vom Modellierer subjektiv gewähltes Gütemaß mit einem subjektiv festgelegten Grenzwert. Anschließend wird die Anzahl guter und schlechter Modelldurchläufe kumuliert gegenübergestellt. Als Ausgangspunkt der Methode ist eine Gleichverteilung der guten und schlechten Modellrealisationen anzusehen (vgl. Abb a). Treten aber, wie in Abbildung 2.1.5b, deutliche Unterschiede zwischen den Verteilungen auf, so ist der betrachtete Parameter als sensitiv einzustufen. Das bedeutet, dass für jeden Parameterwert eine unterschiedliche Anzahl von guten und schlechten Simulationen erzeugt wurde. Besteht nur ein geringer Unterschied zwischen den Verteilungen, welche durch die Abbildung 2.1.5c veranschaulicht wird, so handelt es sich um einen eher unsensitiven Parameter (FREER, AMBROISE & BEVEN 1996). Zusätzlich zur visuellen Analyse kann durch den Modellierer der Kolmogorov-Smirnov-Test als ein quantitatives Maß zur Beurteilung der Unterschiede zwischen den Verteilungen der guten und schlechten Simulationen berechnet werden. Bei diesem Test wird die Hypothese aufgestellt, dass die kumulative Verteilungsfunktionen der guten und schlechten Simulationen übereinstimmen (SPEAR & Tab : Sensitivitätsklassen aus der maximalen vertikalen Distanz der kumulativen Verteilungen guter und schlechter Simulationen d max Sensitivitätsklasse < 0,1 unsensitiv 0,1 d < 0,2 wenig sensitiv 0,2 sensitiv (Daten: HARLIN & KUNG 1992) HORNBERGER 1980). Dazu wird die maximal vertikale Distanz (d max ) zwischen der Verteilungsfunktion F(x) der guten Simulationen und der kumulativen Verteilungsfunktion S(x) der schlechten Simulationen unter Verwendung von Gleichung ermittelt. d max = max F(x i ) S(x i ) mit i = 1, 2,..., n (2.1.4) Dabei bildet i die Ordnungszahl der nach Größe geordneten Elemente der Stichprobe (BELKE 1980). Die maximale vertikale Distanz dient somit als ein Index der relativen Unterschiede, hat aber den Nachteil, dass dieser Test für eine große Anzahl von Simulationen nicht robust genug ist und kann suggerieren, dass kleine Unterschiede signifikant sind (BEVEN 2002). Wie die Arbeit von HARLIN & KUNG (1992) zeigt, stellt d dennoch ein aussagekräftiges und gern genutztes Maß zur Ausweisung von Sensitivitätsklassen dar. Sie leiteten direkt aus den Werten von d die in Tabelle aufgeführten Sensitivitätsklassen für die Parameter des hydrologischen Models HBV aus zwei Einzugsgebieten in Schweden ab. Als weitere positive Eigenschaft der GSA kann hervorgehoben werden, dass an Hand der Form der Verteilungsfunktion guter und schlechter Simulationen herausgestellt werden kann, in welchem Intervall des Parameterwertebereiches die größten Änderungen der Modellergebnisse auftreten. Aber auch die Möglichkeit, mehr als zwei Parametersätze miteinander vergleichen zu können, stellt einen entscheidenden Vorteil dieser Methode dar (BEVEN 2002).

22 Stand der Forschung 11 Ein allgemeines Problem bei den Sensitivitäts- und Unsicherheitsanalysen stellt der Grad der Subjektivität bei der Festlegung von Grenzwerten dar. Um den Grad der Subjektivität bei GSA zu verringern, haben WAGENER et al. (2001) diese Sensitivitätsanalysemethode modifiziert. Dabei werden die Parametersätze aus der zufälligen Beprobung in zehn gleich große Gruppen geteilt und nach den Gütemaßen skaliert. Anschließend werden die Gütemaße transformiert und normiert, so dass sie einen Wertebereich von 0 bis 1 aufspannen. Höhere Werte entsprechen dabei besseren Ergebnissen. Somit ist es nun möglich für jede der zehn Gruppen die kumulative Verteilung der Parametersätze in einem Diagramm darzustellen. Bilden die zehn Verteilungen eine lineare Beziehung so handelt es sich um einen unsensitiven Parameter. Ist hingegen eine stärkere Ausdifferenzierung der zehn Verteilungen zu verzeichnen, liegt ein sensitiver Parameter vor. 2.2 Unsicherheitsanalyse Das Modellergebnis wird durch eine Vielzahl von Ungenauigkeiten im Modellierungsprozess beeinflusst. So können Ungenauigkeiten in den Eingabeparametern, in unzureichenden Modellannahmen zu den Algorithmen der Prozessbeschreibung oder auch ungenaue Messdaten zur Validierung der Modellergebnisse Unsicherheiten in den Modellergebnissen erzeugen (GIERTZ 2004). Parameterunsicherheiten resultieren aus schlecht bestimmbaren Parametern, falsch begrenzten Parameterwertebereichen, dem Einfluss sensitiver Parameter und Parameterinteraktionen. Modellungenauigkeiten ergeben sich aus Fehlern in der theoretischen Struktur des Modells, Lücken im Systemverständnis, welche durch empirische Beziehungen ausgeglichen werden sowie aus der mathematischen Umsetzung der Prozessalgorithmen. Für die Datenunsicherheiten gibt es schließlich eine Fülle verschiedener Quellen. Dazu gehören Fehler in der Erhebung der Eingangs und Validierungsdaten sowie Fehler während der Prozessierung der Daten (DE ROO 1993). BEVEN & BINLEY (1992) gehen davon aus, dass jede Modellstruktur bis zu einem gewissen Maße Fehler aufweist und auch alle Messwerte, auf denen die Modellkalibrierungen beruhen, fehlerhaft sind. Aus diesem Grund kann auch nicht erwartet werden, dass es einen Parameterwert gibt, der einen wahren Parametersatz innerhalb einer bestimmten Modellstruktur repräsentiert und durch eine Kalibrierungsmethode gefunden werden kann. Demnach ist die Suche nach einem globalen optimalen Parametersatz problematisch (BEVEN & BINLEY 1992). Interkorrelationen zwischen den Parametern führen zur Ausbildung lokaler Minima, Tälern und Plateaus in der Parameterreaktionsoberfläche (vgl. Kapitel 2.1.2) und erschweren die Suche nach einem globalen Optimum. Dies wird umso problematischer, je größer die Anzahl der Parameterwerte ist. Dieser Umstand führte BEVEN & BINLEY (1992) dazu eine Gleichwertigkeit (Equifinality) der Parametersätze in hydrologischen Systemen anzunehmen. Das heißt, es ist möglich mit verschiedenen Parameterwerten und daher unterschiedlichen Abflussmechanismen die gleiche Modellantwort zu erhalten. Dabei ist jedoch zu berücksichtigen, dass nach wie vor Fehler in der Modellstruktur und Messfehler die Modellantwort zusätzlich beeinflussen.

23 Stand der Forschung - Unsicherheitsanalyse 12 Mit der Unsicherheitsanalyse wird nun versucht durch eine Schätzung der Vorhersageungenauigkeit den Wert der Vorhersage bzw. der Simulation zu bestimmen. Dabei ist das Ziel der Unsicherheitsanalyse die Beurteilung der Wahrscheinlichkeit, mit der eine bestimmte Menge an Modelldurchläufen innerhalb eines bestimmten Intervalls liegt. Sehr gebräuchlich ist die Verwendung des Konfidenzintervalls. Es beinhaltet die Schätzung eines mittleren Ereignisses mit einer bestimmten Genauigkeit. Meist werden 5% und 95% Grenzen verwendet, was bedeutet, dass beispielsweise die Abflusskurve mit 90 prozentiger Wahrscheinlichkeit innerhalb des definierten Intervalls liegt (BEVEN 2002). Durch die detaillierte Wiedergabe von Prozessen mit Hilfe physikalisch basierter, distributiver Modelle besteht bei ihnen eine geringere Unsicherheit in den Modellannahmen. Allerdings sind sie auf Grund des hohen Parameterbedarfs anfälliger gegenüber Unsicherheiten in den Eingabeparametern (GIERTZ 2004). Aus diesem Grund ist es sinnvoll im Vorfeld der Unsicherheitsanalyse durch eine Sensitivitätsanalyse herauszustellen, welche Parameter die Modellvorhersage am stärksten beeinflussen, um bei diesen Parametern die Unsicherheiten auszuweisen und zu reduzieren (BEVEN 1995). Die folgenden Methoden beziehen sich daher auf die Bewertung der Parameterunsicherheiten GLUE (Generalized Likelihood Uncertainty Estimation) Die von BEVEN & BINLEY (1992) entwickelte GLUE-Methode dient zur Bestimmung der Vorhersageungenauigkeit, welche aus der Parametrisierung des Modells resultieren. Sie ist als Erweiterung der Generalisierten Sensitivitätsanalyse (GSA) von SPEAR & HORNBERGER (1980) zu betrachten und versucht grundlegende Einschränkungen in der Darstellung von Niederschlags-Abfluss-Prozessen mit hydrologischen Modellen zu erkennen (FRANKS et al. 1998). Ausgangspunkt des GLUE Konzeptes ist die Ablehnung der Idee eines optimalen Parametersatzes zu Gunsten des Konzeptes der Equifinality von Modellstrukturen und Parametersätzen (BEVEN 2003). Hier kommt ein wesentlicher Vorteil der GLUE Methode zum tragen. Denn GLUE berücksichtigt Parameterinteraktionen und Nichtlinearitäten in der Modellantwort und erkennt die Gleichwertigkeit oder fast Gleichwertigkeit verschiedener Parametersätze in der Kalibrierung distributiver Modelle an (BEVEN & BINLEY 1992). Die Analyse selbst konzentriert sich aber eher auf Parametersätze als auf das Verhalten einzelner Parameter und ihrer Interaktionen (BEVEN 2003). Die häufigste Anwendung fand diese Methode bei der Niederschlags-Abfluss- Modellierung (vgl. BEVEN & BINLEY 1992, BEVEN 1993, ROMANOWICZ et al. 1994, FREER et al. 1996). Aber auch zur Bestimmung der Vorhersageunsicherheiten von Landoberflächenmodellen, Modellen zur Darstellung des Stofftransports in der Atmosphäre (FRANKS & BEVEN 1997; SCHULZ & BEVEN 2002), in geochemischen Modellen (ZAK et al. 1997), bei der Hochwassermodellierung (ROMANOWICZ et al. 1996), Erosionsmodellierung (BRAZIER et al. 2000) und Grundwassermodellierung (CHRISTENSEN 2003) wurde die GLUE- Methode angewandt.

24 Stand der Forschung - Unsicherheitsanalyse 13 Die GLUE-Methode basiert auf einer Monte-Carlo-Simulation, mit welcher der Parameterraum beprobt wird. Dies bedeutet, dass eine Vielzahl von Modelldurchläufen durchgeführt wird. Jeder Durchlauf geschieht mit zufällig ausgewählten Parameterwerten, welche anhand der Wahrscheinlichkeitsverteilung für jeden Parameter ausgesucht werden (FRANKS et al. 1998). Durch den Vergleich zwischen dem simulierten und gemessenen Abfluss, wird jedem Satz von Parameterwerten eine Simulationswahrscheinlichkeit des Systems zugewiesen (BEVEN & BINLEY 1992). Dieser Prozess ist als Wahrscheinlichkeitsgewichtung zu verstehen. Dabei werden die Durchläufe, welche in der Wahrscheinlichkeitsprüfung unter einen bestimmten Grenzwert liegen als nonbehavioral (schlecht) zurückgewiesen. Die schlechten Parametrisierungen erhalten den Wahrscheinlichkeitswert 0 und werden somit für die folgende Analyse gelöscht. Anschließend werden die Wahrscheinlichkeitsgewichte der zurückbehaltenen Durchläufe neu skaliert und normiert, so dass die Summe ihrer Gewichte 1 ergibt. Aus den skalierten Wahrscheinlichkeitsgewichten wird nun eine kumulative Verteilung erzeugt, von der dann Grenzbereiche (Quantile) gewählt werden, mit denen die Modellunsicherheit dargestellt wird (FRANKS et al. 1998). Hier kann auch der Sonderfall eines einzigen optimalen Parametersatzes auftreten. In diesem Fall erhält dieser den Wahrscheinlichkeitswert 1 und alle anderen Parametersätze den Wert 0 (BEVEN & BINLEY 1992). Nach genauerer Betrachtung beinhaltet die GLUE-Prozedur mehrere subjektive Einflussfaktoren. So ist bereits die Wahl des Parameterbereiches ein von den Erfahrungen des Modellierers abhängiger Arbeitsschritt. Hier bietet es sich an, die GLUE-Prozedur mit einer übermäßig weiten Spanne möglicher Parameterwerte zu starten, da die Bayes sche Wahrscheinlichkeitsgewichtungsprozedur die Reichweite akzeptabler Parametersätze verfeinert, je mehr Daten dazu kommen. Auch die Wahl des Gütemaßes zur Abschätzung der Übereinstimmung zwischen den vorhergesagten und gemessenen Abflüssen erfolgt subjektiv nach den Erfahrungen des Modellierers. In der GLUE-Software werden die Modelleffizienz nach Nash & Sutcliffe (E), die Summe der quadrierten, logarithmierten Residuen (SLE = Sum of squared log residuals) und die Summe des absoluten Fehlers (SAE = Sum of absolute errors) angeboten. Diese Gütemaße können allerdings noch transformiert (z.b. Veränderung des Exponenten) oder auch kombiniert werden (BEVEN & BINLEY 1992). Als weiterer subjektiver Einflussfaktor ist das Zurückweisungskriterium zu nennen. Es ist als ein Schwellenwert innerhalb des Wertebereiches eines Gütemaßes oder einer betrachteten Ausgabevariable zu verstehen. Bei Unterschreiten des Grenzwertes werden die betreffenden Modelldurchläufe als nonbehavioral bezeichnet und schließlich durch die Gewichtung mit 0 zurückgewiesen. Somit bildet das Zurückweisungskriterium die Grundlage für die Bestimmung der Wahrscheinlichkeitsgewichte (FRANKS et al. 1998). Die Wahrscheinlichkeitsgewichtung erfolgt durch die Gleichungen und die Normierung nach der Gleichung (BLIEFERNICHT 2002).

25 Stand der Forschung - Unsicherheitsanalyse 14 w i = g x i o x u x u (2.2.1) w i = skaliertes Gewicht der Simulation aus der i-ten Parameterkombination g i = altes Gewicht/Wert x u = Gütemaß der Parameterkombination mit der schlechtesten Anpassung an die Messdaten x o = Gütemaß der Parameterkombination mit der besten Anpassung an die Messdaten n i = N i w i w i (2.2.2) n i = normiertes Gewicht N = Anzahl der Parameterkombinationen nach Festlegung des Zurückweisungskriteriums GLUE bietet des weitern die Möglichkeit zusätzliche oder neue Daten in die Unsicherheitsanalyse mit einzubeziehen. Dieser Vorgang wird als Aktualisierung der Wahrscheinlichkeitsverteilung verstanden. Bei diesem Vorgang ist jedoch der Wert zusätzlicher Daten für die Abschätzung der Unsicherheitsgrenzen durch ein entsprechendes Unsicherheitsmaß zu ermitteln. Darauf soll in dieser Arbeit aber nicht ins Detail eingegangen werden. Nähere Informationen sind bei FRANKS et al. (1998) oder BEVEN & BINLEY (1992) nachzulesen. Eine deutliche Einschränkung erfährt die GLUE-Methode durch seine Abhängigkeit von den Monte-Carlo-Simulationen. Für sehr komplexe Modelle wird dabei sehr viel Rechenzeit beansprucht, um die multi-parameter-reaktionsoberfläche zu erschließen. Als Obergrenze der Modelldarstellung kann daher die begrenzte Anzahl der Modellrealisationen angesehen werden ParaSol (Parameter Solution) und SUNGLASSES (Sources of uncertainty global assessment using split samples) ParaSol ist eine globale, effiziente, statistische Optimierungsmethode zur Beurteilung von Parameterunsicherheiten und kann mit mehr als einer Zielgröße arbeiten (VAN GRIENSVEN & MEIXNER 2004). Für die Optimierung müssen Gütemaße gewählt werden, welche die Anpassung der simulierten an die gemessene Abflusskurve während der Kalibrierung widerspiegeln. Bei ParaSol können nur bestimmte Arten von Gütemaßen aufgrund der statistischen Annahmen zur Bestimmung der Fehlergrenzen verwendet werden. Dies sind die Summe der quadrierten Residuen (SSQ = sum of the squares of the residuals) und die Summe der quadrierten Residuen nach einer Rangeinteilung (SSQR = sum of the squares of the residuals after ranking) (vgl. Kapitel 2.3) (VAN GRIENSVEN & MEIXNER 2004). Durch die Kombination einzelner SSQ s oder SSQR s kann ein globales Optimierungskriterium (GOC =

26 Stand der Forschung - Unsicherheitsanalyse 15 global optimisation criterion) gebildet werden, wodurch eine globalen Betrachtung der Unsicherheiten ermöglicht wird. ParaSol basiert nicht auf Annahmen über eine Beprobungsstrategie (wie z.b. der Monte- Carlo-Beprobung), sonder bedient sich des Shuffled complex evolution algorithm (SCE-UA) von DUAN et al. (1992), einer Parameteroptimierungsmethode für eine globale Minimierung der einzelnen Gütemaße für bis zu 16 Parametern. SCE-UA findet in einer Vielzahl von Modellen Anwendung. So zum Beispiel bei Einzugsgebietsmodellen, Bodenerosionsmodellen, Grundwassermodellen und wurde zur Klassifizierung der Landnutzung in der Fernerkundung verwendet. Dieser Algorithmus zeichnet sich durch seine Robustheit, Effektivität und Effizienz aus (VAN GRIENSVEN & MEIXNER 2004). Einen wesentlichen Bestandteil von ParaSol bildet eine statistische Methode zur Ermittlung eines Grenzwertes für die Trennung der durch die SCE-UA-Optimierung ermittelten Simulationen in gute und schlechte Simulationen (VAN GRIENSVEN & MEIXNER 2004). Demnach dienen die Simulationen, welche mit SCE-UA erzeugt werden, als Algorithmusproben des gesamten Parameterraumes, deren Lösungen sich in der Nähe des Optimums bzw. der Optima befinden. In ParaSol existieren zwei Trennungstechniken, welche entweder auf den Grenzwerten der Zielfunktionen oder des globalen Optimierungskriteriums basieren. Gute Simulationen liegen in diesem Fall unterhalb des Grenzwertes. Der Grenzwert kann durch die χ² - Statistik definiert werden, bei der die ausgesuchten Simulationen einer Konfidenzregion (CR = confidence region) entsprechen, oder durch die Bayes sche Statistik, die in der Lage ist, die Region hoher Wahrscheinlichkeit (HPD = high probability density) eines Parameters oder einer Modellausgabe zu identifizieren (VAN GRIENSVEN & MEIXNER 2004). Die Konfidenzregion (die Region hoher Wahrscheinlichkeit) begrenzt den Bereich geringer Parameterunsicherheit (95% oder 97,5% Quantile) (VAN GRIENSVEN & MEIXNER 2004). Bei der Anwendung von ParaSol zur Einschätzung der Parameterunsicherheiten des Modells SWAT (Soil and water assessment tool) durch VAN GRIENSVEN & MEIXNER (2004) im Honey Creek Einzugsgebiet, Ohio wurde der Bereich der Parameterunsicherheiten sehr eng gefasst, da ParaSol nur die Parameterunsicherheiten berücksichtigt. Demnach werden die Datenunsicherheiten nicht weiter bewertet und das Modell wird als wahres Modell angenommen. Die Methode SUNGLASSES nutzt alle von ParaSol erzeugten Parametersätze und Simulationen um weitere Unsicherheitsquellen unter Verwendung der Evaluations- und Kalibrierungsperioden aufzuzeigen (VAN GRIENSVEN & MEIXNER 2004). SUNGLASSES bietet eine umfassendere Beurteilung der Modellvorhersagekraft als ParaSol und gibt eine Einschätzung der Vorhersageunsicherheiten, welche nicht durch die Parameterunsicherheitsschätzung von ParaSol abgedeckt werden wieder (VAN GRIENSVEN & MEIXNER 2004). Durch diese Methode wird versucht das bei der Verwendung der split-sample -Strategie verstärkte Fehlerwachstum bei Simulationen außerhalb der Kalibrierungsperiode zu erklären. Dabei wird die Validierungsperiode genutzt, um Unsicherheitsränge zu bestimmen. Der

Geo 241 Modellierung von Systemen Modulverantwortlicher: Dr. Krause. Sommersemester 2009

Geo 241 Modellierung von Systemen Modulverantwortlicher: Dr. Krause. Sommersemester 2009 Geo 241 Modellierung von Systemen Modulverantwortlicher: Dr. Krause Sensitivität Tino Wunderlich Matrikel 100028 Gliederung 1. Sensitivität in der Statistik ( Berechnung / Beispiel) 2. Sensitivität in

Mehr

Effizienz & Gütekriterien

Effizienz & Gütekriterien Prozessmodellierung II Effizienz & Gütekriterien Linda Spazier Matrikel: 93515 Linda.Spazier@uni jena.de 25.05.2009 GEO 241 Modellierung von Systemen 1 Effizienz und Gütekriterien Stellen Übereinstimmungen

Mehr

Sensitivität in der Statistik

Sensitivität in der Statistik Tillmann Lösche Sensitivität in der Statistik Wahrscheinlichkeit, einen tatsächlich positiven Sachverhalt auch durch ein positives Testergebnis zu erkennen Quelle: Wikipedia auch als Richtig-Positiv-Rate,

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung 11. Vorlesung Jochen Köhler 10.05.011 1 Inhalt der heutigen Vorlesung Zusammenfassung Parameterschätzung Übersicht über Schätzung und Modellbildung Modellevaluation

Mehr

Wie liest man Konfidenzintervalle? Teil II. Premiu m

Wie liest man Konfidenzintervalle? Teil II. Premiu m Wie liest man Konfidenzintervalle? Teil II Premiu m - Hintergrund Anderer Wahrscheinlichkeitsbegriff subjektiver Wahrscheinlichkeitsbegriff Beispiel: Was ist die Wahrscheinlichkeit dafür, dass ein Patient

Mehr

NIEDERSCHLAG. Hausübung 1

NIEDERSCHLAG. Hausübung 1 Hausübung 1 NIEDERSCHLAG Abgabe: 25.10.2017 Niederschlag wird nahezu weltweit mit einem Netz von Messstationen erfasst. Dabei handelt es sich um punktuelle Messungen. Für grundlegende Fragen der Ingenieurhydrologie

Mehr

Konsistente Skalierung inhomogener Bodenparameter

Konsistente Skalierung inhomogener Bodenparameter Institut für Innovative Informatik-Anwendungen Konsistente Skalierung inhomogener Bodenparameter Oliver Gronz Inhalt Problemstellung: Warum ergeben sich bei homogener Parametrisierung Nachteile? Abflussprozesskarte

Mehr

Die Maximum-Likelihood-Methode

Die Maximum-Likelihood-Methode Vorlesung: Computergestützte Datenauswertung Die Maximum-Likelihood-Methode Günter Quast Fakultät für Physik Institut für Experimentelle Kernphysik SS '17 KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft

Mehr

Übungen (HS-2010): Urteilsfehler. Autor: Siegfried Macho

Übungen (HS-2010): Urteilsfehler. Autor: Siegfried Macho Übungen (HS-2010): Urteilsfehler Autor: Siegfried Macho Inhaltsverzeichnis i Inhaltsverzeichnis 1. Übungen zu Kapitel 2 1 Übungen zu Kontingenz- und Kausalurteile 1 Übung 1-1: 1. Übungen zu Kapitel 2 Gegeben:

Mehr

Monte-Carlo Tests. Diplomarbeit. Wiebke Werft. Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf

Monte-Carlo Tests. Diplomarbeit. Wiebke Werft. Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf Monte-Carlo Tests Diplomarbeit Wiebke Werft Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf Düsseldorf im Dezember 2003 Betreuung: Prof. Dr. Arnold Janssen Inhaltsverzeichnis Einleitung

Mehr

Stochastische Approximation des Value at Risk

Stochastische Approximation des Value at Risk Stochastische Approximation des Value at Risk Annemarie Bitter Motivation Eines der wichtigsten Projekte der Versicherungswirtschaft ist derzeit die sogenannte Solvency-II-Richtlinie der Versicherungsaufsicht.

Mehr

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de rbu leh ch s plu psych Heinz Holling Günther Gediga hogrefe.de Bachelorstudium Psychologie Statistik Testverfahren 18 Kapitel 2 i.i.d.-annahme dem unabhängig. Es gilt also die i.i.d.-annahme (i.i.d = independent

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung 3. Vorlesung Dr. Jochen Köhler 1 Inhalte der heutigen Vorlesung Ziel: Daten Modellbildung Probabilistisches Modell Wahrscheinlichkeit von Ereignissen Im ersten

Mehr

Stochastische Approximation des Value at Risk

Stochastische Approximation des Value at Risk Stochastische Approximation des Value at Risk Zusammenfassung der Masterarbeit an der Universität Ulm Annemarie Bitter Motivation Eines der wichtigsten Projekte der Versicherungswirtschaft ist derzeit

Mehr

Sensitivität der Modellergebnisse gegenüber der räumlichen Diskretisierung und der Informationsdichte. Helge Bormann

Sensitivität der Modellergebnisse gegenüber der räumlichen Diskretisierung und der Informationsdichte. Helge Bormann 11. Workshop für großskalige hydrologische Modellierung Sensitivität der Modellergebnisse gegenüber der räumlichen Diskretisierung und der Informationsdichte Helge Bormann Universität Oldenburg Institut

Mehr

Grundlegende Eigenschaften von Punktschätzern

Grundlegende Eigenschaften von Punktschätzern Grundlegende Eigenschaften von Punktschätzern Worum geht es in diesem Modul? Schätzer als Zufallsvariablen Vorbereitung einer Simulation Verteilung von P-Dach Empirische Lage- und Streuungsparameter zur

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und

Mehr

Der diskrete Kalman Filter

Der diskrete Kalman Filter Der diskrete Kalman Filter Fachbereich: Informatik Betreuer: Marc Drassler Patrick Winkler 1168954 6. Dezember 2004 Technische Universität Darmstadt Simulation und Systemoptimierung Darmstadt Dribbling

Mehr

Statistik I für Betriebswirte Vorlesung 4

Statistik I für Betriebswirte Vorlesung 4 Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Cox-Regression. Ausgangspunkt Ansätze zur Modellierung von Einflussgrößen Das Cox-Modell Eigenschaften des Cox-Modells

Cox-Regression. Ausgangspunkt Ansätze zur Modellierung von Einflussgrößen Das Cox-Modell Eigenschaften des Cox-Modells Cox-Regression Ausgangspunkt Ansätze zur Modellierung von Einflussgrößen Das Cox-Modell Eigenschaften des Cox-Modells In vielen Fällen interessiert, wie die Survivalfunktion durch Einflussgrößen beeinflusst

Mehr

Aufgabe einer Probenahmestrategie. Größen zur Festlegung des Stichprobenumfangs

Aufgabe einer Probenahmestrategie. Größen zur Festlegung des Stichprobenumfangs Aufgabe einer Probenahmestrategie Probenahme gewährleisten, die die erforderliche Repräsentanz (Güte der Messung, Irrtumswahrscheinlichkeit) mit minimalem Aufwand erreicht. Festlegung des Stichprobenumfangs

Mehr

Kapitel 6. Zusammenfassung der wichtigsten Ergebnisse dieser Arbeit

Kapitel 6. Zusammenfassung der wichtigsten Ergebnisse dieser Arbeit Kapitel 6 Zusammenfassung der wichtigsten Ergebnisse dieser Arbeit 159 160 Kapitel 6. Zusammenfassung der Ergebnisse Im Fokus der vorliegenden Arbeit steht die Frage nach der Eignung verschiedener Matchingverfahren

Mehr

5. Statistische Auswertung

5. Statistische Auswertung 5. Statistische Auswertung 5.1 Varianzanalyse Die Daten der vorliegenden Versuchsreihe zeigen eine links steile, rechts schiefe Verteilung. Es wird untersucht, ob sich die Meßdaten durch Transformation

Mehr

Wie liest man Konfidenzintervalle? Teil I. Premiu m

Wie liest man Konfidenzintervalle? Teil I. Premiu m Wie liest man Konfidenzintervalle? Teil I Premiu m Was sind Konfidenzintervalle? Ein Konfidenzintervall (KI) ist ein Maß für die Unsicherheit bezüglich einer Schätzung eines Effekts. Es ist ein Intervall

Mehr

Simulation extremer Abflüsse am Beispiel des Wasserhaushaltsmodells NASIM

Simulation extremer Abflüsse am Beispiel des Wasserhaushaltsmodells NASIM Simulation extremer Abflüsse am Beispiel des Wasserhaushaltsmodells NASIM Dr.-Ing. Oliver Buchholz 2. Trierer Workshop zur Niederschlag-Abfluss-Modellierung 14./15. September 2009 www.hydrotec.de Kontext

Mehr

Statistische Analyse hydrologischer Daten (HW Berechnung)

Statistische Analyse hydrologischer Daten (HW Berechnung) Lehrstuhl für Hydrologie und Wasserwirtschaft BTU Cottbus Statistische Analyse hydrologischer Daten (HW Berechnung) Übung zur Hochwasserstatistik Datensatz: jährliche Maximalabflüsse der Spree in Cottbus

Mehr

Herausforderungen in der Kalibrierung großskaliger hydrologischer (SWAT) Modelle

Herausforderungen in der Kalibrierung großskaliger hydrologischer (SWAT) Modelle Herausforderungen in der Kalibrierung großskaliger hydrologischer (SWAT) Modelle Jürgen Schuol juergen.schuol@eawag.ch Eawag: Das Wasserforschungs-Institut des ETH-Bereichs Übersicht 1. Projekt: Modellierung

Mehr

Statistik K urs SS 2004

Statistik K urs SS 2004 Statistik K urs SS 2004 3.Tag Grundlegende statistische Maße Mittelwert (mean) Durchschnitt aller Werte Varianz (variance) s 2 Durchschnittliche quadrierte Abweichung aller Werte vom Mittelwert >> Die

Mehr

Statistische Methoden der Datenanalyse Wintersemester 2012/2013 Albert-Ludwigs-Universität Freiburg

Statistische Methoden der Datenanalyse Wintersemester 2012/2013 Albert-Ludwigs-Universität Freiburg Statistische Methoden der Datenanalyse Wintersemester 2012/2013 Albert-Ludwigs-Universität Freiburg Prof. Markus Schumacher, Dr. Stan Lai Physikalisches Institut Westbau 2 OG E-Mail: Markus.Schumacher@physik.uni-freiburg.de

Mehr

Die Berücksichtigung der Unsicherheit der meteorologischen Eingangsdaten in der Hochwasservorhersage

Die Berücksichtigung der Unsicherheit der meteorologischen Eingangsdaten in der Hochwasservorhersage LARSIM-Workshop 2015 Straßbourg Die Berücksichtigung der Unsicherheit der meteorologischen Eingangsdaten in der Hochwasservorhersage Alfons Vogelbacher, Daniel Waldmann Inhalt Unsicherheitsbereiche und

Mehr

Barbara Bredner. NOT-Statistik. Nachweise führen, Optimierungen finden, Toleranzen berechnen mit Minitab und R. Auszug: Inhaltsverzeichnis

Barbara Bredner. NOT-Statistik. Nachweise führen, Optimierungen finden, Toleranzen berechnen mit Minitab und R. Auszug: Inhaltsverzeichnis Barbara Bredner NOT-Statistik Nachweise führen, Optimierungen finden, Toleranzen berechnen mit Minitab und R Auszug: Inhaltsverzeichnis Barbara Bredner, NOT-Statistik. Nachweise führen, Optimierungen finden,

Mehr

Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp

Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp Datenanalyse (PHY31) Herbstsemester 015 Olaf Steinkamp 36-J- olafs@physik.uzh.ch 044 63 55763 Einführung, Messunsicherheiten, Darstellung von Messdaten Grundbegriffe der Wahrscheinlichkeitsrechnung und

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike

Mehr

IfU Institut für Umweltingenieurwissenschaften. Hydrologie I. - Hausübung 1 -

IfU Institut für Umweltingenieurwissenschaften. Hydrologie I. - Hausübung 1 - Hydrologie I - Hausübung 1 - Gliederung Einführung zu den Hausübungen Motivation Konzept Untersuchungsgebiet Hausübung 1 Charakterisierung des Untersuchungsgebietes (Aufgabe 1) Gebietsniederschlag (Aufgabe

Mehr

4.1 Stichproben, Verteilungen und Schätzwerte. N(t) = N 0 e λt, (4.1)

4.1 Stichproben, Verteilungen und Schätzwerte. N(t) = N 0 e λt, (4.1) Kapitel 4 Stichproben und Schätzungen 4.1 Stichproben, Verteilungen und Schätzwerte Eine physikalische Messung ist eine endliche Stichprobe aus einer Grundgesamtheit, die endlich oder unendlich sein kann.

Mehr

Teil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006

Teil II Optimierung. Modellgestützte Analyse und Optimierung Kap. 5 Einführung Optimierung. Peter Buchholz 2006 Teil II Optimierung Gliederung 5 Einführung, Klassifizierung und Grundlagen 6 Lineare Optimierung 7 Nichtlineare Optimierung 8 Dynamische Optimierung (dieses Jahr nur recht kurz) (9 Stochastische Optimierungsmethoden

Mehr

11. Übungsblatt zur Vorlesung Ökonometrie SS 2014

11. Übungsblatt zur Vorlesung Ökonometrie SS 2014 Universität des Saarlandes Lehrstab Statistik Dr. Martin Becker Dipl.-Kfm. Andreas Recktenwald 11. Übungsblatt zur Vorlesung Ökonometrie SS 2014 Aufgabe 45 Die in Aufgabe 43 getroffene Annahme heteroskedastischer

Mehr

INGENIEUR-STATISTIK DR. JOSEF HEINHOLD DR. KARL-WALTER GAEDE R. OLDENBOURG VERLAG MÜNCHEN WIEN 1979

INGENIEUR-STATISTIK DR. JOSEF HEINHOLD DR. KARL-WALTER GAEDE R. OLDENBOURG VERLAG MÜNCHEN WIEN 1979 INGENIEUR-STATISTIK DR. JOSEF HEINHOLD o. Professor für Angewandte Mathematik und Mathematische Statistik an der Technischen Universität München DR. KARL-WALTER GAEDE o. Professor für Mathematische Statistik

Mehr

Statistische Datenanalyse

Statistische Datenanalyse Werner A. Stahel Statistische Datenanalyse Eine Einführung für Naturwissenschaftler 3., durchgesehene Auflage vieweg VII 1 Einleitung 1 1.1 Was ist Statistische Datenanalyse? 1 1.2 Ziele 6 1.3 Hinweise

Mehr

3.3.1 Referenzwerte für Fruchtwasser-Schätzvolumina ( SSW)

3.3.1 Referenzwerte für Fruchtwasser-Schätzvolumina ( SSW) 50 3.3 Das Fruchtwasser-Schätzvolumen in der 21.-24.SSW und seine Bedeutung für das fetale Schätzgewicht in der 21.-24.SSW und für das Geburtsgewicht bei Geburt in der 36.-43.SSW 3.3.1 Referenzwerte für

Mehr

4 Diskussion 4.1 Korrelation der GW-Ganglinien

4 Diskussion 4.1 Korrelation der GW-Ganglinien 4 Diskussion 4.1 Korrelation der GW-Ganglinien Die GW-Messstationen wurden nach folgenden Kriterien ausgewählt: Erstens unterliegen sie keiner Beeinflussung durch Grundwasserentnahmen. Zweitens sind die

Mehr

Kapitel 9: Verfahren für Nominaldaten

Kapitel 9: Verfahren für Nominaldaten Kapitel 9: Verfahren für Nominaldaten Eindimensionaler Chi²-Test 1 Zweidimensionaler und Vierfelder Chi²-Test 5 Literatur 6 Eindimensionaler Chi²-Test Berechnen der Effektgröße w² Die empirische Effektgröße

Mehr

LARSIM-Anwendertreffen 2014

LARSIM-Anwendertreffen 2014 LARSIM-Anwendertreffen 214 Alternative statistische Maßzahlen zur Modellbewertung Definition und erste Ergebnisse Ingo Haag HYDRON Ingenieurgesellschaft für Umwelt und Wasserwirtschaft mbh Norbert Demuth

Mehr

Kurvenanpassung mit dem SOLVER

Kurvenanpassung mit dem SOLVER 1 Iterative Verfahren (SOLVER) Bei einem iterativen Verfahren wird eine Lösung durch schrittweise Annäherung gefunden. Der Vorteil liegt in der Verwendung einfacher Rechenoperationen und darin, dass der

Mehr

Varianzkomponentenschätzung

Varianzkomponentenschätzung Qualitas AG Varianzkomponentenschätzung Peter von Rohr Qualitas AG Peter von Rohr Folien ZL I+II LFW C11 October 29, 2015 2 / 23 Multiple Lineare Regression Annahmen Modell y = Xb + e Varianz der Fehler

Mehr

1 Grundlagen der Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsräume. Ein erster mathematischer Blick auf Zufallsexperimente...

1 Grundlagen der Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsräume. Ein erster mathematischer Blick auf Zufallsexperimente... Inhaltsverzeichnis 1 Grundlagen der Wahrscheinlichkeitsrechnung 1 1.1 Wahrscheinlichkeitsräume Ein erster mathematischer Blick auf Zufallsexperimente.......... 1 1.1.1 Wahrscheinlichkeit, Ergebnisraum,

Mehr

Tourenplanung bei ambulanten Pflegediensten

Tourenplanung bei ambulanten Pflegediensten Das Vehicle Routing Problem am Beispiel der Spitex Basel Bachelor Thesis zur Erlangung des akademischen Grades: Bachelor of Science in Business Administration FH mit der Vertiefung Unternehmensführung

Mehr

Erfolgversprechende Konfigurationen für Versuche mit Evolutionsstrategien anhand von ausgewählten Testfunktionen

Erfolgversprechende Konfigurationen für Versuche mit Evolutionsstrategien anhand von ausgewählten Testfunktionen Erfolgversprechende Konfigurationen für Versuche mit Evolutionsstrategien anhand von ausgewählten Testfunktionen Krischan Keitsch 3. Juni 214 Zusammenfassung Um ein Optimierungsproblem mit einer Evolutionsstrategie

Mehr

Protokoll Grundpraktikum: O1 Dünne Linsen

Protokoll Grundpraktikum: O1 Dünne Linsen Protokoll Grundpraktikum: O1 Dünne Linsen Sebastian Pfitzner 22. Januar 2013 Durchführung: Sebastian Pfitzner (553983), Jannis Schürmer (552892) Arbeitsplatz: 3 Betreuer: A. Ahlrichs Versuchsdatum: 16.01.2013

Mehr

Kapitel XIV - Anpassungstests

Kapitel XIV - Anpassungstests Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XIV - Anpassungstests Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh 2. Grundannahme:

Mehr

Inhalt. I Einführung. Kapitel 1 Konzept des Buches Kapitel 2 Messen in der Psychologie... 27

Inhalt. I Einführung. Kapitel 1 Konzept des Buches Kapitel 2 Messen in der Psychologie... 27 Inhalt I Einführung Kapitel 1 Konzept des Buches........................................ 15 Kapitel 2 Messen in der Psychologie.................................. 27 2.1 Arten von psychologischen Messungen....................

Mehr

Statistische Methoden in den Umweltwissenschaften

Statistische Methoden in den Umweltwissenschaften Statistische Methoden in den Umweltwissenschaften Stetige und diskrete Wahrscheinlichkeitsverteilungen Lageparameter Streuungsparameter Diskrete und stetige Zufallsvariablen Eine Variable (oder Merkmal

Mehr

Klassifikation von Daten Einleitung

Klassifikation von Daten Einleitung Klassifikation von Daten Einleitung Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation von Daten Einleitung

Mehr

ALVA-Ringanalyse. Herbsttagung 2009 der ALVA-Fachgruppe Boden - Pflanzenernährung Linz, 10. November 2009

ALVA-Ringanalyse. Herbsttagung 2009 der ALVA-Fachgruppe Boden - Pflanzenernährung Linz, 10. November 2009 ALVA-Ringanalyse Mag. Tanja Strimitzer Bereich DSR Herbsttagung 2009 der ALVA-Fachgruppe Boden - Pflanzenernährung Linz, 10. November 2009 www.ages.at Österreichische Agentur für Gesundheit und Ernährungssicherheit

Mehr

Arbeitsbuch zur deskriptiven und induktiven Statistik

Arbeitsbuch zur deskriptiven und induktiven Statistik Helge Toutenburg Michael Schomaker Malte Wißmann Christian Heumann Arbeitsbuch zur deskriptiven und induktiven Statistik Zweite, aktualisierte und erweiterte Auflage 4ü Springer Inhaltsverzeichnis 1. Grundlagen

Mehr

Protokoll Grundpraktikum: F0: Auswertung und Präsentation von Messdaten

Protokoll Grundpraktikum: F0: Auswertung und Präsentation von Messdaten Protokoll Grundpraktikum: F0: Auswertung und Präsentation von Messdaten Sebastian Pfitzner 19. Februar 013 Durchführung: Sebastian Pfitzner (553983), Jannis Schürmer (5589) Betreuer: N. Haug Versuchsdatum:

Mehr

Das Doppelstern-Modell Vorgehen beim Bestimmen der Modellparameter und ihrer Fehler

Das Doppelstern-Modell Vorgehen beim Bestimmen der Modellparameter und ihrer Fehler Das Doppelstern-Modell Vorgehen beim Bestimmen der Modellparameter und ihrer Fehler Udo Backhaus 29. November 2013 1 Hintergrund Das Doppelstern-Modell [1] beschreibt die Helligkeit y(t) zweier sich gegenseitig

Mehr

Statistik II. Regressionsrechnung+ Regressionsanalyse. Statistik II

Statistik II. Regressionsrechnung+ Regressionsanalyse. Statistik II Statistik II Regressionsrechnung+ Regressionsanalyse Statistik II - 16.06.2006 1 Regressionsrechnung Nichtlineare Ansätze In einigen Situation könnte man einen nichtlinearen Zusammenhang vermuten. Bekannte

Mehr

1 Beispiel zur Methode der kleinsten Quadrate

1 Beispiel zur Methode der kleinsten Quadrate 1 Beispiel zur Methode der kleinsten Quadrate 1.1 Daten des Beispiels t x y x*y x 2 ŷ ˆɛ ˆɛ 2 1 1 3 3 1 2 1 1 2 2 3 6 4 3.5-0.5 0.25 3 3 4 12 9 5-1 1 4 4 6 24 16 6.5-0.5 0.25 5 5 9 45 25 8 1 1 Σ 15 25

Mehr

Mittelwert, Standardabweichung, Median und Bereich für alle durchgeführten Messungen (in Prozent)

Mittelwert, Standardabweichung, Median und Bereich für alle durchgeführten Messungen (in Prozent) 3. Ergebnisse 3.1 Kennwerte, Boxplot Die Kennwerte der deskriptiven Statistik sind in der Tabelle 1 für alle Messungen, in der Tabelle 2 für die Messungen, bei denen mit der Referenzmethode eine festgestellt

Mehr

Methodenlehre. Vorlesung 10. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg

Methodenlehre. Vorlesung 10. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg Methodenlehre Vorlesung 10 Prof. Dr., Cognitive Biopsychology and Methods University of Fribourg 1 Methodenlehre I Woche Datum Thema 1 FQ Einführung, Verteilung der Termine 1 25.9.13 Psychologie als Wissenschaft

Mehr

Statistik für Ingenieure und Naturwissenschaftler

Statistik für Ingenieure und Naturwissenschaftler Sheldon M. Ross Statistik für Ingenieure und Naturwissenschaftler 3. Auflage Aus dem Amerikanischen übersetzt von Carsten Heinisch ELSEVIER SPEKTRUM AKADEMISCHER VERLAG Spektrum Inhalt Vorwort zur dritten

Mehr

Szenario und Wirklichkeit

Szenario und Wirklichkeit Szenario und Wirklichkeit Wie weit lassen sich Risikoberechnungen bei Naturgefahren vereinfachen? Katharina Fischer / Matthias Schubert Übersicht Szenario und Wirklichkeit Ziel: - Kritische Diskussion

Mehr

Akzeptanz von Sicherheitsmaßnahmen: Modellierung, Numerische Simulation und Optimierung. Diplomarbeit

Akzeptanz von Sicherheitsmaßnahmen: Modellierung, Numerische Simulation und Optimierung. Diplomarbeit Akzeptanz von Sicherheitsmaßnahmen: Modellierung, Numerische Simulation und Optimierung Diplomarbeit zur Erlangung des Grades eines Diplom-Mathematikers an der Leibniz Universität Hannover vorgelegt von

Mehr

6. Schätzverfahren für Parameter

6. Schätzverfahren für Parameter 6. Schätzverfahren für Parameter Ausgangssituation: Ein interessierender Zufallsvorgang werde durch die ZV X repräsentiert X habe eine unbekannte Verteilungsfunktion F X (x) Wir interessieren uns für einen

Mehr

Das Lineare Regressionsmodell

Das Lineare Regressionsmodell Das Lineare Regressionsmodell Bivariates Regressionsmodell Verbrauch eines Pkw hängt vom Gewicht des Fahrzeugs ab Hypothese / Theorie: Je schwerer ein Auto, desto mehr wird es verbrauchen Annahme eines

Mehr

Trim Size: 176mm x 240mm Lipow ftoc.tex V1 - March 9, :34 P.M. Page 11. Über die Übersetzerin 9. Einleitung 19

Trim Size: 176mm x 240mm Lipow ftoc.tex V1 - March 9, :34 P.M. Page 11. Über die Übersetzerin 9. Einleitung 19 Trim Size: 176mm x 240mm Lipow ftoc.tex V1 - March 9, 2016 6:34 P.M. Page 11 Inhaltsverzeichnis Über die Übersetzerin 9 Einleitung 19 Was Sie hier finden werden 19 Wie dieses Arbeitsbuch aufgebaut ist

Mehr

W-Seminar: Versuche mit und am Menschen 2017/2019 Skript

W-Seminar: Versuche mit und am Menschen 2017/2019 Skript 3. Deskriptive Statistik Die deskriptive (auch: beschreibende) Statistik hat zum Ziel, [ ] Daten durch Tabellen, Kennzahlen [ ] und Grafiken übersichtlich darzustellen und zu ordnen. Dies ist vor allem

Mehr

Statistik, Geostatistik

Statistik, Geostatistik Geostatistik Statistik, Geostatistik Statistik Zusammenfassung von Methoden (Methodik), die sich mit der wahrscheinlichkeitsbezogenen Auswertung empirischer (d.h. beobachteter, gemessener) Daten befassen.

Mehr

Inhaltsverzeichnis. Vorwort

Inhaltsverzeichnis. Vorwort V Vorwort XI 1 Zum Gebrauch dieses Buches 1 1.1 Einführung 1 1.2 Der Text in den Kapiteln 1 1.3 Was Sie bei auftretenden Problemen tun sollten 2 1.4 Wichtig zu wissen 3 1.5 Zahlenbeispiele im Text 3 1.6

Mehr

Marcus Hudec. Statistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Statistik 2 für SoziologInnen 1 Normalverteilung

Marcus Hudec. Statistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Statistik 2 für SoziologInnen 1 Normalverteilung Statistik 2 für SoziologInnen Normalverteilung Univ.Prof. Dr. Marcus Hudec Statistik 2 für SoziologInnen 1 Normalverteilung Inhalte Themen dieses Kapitels sind: Das Konzept stetiger Zufallsvariablen Die

Mehr

Kapitel VII - Konzentration von Merkmalswerten

Kapitel VII - Konzentration von Merkmalswerten Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel VII - Konzentration von Merkmalswerten Deskriptive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh

Mehr

1 Grundprinzipien statistischer Schlußweisen

1 Grundprinzipien statistischer Schlußweisen Grundprinzipien statistischer Schlußweisen - - Grundprinzipien statistischer Schlußweisen Für die Analyse zufallsbehafteter Eingabegrößen und Leistungsparameter in diskreten Systemen durch Computersimulation

Mehr

4. Kumulierte Häufigkeiten und Quantile

4. Kumulierte Häufigkeiten und Quantile 4. Kumulierte Häufigkeiten und Quantile Statistik für SoziologInnen 1 4. Kumulierte Häufigkeiten und Quantile Kumulierte Häufigkeiten Oft ist man nicht an der Häufigkeit einzelner Merkmalsausprägungen

Mehr

So berechnen Sie einen Schätzer für einen Punkt

So berechnen Sie einen Schätzer für einen Punkt htw saar 1 EINFÜHRUNG IN DIE STATISTIK: SCHÄTZEN UND TESTEN htw saar 2 Schätzen: Einführung Ziel der Statistik ist es, aus den Beobachtungen eines Merkmales in einer Stichprobe Rückschlüsse über die Verteilung

Mehr

OPT Optimierende Clusteranalyse

OPT Optimierende Clusteranalyse Universität Augsburg Fakultät für angewandte Informatik Lehrstuhl für Physische Geographie und Quantitative Methoden Übung zum Projektseminar: Wetterlagen und Feinstaub Leitung: Dr. Christoph Beck Referentin:

Mehr

Kriterien zur Bewertung von Geschäftsmodellen der Industrie 4.0. Bachelorarbeit

Kriterien zur Bewertung von Geschäftsmodellen der Industrie 4.0. Bachelorarbeit Kriterien zur Bewertung von Geschäftsmodellen der Industrie 4.0 Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science (B. Sc.) im Studiengang Wirtschaftswissenschaft der Wirtschaftswissenschaftlichen

Mehr

Statistics, Data Analysis, and Simulation SS 2017

Statistics, Data Analysis, and Simulation SS 2017 Mainz, 8. Juni 2017 Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Dr. Michael O. Distler

Mehr

4. Kumulierte Häufigkeiten und Quantile

4. Kumulierte Häufigkeiten und Quantile 4. Kumulierte Häufigkeiten und Quantile Kumulierte Häufigkeiten Oft ist man nicht an der Häufigkeit einzelner Merkmalsausprägungen interessiert, sondern an der Häufigkeit von Intervallen. Typische Fragestellung:

Mehr

WISSENSCHAFTLICHE BEITRÄGE

WISSENSCHAFTLICHE BEITRÄGE WISSENSCHAFTLICHE BEITRÄGE AUS DEM TECTUM VERLAG Reihe Wirtschaftswissenschaften Band 39 Ralph Wirth Best-Worst Choice-Based Conjoint-Analyse Eine neue Variante der wahlbasierten Conjoint-Analyse Tectum

Mehr

Übungsaufgabe Parameter und Verteilungsschätzung

Übungsaufgabe Parameter und Verteilungsschätzung Übungsaufgabe Parameter und Verteilungsschätzung Prof. Dr. rer. nat. Lüders Datum: 21.01.2019 Autor: Marius Schulte Matr.-Nr.: 10049060 FH Südwestfalen Aufgabenstellung Analysiert werden sollen die Verteilungen

Mehr

Bei näherer Betrachtung des Diagramms Nr. 3 fällt folgendes auf:

Bei näherer Betrachtung des Diagramms Nr. 3 fällt folgendes auf: 18 3 Ergebnisse In diesem Kapitel werden nun zunächst die Ergebnisse der Korrelationen dargelegt und anschließend die Bedingungen der Gruppenbildung sowie die Ergebnisse der weiteren Analysen. 3.1 Ergebnisse

Mehr

Mittelwert Median Stabw StabwN 1. Quartil 3. Quartil 27,22 % 26,06 % 8,07 % 8,03 % 22,12 % 31,25 %

Mittelwert Median Stabw StabwN 1. Quartil 3. Quartil 27,22 % 26,06 % 8,07 % 8,03 % 22,12 % 31,25 % 3. a) Mit Hilfe der Excel-Funktionen Mittelwert(DB), Median(DB), Stabw(DB) sowie Quantil(DB;P) 1 werden aus den gegebenen Leberfettgehaltmessdaten Mittelwert, Median, Standardabweichung (Stabw) sowie das

Mehr

Schätzverfahren ML vs. REML & Modellbeurteilung mittels Devianz, AIC und BIC. Referenten: Linda Gräfe & Konstantin Falk

Schätzverfahren ML vs. REML & Modellbeurteilung mittels Devianz, AIC und BIC. Referenten: Linda Gräfe & Konstantin Falk Schätzverfahren ML vs. REML & Modellbeurteilung mittels Devianz, AIC und BIC Referenten: Linda Gräfe & Konstantin Falk 1 Agenda Schätzverfahren ML REML Beispiel in SPSS Modellbeurteilung Devianz AIC BIC

Mehr

Statistische Tests (Signifikanztests)

Statistische Tests (Signifikanztests) Statistische Tests (Signifikanztests) [testing statistical hypothesis] Prüfen und Bewerten von Hypothesen (Annahmen, Vermutungen) über die Verteilungen von Merkmalen in einer Grundgesamtheit (Population)

Mehr

Mathematisch-Naturwissenschaftliche Fakultät I der Humboldt-Universität zu Berlin Institut für Physik Physikalisches Grundpraktikum.

Mathematisch-Naturwissenschaftliche Fakultät I der Humboldt-Universität zu Berlin Institut für Physik Physikalisches Grundpraktikum. Mathematisch-Naturwissenschaftliche Fakultät I der Humboldt-Universität zu Berlin Institut für Physik Physikalisches Grundpraktikum Versuchsprotokoll zur Bestimmung der Brennweiten von dünnen Linsen (O)

Mehr

Planung von Humanstudien Fallzahlberechnung

Planung von Humanstudien Fallzahlberechnung Planung von Humanstudien Fallzahlberechnung Hans-Peter Helfrich Universität Bonn 5. November 2015 H.-P. Helfrich (Universität Bonn) Planung von Humanstudien 5. November 2015 1 / 15 Einführung 1 Einführung

Mehr

7.1 Korrelationsanalyse. Statistik. Kovarianz. Pearson-Korrelation. Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien

7.1 Korrelationsanalyse. Statistik. Kovarianz. Pearson-Korrelation. Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Statistik 7.1 Korrelationsanalyse Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Sommersemester 2012 7 Regressions- und Korrelationsanalyse Kovarianz Pearson-Korrelation Der (lineare)

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung Übung 3 1 Inhalt der heutigen Übung Vorrechnen der Hausübung B.7 Beschreibende Statistik Gemeinsames Lösen der Übungsaufgaben C.1: Häufigkeitsverteilung C.2: Tukey

Mehr

Vorhaben: "Räumlich verteilte Parametrisierung unter Verwendung von verfügbaren Geodaten"

Vorhaben: Räumlich verteilte Parametrisierung unter Verwendung von verfügbaren Geodaten Vorhaben: "Räumlich verteilte Parametrisierung unter Verwendung von verfügbaren Geodaten" Oliver Gronz Universität Trier - Fachhochschule Trier 10. April 2008 Oliver Gronz (Uni & FH Trier) Räumlich verteilte

Mehr

Vergleichende Analysen regionaler Klimamodelle Lorenzo Tomassini und Katharina Bülow

Vergleichende Analysen regionaler Klimamodelle Lorenzo Tomassini und Katharina Bülow Vergleichende Analysen regionaler Lorenzo Tomassini und Katharina Bülow Max-Planck-Institut für Meteorologie Übersicht Methoden und Schwierigkeiten der Evaluierung regionaler Beobachtungsdatensätze Problembezogene

Mehr

Statistik für Ingenieure Vorlesung 3

Statistik für Ingenieure Vorlesung 3 Statistik für Ingenieure Vorlesung 3 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 14. November 2017 3. Zufallsgrößen 3.1 Zufallsgrößen und ihre Verteilung Häufig sind

Mehr

Teil XI. Hypothesentests für zwei Stichproben. Woche 9: Hypothesentests für zwei Stichproben. Lernziele. Beispiel: Monoaminooxidase und Schizophrenie

Teil XI. Hypothesentests für zwei Stichproben. Woche 9: Hypothesentests für zwei Stichproben. Lernziele. Beispiel: Monoaminooxidase und Schizophrenie Woche 9: Hypothesentests für zwei Stichproben Patric Müller Teil XI Hypothesentests für zwei Stichproben ETHZ WBL 17/19, 26.06.2017 Wahrscheinlichkeit und Statistik Patric

Mehr

TUD Computer Poker Challenge

TUD Computer Poker Challenge TUD Computer Poker Challenge The Challenge of Poker Björn Heidenreich 31. März 2008 The Challenge of Poker Björn Heidenreich 1 Anforderungen an einen guten Poker-Spieler Hand Strength Hand Potential Bluffing

Mehr

Parametrische vs. Non-Parametrische Testverfahren

Parametrische vs. Non-Parametrische Testverfahren Parametrische vs. Non-Parametrische Testverfahren Parametrische Verfahren haben die Besonderheit, dass sie auf Annahmen zur Verteilung der Messwerte in der Population beruhen: die Messwerte sollten einer

Mehr

VII. Inhaltsverzeichnis

VII. Inhaltsverzeichnis VII Inhaltsverzeichnis Vorwort XIII Teil 1 Datentypen 1 Datentypen 3 1.1 Kommt es wirklich darauf an? 3 1.2 Daten auf einer Intervallskala 3 1.3 Daten auf einer Ordinalskala 4 1.4 Daten auf einer Nominalskala

Mehr