Wärmelastprognose. Masterprojekt. Prof. Dr.-Ing. Thomas Veeser. Godeke Friedrichs Nils Gerke

Größe: px
Ab Seite anzeigen:

Download "Wärmelastprognose. Masterprojekt. Prof. Dr.-Ing. Thomas Veeser. Godeke Friedrichs Nils Gerke"

Transkript

1 Wärmelastprognose Masterprojekt Prof. Dr.-Ing. Thomas Veeser Godeke Friedrichs Nils Gerke

2 Inhaltsverzeichnis 1. Aufgabenstellung Einleitung Grundlagen Technische Grundlagen Analytische Grundlagen Regressions-Verfahren Maschinenlern-Verfahren Statistische Beurteilungskriterien Normalverteilung und Wahrscheinlichkeitsnetz MAPE Messdaten Wärmenetze Messdaten Wetterdaten Generierte Parameter Technische Analyse Vergleich verschiedener Algorithmen Boosted Decision Trees Bagged Decision Trees Neuronale Netze Zwischenfazit Aufzeichnungslängen und Vorhersagegenauigkeit Vergleich mit Regressionsverfahren Auswahl der Methode Vergleich und Festlegung der Eingangsparameter Prognoseergebnisse EBV-Netz i

3 6. Modellierung Wissensdatenbank aufbauen: Vorhersage erzeugen: Validierung Fazit Ausblick Literaturverzeichnis Anhang ii

4 Abbildungsverzeichnis Abbildung 3-1 Wärmelastprofil... 3 Abbildung 3-2 Beispiel für Regression... 4 Abbildung 3-3 Beispiel für overfitting... 5 Abbildung 3-4 Ungenauigkeiten im Randbereich... 6 Abbildung 3-5 Beispiel einer Sigmoid Funktion... 7 Abbildung 3-7 Decision Tree [7, p. 21]... 8 Abbildung 3-8 Neuronales Netz [7, p. 19] Abbildung 3-9 Schaubild einer perfekten Vorhersage Abbildung 3-10 Schaubild einer sehr schlechten Vorhersage Abbildung 3-11 Beispiel Wahrscheinlichkeitsnetz [13] Abbildung 4-1 Nahwärmenetz Eisenbahnbauverein Harburg e.g. (EBV) [14, p. 64] 14 Abbildung 4-2 Nahwärmenetz Neue Mitte Wilhelmsburg (NMW) [6, p. 67] Abbildung 5-1 Ausschnitt: Testdatensatz mit Messfehlern Abbildung 5-2 Ausschnitt: Testdatensatz Messfehlern bereinigt Abbildung 5-3 Ergebnisse Boosted DT, ¼ Stundenwerte Abbildung 5-4 Ergebnisse Boosted DT, Stundenwerte Abbildung 5-5 Ergebnisse Boosted DT, Tageswerte Abbildung 5-6 Ergebnisse Bagged DT, ¼ Stundenwerte Abbildung 5-7 Ergebnisse Bagged DT, Stundenwerte Abbildung 5-8 Ergebnisse Bagged DT, Tageswerte Abbildung 5-9 Ergebnisse neuronale Netze, ¼ Stundenwerte Abbildung 5-10 Ergebnisse neuronale Netze, Stundenwerte Abbildung 5-11 Ergebnisse neuronale Netze, Tageswerte Abbildung 5-12 Entwicklung des MAPE bei kurzen Aufzeichnungszeiträume Abbildung 5-13 Schwankung des MAPE bei kurzen Aufzeichnungszeiträume Abbildung 5-14 Entwicklung des MAPE bei langen Aufzeichnungszeiträume Abbildung 5-15 Schwankung des MAPE bei langen Aufzeichnungszeiträumen Abbildung 5-16 Unterbrechungen des vorliegenden Testdatensatzes Abbildung 5-17 Reaktion auf Sprünge im Testdatensatz Abbildung 5-18 Wärmebedarf in Abhängigkeit von der Temperatur Abbildung 5-19 Wärmebedarf in Abhängigkeit von der Windgeschwindigkeit Abbildung 5-20 Wärmebedarf in Abhängigkeit von der Rel. Luftfeuchte iii

5 Abbildung 5-21 Standartlastprofile des Testdatensatzes Abbildung 5-22 Variationstest zum Vergleich der Eingangsparameter Abbildung 5-23 Variationstests des MAPE in Abhängigkeit der Lernzeit Abbildung 5-24 Temperaturverlauf im Lernzeitraum des Variationstestes Abbildung 5-25 Prognose des EBV-Netzes Abbildung 5-26 Aufsummierte Tagesenergieverbräuche (EBV-Netz) Abbildung 7-1 Validierungsprognose des NMW-Netzes Abbildung 7-2 kumulierte Energieverbräuche des Nahwärmenetzes NMW iv

6 Tabellenverzeichnis Tabelle 4-1 Übersicht der Anschlussleistungen und Verbräuche (NMW) Tabelle 4-2 Übersicht der generierte Parameter Tabelle 5-1 Ergebnisse Methoden Test Tabelle 5-2 Auswertung des MAPE bei kurzen Aufzeichnungszeiträume Tabelle 5-3 Auswertung des MAPE bei langen Aufzeichnungszeiträume Tabelle 5-4 Sigmoid Koeffizienten Tabelle 5-5 Tagesvorhersage mit verschiedenen Methoden Tabelle 5-6 Abweichungen der Vorhersage mit verschiedenen Methoden v

7 1. Aufgabenstellung Das Ziel dieses Masterprojektes ist die Prognose von Wärmelasten verschiedener Nahwärmenetze. Die Grundlagen der Prognose bilden dabei die Betriebsdaten von zwei Nahwärmenetzen in Hamburg Wilhelmsburg und Hamburg Harburg. Im Rahmen des Masterprojektes werden verschiedene Regressionsmodelle verglichen und auf ihr Potenzial zur Wärmelastprognose untersucht. Ziel ist die Aufstellung eines Prognosemodells, welches durch variable Eingabeparameter Aussagen über die zukünftig zu erwartenden Wärmelasten ermöglicht. Neben dem grundlegenden Parameter Außentemperatur soll das Modell erweiterbar für zusätzliche Parameter sein. Die Wärmelastprognose des Modelles soll beispielsweise in einem Day-ahead Fahrplans bei Blockheizkraftwerken oder Solarthermie-Anlagen Verwendung finden. 1

8 2. Einleitung Bei den Energiemärkten handelt es sich um natürliche Monopole, welche volkswirtschaftlich sinnvoll nur aus einer Hand betrieben werden können. Mit den Binnenmarktrichtlinien für Strom (1996) und Gas (1998) wurde erstmals versucht innerhalb dieser bestehenden Strukturen einen Wettbewerb zu schaffen. Des Weiteren wurde mit dem Unbundling eine Aufteilung der einzelnen Kompetenzen der Energieversorgungsunternehmen geschaffen [1]. In Folge der Entflechtung der Energienetze wurden neue Konzepte für die Bereitstellung, den Transport und den Handel von Energie entwickelt. Der liberalisierte Energiemarkt bildet seither die Grundlage für die Struktur heutiger Strom-, Gas-, aber auch Wärmemärkte. Technologien wie virtuelle Kraftwerke, Kraftwärmekopplung und Power to Heat zeigen, dass auch die intelligente Bereitstellung von Wärme ein Teil der politisch gewollten Energiewende ist. Im Bereich der Wärme liegt dabei großes Potenzial in der Nutzbarmachung von gekoppelter Erzeugung durch den Betrieb von Kraft-Wärme Kopplungsanlagen (KWK-Anlagen). Eine Herausforderung ist dabei zum einen die Vorhersage der Erzeugung von nicht gesteuerten Anlagen (z.b. Solarthermie) und zum anderen die Prognose von Wärmelasten. Die Vorteile einer Wärmelastprognose sind dabei [2, p. 3]: - Optimierung der Betriebszeiten von gesteuerten Anlagen zur Wärmebereitstellung. - Prognose der Wärmelast von nicht gesteuerten Anlagen zur Wärmebereitstellung. - Planbarkeit des Betriebes insbesondere von wärmegeführten KWK- Anlagen 2

9 3. Grundlagen In diesem Kapitel werden die Grundlagen für die in dieser Arbeit verwendeten analytischen Verfahren vorgestellt. 3.1 Technische Grundlagen Aktuell werden Standardlastprofile zur Beurteilung und Abschätzung des Wärmebedarfes von nicht Leistung gemessenen Kunden herangezogen. Bei einem Standardlastprofil werden dabei lediglich standardisierte Werte für die Vorhersage des Wärmebedarfes herangezogen [3]. Im Unterschied zu Standardlastprofilen basieren Wärmelastprognosen auf den Messwerten des untersuchten Objektes. Es lassen sich bei Standardlastprofilen im Wärmebereich drei grundsätzliche Bereiche ausmachen: Im Sommer ist der Wärmebedarf annähernd auf einem konstant niedrigen Niveau. In der Übergangsphase zwischen Sommer und Winter steigt der Wärmebedarf mit abfallender Temperatur linear an. Bei kalten Temperaturen im Winter ist der Wärmebedarf nach einem Abknicken wieder annähernd linear [4, p. 37]. Abbildung 3-1 zeigt einen standardisierten Verbrauch, welcher durch eine Sigmoid- Funktion (siehe 3.2.1) nachgebildet wurde. Abbildung 3-1 Wärmelastprofil Eine Wärmelastprognose beschreibt - abgrenzend zu einem Standardlastprofil - den prognostizierten Bedarf direkt an dem untersuchten Objekt. Der Betrieb der Anlage, welche den prognostizierten Wärmebedarf zu decken hat, lässt sich also mit einer Wärmelastprognose unter Berücksichtigung von örtlichen Besonderheiten bestimmen. 3

10 3.2 Analytische Grundlagen In diesem Kapitel werden die nötigen Grundlagen vermittelt, die zur Analyse der Daten notwendig sind. Dabei wird zwischen traditionellen Regressionsverfahren und selbstlernenden Maschinenlern-Verfahren unterschieden. Zu jedem Verfahren werden auch dessen Vor- und Nachteile genannt Regressions-Verfahren Bei Regressionsverfahren wird versucht eine Kurve durch eine Punktewolke zu legen. Die Kurve wird so gewählt, dass der Verlauf der Punkte bestmöglich dargestellt werden wird. Dies ist in Abbildung 3-2 dargestellt. Abbildung 3-2 Beispiel für Regression Um dies zu erreichen, gibt es im zweidimensionalen Bereich zwei Verfahren die besonders häufig angewendet werden: Polynomial Curve Fitting Hier wird versucht die Punktwolke mit einem Polynom hoher Ordnung wiederzugeben. Dabei wird der Grad des Polynoms solange erhöht, bis die gewünschte Genauigkeit erreicht ist. Dabei wird je nach Implementierung der Fehler über Standardabweichung, Fehlerquadrat oder das Bestimmtheitsmaß (R²) bestimmt. Die Methode ist sehr beliebt, da besonders bei kleineren Datenmengen sehr schnell ein ausreichend genaues Ergebnis formuliert werden kann. Um diese Methode anwenden zu können, 4

11 ist es nötig einen Zusammenhang zwischen den gemessenen Daten zu kennen. Dies ist erforderlich, um ein Abbruchkriterium formulieren zu können und somit ein overfitting zu vermeiden. In Abbildung 3-3 ist ein Beispiel hierzu gezeigt. Hierbei wird ein linearer Verlauf als Polynom n-ter Ordnung wiedergegeben. Wird das Abbruchkriterium nicht richtig gesetzt, so kann es dazu kommen, dass beispielsweiße bei Signalen das Rauschen mit dargestellt wird. Abbildung 3-3 Beispiel für overfitting Brute Force Curve-Fitting Beim Brute Force Curve-Fitting werden neben Polynomen auch andere Funktionen auf ihrer Passgenauigkeit zu den vorliegenden Messdaten getestet. Dabei wird zumeist auf eine Datenbank von bekannten Funktionen zurückgegriffen, die nacheinander durchprobiert werden. Die Funktion mit der höchsten Wiedergabegenauigkeit wird anschließend ausgewählt. Um ein overfitting zu vermeiden, muss auch hier wieder ein Abbruchskriterium für die Genauigkeit definiert werden. Außerdem ist beim Curve-Fitting mittels Brute Force die Wahrscheinlichkeit besonders hoch, dass nur noch die Passgenauigkeit über die ausgewählt Funktion entscheidet und somit gegebenenfalls physikalische Zusammenhänge unterschlagen werden. Beide Methoden haben gemein, dass sie nur in dem Bereich gültig sind, in dem auch die Messdaten liegen. Wenn mit der gewonnenen Funktion Vorhersagen außerhalb des Messbereiches getroffen werden sollen, können starke Fehlprognosen die Folge 5

12 sein. Besonders beim Gebrauch von Polynomen ist es möglich, dass beim Überschreiten des Messbereiches eine starke Ungenauigkeit auftritt.dies ist zur Verdeutlichung in Abbildung 3-4 dargestellt. Die Kurve knickt ab, obwohl die Daten eigentlich linear ansteigen würden. Die auf diese Weiße aufgestellten Funktionen sind zwingend mit einem Gültigkeitsbereich zu versehen. Abbildung 3-4 Ungenauigkeiten im Randbereich Regressionsverfahren bei Wärmelastprofilen Im Bereich der Wärmelastprognosen sind aktuell Verfahren üblich, welche auch in der Erstellung von Standardlastprofilen Verwendung finden. Bei diesen Verfahren wird die Sigmoid-Funktion, die ihren Ursprung in der transzendenten Wachstumsfunktion aus den Wirtschaftswissenschaften hat, angewendet [4, p. 39]. [b a] f(x) sigmoid = a + [ {(c x) d} ] 3-1 In Formel 3-1 ist die Sigmoid-Funktion dargestellt. Der Kurvenverlauf wird dabei über die Parameter a, b, c, d und x variiert [5]. Ein Beispiel für eine Sigmoid- Regressionsgerade ist in dargestellt. 6

13 Abbildung 3-5 Beispiel einer Sigmoid Funktion Die Sigmoid-Funktion ist in dem konkreten Beispiel ausschließlich von der Temperatur (hier x) abhängig. Die weiteren Parameter beeinflussen lediglich die Form der Kurve und sind von keiner zusätzlichen Eingangsgröße abhängig. Zwischenfazit: Insgesamt bieten die Regressionsverfahren besonders bei bekannten physikalischen Zusammenhängen eine gute Möglichkeit zur Nachmodellierung von Messdaten. Sofern aber nicht gesichert ist, dass die gemessenen Zusammenhänge einer bestimmten Funktion folgen oder sich periodisch Wiederholen, sind Regressionsmethoden allein nicht zur Vorhersage von Daten außerhalb des Messbereiches anwendbar. Maschinenlernverfahren bieten den Vorteil, dass ein mehrdimensionaler Eingang möglich ist. Dies ist auch mit Regressionsmodellen möglich, allerdings müssten hierfür wiederum viele Regressionsmodelle aufgestellt werden, die im Nachhinein durch einen Auswahlalgorithmus sortiert und gewichtet werden. Dieser Vorgang ist bei Maschinenlernverfahren bereits implementiert. 7

14 3.2.2 Maschinenlern-Verfahren Bei den Verfahren des Maschinenlernens wird künstliches Wissen aus gesammelten Erfahrungen generiert und gespeichert. Dabei ist es das Ziel, durch einen iterativen Lernvorgang, die Wissensbasis zu erweitern und somit immer bessere Vorhersagen treffen zu können. Maschinenlernverfahren funktionieren umso besser, desto stärker der Zusammenhang zwischen den Input-Parametern (predictors) und dem vorherzusagenden Output ist. Dabei ist es sehr wichtig, dass die einzelnen Input- Parameter keine oder zumindest keine starke Abhängigkeit voneinander haben. Im folgenden Abschnitt werden drei Verfahren des Maschinenlernens vorgestellt: Boosted Decision Trees Bagged Decision Trees Neuronale Netze Diese drei Verfahren wurden vorab ausgewählt, da diese auch zur Vorhersage von Stromverbräuchen genutzt werden [6]. Decision Trees Bei Decision Trees wird ausgehend von einem einzigen Knotenpunkt - ein Konstrukt erzeugt, welches sich von Ebene zu Ebene immer weiter verzweigt. Bei den Verzweigungen handelt es sich um einfache richtig oder falsch Abfragen. Ausgehend von einem einzelnen Knotenpunkt hat man in der dritten Ebene schon vier Knotenpunkte. Die Verzweigungen setzten sich bis zu einem definierten Abbruchkriterium fort. Die Parameter, welche bei den einzelnen Punkten des Baumes abgefragt werden, können frei gewählt werden. [7, p. 20] Abbildung 3-6 zeigt einen beispielhaften Decision Tree. Abbildung 3-6 Decision Tree [7, p. 21] 8

15 Mit Hilfe statistischer Verfahren zur Verbesserung von Vorhersagen können die Prognosen anschließend optimiert werden. Im Rahmen dieses Projektes wurden das Bagging (Boostrap Aggegation) und das Boosting angewandt. Bei beiden Verfahren handelt es sich um sogenannte Ensemble Methoden. Bei diesen Methoden werden mehrere Schätzer ( Ensemble ) für eine Prognosefunktion konstruiert. Durch Kombination dieser Schätzer wird die Prognosegüte verbessert. [8, p. 2]. Die Methode des Bagging, welche 1996 von Leo Breiman das erste Mal beschrieben wurde, setzt auf die Kombination von Bäumen, die durch sogenannte Bootstrap Stichproben erzeugt wurden. [9, p. 262]. Bootstrap Stichproben werden erzeugt, indem aus der ursprünglichen Menge zufällige Stichproben durch Ziehen mit Zurücklegen zu einer neuen Menge zusammengefasst werden. Die gesuchte Statistik wird dann mehrfach neu auf Basis der erzeugten Bootstrap Stichproben erzeugt. [10] [11, p. 2] N g(x) = 1 N f D i (x) 3-2 i=1 mit N = Anzahl Wiederholungen f Di (x) = Ergebnis der Bootsstrap Stichprobe Abschließend werden die erzeugten Ergebnisse mit dem Verfahren nach 3-2 aggregiert, beziehungsweiße hier gemittelt [9, p. 265]. In der Literatur wird eine Verbesserung der Schätzung durch Bagging bei Regressionsproblemen gezeigt [11, p. 20]. Anders als das Bagging wird das Boosting hauptsächlich zur Lösung von Klassifizierungsproblemen herangezogen, es kann aber auch zur Lösung von Regressionsproblem modifiziert werden. Beim Boosting handelt es sich um ein iteratives Verfahren, welches den Einzelwerten der untersuchten Mengen Gewichtungen hinzufügt. Im ersten Iterationsschritt besitzen alle Werte die gleichen Gewichtungen. Die falsch vorhergesagten/klassifizierten Werte werden in den darauffolgenden Iterationsschritten dann stärker gewichtet, um hier eine Verbesserung der Vorhersage zu erreichen [11, p. 51]. In der Literatur wird Boosting als relativ robust gegenüber overfitting beschrieben [9, p. 269]. Vergleichend lässt sich also sagen, dass bei Klassifizierungsproblemen das Boosting Vorteile bietet. Bei Regressionsproblem wird kein Vorteil bei einer der beiden 9

16 Methoden deutlich, so dass die Ergebnisse von beiden Methoden zu vergleichen sind. Der grundsätzliche Vorteil von Decision Trees ist die Darstellung des Ergebnisses in einem Baum, welcher in Form des Ergebnispfades auch die Gewichtungen der Eingangsparameter zeigt [12, p. 51]. Neuronale Netz Bei neuronalen Netzen wird eine Reaktion auf verschiedene Eingangssignale simuliert. Die Neuronen genannten Knotenpunkte wandeln in hintereinander geschalteten Ebenen die Eingangsgrößen in Ausgangsgrößen um. Meist wird versucht eine Ausgangsvariable aus einem mehrdimensionalen Eingang darzustellen. Ein neuronales Netz beginnt immer mit der Synapsenfunktion, in welcher die Eingangsgrößen eingelesen werden. Der abschließende Schritt eines neuronalen Netzes ist die Neuronen-Aktivierungsfunktion, welche die Ausgangsgrößen bestimmt. Den Verbindungen zwischen den einzelnen Neuronen wird im Laufe des Lernprozesses eine Gewichtung zugeordnet. Der Prozess wird bis zu einem definierten Abbruchkriterium wiederholt. Die Eingangsgrößen gehen dadurch mit verschiedenen Gewichtungen in die verschiedenen Ebenen ein. Abbildung 3-7 zeigt beispielhaft ein neuronales Netz mit vier Eingangsgrößen und einer Ausgabevariablen [7, p. 19]. Abbildung 3-7 Neuronales Netz [7, p. 19] 10

17 3.3 Statistische Beurteilungskriterien Zur Beurteilung der Fit-Qualität können verschiedene statistische Methoden genutzt werden, dabei sollen in diesem Kapitel die in dieser Arbeit genutzten Verfahren näher beschrieben werden Normalverteilung und Wahrscheinlichkeitsnetz Die Normalverteilung in Verbindung mit einem Wahrscheinlichkeitsnetz bietet eine optische Kontrollmöglichkeit zur Beurteilung der Fit Güte. Die Gaußsche Normalverteilung wird mit folgender Formel erstellt: f(x) = 1 σ 2 π x μ e 0,5 ( σ ) 3-3 Zur Validierung werden nun die vorhergesagten Werte mit den tatsächlich eingetroffenen Werten verglichen, somit kann ein Mittelwert der Abweichungen und eine Standardabweichung gebildet werden. Aus diesen Werten kann anschließend eine Normalverteilung gebildet werden. Bei einer perfekten Vorhersage, beziehungsweiße Regression würden 100 % der Werte eine Abweichung von null aufweisen (roter Graph in Abbildung 3-8), bei einer sehr schlechten Vorhersage würde ein Großteil der Werte eine hohe Abweichung aufweisen (roter Graph in Abbildung 3-9). Abbildung 3-8 Schaubild einer perfekten Vorhersage 11

18 Abbildung 3-9 Schaubild einer sehr schlechten Vorhersage Als Referenz ist in den Schaubildern zusätzlich die Standardnormalverteilung abgebildet (Blaue Graphen). Mit diesen Schaubildern lässt sich schnell optisch ermitteln, wie gut die ermittelte Kurve mit dem Original übereinstimmt. Die hier ermittelten Daten werden zusätzlich auch im Wahrscheinlichkeitsnetz visualisiert. Dabei werden die Achsen so skaliert, dass die Standardnormalverteilung als Gerade dargestellt wird. Zur Erstellung des Diagramms werden die errechneten Werte in Quantile eingeteilt und mit den jeweiligen Funktionswerten zu Wertepaaren verknüpft. Die so entstandene Punktewolke wird anschließend in einem Plot dargestellt, siehe Abbildung Abbildung 3-10 Beispiel Wahrscheinlichkeitsnetz [13] Bei einer perfekten Vorhersage würde einen vertikale Linie von Punkten entstehen. Je mehr sich die Punkte zu einer horizontalen Gerade anordnen, desto schlechter ist die Vorhersage 12

19 3.3.2 MAPE Zu Beurteilung der Qualität der aufgestellten Prognosen wird die Abweichung des prognostizierten Wärmebedarfes zum real eingetretenen Wärmebedarf ermittelt. Die mathematische Kenngröße ist hierbei der MAPE (Mean absolute percentage error), welcher die mittlere Abweichung zu real eingetretenen Werten angibt. Die Abweichung wird dabei für jeden einzelnen Mess- und Prognosewert ermittelt. Die Qualität der Prognose steigt also bei sinkendem MAPE. n MAPE = 1 n A t F t 100% 3-4 t=1 A t Mit A t = Realer Wert F t = vorhergesagter Wert In dieser Arbeit werden die prozentualen Abweichungen betrachtet, weil eines der Wärmenetze während des Aufzeichnungszeitraumes erweitert wurde und somit neue Verbraucher und Abnehmer hinzugekommen sind. Somit ist sichergestellt, dass auch bei der Betrachtung von längeren Zeiträumen das Ergebnis nicht verfälscht wird. 13

20 4. Messdaten In dem folgenden Kapitel werden die Ursprünge der in der Arbeit verwendeten Messdaten erläutert. Des Weiteren wird die Aufbereitung der Daten beschrieben. 4.1 Wärmenetze Im Folgenden werden die untersuchten Wärmenetze beschrieben. Das Modell zur Entwicklung der Wärmelastprognose wurde für ein Nahwärmenetz in Hamburg Harburg entwickelt. Das Wärmenetz des Eisenbahnbauverein Harburg e.g. (EBV) wird von der Firma Büro für Zeitgemäße Energieanwendung Ökoplan (BZE Ökoplan) betreut. Dieses Netz besteht aus 21 Wärmeabnehmern, welche in zwei Bauabschnitten aufgeteilt sind. Abbildung 4-1 Nahwärmenetz Eisenbahnbauverein Harburg e.g. (EBV) [14, p. 64] Das Netz des EBV besteht aus Mehrfamilienhäusern, die von einem Heißwasserkessel versorgt werden [14, p. 64]. 14

21 Abbildung 4-2 zeigt das Nahwärmenetz Neue Mitte Wilhelmsburg (NMW) in Hamburg Wilhelmsburg, welches zur Validierung der Ergebnisse dieses Projektes herangezogen wird. Abbildung 4-2 Nahwärmenetz Neue Mitte Wilhelmsburg (NMW) [6, p. 67] Das Wärmenetz wird von der Firma Hamburg Energie betrieben und besteht aus Wohngebäuden, Gewerbegebäuden, einer Sporthalle und einer Schwimmhalle. Die genauen Anschlussleistungen der Gebäude und Verbräuche sind in Tabelle 4-1 zusammengefasst [15, p. 5]. Das NMW-Netz verfügt über 22 Wärmeübertrager in 21 Gebäuden. Tabelle 4-1 Übersicht der Anschlussleistungen und Verbräuche (NMW) Kategorie Anzahl Anschlussleistung Energieverbrauch [MWh/a] [KW] Einfamilienhäuser ,7 Mehrfamilienhäuser ,5 744,7 Gewerbegebäude ,0 3392,3 Sporthalle ,1 Schwimmhalle ,3 Summe ,5 6300,0 15

22 Das Netz NMW-Netz ist dabei wesentlich größer als das Netz des EBV. Die unterschiedlichen Größen der beiden Wärmenetze bewirken eine Überprüfung der Anwendbarkeit in Wärmenetzen verschiedener Größenordnungen. 4.2 Messdaten Für das EBV-Wärmenetz wurden von der Firma BZE Ökoplan die Daten zur Verfügung gestellt. Bei dem Prognosemodell wird daraus die Wärmeleistung an den 22 Wärmeübergabestationen benutzt, die in 15 Minutenschritten aufgelöst sind. Die Daten sind dabei im Zeitraum zwischen dem vierten Quartal 2012 und dem ersten Quartal 2014 aufgezeichnet worden. Es wird somit, ungeachtet der Konsistenz der Messwerte, ein großer Zeitbereich abgedeckt. Die von Hamburg Energie für das NMW-Wärmenetz bereitgestellten Daten zeigen eine 10 Sekunden Auflösung. Es werden 22 Wärmeübergabestationen gemessen und neben den Bezugszählern sind auch Erzeugungszähler vorhanden. Die NMW-Daten sind im Zeitraum vom März bis Mai 2014 aufgezeichnet worden. Aufgrund des größeren Zeitbereiches der Daten wurde sich für die Modellerstellung für das EBV- Netz entschieden. 4.3 Wetterdaten Da eine direkte Abhängigkeit des Wärmebedarfes von Umwelteinflüssen gegeben ist, werden verlässliche meteorologische Daten für das Aufstellen eines Prognosemodells benötigt. Dem in dieser Arbeit aufgestellten Modell liegen die Daten des Deutschen Wetter Dienstes (DWD) zugrunde. Den untersuchten Nahwärmenetzen liegt eine Wetterstation in Hamburg Fuhlsbüttel am nächsten. Dem Prognosemodell wurden dabei folgende Parameter zugrunde gelegt (In Klammern sind die Einheiten/Ausgabegrößen angegeben): Temperatur ( C) rel. Luftfeuchte (%) Windgeschwindigkeit (m/s) Regen (Ja/Nein) Bodentemperatur in 0,5m Tiefe ( C) 16

23 Die solare Einstrahlung konnte aufgrund der fehlenden Verfügbarkeit (Daten nur bis Ende 2013 vorhanden) beim DWD nicht als Parameter in das Prognosemodell aufgenommen werden. Die Einflüsse der Parameter auf das Prognosemodell werden in Kapitel 5.5 untersucht. 4.4 Generierte Parameter Die weiteren Parameter außerhalb der Wetterdaten sind in Tabelle 4-2 zusammengefasst. Tabelle 4-2 Übersicht der generierte Parameter Parameter Datenursprung Beschreibung Arbeitstag (Ja / Nein) Selbstgeschriebene Funktion Berücksichtigt werden die gesetzlichen Feiertage in Hamburg. Variable Feiertage werden mittels der Gaußschen Osterfunktion berechnet. Es wird von einer 5 Tage Woche von Montag bis Freitag ausgegangen. Durchschnittliche Last der letzten 24 Stunden Selbstgeschriebene Funktion Sofern entsprechende Daten vorhanden sind, wird der durchschnittliche Lastwert der letzten 24 Stunden ausgegeben. Lastwert vor einer Woche Selbstgeschriebene Funktion Sofern dieser vorhanden ist, wird der Lastwert vor einer Woche ausgegeben. Uhrzeit MatLab integrierte Funktion Aus Datumsstempel wird die Uhrzeit extrahiert 17

24 5. Technische Analyse Zunächst muss festgelegt werden, welche Eingangsgrößen, Messdatenauflösung sowie Methode zur Modellierung verwendet werden soll. Dazu werden in diesem Kapitel ausführliche Test durchgeführt und anschließend veranschaulicht. 5.1 Vergleich verschiedener Algorithmen Im nächsten Schritt werden die verschiedenen Methoden an einem festgelegten Testdatensatz verglichen. Der Testdatensatz umfasst dabei 90 Tage und wird in folgenden Auflösungen getestet: Ein Messpunkt pro 15 Minuten (original Auflösung) Ein Messpunkt pro Stunde (Stundenmittel) Ein Messpunkt pro Tag (Tagesmittel) Der Testdatensatz in Originalauflösung weist nur 2,5 % Messausfälle auf, die auf Nichtverfügbarkeiten des Messsystems zurückzuführen sind. Die fehlerhaften Stellen wurden für den Vergleich entfernt, an diesen Stellen liegt nun ein Sprung in der Zeitachsen vor. Der längste Messausfall beträgt dabei 45 Stunden, was aber aufgrund der Trägheit des Heizungssystems nicht zu starken Sprüngen führt. Siehe Abbildung 5-1 (Originaldatensatz) und Abbildung 5-2 (bereinigt und daher ohne Zeitachse). Abbildung 5-1 Ausschnitt: Testdatensatz mit Messfehlern 18

25 Abbildung 5-2 Ausschnitt: Testdatensatz Messfehlern bereinigt Der Testdatensatz wird anschließend mittels des Datumstempels mit den meteorologischen und den generierten Daten verknüpft. Der so präparierte Testdatensatz wird nun als Vorhersagegrundlage für die verschiedenen Methoden verwendet. Jedes Vorhersagemodell benötigt einen Trainings- und einen Validierungsdatensatz, um die Vorhersagegenauigkeit zu bestimmen. Dazu wird der Testdatensatz unterteilt. Die letzten 15 % der Messpunkte werden für die Validierung verwendet, der Rest wird zum Trainieren verwendet. 19

26 5.1.1 Boosted Decision Trees In Abbildung 5-3 sind die Ergebnisse der Boosted Decision Trees Methode dargestellt. Diese erzielt bei einer Auflösung von einem Messpunkt pro 15 Minuten einen MAPE von 14,01 %. Abbildung 5-3 Ergebnisse Boosted DT, ¼ Stundenwerte Im Wahrscheinlichkeitsnetz (rechts oben) ist gut erkennbar, dass die Vorhersage von Minima ungenauer als die Vorhersage von Maxima ist. Dies spiegelt sich darin wieder, dass die Wahrscheinlichkeit von negativen Abweichungen höher ist, als die Standardnormalverteilung. Dieses Verhalten kann auch in dem Ausschnitt des Validierungsdatensatzes (unten) erkannt werden. 20

27 Wird die Auflösung von einem Messpunkt pro 15 Minuten auf Stundenwerte vergrößert, steigt die Vorhersagegenauigkeit. Hier erzielt die Boosted Decision Trees Methode einen MAPE von 11,24 %. Die Ergebnisse sind in Abbildung 5-4 zu sehen. Abbildung 5-4 Ergebnisse Boosted DT, Stundenwerte Hierbei ist ersichtlich, dass durch eine gröbere Auflösung eine genauere Vorhersage möglich ist. Besonders im Ausschnitt des Validierungsdatensatz ist zu sehen, dass in einigen Stunden die Vorhersage die Wirklichkeit gut abbildet. 21

28 Bei einer noch gröberen Auflösung wird keine wesentliche Verbesserung erzielt. In Abbildung 5-5 ist die Vorhersage von Tageswerten mit der Boosted Decision Trees Methode dargestellt. Hier ist zu erwähnen, dass bei einer Testdatensatzlänge von 90 Tagen, der Trainingsdatensatz gegebenenfalls zu kurz ist, um eine sichere Vorhersage zu treffen. Abbildung 5-5 Ergebnisse Boosted DT, Tageswerte Es wird ein MAPE von 10,18 % erzielt. Aufgrund der groben Auflösung und der verhältnismäßig wenigen Messpunkte ist dieses Ergebnis aber nicht repräsentativ und kann nur als Tendenz gesehen werden. 22

29 5.1.2 Bagged Decision Trees Mit der Bagged Decision Trees Methode werden sehr ähnliche Ergebnisse erzielt, wie mit der Boosted Decision Trees Methode, der MAPE ist allerdings in allen Test Durchläufen geringfügig höher. Für den Test mit ¼ Stundenwerten wird ein MAPE von 14,82 % ermittelt. Die Ergebnisse sind in Abbildung 5-6 visualisiert. Abbildung 5-6 Ergebnisse Bagged DT, ¼ Stundenwerte Auch hier sind die Vorhersagen für Minima wieder schlechter als die Vorhersage von Maxima. Insgesamt ist kein starker Unterschied zu den Ergebnissen der Boosted Decision Trees Methode erkennbar. 23

30 Auch bei der Bagged Decision Trees Methode verbessert sich die Vorhersagegenauigkeit mit Vergröberung der Auflösung. Allerdings neigt diese Methode nun dazu, die Maxima schlechter vorherzusagen. Dies ist auch im Wahrscheinlichkeitsnetz in Abbildung 5-7 zu sehen. Die Methode erzielt bei dieser Auslösung einen MAPE von 11,52 %. Abbildung 5-7 Ergebnisse Bagged DT, Stundenwerte 24

31 Auch für die Bagged Decision Trees Methode wurde ein weiterer Test mit Tageswerten durchgeführt. Hier wird ein MAPE von 6,34 % erzielt. Dieses Ergebnis ist, wie auch schon bei den Boosted Decision Trees, nicht repräsentativ, soll aber der Vollständigkeit halber mit aufgeführt werden (siehe Abbildung 5-8). Abbildung 5-8 Ergebnisse Bagged DT, Tageswerte 25

32 5.1.3 Neuronale Netze Mithilfe von neuronalen Netzen werden die besten Ergebnisse erzielt. Auch hier werden die Minima wieder schlechter vorhergesagt als die Maxima. Bei ¼ Stundenwerten wird ein MAPE von 13,42% erzielt. Die Ergebnisse sind in Abbildung 5-9 dargestellt. Abbildung 5-9 Ergebnisse neuronale Netze, ¼ Stundenwerte Dabei kommen auch bei den neuronalen Netzen häufiger Abweichungen mit Unterschätzungen als mit Überschätzungen vor. Die Vorhersage ist insgesamt etwas genauer, als die mit den Entscheidungsbäumen erzielten Ergebnisse. 26

33 Wird die Auflösung auf Stundenwerte vergröbert, so sinkt der MAPE auf 9,74 %. Auch die Abweichungen bei Minima und Maxima sind wesentlich besser als bei allen anderen Methoden. Im Validierungsdatensatz (siehe Abbildung 5-10 unten) ist gut erkennbar, dass der Verlauf qualitativ gut vorhergesagt wird. Abbildung 5-10 Ergebnisse neuronale Netze, Stundenwerte 27

34 Auch für die neuronalen Netze wird zur Vollständigkeit noch ein Test mit Tageswerten durchgeführt. Hierbei erzielen die neuronalen Netze ein sehr schlechtes Ergebnis. Vermutlich ist dies darauf zurückzuführen, dass die Trainingsdatensatzlänge unzureichend ist. Die Ergebnisse sind in Abbildung 5-11 dargestellt. Abbildung 5-11 Ergebnisse neuronale Netze, Tageswerte 28

35 5.1.4 Zwischenfazit Als Ergebnis dieser ersten Tests kann gesagt werden, dass bei einer Auflösung von einem Messpunkt pro Stunde die besten Vorhersagen getroffen werden. Allerdings sollte aufgrund dieser ersten Tests noch nicht die Methode gewählt werden, da die Ergebnisse doch sehr nah aneinander liegen (siehe Tabelle 5-1). Die nachfolgenden Tests werden nun aufgrund der tendenziell besseren Vorhersage und der verkürzten Rechenzeit mit Stundenwerten gerechnet. Tabelle 5-1 Ergebnisse Methoden Test Boosted DT Bagged DT Neuronale Netze ¼ Stundenwerte 14,01 % 14,82 % 13,42 % Stundenwerte 11,24 % 11,52 % 9,74 % Tageswerte 10,18 % 6,34 % 22,17 % 29

36 5.2 Aufzeichnungslängen und Vorhersagegenauigkeit Nach dem Test von verschiedenen Auflösungen wird nun der Lernzeitraum variiert, dies geschieht mittels Variation der übergebenen Aufzeichnungslänge des Testdatensatzes. Bei einer Aufzeichnungslänge von unter zehn Tagen, muss der prozentuale Validationszeitraum variiert werden, um zu gewährleisten, dass mindestens 24 Stunden zur Validation vorliegen. Um sicherzustellen, dass exakte Ergebnisse erzielt werden, wurde jeder Test zehn Mal wiederholt. Die Ergebnisse sind in Tabelle 5-2 dargestellt. Hierbei ist gut ersichtlich, dass die Decision Tree- Methoden schon ab kurzen Aufzeichnungszeiträume sehr stabile Ergebnisse erzielen. Die neuronalen Netze sind für kurze Aufzeichnungszeiträume praktisch nicht anwendbar, da die Vorhersagen ungenau sind und stark schwanken. Tabelle 5-2 Auswertung des MAPE bei kurzen Aufzeichnungszeiträume BoostedDecision Trees Bagged Decision Trees Neuronale Netze Tage Mittelwert Mittlereabw. Standartabw. Mittelwert Mittlereabw. Standartabw. Mittelwert Mittlereabw. Standartabw. 2 10,7 0,0 0,0 14,5 0,2 0,2 38,7 16,2 19,1 3 16,1 0,0 0,0 13,4 0,3 0,5 62,3 30,5 37,2 4 21,9 0,0 0,0 13,6 0,3 0,4 32,2 4,7 5,9 5 18,9 0,0 0,0 13,1 0,4 0,5 21,0 3,9 4,5 6 21,4 0,0 0,0 13,6 0,3 0,4 20,2 4,2 5,4 7 13,2 0,0 0,0 12,7 0,3 0,4 17,6 3,6 4,9 8 11,4 0,0 0,0 12,5 0,2 0,3 16,0 3,2 3,9 9 10,7 0,0 0,0 12,4 0,3 0,4 12,5 2,6 3,3 Die Ergebnisse wurden zusätzlich in Diagrammen illustriert, siehe Abbildung 5-12 und Abbildung

37 Abbildung 5-12 Entwicklung des MAPE bei kurzen Aufzeichnungszeiträume Abbildung 5-13 Schwankung des MAPE bei kurzen Aufzeichnungszeiträume Nach diesem Test mit sehr kurzen Messzeiträumen wurden nun längere Messzeiträume getestet. Dazu wurde der Messzeitraum schrittweiße um eine Woche verlängert. Auch hier wurde jeder Test eines Messzeitraums, sowie der jeweiligen Methode zehn Mal wiederholt. Dabei ergaben sich die in Tabelle 5-3 dargestellten Ergebnisse. 31

38 Tabelle 5-3 Auswertung des MAPE bei langen Aufzeichnungszeiträume BoostedDecision Trees Bagged Decision Trees Neuronale Netze Tage Mittelwert Mittlereabw. Standartabw. Mittelwert Mittlereabw. Standartabw. Mittelwert Mittlereabw. Standartabw ,9 0,0 0,0 10,8 0,3 0,4 15,7 2,2 3, ,9 0,0 0,0 11,2 0,1 0,2 14,1 0,8 1, ,4 0,0 0,0 10,8 0,3 0,3 12,4 1,2 1, ,6 0,0 0,0 11,9 0,2 0,3 13,5 1,9 2, ,1 0,0 0,0 12,6 0,1 0,2 12,5 1,4 1, ,9 0,0 0,0 13,5 0,2 0,2 13,0 1,9 2, ,9 0,0 0,0 10,5 0,1 0,1 15,3 4,4 5, ,8 0,0 0,0 9,7 0,1 0,2 11,5 1,3 1, ,8 0,0 0,0 12,1 0,3 0,3 13,9 1,6 2, ,6 0,0 0,0 12,0 0,1 0,2 10,9 0,4 0, ,5 0,0 0,0 11,6 0,1 0,1 9,8 0,5 0,7 Hier ist zusehen, dass beide Decision Tree Methoden eine sehr stabile und reproduzierbare Vorhersage erzeugen, die neuronalen Netze hingegen weisen auch bei längeren Aufzeichnungszeiträumen immer noch Schwankungen bei der Wiederholung einer Vorhersage auf. Die Ergebnisse wurden ebenfalls in Diagrammen dargestellt, siehe Abbildung 5-14 und Abbildung

39 Abbildung 5-14 Entwicklung des MAPE bei langen Aufzeichnungszeiträume Abbildung 5-15 Schwankung des MAPE bei langen Aufzeichnungszeiträumen 33

40 Tests mit Aufzeichnungszeiträumen von mehr als 90 Tagen waren mit den vorliegenden Daten nicht möglich. Im gesamten Testdatensatz gibt es keinen Abschnitt von mehr als 90 Tagen Länge, der keine großen Unterbrechungen aufwies. Diese Unterbrechungen, die zum Teil mehrere Wochen Länge haben, erzeugen extreme Sprünge innerhalb der Daten. Ein sehr extremes Beispiel ist in Abbildung 5-16 zu sehen. Sprung < Abbildung 5-16 Unterbrechungen des vorliegenden Testdatensatzes Hier sind zwei Fehlstellen im Testdatensatz von jeweils mehr als drei Wochen zu sehen, die zeitlich fast direkt aufeinander folgend sind. Erschwerend kommt hinzu, dass diese Fehlstellen genau am Übergang der Jahreszeiten auftreten. Die Fehlstellen müssen zur Vorhersage entfernt werden, somit entstehen starke Sprünge im Testdatensatz, wodurch sich die Vorhersage des Wärmebedarfs drastisch verschlechtert. Dies ist in Abbildung 5-17 dargestellt. 34

41 Abbildung 5-17 Reaktion auf Sprünge im Testdatensatz Ab der mit einem roten Strich markierten Stelle verschlechtern sich die Vorhersagen sämtlicher Methoden extrem. Aufgrund dieses Verhaltens sollte bei einem längeren Ausfall des Messsystems der Lernprozess neu begonnen werden und die bisherigen Ergebnisse gelöscht werden. Abschließend lässt sich sagen, dass mit einer Vergrößerung der Aufzeichnungsdauer und damit auch des Lernzeitraums, eine Verbesserung der Vorhersagequalität erreicht wird. Allerdings ist auch ersichtlich, dass mit einer Lernbasis von 60 bis 90 Tagen schon ein gutes Ergebnis erzielt wird. 35

42 5.3 Vergleich mit Regressionsverfahren Wie in Kapitel erwähnt werden Standartlastprofile genutzt um eine Wärmeprognose zu erstellen hierbei ist es üblich den Wärmebedarf auf die Temperatur zu beziehen. Da die in dieser Arbeit getesteten Maschinenlernverfahren allerdings neben der Temperatur auch die Luftfeuchte, die Windgeschwindigkeit, die Bodentemperatur und Informationen über die Wochentage als Eingangsgrößen erhalten, wurde getestet ob sich bei diesen Größen auch Abhängigkeiten zum Wärmedarf erkennen lassen. Wie in den folgenden Diagramen erkennbar ist, hat nur die Temperatur einen ersichtlichen Zusammenhang mit dem Wärmebedarf. Bei Windgeschwindigkeit und relativer Luftfeuchtigkeit lässt sich keine direkte Abhängigkeit mit dem Wärmebedarf erkennen. Da die Bodentemperatur von der Außentemperatur abhängig ist wurde diese nicht weiter überprüft. Abbildung 5-18 Wärmebedarf in Abhängigkeit von der Temperatur Abbildung 5-19 Wärmebedarf in Abhängigkeit von der Windgeschwindigkeit 36

43 Abbildung 5-20 Wärmebedarf in Abhängigkeit von der Rel. Luftfeuchte Aufgrund dieser Erkenntnisse wird zum Vergleich nur ein Standardlastprofil verwendet, welches die Abhängigkeit des Wärmebedarfs von der Temperatur darstellt. Dazu wurde durch 410 Tagesmittel des Wärmebedarfs eine Sigmoid-Funktion gelegt. Die Tagesmittel wurden verwendet, um die Streuung und somit den Fit der Sigmoid- Funktion zu erhöhen. [b a] f(x) sigmoid = a + [ {(c x) d} ] Abbildung 5-21 Standartlastprofile des Testdatensatzes 37

44 Die Koeffizienten wurden dabei auf die in Tabelle 5-4 dargestellten Werte festgelegt, das Bestimmtheitsmaß ergibt sich mit diesen zu 0,6484. Tabelle 5-4 Sigmoid Koeffizienten Sigmoid Koeffizienten: a 100,846 b 0,000 c 7, d 0, R² 0,6484 Mithilfe dieser Funktion und der Temperatur wurde nun der Wärmedarf für die nächste Stunde bestimmt. Dabei wurde für den Prognosewert der Temperatur der im Nachhinein gemessene Wert übergeben. Ungenauigkeiten in der Wetterprognose werden somit nicht betrachtet. Neben der Prognose mittels Lastprofil wird zum Vergleich auch eine Prognose mit den Maschinenlernverfahren erstellt. Da sich eine Prognose mittels Lastprofil meist auf Tageswerte bezieht wurden die einzelnen Stundenwerte zu einem Tagesverbrauch aufsummiert. Die Messwerte für einen Tag sind dabei in Tabelle 5-5 dargestellt. Mithilfe der summierten eingetroffenen Werte kann auch eine Abweichung ermittelt werden. Diese gibt an um wieviel Prozent der prognostizierte Tagesbedarf vom eingetroffenen abweicht. Dieser Test wurde nun 20-mal wiederholt, dabei wurde der Lernzeitraum der Maschinenlernverfahren, beginnend bei 60 Tagen, immer um einen Tag erweitert. Die jeweiligen Abweichungen des aufsummierten Tagesbedarfs für die nächsten 24 Stunden sind in Tabelle 5-6 dargestellt. In der Tabelle sind ebenfalls die minimale und maximale Abweichung, sowie die Standardabweichung der prozentualen Abweichung für die einzelnen Methoden dargestellt. 38

45 Tabelle 5-5 Tagesvorhersage mit verschiedenen Methoden Datum: Eingetroffen Sigmoid Boosted-DT Bagged-DT NN :00 63,80 60,09 46,70 53,06 35, :00 58,19 69,59 42,17 51,76 39, :00 60,73 75,00 40,05 50,24 43, :00 60,86 74,43 44,25 49,54 47, :00 60,04 70,22 47,10 51,40 47, :00 62,09 72,67 55,34 59,59 53, :00 65,33 67,65 59,80 64,84 58, :00 71,30 63,61 60,80 70,64 65, :00 77,29 60,09 71,69 69,23 72, :00 94,87 55,74 76,09 75,02 75, :00 80,14 37,50 64,70 69,05 65, :00 60,86 28,40 56,78 57,13 63, :00 41,52 18,02 58,20 55,23 61, :00 40,37 13,72 55,50 50,44 53, :00 52,34 10,04 44,22 47,49 52, :00 43,06 10,04 44,60 52,21 50, :00 42,12 10,87 58,06 50,03 47, :00 46,79 13,03 62,71 56,39 48, :00 65,43 18,46 63,44 57,91 51, :00 74,01 29,62 56,99 65,55 57, :00 62,39 32,79 67,35 65,41 59, :00 66,39 44,65 72,67 66,28 64, :00 57,61 54,27 66,04 63,77 62, :00 49,46 67,65 40,33 52,48 55,61 Summe 1457, , , , ,40 Abweichung 0,00% -27,37% -6,96% -3,59% -8,62% 39

46 Tabelle 5-6 Abweichungen der Vorhersage mit verschiedenen Methoden Sigmoid Boosted DT Bagged DT NN Abw. 1-18,40% -4,86% 2,94% 0,50% Abw. 2-19,78% -5,62% 0,81% -3,80% Abw. 3-9,80% 0,64% 3,33% 1,82% Abw. 4-10,31% 7,05% 8,81% 4,22% Abw. 5-21,26% 0,61% 8,71% 1,22% Abw. 6-22,50% 3,14% 8,71% 1,53% Abw. 7-35,57% 0,59% 13,57% 4,79% Abw. 8-6,38% 1,92% 18,87% 11,31% Abw. 9 18,09% -0,33% 9,80% -3,44% Abw. 10 4,37% 0,36% 4,78% -0,09% Abw. 11 0,81% -2,85% 2,23% -0,70% Abw ,31% -6,38% -3,34% 4,72% Abw ,16% 0,19% 0,97% 0,89% Abw ,10% -3,81% -1,16% -0,25% Abw ,28% -0,55% 2,26% 0,69% Abw ,09% 0,04% 0,11% 3,77% Abw ,57% -3,54% 1,94% -4,46% Abw ,66% -1,65% 14,65% 4,84% Abw ,74% 11,05% 6,10% 4,48% Abw. 20 2,57% 2,95% 1,57% 2,98% Max Abw.: 28,74% 11,05% 18,87% 11,31% Min Abw.: -57,66% -6,38% -3,34% -4,46% Mittlere Abw.: -16,73% -0,05% 5,28% 1,75% Stand. Abw.: 20,64% 4,16% 5,77% 3,64% Dieser Test zeigt sehr gut die Überlegenheit der Maschinenlernverfahren gegenüber der klassischen Regression, die selbstlernenden Verfahren erzielen alle wesentlich bessere Ergebnisse als die Sigmoid-Funktion. Besonders die minimale und maximale Abweichung der Prognose mittels Sigmoid-Funktion schließen eine praktische Anwendung dieser Methode aus. 40

47 5.4 Auswahl der Methode Auf der Basis der vorangegangen Kapitel kann nun eine der vorgestellten Maschinenlernmethoden ausgewählt werden. Die decision trees bieten dabei den Vorteil eines reproduzierbaren Ergebnisses, welcher bei neuronalen Netzen durch die zufällige Ergebnisfindung nicht gegeben ist. Des Weiteren zeigt Abbildung 5-15, dass beim decision trees im Vergleich zu neuronalen Netzen ein statistisch stabiles Ergebnis erwartet werden kann. Die Standardabweichung des MAPE s liegt bei Neuronalen Netzen bei 1-5 %. Diese Kenngröße ist bei decision trees wesentlich geringer, bei boosted decision trees ist sigma konstant null. Dies bedeutet, dass die Prognose auch bei mehrmaliger Durchführung den gleichen Wärmebedarf vorhersagt. Die Rechenzeit ist bei decision trees aufgrund der einfacheren Struktur geringer als bei Neuronalen Netzen. Letztlich wurde sich für Bagged decision trees als Grundlage für das Prognosemodell entschieden. Dieses Verfahren hat bei den kumulierten Tagesenergievorhersagen ein sehr gutes Ergebnis erzielt und auch bei den Vorhersagen der einzelnen Stundenenergieverbräuche war dieses Verfahren, entsprechend der Vorgaben dieses Projektes, ausreichend genau. 5.5 Vergleich und Festlegung der Eingangsparameter Eines der Ziele dieses Projekt war eine Aussage über die Einflüsse der in Kapitel 4 vorgestellten Eingangsparameter zu geben. Die Eingangsparameter wurden im Rahmen dieser Analyse variiert, um die qualitativen Auswirkungen der Eingangsgrößen auf das Ergebnis der Wärmelastprognose zu untersuchen. Die Reihenfolge der Eingangsparameter ist für die Maschinenlernprozesse nicht von Bedeutung, so dass mit diesen Tests alle Kombinationen abgedeckt werden können. Alle Tests wurden mit bagged decision trees mit einer Lernzeit von 88 Tagen durchgeführt und als Vergleichsgröße wurde der MAPE in Prozent herangezogen. Die Ergebnisse der Untersuchung sind in Abbildung 5-22 zusammengefasst. Es zeigt sich, dass zusätzliche Eingangsparameter nicht zu einer qualitativen Verbesserung des Ergebnisses führen. Des Weiteren ist der Einfluss der Temperatur als Eingangsparameter erwartungsgemäß hoch. Ein bagged decision Tree mit lediglich der Temperatur als Eingangsgröße erzielte im untersuchten Beispiel mit einem MAPE von 9,3% das beste Endergebnis bei einem Lernintervall von 88 Tagen. 41

48 Abbildung 5-22 Variationstest zum Vergleich der Eingangsparameter Dennoch sollten für eine fundierte Wärmelastprognose mehrere Eingangsparameter gewählt werden um Schwankungen in der Prognosegüte zu dämpfen. Abbildung 5-23 und Abbildung 5-24 zeigen, dass Temperatursprünge bei Wärmelastprognosen, welche lediglich auf der Temperatur als Eingangsparameter basieren, zu Prognosefehler führen. In dem Zeitraum des Variationstestes kam es zu einem schnellen Temperaturwechsel um den 30. Tag des Lernzeitraumes. Die Folge dieses Temperatursprunges war ein starker Anstieg des MAPE`s bei dem Prognosemodell, welches nur von der Temperatur als Eingangsparameter abhängig ist. Die Abbildungen zeigen, dass ein Prognosemodell welches von zwei Parametern abhängt deutlich stabilere Prognosen ermöglicht. Die Analyse zeigt zwar, dass zusätzliche dritte, vierte oder fünfte Eingangsparameter die Prognose stabilisieren, der Mehrwert ist dabei jedoch so gering, dass aufgrund des zusätzlichen Mehraufwandes hierauf verzichtet werden kann. Abbildung 5-23 zeigt, dass sich die Kombinationen aus Temperatur und Windgeschwindigkeit und Temperatur und Niederschlag gut für eine stabile Prognose eignen. 42

49 Abbildung 5-23 Variationstests des MAPE in Abhängigkeit der Lernzeit Abbildung 5-24 Temperaturverlauf im Lernzeitraum des Variationstestes 43

50 5.6 Prognoseergebnisse EBV-Netz Die Abbildung 5-25 zeigt die Prognoseergebnisse der bagged decision trees auf Grundlage von Stundenwerten, bei den festgelegten Parametern Temperatur und Regenwahrscheinlichkeit für das EBV-Netz. Bei dieser Analyse wurde ein MAPE von ca. 10% erzielt. Die oberen beiden Diagramme der Abbildung 5-25 zeigen, dass die Abweichung der vorhergesagten Werte in etwa einer Normalverteilung entspricht. Abbildung 5-25 Prognose des EBV-Netzes Bei der späteren Arbeit mit dem aufgestellten Prognosemodell ist es von großer Bedeutung, dass der kumulierte Energieverbrauch der Prognose nicht zu stark von den tatsächlich aufzuwendenden Energiemengen abweicht. Dies ist gerade dann wichtig wenn die Ergebnisse der Prognose in dem Handel an Energiemärkten Verwendung finden soll. Im unteren Diagramm der Abbildung 5-25 wird deutlich, dass die Wärmeprognose in der Regel kleiner ist als der gemessene Wärmebedarf des Nahwärmenetzes. Dies bestätigt sich bei einem tageweisen aufsummieren der Energieverbräuche. Dies ist in Abbildung 5-26 dargestellt. Die Abweichungen dieser Energieverbräuche bewegen sich aber in einem vertretbaren Rahmen. Bei einem monovalenten Betrieb kann allerdings eine dauerhaft zu geringe Wärmeprognose, bei 44

51 dem Handel an Energiemärkten zu Ausgleichenergiekosten führen. Dies ist besonders dann zu erwarten wenn bei der Wärme-Kraft gekoppelten Erzeugung die elektrische Energie vermarktet werden soll. Bei bivalentem Betrieb würde die zusätzliche Wärme jedoch durch den Kessel gedeckt werden und es würden sich keine weiteren Kosten ergeben. Durch den vorhandenen Kessel müsste die Fahrweise des BHKWs nicht angepasst werden. Abbildung 5-26 Aufsummierte Tagesenergieverbräuche (EBV-Netz) 45

52 6. Modellierung In diesem Kapitel wird das aus den Tests gewonnene Wissen in einen Algorithmus implementiert. Dies geschieht mithilfe der Software MATLAB von Mathworks. Zu Ausführung des Algorithmus sind folgende Softwarelizenzen nötig: MATLAB MATLAB Statistics Toolbox Der Algorithmus wird dabei in zwei Funktionen aufgeteilt, eine zum Aufbau der Wissensdatenbank, in der die bislang gemessenen Daten hinterlegt sind. Die zweite Funktion erstellt dann auf Basis dieser Wissensdatenbank eine Prognose. Die MATLAB code der Funktionen befindet sich im Anhang und wird in diesem Kapitel nicht weiter thematisiert. Es soll viel mehr beschrieben werden wie die Funktionen anzuwenden sind. 6.1 Wissensdatenbank aufbauen: Um die Wissensdatenbank aufzubauen oder diese zu aktualisieren wird die Funktion buildknowledgebase.m benötigt. Diese Funktion erwartet als Input zwei Arrays vom Datentyp Double: measured_data_arr knowledgebase_arr Dabei beinhaltet measured_data_arr die gemessenen Daten und muss wie folgt aufgebaut sein: Fix optional Datum als Außen z.b.: z.b.: etc. Matlab Wärmemenge Temperat Windgeschwindigkeit Rege Datenum ur n Zeile 1 Zeile , ,90 7,8 9, , ,69 7,8 8,

53 Der zurückgegebene Array knowledgebase_arr hat folgenden Aufbau: Fix optional Datum als Matlab Datenum Wärmemen ge Werkta g Stund e Außentemperat ur etc. Zeile 1 Zeile , , , , , ,8 Aufgerufen wird die Funktion mit folgendem Befehl: knowledgebase_arr = Buildknowledgebase(measured_data_arr, knowledgebase_arr); Sollte noch keine Wissensdatenbank existieren wird einfach ein leerer Array übergeben: knowledgebase_arr = Buildknowledgebase(measured_data_arr, []) 47

54 6.2 Vorhersage erzeugen: Zur Vorhersage der Wärmemenge wird die Funktion heat_forecast.m benötigt. Diese Funktion erwartet als Input drei Arrays vom Datentyp Double: knowledgebase_arr predictor_arr categorical_predictors knowledgebase_arr ist dabei die Wissensdatenbank die mit buildknowledgebase.m erzeugt wird. predictor_arr hat folgenden Aufbau: Fix optional Datum als Matlab Datenum Außen Temperatu r z.b.: Windgeschwindigkeit z.b.: Rege n etc. Zeile 1 Zeile , ,8 9, , ,8 8,29 1 categorical_predictors gibt an ob einer der optionalen Inputparameter kategorisch ist. In dem obigen Beispiel wäre Regen mit einem JA/NEIN Argument kategorisch. Somit wäre categorical_predictors = [4] Gibt es mehrere kategorische Inputparameter (z.b. 4,6 und 8) so wird ein Array mit den Spaltenindizes übergeben: categorical_predictors = [4,6,8] 48

55 Die Länge der Vorhersage hängt allein von der Länge von predictor_arr ab. Werden also 24 Stunden im predictor_arr übergeben so wird eine Vorhersage für 24 Stunden erstellt. Der zurückgegebene Array forecast_arr hat folgenden Aufbau: Datum als Matlab Datenum Fix optional Fix Außentemperatur etc. Wärmemen ge MAPE Zeile 1 Zeile , ,4 121, , ,8 113,12 12,12 11,20 49

Übungsaufgabe Parameter und Verteilungsschätzung

Übungsaufgabe Parameter und Verteilungsschätzung Übungsaufgabe Parameter und Verteilungsschätzung Prof. Dr. rer. nat. Lüders Datum: 21.01.2019 Autor: Marius Schulte Matr.-Nr.: 10049060 FH Südwestfalen Aufgabenstellung Analysiert werden sollen die Verteilungen

Mehr

Protokoll Grundpraktikum: F0: Auswertung und Präsentation von Messdaten

Protokoll Grundpraktikum: F0: Auswertung und Präsentation von Messdaten Protokoll Grundpraktikum: F0: Auswertung und Präsentation von Messdaten Sebastian Pfitzner 19. Februar 013 Durchführung: Sebastian Pfitzner (553983), Jannis Schürmer (5589) Betreuer: N. Haug Versuchsdatum:

Mehr

Wärmebedarfsprognose für Einfamilienhaushalte auf Basis von Künstlichen Neuronalen Netzen

Wärmebedarfsprognose für Einfamilienhaushalte auf Basis von Künstlichen Neuronalen Netzen Wärmebedarfsprognose für Einfamilienhaushalte auf Basis von Künstlichen Neuronalen Netzen Internationale Energiewirtschaftstagung Wien - 12.02.2015 Maike Hasselmann, Simon Döing Einführung Wärmeversorgungsanlagen

Mehr

5. Lastprofilgenerator für zukünftige Niederspannungsnetze

5. Lastprofilgenerator für zukünftige Niederspannungsnetze Masterarbeit Sascha Birk 5. Lastprofilgenerator für zukünftige Niederspannungsnetze Für die Eingliederung von Sektorkopplungsmaßnahmen in dem oben genannten Versorgungsgebiet wird in Python ein Lastprofilgenerator

Mehr

Allgemeine Chemie Computer Praktikum Frühjahrssemester Regressions-Tutorial Lineare und nicht-lineare Regression

Allgemeine Chemie Computer Praktikum Frühjahrssemester Regressions-Tutorial Lineare und nicht-lineare Regression 1 Einführung Allgemeine Chemie Computer Praktikum Frühjahrssemester Regressions-Tutorial Lineare und nicht-lineare Regression Datenauswertung In einem naturwissenschaftlichen Experiment werden Sie meist

Mehr

Bei näherer Betrachtung des Diagramms Nr. 3 fällt folgendes auf:

Bei näherer Betrachtung des Diagramms Nr. 3 fällt folgendes auf: 18 3 Ergebnisse In diesem Kapitel werden nun zunächst die Ergebnisse der Korrelationen dargelegt und anschließend die Bedingungen der Gruppenbildung sowie die Ergebnisse der weiteren Analysen. 3.1 Ergebnisse

Mehr

Mittelwert, Standardabweichung, Median und Bereich für alle durchgeführten Messungen (in Prozent)

Mittelwert, Standardabweichung, Median und Bereich für alle durchgeführten Messungen (in Prozent) 3. Ergebnisse 3.1 Kennwerte, Boxplot Die Kennwerte der deskriptiven Statistik sind in der Tabelle 1 für alle Messungen, in der Tabelle 2 für die Messungen, bei denen mit der Referenzmethode eine festgestellt

Mehr

Mehrfache Lineare Regression 1/9

Mehrfache Lineare Regression 1/9 Mehrfache Lineare Regression 1/9 Ziel: In diesem Fallbeispiel soll die Durchführung einer mehrfachen linearen Regressionsanalyse auf der Basis vorhandener Prozessdaten (Felddaten) beschrieben werden. Nach

Mehr

Laborübungen aus Physikalischer Chemie (Bachelor) Universität Graz

Laborübungen aus Physikalischer Chemie (Bachelor) Universität Graz Arbeitsbericht zum Versuch Temperaturverlauf Durchführung am 9. Nov. 2016, M. Maier und H. Huber (Gruppe 2) In diesem Versuch soll der Temperaturgradient entlang eines organischen Kristalls (Bezeichnung

Mehr

Die Funktion f wird als Regressionsfunktion bezeichnet.

Die Funktion f wird als Regressionsfunktion bezeichnet. Regressionsanalyse Mit Hilfe der Techniken der klassischen Regressionsanalyse kann die Abhängigkeit metrischer (intervallskalierter) Zielgrößen von metrischen (intervallskalierten) Einflussgrößen untersucht

Mehr

Teil: lineare Regression

Teil: lineare Regression Teil: lineare Regression 1 Einführung 2 Prüfung der Regressionsfunktion 3 Die Modellannahmen zur Durchführung einer linearen Regression 4 Dummyvariablen 1 Einführung o Eine statistische Methode um Zusammenhänge

Mehr

Anleitung: Standardabweichung

Anleitung: Standardabweichung Anleitung: Standardabweichung So kann man mit dem V200 Erwartungswert und Varianz bzw. Standardabweichung bei Binomialverteilungen für bestimmte Werte von n, aber für allgemeines p nach der allgemeinen

Mehr

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de rbu leh ch s plu psych Heinz Holling Günther Gediga hogrefe.de Bachelorstudium Psychologie Statistik Testverfahren 18 Kapitel 2 i.i.d.-annahme dem unabhängig. Es gilt also die i.i.d.-annahme (i.i.d = independent

Mehr

Versuch 17: Kennlinie der Vakuum-Diode

Versuch 17: Kennlinie der Vakuum-Diode Versuch 17: Kennlinie der Vakuum-Diode Inhaltsverzeichnis 1 Einleitung 3 2 Theorie 3 2.1 Prinzip der Vakuumdiode.......................... 3 2.2 Anlaufstrom.................................. 3 2.3 Raumladungsgebiet..............................

Mehr

Übungen mit dem Applet Rangwerte

Übungen mit dem Applet Rangwerte Rangwerte 1 Übungen mit dem Applet Rangwerte 1 Statistischer Hintergrund... 2 1.1 Verteilung der Einzelwerte und der Rangwerte...2 1.2 Kurzbeschreibung des Applets...2 1.3 Ziel des Applets...4 2 Visualisierungen

Mehr

(Thema) Optimierung von künstlichen neuronalen Netzen zur Ausfallvorhersage mit Sensordaten. Masterarbeit

(Thema) Optimierung von künstlichen neuronalen Netzen zur Ausfallvorhersage mit Sensordaten. Masterarbeit (Thema) Optimierung von künstlichen neuronalen Netzen zur Ausfallvorhersage mit Sensordaten Masterarbeit zur Erlangung des akademischen Grades Master of Science (M.Sc.) im Studiengang Wirtschaftsingenieur

Mehr

SLP-Prognosequalitätsbericht Gasjahr 2015/16. Gemäß NC-Bal EU-VO 312/2014 Art.42 (3)

SLP-Prognosequalitätsbericht Gasjahr 2015/16. Gemäß NC-Bal EU-VO 312/2014 Art.42 (3) SLP-Prognosequalitätsbericht Gasjahr 2015/16 Gemäß NC-Bal EU-VO 312/2014 Art.42 (3) www.aggm.at 12. Jänner 2017 Inhaltsverzeichnis SLP-Prognosequalitätsbericht Gasjahr 2015/16... 1 1 Einleitung... 2 1.1

Mehr

Fehler- und Ausgleichsrechnung

Fehler- und Ausgleichsrechnung Fehler- und Ausgleichsrechnung Daniel Gerth Daniel Gerth (JKU) Fehler- und Ausgleichsrechnung 1 / 12 Überblick Fehler- und Ausgleichsrechnung Dieses Kapitel erklärt: Wie man Ausgleichsrechnung betreibt

Mehr

W-Seminar: Versuche mit und am Menschen 2017/2019 Skript

W-Seminar: Versuche mit und am Menschen 2017/2019 Skript 3. Deskriptive Statistik Die deskriptive (auch: beschreibende) Statistik hat zum Ziel, [ ] Daten durch Tabellen, Kennzahlen [ ] und Grafiken übersichtlich darzustellen und zu ordnen. Dies ist vor allem

Mehr

Ausführliche Lösungen zu ausgewählten Aufgaben von ÜB 5 und 6. Streudiagramm

Ausführliche Lösungen zu ausgewählten Aufgaben von ÜB 5 und 6. Streudiagramm y Aufgabe 3 Ausführliche Lösungen zu ausgewählten Aufgaben von ÜB 5 und 6 a) Zur Erstellung des Streudiagramms zeichnet man jeweils einen Punkt für jedes Datenpaar (x i, y i ) aus der zweidimensionalen

Mehr

Modellbildung und Simulation

Modellbildung und Simulation Modellbildung und Simulation 6. Vorlesung Wintersemester 2007/2008 Klaus Kasper Value at Risk (VaR) Gaußdichte Gaußdichte der Normalverteilung: f ( x) = 1 2π σ x e 2 2 x ( x µ ) / 2σ x Gaußdichte der Standardnormalverteilung:

Mehr

1 Messfehler. 1.1 Systematischer Fehler. 1.2 Statistische Fehler

1 Messfehler. 1.1 Systematischer Fehler. 1.2 Statistische Fehler 1 Messfehler Jede Messung ist ungenau, hat einen Fehler. Wenn Sie zum Beispiel die Schwingungsdauer eines Pendels messen, werden Sie - trotz gleicher experimenteller Anordnungen - unterschiedliche Messwerte

Mehr

Biostatistik, WS 2017/18 Der Standardfehler

Biostatistik, WS 2017/18 Der Standardfehler 1/70 Biostatistik, WS 2017/18 Matthias Birkner http://www.staff.uni-mainz.de/birkner/biostatistik1718/ 24.11.2017 3/70 Ein Versuch Hirse Bild: Panicum miliaceum 4/70 Ein Versuch Ein Versuch Versuchsaufbau:

Mehr

Protokoll Grundpraktikum I: T6 Thermoelement und newtonsches Abkühlungsgesetz

Protokoll Grundpraktikum I: T6 Thermoelement und newtonsches Abkühlungsgesetz Protokoll Grundpraktikum I: T6 Thermoelement und newtonsches Abkühlungsgesetz Sebastian Pfitzner 5. Juni 03 Durchführung: Sebastian Pfitzner (553983), Anna Andrle (55077) Arbeitsplatz: Platz 3 Betreuer:

Mehr

Decision-Tree-Klassifikator

Decision-Tree-Klassifikator D3kjd3Di38lk323nnm Decision-Tree-Klassifikator Decision Trees haben einige Vorteile gegenüber den beiden schon beschriebenen Klassifikationsmethoden. Man benötigt in der Regel keine so aufwendige Vorverarbeitung

Mehr

Inhaltsverzeichnis. 1 Einführung Versuchsbeschreibung und Motivation Physikalische Grundlagen... 3

Inhaltsverzeichnis. 1 Einführung Versuchsbeschreibung und Motivation Physikalische Grundlagen... 3 Inhaltsverzeichnis 1 Einführung 3 1.1 Versuchsbeschreibung und Motivation............................... 3 1.2 Physikalische Grundlagen...................................... 3 2 Messwerte und Auswertung

Mehr

Hypothesen: Fehler 1. und 2. Art, Power eines statistischen Tests

Hypothesen: Fehler 1. und 2. Art, Power eines statistischen Tests ue biostatistik: hypothesen, fehler 1. und. art, power 1/8 h. lettner / physik Hypothesen: Fehler 1. und. Art, Power eines statistischen Tests Die äußerst wichtige Tabelle über die Zusammenhänge zwischen

Mehr

Übungen mit dem Applet Vergleich von zwei Mittelwerten

Übungen mit dem Applet Vergleich von zwei Mittelwerten Vergleich von zwei Mittelwerten 1 Übungen mit dem Applet Vergleich von zwei Mittelwerten 1 Statistischer Hintergrund... 2 1.1 Typische Fragestellungen...2 1.2 Fehler 1. und 2. Art...2 1.3 Kurzbeschreibung

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

VU mathematische methoden in der ökologie: räumliche verteilungsmuster 1/5 h.lettner /

VU mathematische methoden in der ökologie: räumliche verteilungsmuster 1/5 h.lettner / VU mathematische methoden in der ökologie: räumliche verteilungsmuster / h.lettner / Analyse räumlicher Muster und Verteilungen Die Analyse räumlicher Verteilungen ist ein zentrales Gebiet der ökologischen

Mehr

Einführung Fehlerrechnung

Einführung Fehlerrechnung Einführung Fehlerrechnung Bei jeder Messung, ob Einzelmessung oder Messreihe, muss eine Aussage über die Güte ( Wie groß ist der Fehler? ) des Messergebnisses gemacht werden. Mögliche Fehlerarten 1. Systematische

Mehr

Analyse eines zweistufigen, regionalen Clusteralgorithmus am Beispiel der Verbundenen Wohngebäudeversicherung

Analyse eines zweistufigen, regionalen Clusteralgorithmus am Beispiel der Verbundenen Wohngebäudeversicherung Analyse eines zweistufigen, regionalen Clusteralgorithmus am Beispiel der Verbundenen Wohngebäudeversicherung Zusammenfassung der Diplomarbeit an der Hochschule Zittau/Görlitz Maria Kiseleva Motivation

Mehr

Bericht. über die Entwicklung der Lufttemperatur und der Windböen an Messstellen in NÖ

Bericht. über die Entwicklung der Lufttemperatur und der Windböen an Messstellen in NÖ Bericht über die Entwicklung der Lufttemperatur und der Windböen an Messstellen in NÖ Impressum: Amt der NÖ Landesregierung Abteilung Anlagentechnik Referat Luftgüteüberwachung Landhausplatz 1 3109 St.

Mehr

11. Übungsblatt zur Vorlesung Ökonometrie SS 2014

11. Übungsblatt zur Vorlesung Ökonometrie SS 2014 Universität des Saarlandes Lehrstab Statistik Dr. Martin Becker Dipl.-Kfm. Andreas Recktenwald 11. Übungsblatt zur Vorlesung Ökonometrie SS 2014 Aufgabe 45 Die in Aufgabe 43 getroffene Annahme heteroskedastischer

Mehr

1. Inhaltsverzeichnis. 2. Abbildungsverzeichnis

1. Inhaltsverzeichnis. 2. Abbildungsverzeichnis 1. Inhaltsverzeichnis 1. Inhaltsverzeichnis... 1 2. Abbildungsverzeichnis... 1 3. Einleitung... 2 4. Beschreibung der Datenquelle...2 5. Allgemeine Auswertungen...3 6. Detaillierte Auswertungen... 7 Zusammenhang

Mehr

Mustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle

Mustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle Mustererkennung Unüberwachtes Lernen R. Neubecker, WS 01 / 01 Übersicht (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren 1 Lernen Überwachtes Lernen Zum Training des Klassifikators

Mehr

Exemplar für Prüfer/innen

Exemplar für Prüfer/innen Exemplar für Prüfer/innen Kompensationsprüfung zur standardisierten kompetenzorientierten schriftlichen Reifeprüfung AHS Juni 2015 Mathematik Kompensationsprüfung 14 Angabe für Prüfer/innen Hinweise zur

Mehr

Inhaltsverzeichnis. 1 Einführung Versuchsbeschreibung und Motivation Physikalische Grundlagen... 3

Inhaltsverzeichnis. 1 Einführung Versuchsbeschreibung und Motivation Physikalische Grundlagen... 3 Inhaltsverzeichnis 1 Einführung 3 1.1 Versuchsbeschreibung und Motivation............................... 3 1.2 Physikalische Grundlagen...................................... 3 2 Messwerte und Auswertung

Mehr

Mathematische Grundlagen der dynamischen Simulation

Mathematische Grundlagen der dynamischen Simulation Mathematische Grundlagen der dynamischen Simulation Dynamische Systeme sind Systeme, die sich verändern. Es geht dabei um eine zeitliche Entwicklung und wie immer in der Informatik betrachten wir dabei

Mehr

Bestimmte Zufallsvariablen sind von Natur aus normalverteilt. - naturwissenschaftliche Variablen: originär z.b. Intelligenz, Körpergröße, Messfehler

Bestimmte Zufallsvariablen sind von Natur aus normalverteilt. - naturwissenschaftliche Variablen: originär z.b. Intelligenz, Körpergröße, Messfehler 6.6 Normalverteilung Die Normalverteilung kann als das wichtigste Verteilungsmodell der Statistik angesehen werden. Sie wird nach ihrem Entdecker auch Gaußsche Glockenkurve genannt. Die herausragende Stellung

Mehr

Monte-Carlo Tests. Diplomarbeit. Wiebke Werft. Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf

Monte-Carlo Tests. Diplomarbeit. Wiebke Werft. Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf Monte-Carlo Tests Diplomarbeit Wiebke Werft Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf Düsseldorf im Dezember 2003 Betreuung: Prof. Dr. Arnold Janssen Inhaltsverzeichnis Einleitung

Mehr

KNN-Methode zur Einschätzung von Veränderungen des Salzgehaltes in Ästuaren

KNN-Methode zur Einschätzung von Veränderungen des Salzgehaltes in Ästuaren KNN-Methode zur Einschätzung von Veränderungen des Salzgehaltes in Ästuaren Holger Rahlf; Reiner Schubert www.baw.de Künstlich Neuronales Netz Gliederung Einleitung Grundlagen Möglichkeit und Grenzen Anwendung

Mehr

SSYLB2 SS06 Daniel Schrenk, Andreas Unterweger Übung 8. Laborprotokoll SSY. Diskrete Systeme II: Stabilitätsbetrachtungen und Systemantwort

SSYLB2 SS06 Daniel Schrenk, Andreas Unterweger Übung 8. Laborprotokoll SSY. Diskrete Systeme II: Stabilitätsbetrachtungen und Systemantwort SSYLB SS6 Daniel Schrenk, Andreas Unterweger Übung 8 Laborprotokoll SSY Diskrete Systeme II: Stabilitätsbetrachtungen und Systemantwort Daniel Schrenk, Andreas Unterweger, ITS 4 SSYLB SS6 Daniel Schrenk,

Mehr

Mathematisch-Naturwissenschaftliche Fakultät I der Humboldt-Universität zu Berlin Institut für Physik Physikalisches Grundpraktikum.

Mathematisch-Naturwissenschaftliche Fakultät I der Humboldt-Universität zu Berlin Institut für Physik Physikalisches Grundpraktikum. Mathematisch-Naturwissenschaftliche Fakultät I der Humboldt-Universität zu Berlin Institut für Physik Physikalisches Grundpraktikum Versuchsprotokoll zur Bestimmung der Federkonstante (F4) am Arbeitsplatz

Mehr

Wahrscheinlichkeitsverteilungen

Wahrscheinlichkeitsverteilungen Universität Bielefeld 3. Mai 2005 Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung Das Ziehen einer Stichprobe ist die Realisierung eines Zufallsexperimentes. Die Wahrscheinlichkeitsrechnung betrachtet

Mehr

V1 - Verifikation des Ohm schen Gesetzes

V1 - Verifikation des Ohm schen Gesetzes V1 - Verifikation des Ohm schen Gesetzes Michael Baron, Frank Scholz 02..0 1 Aufgabenstellung Messung von Strom I R und Spannung U R an einem vorgegebenen festen Widerstand R für eine ganze Versuchsreihe

Mehr

Entscheidungsbäume aus großen Datenbanken: SLIQ

Entscheidungsbäume aus großen Datenbanken: SLIQ Entscheidungsbäume aus großen Datenbanken: SLIQ C4.5 iteriert häufig über die Trainingsmenge Wie häufig? Wenn die Trainingsmenge nicht in den Hauptspeicher passt, wird das Swapping unpraktikabel! SLIQ:

Mehr

Name Vorname Matrikelnummer Unterschrift

Name Vorname Matrikelnummer Unterschrift Dr. Hans-Otfried Müller Institut für Mathematische Stochastik Fachrichtung Mathematik Technische Universität Dresden Klausur Statistik II (Sozialwissenschaft, Nach- und Wiederholer) am 26.10.2007 Gruppe

Mehr

M0 BIO - Reaktionszeit

M0 BIO - Reaktionszeit M0 BIO - Reaktionszeit 1 Ziel des Versuches In diesem Versuch haben Sie die Möglichkeit, sich mit Messunsicherheiten vertraut zu machen. Die Analyse von Messunsicherheiten erfolgt hierbei an zwei Beispielen.

Mehr

Eine zweidimensionale Stichprobe

Eine zweidimensionale Stichprobe Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,

Mehr

Der Weg eines Betrunkenen

Der Weg eines Betrunkenen Der Weg eines Betrunkenen 2 Hätte es damals schon Computer gegeben, wäre es für unseren Mathematiker um einiges leichter gewesen, den Weg des Betrunkenen zu bestimmen. Er hätte nicht nur eine beliebige

Mehr

Informationen zur Auswertung des Energiebezugs mit dem Progamm EBA

Informationen zur Auswertung des Energiebezugs mit dem Progamm EBA Informationen zur Auswertung des Energiebezugs mit dem Progamm EBA 31. Juli 2014 Inhaltsverzeichnis 1 Einleitung 1 2 Auswertungen in EBA 2 3 Rechengrößen 2 3.1 Lastgang...................................

Mehr

Das Regionenmodell Basis detaillierter Analysen von Energieversorgungskonzepten

Das Regionenmodell Basis detaillierter Analysen von Energieversorgungskonzepten Das Regionenmodell Basis detaillierter Analysen von Energieversorgungskonzepten 42. Kraftwerkstechnisches Kolloquium 12. und 13. Oktober 2010 Dipl.-Phys. Tobias Schmid Dipl.-Ing. Michael Beer 1 Forschungsstelle

Mehr

Exemplar für Prüfer/innen

Exemplar für Prüfer/innen Exemplar für Prüfer/innen Kompensationsprüfung zur standardisierten kompetenzorientierten schriftlichen Reifeprüfung AHS Juni 2016 Mathematik Kompensationsprüfung 3 Angabe für Prüfer/innen Hinweise zur

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen 2. Der Standardfehler

Wahrscheinlichkeitsrechnung und Statistik für Biologen 2. Der Standardfehler Wahrscheinlichkeitsrechnung und Statistik für Biologen 2. Der Standardfehler Noémie Becker & Dirk Metzler 15. April 2016 Inhaltsverzeichnis 1 Der Standardfehler 1 1.1 Ein Versuch............................................

Mehr

EGRESSIONSANALYSE AVID BUCHATZ NIVERSITÄT ZU KÖLN

EGRESSIONSANALYSE AVID BUCHATZ NIVERSITÄT ZU KÖLN 1 EGRESSIONSANALYSE AVID BUCHATZ NIVERSITÄT ZU KÖLN UFBAU 1 Historie 2 Anwendungen / Ziele 3 Lineare Regression/ Beispiel KQ 4 Nichtlineare Regression 5 Eigenschaften der Schätzer istorie früheste Form

Mehr

Einführung in die Fehlerrechnung und Messdatenauswertung

Einführung in die Fehlerrechnung und Messdatenauswertung Grundpraktikum der Physik Einführung in die Fehlerrechnung und Messdatenauswertung Wolfgang Limmer Institut für Halbleiterphysik 1 Fehlerrechnung 1.1 Motivation Bei einem Experiment soll der Wert einer

Mehr

Einführung in die linearen Funktionen. Autor: Benedikt Menne

Einführung in die linearen Funktionen. Autor: Benedikt Menne Einführung in die linearen Funktionen Autor: Benedikt Menne Inhaltsverzeichnis Vorwort... 3 Allgemeine Definition... 3 3 Bestimmung der Steigung einer linearen Funktion... 4 3. Bestimmung der Steigung

Mehr

Mathematisch-Naturwissenschaftliche Fakultät I der Humboldt-Universität zu Berlin Institut für Physik Physikalisches Grundpraktikum.

Mathematisch-Naturwissenschaftliche Fakultät I der Humboldt-Universität zu Berlin Institut für Physik Physikalisches Grundpraktikum. Mathematisch-Naturwissenschaftliche Fakultät I der Humboldt-Universitäu Berlin Institut für Physik Physikalisches Grundpraktikum Versuchsprotokoll Zustandsgleichung idealer Gase (T4) Arbeitsplatz durchgeführt

Mehr

Statistik. Ronald Balestra CH St. Peter

Statistik. Ronald Balestra CH St. Peter Statistik Ronald Balestra CH - 7028 St. Peter www.ronaldbalestra.ch 17. Januar 2010 Inhaltsverzeichnis 1 Statistik 1 1.1 Beschreibende Statistik....................... 1 1.2 Charakterisierung von Häufigkeitsverteilungen...........

Mehr

Hausaufgabe Modellierung und Simulation 1

Hausaufgabe Modellierung und Simulation 1 Hausaufgabe Modellierung und Simulation 1 Die Pareto Verteilung Die Pareto-Verteilung ist eine stetige Wahrscheinlichkeitsverteilung in einem rechtsseitig unendlichen Intervall zwischen x min und. Die

Mehr

Der diskrete Kalman Filter

Der diskrete Kalman Filter Der diskrete Kalman Filter Fachbereich: Informatik Betreuer: Marc Drassler Patrick Winkler 1168954 6. Dezember 2004 Technische Universität Darmstadt Simulation und Systemoptimierung Darmstadt Dribbling

Mehr

Erwartungswert, Umgebungswahrscheinlichkeiten und die Normalverteilung

Erwartungswert, Umgebungswahrscheinlichkeiten und die Normalverteilung R. Brinkmann http://brinkmann-du.de Seite 5.05.0 Erwartungswert, Umgebungswahrscheinlichkeiten und die Normalverteilung Erwartungswert binomialverteilter Zufallsgrößen Wird ein Bernoulli- Versuch, bei

Mehr

Mathematisch-Naturwissenschaftliche Fakultät I der Humboldt-Universität zu Berlin Institut für Physik Physikalisches Grundpraktikum.

Mathematisch-Naturwissenschaftliche Fakultät I der Humboldt-Universität zu Berlin Institut für Physik Physikalisches Grundpraktikum. Mathematisch-Naturwissenschaftliche Fakultät I der Humboldt-Universität zu Berlin Institut für Physik Physikalisches Grundpraktikum Versuchsprotokoll zur Bestimmung der Brennweiten von dünnen Linsen (O)

Mehr

simple lineare Regression kurvilineare Regression Bestimmtheitsmaß und Konfidenzintervall

simple lineare Regression kurvilineare Regression Bestimmtheitsmaß und Konfidenzintervall Regression Korrelation simple lineare Regression kurvilineare Regression Bestimmtheitsmaß und Konfidenzintervall Zusammenhänge zw. Variablen Betrachtet man mehr als eine Variable, so besteht immer auch

Mehr

Grundlagen der Elektrotechnik: Wechselstromwiderstand Xc Seite 1 R =

Grundlagen der Elektrotechnik: Wechselstromwiderstand Xc Seite 1 R = Grundlagen der Elektrotechnik: Wechselstromwiderstand Xc Seite 1 Versuch zur Ermittlung der Formel für X C In der Erklärung des Ohmschen Gesetzes ergab sich die Formel: R = Durch die Versuche mit einem

Mehr

Statistisches Analyseverfahren

Statistisches Analyseverfahren Zusatzmaterial zum Beitrag Evers, O. und Schröder, P. (2018). One size fits all? Die Eignung von Risikoscreenings zur Prognose der Inanspruchnahme von Angeboten der Frühen Hilfen. Praxis der Kinderpsychologie

Mehr

Angewandte Mathematik (BHS) Berufsreifeprüfung Mathematik

Angewandte Mathematik (BHS) Berufsreifeprüfung Mathematik Kompensationsprüfung zur standardisierten kompetenzorientierten schriftlichen Reife- und Diplomprüfung bzw. zur standardisierten kompetenzorientierten schriftlichen Berufsreifeprüfung Jänner 2018 Angewandte

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun http://blog.ruediger-braun.net Heinrich-Heine-Universität Düsseldorf 16. Januar 2015 1 Verteilungsfunktionen Definition Binomialverteilung 2 Stetige Zufallsvariable,

Mehr

Instrument zur Untersuchung eines linearen Zusammenhangs zwischen zwei (oder mehr) Merkmalen.

Instrument zur Untersuchung eines linearen Zusammenhangs zwischen zwei (oder mehr) Merkmalen. Gliederung Grundidee Einfaches lineares Modell KQ-Methode (Suche nach der besten Geraden) Einfluss von Ausreißern Güte des Modells (Bestimmtheitsmaß R²) Multiple Regression Noch Fragen? Lineare Regression

Mehr

TEILPRÜFUNG ZUR BERUFSREIFEPRÜFUNG. Themenstellung für die schriftliche Berufsreifeprüfung. aus dem Fach Mathematik und angewandte Mathematik

TEILPRÜFUNG ZUR BERUFSREIFEPRÜFUNG. Themenstellung für die schriftliche Berufsreifeprüfung. aus dem Fach Mathematik und angewandte Mathematik TEILPRÜFUNG ZUR BERUFSREIFEPRÜFUNG Themenstellung für die schriftliche Berufsreifeprüfung aus dem Fach Mathematik und angewandte Mathematik Termin: Frühjahr 2017 Prüfer: Andreas Aschbacher Nikolaus Ettel

Mehr

Prüfung aus Statistik 2 für SoziologInnen

Prüfung aus Statistik 2 für SoziologInnen Prüfung aus Statistik 2 für SoziologInnen 11. Oktober 2013 Gesamtpunktezahl =80 Name in Blockbuchstaben: Matrikelnummer: Wissenstest (maximal 16 Punkte) Kreuzen ( ) Sie die jeweils richtige Antwort an.

Mehr

8. Konfidenzintervalle und Hypothesentests

8. Konfidenzintervalle und Hypothesentests 8. Konfidenzintervalle und Hypothesentests Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Beispiel. Sie wollen den durchschnittlichen Fruchtsaftgehalt eines bestimmten Orangennektars

Mehr

Übungen mit dem Applet x /s-regelkarte nach Shewhart

Übungen mit dem Applet x /s-regelkarte nach Shewhart x /s-regelkarte nach Shewhart 1 Übungen mit dem Applet x /s-regelkarte nach Shewhart 1 Statistischer Hintergrund... 2 1.1 Ziel und Vorgehensweise der x /s-regelkarte nach Shewhart...2 1.2 Kurzbeschreibung

Mehr

Statistische Messdatenauswertung

Statistische Messdatenauswertung Roland Looser Statistische Messdatenauswertung Praktische Einführung in die Auswertung von Messdaten mit Excel und spezifischer Statistik-Software für naturwissenschaftlich und technisch orientierte Anwender

Mehr

Verteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen. Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung

Verteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen. Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung Verteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung Typisierung der stetigen theoretischen Verteilungen Bibliografie:

Mehr

PRAKTIKUM DER TECHNISCHEN CHEMIE I PRAKTIKUMSPROTOKOLL. WiSe 2015/2016. Versuch 6. Adiabatischer Batch-Reaktor

PRAKTIKUM DER TECHNISCHEN CHEMIE I PRAKTIKUMSPROTOKOLL. WiSe 2015/2016. Versuch 6. Adiabatischer Batch-Reaktor PRAKTIKUM DER TECHNISCHEN CHEMIE I PRAKTIKUMSPROTOKOLL WiSe 2015/2016 Versuch 6 Adiabatischer Batch-Reaktor Rami Saoudi (356563) Guido Petri (364477) Gruppe 29 1. EINFÜHRUNG Es wurde der Temperaturverlauf

Mehr

Autofokus für das MONET-Teleskop. Projektwoche 2013 im Pascal-Gymnasium Münster AiM-Projektgruppe

Autofokus für das MONET-Teleskop. Projektwoche 2013 im Pascal-Gymnasium Münster AiM-Projektgruppe Autofokus für das MONET-Teleskop Projektwoche 2013 im Pascal-Gymnasium Münster AiM-Projektgruppe Einführung Wir gehen davon aus, dass ein Bild mit einem kleinen mittleren Sternendurchmesser eher für eine

Mehr

Protokoll Grundpraktikum I: M9 - Reversionspendel

Protokoll Grundpraktikum I: M9 - Reversionspendel Protokoll Grundpraktikum I: M9 - Reversionspendel Sebastian Pfitzner. Juni 013 Durchführung: Sebastian Pfitzner (553983), Anna Andrle (55077) Arbeitsplatz: Platz Betreuer: Peter Schäfer Versuchsdatum:

Mehr

7.1 Korrelationsanalyse. Statistik. Kovarianz. Pearson-Korrelation. Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien

7.1 Korrelationsanalyse. Statistik. Kovarianz. Pearson-Korrelation. Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Statistik 7.1 Korrelationsanalyse Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Sommersemester 2012 7 Regressions- und Korrelationsanalyse Kovarianz Pearson-Korrelation Der (lineare)

Mehr

Data Mining Cup Dokumentation

Data Mining Cup Dokumentation Data Mining Cup 2012 - Dokumentation Martin Dreissig, Michael Flau May 14, 2012 1 Beschreibung der zu analysierenden Daten Die zu analysierenden Daten für den diesjährigen Data Mining Cup bestehen aus

Mehr

Notgepäck Genauigkeit

Notgepäck Genauigkeit Notgepäck Genauigkeit Beat Hulliger Dienst Statistische Methoden, Bundesamt für Statistik 20.4.2006 1 Was ist Genauigkeit genau? Um zu beschreiben, was Genauigkeit in der Statistik ist, müssen wir untersuchen,

Mehr

8 Stichprobenkennwerteverteilung

8 Stichprobenkennwerteverteilung 8 Stichprobenkennwerteverteilung 8.1 Vorbemerkungen 8.2 Die Normalverteilung: Teil 2 8.3 Die t Verteilung 8.4 Normalverteilungs Approximation: Der zentrale Grenzwertsatz 8.1 Vorbemerkungen Daten x 1,...,

Mehr

Dynamische Geometrie

Dynamische Geometrie Dynamische Geometrie 1) Die Mittelsenkrechten, die Seitenhalbierenden, die Höhen und die Winkelhalbierenden eines beliebigen Dreiecks schneiden sich jeweils in einem Punkt. a) Untersuchen Sie die Lage

Mehr

Kurvenanpassung mit dem SOLVER

Kurvenanpassung mit dem SOLVER 1 Iterative Verfahren (SOLVER) Bei einem iterativen Verfahren wird eine Lösung durch schrittweise Annäherung gefunden. Der Vorteil liegt in der Verwendung einfacher Rechenoperationen und darin, dass der

Mehr

Versuchsprotokoll. Mathematisch-Naturwissenschaftliche Fakultät I Institut für Physik. Versuch O8: Fraunhofersche Beugung Arbeitsplatz Nr.

Versuchsprotokoll. Mathematisch-Naturwissenschaftliche Fakultät I Institut für Physik. Versuch O8: Fraunhofersche Beugung Arbeitsplatz Nr. Mathematisch-Naturwissenschaftliche Fakultät I Institut für Physik Physikalisches Grundpraktikum I Versuchsprotokoll Versuch O8: Fraunhofersche Beugung Arbeitsplatz Nr. 1 0. Inhaltsverzeichnis 1. Einleitung.

Mehr

2. Datenvorverarbeitung

2. Datenvorverarbeitung Kurzreferat Das Ziel beim Clustering ist es möglichst gleich Datensätze zu finden und diese in Gruppen, sogenannte Cluster zu untergliedern. In dieser Dokumentation werden die Methoden k-means und Fuzzy

Mehr

D-CHAB Frühlingssemester 2017 T =

D-CHAB Frühlingssemester 2017 T = D-CHAB Frühlingssemester 17 Grundlagen der Mathematik II Dr Marcel Dettling Lösung 13 1) Die relevanten Parameter sind n = 3, x = 1867, σ x = und µ = 18 (a) Die Teststatistik T = X µ Σ x / n ist nach Annahme

Mehr

Beschränktheit, Monotonie & Symmetrie

Beschränktheit, Monotonie & Symmetrie Beschränktheit, Monotonie & Symmetrie ein Referat Dies ist eine Beilage zum Gruppen-SOL - Projekt Potenz- & Exponentialfunktionen Ronald Balestra CH - 8046 Zürich www.ronaldbalestra.ch November 2015 Inhaltsverzeichnis

Mehr

Versuchsprotokoll. Mathematisch-Naturwissenschaftliche Fakultät I Institut für Physik. Versuch O10: Linsensysteme Arbeitsplatz Nr.

Versuchsprotokoll. Mathematisch-Naturwissenschaftliche Fakultät I Institut für Physik. Versuch O10: Linsensysteme Arbeitsplatz Nr. Mathematisch-Naturwissenschaftliche Fakultät I Institut für Physik Physikalisches Grundpraktikum I Versuchsprotokoll Versuch O10: Linsensysteme Arbeitsplatz Nr. 1 0. Inhaltsverzeichnis 1. Einleitung 2.

Mehr

Erfolgversprechende Konfigurationen für Versuche mit Evolutionsstrategien anhand von ausgewählten Testfunktionen

Erfolgversprechende Konfigurationen für Versuche mit Evolutionsstrategien anhand von ausgewählten Testfunktionen Erfolgversprechende Konfigurationen für Versuche mit Evolutionsstrategien anhand von ausgewählten Testfunktionen Krischan Keitsch 3. Juni 214 Zusammenfassung Um ein Optimierungsproblem mit einer Evolutionsstrategie

Mehr

Phallosan-Studie. Statistischer Bericht

Phallosan-Studie. Statistischer Bericht Phallosan-Studie Statistischer Bericht Verfasser: Dr. Clemens Tilke 15.04.2005 1/36 Inhaltsverzeichnis Inhaltsverzeichnis... 2 Einleitung... 3 Alter der Patienten... 4 Körpergewicht... 6 Penisumfang...

Mehr

Statistische Tests (Signifikanztests)

Statistische Tests (Signifikanztests) Statistische Tests (Signifikanztests) [testing statistical hypothesis] Prüfen und Bewerten von Hypothesen (Annahmen, Vermutungen) über die Verteilungen von Merkmalen in einer Grundgesamtheit (Population)

Mehr

Kriterien zur Bewertung von Geschäftsmodellen der Industrie 4.0. Bachelorarbeit

Kriterien zur Bewertung von Geschäftsmodellen der Industrie 4.0. Bachelorarbeit Kriterien zur Bewertung von Geschäftsmodellen der Industrie 4.0 Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science (B. Sc.) im Studiengang Wirtschaftswissenschaft der Wirtschaftswissenschaftlichen

Mehr

4 Diskussion 4.1 Korrelation der GW-Ganglinien

4 Diskussion 4.1 Korrelation der GW-Ganglinien 4 Diskussion 4.1 Korrelation der GW-Ganglinien Die GW-Messstationen wurden nach folgenden Kriterien ausgewählt: Erstens unterliegen sie keiner Beeinflussung durch Grundwasserentnahmen. Zweitens sind die

Mehr

1 Grundlagen der Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsräume. Ein erster mathematischer Blick auf Zufallsexperimente...

1 Grundlagen der Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsräume. Ein erster mathematischer Blick auf Zufallsexperimente... Inhaltsverzeichnis 1 Grundlagen der Wahrscheinlichkeitsrechnung 1 1.1 Wahrscheinlichkeitsräume Ein erster mathematischer Blick auf Zufallsexperimente.......... 1 1.1.1 Wahrscheinlichkeit, Ergebnisraum,

Mehr

Einführung in die biologische Datenanalyse mit Matlab SS 2009 Tag8

Einführung in die biologische Datenanalyse mit Matlab SS 2009 Tag8 Tag 8: Modellbildung A) Kurvenanpassung B) Variation von Modellparametern C) Hausaufgaben A) Kurvenanpassung Kurvenanpassung dient dazu, Messdaten durch eine Kurve - also einen mathematisch beschreibbare

Mehr

Merksatz Begriff der Funktion

Merksatz Begriff der Funktion Der Begriff Funktion Um uns klar zu machen, was eine Funktion (lateinisch functio) ist, betrachten wir uns die Gegenüberstellung nachfolgender Situationen. Die Temperatur eines Gewässers wird in verschiedenen

Mehr