Beispiellösungen DM. Prof. Dr. Jürgen Cleve. Das Beispiel zum Support und der Kondenz
|
|
- Edith Maus
- vor 6 Jahren
- Abrufe
Transkript
1 Beispiellösungen DM Prof. Dr. Jürgen Cleve Inhaltsverzeichnis 1 Einführung 1 Grundlagen 1 Anwendungsklassen 1 4 Wissensrepräsentation 1 Methoden und Verfahren 6 Vorverarbeitung 9 7 Bewertung 9 Im folgenden sind einige ausgewählte Lösungen dargestellt. 1 Einführung Grundlagen Anwendungsklassen 4 Wissensrepräsentation Das Beispiel zum Support und der Kondenz Man vgl. dazu das Skript. Wie hoch ist der Support und die Kondenz der Regel IF temperature = cool T HEN humidity = normal supp(temperature = cool humidity = normal) = P (A B) = 4 Erläuterung: In 4 Fällen ist die Temperatur cool UND die Luftfeuchtigkeit normal. Dies setzt man in's Verhältnis zur gesamten Menge (). supp(temperature = cool) = P (A) = 4 1
2 Achtung: Hier ist ein Fehler im Skript. Es darf nur P (A) heiÿen!!! In 4 Fällen ist die Temperatur cool. Dies setzt man in's Verhältnis zur gesamten Menge (). Und die Kondenz ist dann einfach der Quotient aus den beiden Support-Werten: conf(a B) = supp(a B) supp(a) = 4 4 = 1 Die Regel ist also absolut sicher, sie hat allerdings nur einen Support von 7. Der Support ist also der Quotient aus A UND B treen beide zu und A trit zu. Methoden und Verfahren Aufgabe Restaurant knn Hier sollen Sie das Restaurantbeispiel mit knn rechnen. Dazu muss man sich zunächst überlegen, welche Distanzfunktion man verwenden will. Danach muss man nur die Distanz der zu klassizierenden Sätze zu jedem der Sätze aus der Tabelle bestimmen. Man bestimmt dann die k Sätze, die dem zu testenden Satz am nächsten liegen. Und dort zählt man, wie oft man warten soll bzw. nicht. ID-Beispiel Kreditrisiko ausführlich Seien die in Abbildung 1 dargestellten Daten zur Bewertung des Kreditrisikos gegeben. Nr Risiko Kredit- Verschuldung Sicherheiten Einkommen würdigkeit 1 hoch schlecht hoch keine 0 bis 1 hoch unbekannt hoch keine 1 bis mittel unbekannt niedrig keine 1 bis 4 hoch unbekannt niedrig keine 0 bis 1 niedrig unbekannt niedrig keine über 6 niedrig unbekannt niedrig angemessen über 7 hoch schlecht niedrig keine 0 bis 1 8 mittel schlecht niedrig angemessen über 9 niedrig gut niedrig keine über 10 niedrig gut hoch angemessen über 11 hoch gut hoch keine 0 bis 1 1 mittel gut hoch keine 1 bis 1 niedrig gut hoch keine über hoch schlecht hoch keine 1 bis Abbildung 1: Kreditwürdigkeit Der Informationsgehalt eines Attributs B wird gemessen als: I(B) = p(b i ) log (p(b i )) Dabei stellen die b i die möglichen Werte des Attributs B dar.
3 p ist die Wahrscheinlichkeit für das Eintreen von b i. Wie groÿ ist der Informationsgehalt der Tabelle in Abb. 1, S.? p(risiko hoch) = 6 p(risiko mittel) = p(risiko niedrig) = Folglich ist I(Tabelle) = I(Risiko) = 6 log ( 6 ) log ( ) log ( ) = 1, 1 Nun wählt man das Attribut aus, das den maximalen Informationsgewinn erzielt. d.h. man berechnet die Dierenz aus I(Tabelle) und der Information, die sich unter Beachtung der nächsten Ebene ergibt. Sei eine Beispielmenge E gegeben. Wählt man nun z.b. das Attribut B mit n Werten aus, so wird E in n Teilmengen zerlegt: {E 1,..., E n }. Nachdem B als Wurzel des Baumes festgesetzt wurde, ist die zur Fertigstellung des Baumes voraussichtlich erforderliche Informationsmenge: G(B) = E I(E i) Der Gewinn an Information wird dann berechnet als: gewinn(b) = I(E) G(B) Es gilt, gewinn zu maximieren. Dazu geht man alle Attribute durch und wählt jenes aus, das den maximalen Gewinn darstellt. Zunächst wählen wir Kreditwürdigkeit als Attribut. Kreditwürdigkeit hat Ausprägungen: unbekannt, schlecht, gut. Für jeden dieser Werte zählen wir, wie oft welches Risiko vorkommt: Es ergibt sich: Wert hohes Risiko mittleres Risiko niedriges Risiko unbekannt 1 schlecht 1 0 gut 1 1 I(Kreditwürdigkeit_unbekannt) = log ( ) 1 log ( 1 ) log ( ) = 1, I(Kreditwürdigkeit_schlecht) = 4 log ( 4 ) 1 4 log ( 1 ) = 0, 81 4 I(Kreditwürdigkeit_gut) = 1 log ( 1 ) 1 log ( 1 ) log ( ) = 1.7 G(kreditwuerdigkeit) = E I(E i) = 1, + 4 0, = 1, 6 Nun wählen wir Sicherheiten als Attribut. Sicherheiten hat Ausprägungen: keine, angemessen. Für jeden dieser Werte zählen wir, wie oft welches Risiko vorkommt:
4 Es ergibt sich: Wert hohes Risiko mittleres Risiko niedriges Risiko keine 6 angemessen 0 1 I(Sicherheiten_keine) = 6 11 log ( 6 11 ) 11 log ( 11 ) 11 log ( ) = 1, 4 11 I(Sicherheiten_angemessen) = 1 log ( 1 ) log ( ) = 0, 9 G(sicherheiten) = E I(E i) = 11 1, 4 + 0, 9 = 1, Nun wählen wir Verschuldung als Attribut. Verschuldung hat Ausprägungen: hoch, niedrig. Für jeden dieser Werte zählen wir, wie oft welches Risiko vorkommt: Es ergibt sich: Wert hohes Risiko mittleres Risiko niedriges Risiko hoch 4 1 niedrig I(Verschuldung_hoch) = 4 7 log ( 4 7 ) 1 7 log ( 1 7 ) 7 log ( ) = 1, 8 7 I(Verschuldung_niedrig) = 7 log ( 7 ) 7 log ( 7 ) 7 log ( ) = 1, 6 7 G(verschuldung) = E I(E i) = 7 1, , 6 = 1, 47 Nun wählen wir Einkommen als Attribut. Verschuldung hat Ausprägungen: U1, 1-, Ü. Für jeden dieser Werte zählen wir, wie oft welches Risiko vorkommt: Es ergibt sich: Wert hohes Risiko mittleres Risiko niedriges Risiko U Ü 0 1 I(Einkommen_u1) = 4 4 log ( 4 4 ) = 0 I(Einkommen_1-) = 4 log ( 4 ) 4 log ( 4 ) = 1 Damit ergibt sich: I(Einkommen_Ü) = 1 6 log ( 1 6 ) 6 log ( ) = 0, 6 6 G(einkommen) = E I(E i) = , 6 = 0, 6 4
5 gewinn(einkommen) = 1, 1 0, 64 = 0, 967 gewinn(kreditwuerdigkeit) = 1, = 0, 66 gewinn(verschuldung) = 1, 1 1, 468 = 0, 06 gewinn(sicherheiten) = 1, 1 1, = 0, 06 Man wählt nun einkommen als obersten Knoten und setzt das Verfahren für jeden Teilbaum rekursiv fort. Aufgabe Golfspiel ID Entwickeln Sie einen Entscheidungsbaum mittels ID. Aufgabe Restaurant mit ID Die Tabelle in Abb. enthält 1 Datensätze mit diesen Attributen: Alternative: Gibt es in der Nähe ein geeignetes anderes Restaurant? (ja/nein) Fr/Sa: Ist Freitag oder Samstag? (ja/nein) Hungrig: Bin ich hungrig? (ja/nein) Gäste: Wieviele Leute sind im Restaurant? (keine/einig/voll) Reservierung: Habe ich reserviert? (ja/nein) Typ: Um welche Art von Restaurant handelt es sich? (Franz./Chin./Ital./Burger) Wartezeit: Welche voraussichtliche Wartezeit wird vom Restaurant geschätzt? (0-10/10-0/0-60/>60) Warten (Zielprädikat): Warte ich, wenn alle Tische besetzt sind? (ja/nein) Alt. Fr/Sa Hung. Gäste Reserv. Typ Zeit Warten ja nein ja einige ja Franz ja ja nein ja voll nein Chin nein nein nein nein einige nein Burger 0-10 ja ja ja ja voll nein Chin ja ja ja nein voll ja Franz. >60 nein nein nein ja einige ja Ital ja nein nein nein keine nein Burger 0-10 nein nein nein ja einige ja Chin ja nein ja nein voll nein Burger >60 nein ja ja ja voll ja Ital nein nein nein nein keine nein Chin nein ja ja ja voll nein Burger 0-60 ja Abbildung : Daten Restaurant Generieren Sie einen Entscheidungsbaum und klassizieren Sie nachfolgende Datensätze.
6 Alt. Fr/Sa Hung. Gäste Reserv. Typ Zeit Warten ja nein ja einige nein Franz ja ja ja voll ja Chin nein nein nein keine nein Burger 0-10 Der Informationsgehalt eines Attributs B wird gemessen als: I(B) = p(b i ) log (p(b i )) Dabei stellen die b i die möglichen Werte des Attributs B dar. p ist die Wahrscheinlichkeit für das Eintreen von b i. Wie groÿ ist der Informationsgehalt der Tabelle in Abb., S.? p(warten ja) = 6 1 p(warten nein) = 6 1 Folglich ist I(Tabelle) = I(Risiko) = 6 log 1 ( 6 ) 6 log 1 1 ( 6 ) = 1 1 Nun wählt man das Attribut aus, das den maximalen Informationsgewinn erzielt. d.h. man berechnet die Dierenz aus I(Tabelle) und der Information, die sich unter Beachtung der nächsten Ebene ergibt. Sei eine Beispielmenge E gegeben. Wählt man nun z.b. das Attribut B mit n Werten aus, so wird E in n Teilmengen zerlegt: {E 1,..., E n }. Nachdem B als Wurzel des Baumes festgesetzt wurde, ist die zur Fertigstellung des Baumes voraussichtlich erforderliche Informationsmenge: G(B) = E I(E i) Der Gewinn an Information wird dann berechnet als: gewinn(b) = I(E) G(B) Es gilt, gewinn zu maximieren. Dazu geht man alle Attribute durch und wählt jenes aus, das den maximalen Gewinn darstellt. Zunächst wählen wir Alt als Attribut. Kreditwürdigkeit hat Ausprägungen: ja, nein. Für jeden dieser Werte zählen wir, wie oft welches Risiko vorkommt: Es ergibt sich: Wert warten nicht warten ja nein I(Alt_ja) = 6 log ( 6 ) 6 log ( 6 ) = 1 I(Alt_nein) = 6 log ( 6 ) 6 log ( 6 ) = 1 Analog ergibt sich für G(Alt) = E I(E i) = = 1 6
7 Fr/Sa 0,98 Hungrig 0,804 Gäste 0,49 Reserviert 0,98 Typ 1 Zeit 0,79 Damit ergibt sich: gewinn(alt) = 1 1 = 0 gewinn(fr/sa) = 1 0, 98 = 0, 0 gewinn(hungrig) = 1 0, 804 = 0, 196 gewinn(gäste) = 1 0, 49 = 0, 41 gewinn(reserviert) = 1 0, 98 = 0, 0 gewinn(typ) = 1 1 = 0 gewinn(zeit) = 1 0, 79 = 0, 1 Man wählt nun Gäste als obersten Knoten und setzt das Verfahren für jeden Teilbaum rekursiv fort. Wir betrachten zunächst den Teilbaum für Gäste = voll. Es kommen nur noch folgende Datensätze in Betracht: Alt. Fr/Sa Hung. Gäste Reserv. Typ Zeit Warten ja nein ja voll nein Chin nein ja ja ja voll nein Chin ja ja ja nein voll ja Franz. >60 nein nein ja nein voll nein Burger >60 nein ja ja ja voll ja Ital nein ja ja ja voll nein Burger 0-60 ja Nun startet das Ganze für diesen Teilbaum Gäste = voll erneut. Man erhält: gewinn(alt) = 0, 9 0, 81 = 0, 11 gewinn(fr/sa) = 0, 9 0, 81 = 0, 11 gewinn(hungrig) = 0, 9 0, 67 = 0, gewinn(reserviert) = 0, 9 0, 67 = 0, gewinn(typ) = 0, 9 0, 67 = 0, gewinn(zeit) = 0, 9 0, 67 = 0, Man wählt nun Hungrig als obersten Knoten (das am weitesten links in der Tabelle stehende Attribut, welches 0, liefert) und setzt das Verfahren für jeden Teilbaum rekursiv fort. Die anderen Teilbäume für Gäste liefern direkt eine Klasse. 7
8 Ausfuhr-Beispiel Berechnen Sie aus den nachfolgend gegebenen Daten die durchschnittliche jährliche Änderung der Ausfuhr der BRD für die Periode 1980/81. Folgende Entwicklung der Ausfuhr der BRD (jeweils gegenüber dem Vorjahr) wurde beobachtet: Periode /74 74/7 7/76 76/77 77/78 78/79 79/80 Ausfuhränderung +9 % -4 % +16 % +7 % +4 % +10 % +11 % Lösungsansatz: y = a x + b (y... Ausfuhränderung, x... Jahr) error = (y i ŷ i ) min. Wir numerieren die Jahre 7 bis 79 einfach von bis 9 (zur Vereinfachung). Wir müssen also die Summe: (a + b 9) + (a 4 + b + 4) + (a + b 16) + (a 6 + b 7) + +(a 7 + b 4) + (a 8 + b 10) + (a 9 + b 11) minimieren. a und b können wir frei wählen. Entweder rechnen Sie das in Excel, oder wir leiten uns die Lösung her: Die Summe muss minimiert werden, also muss die 1. Ableitung (sowohl nach a als auch nach b) Null werden. Die erste Ableitung nach a ist: Rechnet man dies aus, kommt man auf: Die erste Ableitung nach b ist: Rechnet man dies aus, kommt man auf: 9 (a x + b y x ) x = 0 x= 60 a + 84 b 800 = 0 (1) 9 (a x + b y x ) = 0 x= 84 a + b 6 = 0 () Stellt man die erste Gleichung nach b um, kommt man auf: b = Dies setzt man in die. Gleichung ein: ( a) 84 und erhält: 84 a + 84 a + ( a) 84 ( a) 6 6 = 0 6 = 0 8
9 ( a) 84 a + 6 = 0 84 a + ( a) 6 = 0 84 a 80 a = a = 8 a = 19 Dies setzt man nun in die. Gleichung (s.o.) ein und erhält: b 6 = 0 b = = = 60 b = 60 = 10 7 Damit erhält man: a = und b = 7 Folglich ergibt sich für x = 10: y = = =. Wer wohnt wo? Seien folgende Datensätze gegeben (a=angest., s=selbst., v=verh., l=ledig, M=Miete, E=Eigentum) Beruf a a a a s s s s Fam.st. v l v v l l v v Kinder j n n j j n j n Wohnung M E M E E M E E Wo lebt ein lediger Angestellter mit Kindern? Beruf Fam.st. Kinder rel. Häuf. a s v l j n M E L[Miete](angest, ledig, kinder) = / 1/ 1/ /8 = 6/ L[Eigen](angest, ledig, kinder) = / / / /8 = 60/ P [M iete](angest, ledig, kinder) = /( ) = 0.16 P [Eigen](angest, ledig, kinder) = 0.06/(( ) = Vorverarbeitung 7 Bewertung
Künstliche Intelligenz Maschinelles Lernen
Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen
Mehr2. Lernen von Entscheidungsbäumen
2. Lernen von Entscheidungsbäumen Entscheidungsbäume 2. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse
MehrData Mining und Text Mining Einführung. S2 Einfache Regellerner
Data Mining und Text Mining Einführung S2 Einfache Regellerner Hans Hermann Weber Univ. Erlangen, Informatik 8 Wintersemester 2003 hans.hermann.weber@gmx.de Inhalt Einiges über Regeln und Bäume R1 ein
Mehr4. Lernen von Entscheidungsbäumen. Klassifikation mit Entscheidungsbäumen. Entscheidungsbaum
4. Lernen von Entscheidungsbäumen Klassifikation mit Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch /Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse zugeordnet werden.
MehrMaschinelles Lernen. Kapitel 5
Kapitel 5 Maschinelles Lernen Im täglichen Leben begegnet uns das Lernen meist in einer Mischung aus den Aspekten der Vergrößerung von Wissen und der Verbesserung von Fähigkeiten. Beim Erlernen einer Fremdsprache
MehrÜbungsblatt LV Künstliche Intelligenz, Data Mining (1), 2014
Übungsblatt LV Künstliche Intelligenz, Data Mining (1), 2014 Aufgabe 1. Data Mining a) Mit welchen Aufgabenstellungen befasst sich Data Mining? b) Was versteht man unter Transparenz einer Wissensrepräsentation?
MehrInfos. Inhaltsverzeichnis. Einführung
Wissensextraktion Prof. Dr. Jürgen Cleve / Prof. Dr. Uwe Lämmel Infos Lehrveranstaltungen 2 V + 2 Ü, geteilt: Prüfung Prof. Lämmel: NN Prof. Cleve: Klassische Verfahren Projekt und MP 30min Skript, Folien,
MehrSeminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume. von Lars-Peter Meyer. im Seminar Methoden wissensbasierter Systeme
Seminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume von Lars-Peter Meyer im Seminar Methoden wissensbasierter Systeme bei Prof. Brewka im WS 2007/08 Übersicht Überblick maschinelles Lernen
MehrBegriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining
Gliederung 1. Einführung 2. Grundlagen Data Mining Begriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining 3. Ausgewählte Methoden des Data
MehrEndTermTest PROGALGO WS1516 A
EndTermTest PROGALGO WS1516 A 14.1.2016 Name:................. UID:.................. PC-Nr:................ Beachten Sie: Lesen Sie erst die Angaben aufmerksam, genau und vollständig. Die Verwendung von
Mehr3. Lernen von Entscheidungsbäumen
3. Lernen von Entscheidungsbäumen Entscheidungsbäume 3. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse
MehrMathematik 1. Inhaltsverzeichnis. Prof. Dr. K. Melzer. karin.melzer@hs-esslingen.de http://www.hs-esslingen.de/de/mitarbeiter/karin-melzer.
Mathematik 1 Prof Dr K Melzer karinmelzer@hs-esslingende http://wwwhs-esslingende/de/mitarbeiter/karin-melzerhtml Inhaltsverzeichnis 1 Finanzmathematik 1 11 Folgen und Reihen 1 111 Folgen allgemein 1 112
MehrFehlerrechnung. Einführung. Jede Messung ist fehlerbehaftet! Ursachen:
Fehlerrechnung Einführung Jede Messung ist fehlerbehaftet! Ursachen: Ablesefehler (Parallaxe, Reaktionszeit) begrenzte Genauigkeit der Messgeräte falsche Kalibrierung/Eichung der Messgeräte Digitalisierungs-Fehler
Mehr5 Zwei spieltheoretische Aspekte
5 Zwei spieltheoretische Aspekte In diesem Kapitel wollen wir uns mit dem algorithmischen Problem beschäftigen, sogenannte Und-Oder-Bäume (kurz UOB) auszuwerten. Sie sind ein Spezialfall von Spielbäumen,
MehrFormeln und Aufgaben über arithmetische und geometrische Reihen
Formeln und Aufgaben über arithmetische und geometrische Reihen Dietrich Baumgarten «17. Januar 014 Inhaltsverzeichnis 1 Arithmetische und geometrische Folgen 1 1.1 Zusammenfassung...............................
Mehrx 2 x 1 x 3 5.1 Lernen mit Entscheidungsbäumen
5.1 Lernen mit Entscheidungsbäumen Falls zum Beispiel A = {gelb, rot, blau} R 2 und B = {0, 1}, so definiert der folgende Entscheidungsbaum eine Hypothese H : A B (wobei der Attributvektor aus A mit x
MehrRandomisierte Algorithmen 2. Erste Beispiele
Randomisierte Algorithmen Randomisierte Algorithmen 2. Erste Beispiele Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2016/2017 1 / 35 Randomisierter Identitätstest
MehrChapter 1 : þÿ b e t a t h o m e m o b i l e A p p f ü r W i n d o w s c h a p t e r
Chapter 1 : þÿ b e t a t h o m e m o b i l e A p p f ü r W i n d o w s c h a p t e r þÿ 3 0. J u n i 2 0 0 9 b e t - a t - h o m e - Q u a r t a l s ü b e r s c h u s s b e i 1, 6 M i o. E u r o P f i
MehrChapter 1 : þÿ o m b e t a t h o m e c h a p t e r
Chapter 1 : þÿ o m b e t a t h o m e c h a p t e r þÿ 2 1 : 0 0. N i g e r i a. D e u t s c h l a n d. N i g e r i a - D e u t s c h l a n d. 3 - W e g. 1 3. 5 0. [ u r l = h t t p : / / w w w. b u k m
MehrVorlesung Maschinelles Lernen
Vorlesung Maschinelles Lernen Additive Modelle Katharina Morik Informatik LS 8 Technische Universität Dortmund 7.1.2014 1 von 34 Gliederung 1 Merkmalsauswahl Gütemaße und Fehlerabschätzung 2 von 34 Ausgangspunkt:
MehrRandomisierte Algorithmen
Randomisierte Algorithmen Randomisierte Algorithmen 5. Zwei spieltheoretische Aspekte Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2015/2016 1 / 36 Überblick
MehrGrundwissen Mathematik Klasse 8
Grundwissen Mathematik Klasse 8 1. Funktionen allgemein (Mathehelfer 2: S.47) Erstellen einer Wertetabelle bei gegebener Funktionsgleichung Zeichnen des Funktionsgraphen Ablesen von Wertepaaren ( x / f(x)
MehrAnpassungstests VORGEHENSWEISE
Anpassungstests Anpassungstests prüfen, wie sehr sich ein bestimmter Datensatz einer erwarteten Verteilung anpasst bzw. von dieser abweicht. Nach der Erläuterung der Funktionsweise sind je ein Beispiel
MehrRepetitorium Mathe 1
Übungsaufgaben Skript Repetitorium Mathe 1 WS 2014/15 25./26.01. und 31.01./01.02.2015 Inhaltsverzeichnis 1 Bruchrechnung 2 2 Zahlsysteme 2 3 Arithmetisches und geometrisches Mittel 2 4 Wachstum 2 5 Lineare
MehrDatenstrukturen & Algorithmen Lösungen zu Blatt 6 FS 14
Eidgenössische Technische Hochschule Zürich Ecole polytechnique fédérale de Zurich Politecnico federale di Zurigo Federal Institute of Technology at Zurich Institut für Theoretische Informatik 2. April
Mehr3. Entscheidungsbäume. Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002)
3. Entscheidungsbäume Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002) (aus Wilhelm 2001) Beispiel: (aus Böhm 2003) Wann sind Entscheidungsbäume
MehrLogarithmen. Gesetzmäßigkeiten
Logarithmen Gesetzmäßigkeiten Einführung Als erstes muss geklärt werden, für was ein Logarithmus gebraucht wird. Dazu sollte folgendes einführendes Beispiel gemacht werden. Beispiel 1: 2 x = 8 Wie an diesem
MehrMathematische Grundlagen III
Mathematische Grundlagen III Maschinelles Lernen II: Klassifikation mit Entscheidungsbäumen Vera Demberg Universität des Saarlandes 12. Juli 2012 Vera Demberg (UdS) Mathe III 12. Juli 2012 1 / 38 Einleitung
Mehr(d) 1,5 1, 02 2x 1 = x x = 2
KLASSENARBEIT MATHEMATIK G9A 14.03.013 Aufgabe 1 3 4 5 Punkte (max) 11 4 4 4 3 Punkte (1) Löse folgende Gleichungen. (a) x 3 5x + x = 0 (b) 4x 4 + 11x 3 = 0 (c) 1 x = 1 7 (e) (x + 17)(x 16) = 0 (f) (d)
MehrChapter 1 : þÿ b e t a t h o m e V o l l v e r s i o n c h a p t e r
Chapter 1 : þÿ b e t a t h o m e V o l l v e r s i o n c h a p t e r þÿ b e e n u s e l e s s a t r e m e m b e r i n g t o g e t a l o t t e r y t i c k e t o n t h e w a y h o m e, s o t h i s h a s.
MehrVorlesung Wissensentdeckung
Gliederung Vorlesung Wissensentdeckung Additive Modelle Katharina Morik, Weihs 1 Merkmalsauswahl Gütemaße und Fehlerabschätzung.6.015 1 von 33 von 33 Ausgangspunkt: Funktionsapproximation Aufteilen der
MehrChapter 1 : þÿ b e t a t h o m e m a x W e t t e H ä n d l e r c h a p t e r
Chapter 1 : þÿ b e t a t h o m e m a x W e t t e H ä n d l e r c h a p t e r þÿ d a s. E i n L e b e n i m S c h a t t e n d e s S u i z i d s & m i d d o t ; K o p i e v o n T h e a t e r d e r & n b
MehrVU Testtheorie und Testkonstruktion WS 08/09; Lengenfelder, Fritz, Moser, Kogler
VU Testtheorie und Testkonstruktion WS 08/09; Lengenfelder, Fritz, Moser, Kogler Hausübung In der Übung Übungsblatt 06 1. Gegeben: Skala zur Messung der Gesundheitssorge mit 20 Items (dichotomes Antwortformat).
MehrFolge 19 - Bäume. 19.1 Binärbäume - Allgemeines. Grundlagen: Ulrich Helmich: Informatik 2 mit BlueJ - Ein Kurs für die Stufe 12
Grundlagen: Folge 19 - Bäume 19.1 Binärbäume - Allgemeines Unter Bäumen versteht man in der Informatik Datenstrukturen, bei denen jedes Element mindestens zwei Nachfolger hat. Bereits in der Folge 17 haben
MehrLösungen zu den Übungsaufgaben aus Kapitel 3
Lösungen zu den Übungsaufgaben aus Kapitel 3 Ü3.1: a) Die Start-Buchungslimits betragen b 1 = 25, b 2 = 20 und b 3 = 10. In der folgenden Tabelle sind jeweils die Annahmen ( ) und Ablehnungen ( ) der Anfragen
MehrStatistik-Klausur vom
Statistik-Klausur vom 27.09.2010 Bearbeitungszeit: 60 Minuten Aufgabe 1 Ein international tätiges Unternehmen mit mehreren Niederlassungen in Deutschland und dem übrigen Europa hat seine überfälligen Forderungen
MehrÜbungsblatt 4. t = 1 t = 2 t = 3 t = 4 Zahlungen Projekt A e. Sie stellt einen Spezialfall der Kapitalwertmethode dar.
Aufgaben Kapitel 4: Investitionsrechnung (Grundlagen, Kapitalwertmethode, Annuitätenmethode) 1. Zu den statischen Investitionsrechenverfahren gehören a. der statische Renditevergleich b. die Rentabilitätsrechnung
MehrTabellenkalkulation Excel
Tabellenkalkulation Excel Teil 7.2 Rechnen mit Bezügen Wichtige Funktionen 1 von 13 Inhaltsverzeichnis 3... Eingabe von Daten in Excel! 4... Wie berechnet man die Ersparnis? 5... Wie berechnet man die
MehrKonzepte der AI: Maschinelles Lernen
Konzepte der AI: Maschinelles Lernen Nysret Musliu, Wolfgang Slany Abteilung für Datenbanken und Artificial Intelligence Institut für Informationssysteme, TU-Wien Übersicht Was ist Lernen? Wozu maschinelles
MehrKapiteltests zum Leitprogramm Binäre Suchbäume
Kapiteltests zum Leitprogramm Binäre Suchbäume Björn Steffen Timur Erdag überarbeitet von Christina Class Binäre Suchbäume Kapiteltests für das ETH-Leitprogramm Adressaten und Institutionen Das Leitprogramm
MehrZwei einfache Kennzahlen für große Engagements
Klecksen nicht klotzen Zwei einfache Risikokennzahlen für große Engagements Dominik Zeillinger, Hypo Tirol Bank Die meisten Banken besitzen Engagements, die wesentlich größer sind als der Durchschnitt
MehrEinführung in die Methoden der Künstlichen Intelligenz. Maschinelles Lernen
Einführung in die Methoden der Künstlichen Intelligenz Maschinelles Lernen Dr. David Sabel WS 2012/13 Stand der Folien: 14. Februar 2013 Einführung Direkte Programmierung eines intelligenten Agenten nicht
MehrModerne Methoden der KI: Maschinelles Lernen
Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Entscheidungsbäume Darstellung durch Regeln ID3 / C4.5 Bevorzugung kleiner Hypothesen Overfitting Entscheidungsbäume
MehrMB2-ALG, SS15 Seite 1 Hauptklausur, geschrieben am
MB-ALG, SS1 Seite 1 Hauptklausur, geschrieben am.07.01 Vorname Nachname Matrikel-Nr Diese Klausur ist mein letzter Prüfungsversuch (bitte ankreuzen): Ja Nein Ihre Lösung für Aufgabe 1 können Sie direkt
MehrWiederholung Vorlesungen 1 bis 8
Wiederholung Vorlesungen 1 bis 8 Aufgabe 1 a) Sind die im Folgenden gegebenen Ausdrücke als Folge interpretierbar? Wenn ja, wie? i) 1,,4,8,16,3,64,..., ii)... 5, 3, 1,1,3,5,..., iii) 3,10,π,4, 1 7,10,1,14,16,18,...
MehrKlausur zur Vorlesung Spieltheorie
Dr. Tone Arnold Sommersemester 2007 Klausur zur Vorlesung Spieltheorie Die Klausur besteht aus vier Vorfragen und drei Hauptfragen, von denen jeweils zwei zu bearbeiten sind. Sie haben für die Klausur
MehrChapter 1 : þÿ b e t a t h o m e. p a r t y G r u p p e c h a p t e r
Chapter 1 : þÿ b e t a t h o m e. p a r t y G r u p p e c h a p t e r þÿ d e r A S K 2 1 f u n k t i o n i e r t n i c h t n i c h t, w e n n i c h d r i n s i t z e &. W i e d e r m a l d i e. 8. A p
MehrBayessches Lernen Aufgaben
Bayessches Lernen Aufgaben martin.loesch@kit.edu (0721) 608 45944 Aufgabe 1: Autodiebstahl-Beispiel Wie würde man ein NB-Klassifikator für folgenden Datensatz aufstellen? # Color Type Origin Stolen? 1
MehrChapter 1 : þÿ p a y p a l b e t a t h o m e g e h t n i c h t c h a p t e r
Chapter 1 : þÿ p a y p a l b e t a t h o m e g e h t n i c h t c h a p t e r þÿ a l s o k o s t e n l o s e s W e t t g u t h a b e n b e i s p i e l s w e i s e f ü r S p o r t w e t t e n, m i t d e
MehrMotivation. Themenblock: Klassifikation. Binäre Entscheidungsbäume. Ansätze. Praktikum: Data Warehousing und Data Mining.
Motivation Themenblock: Klassifikation Praktikum: Data Warehousing und Data Mining Ziel Item hat mehrere Attribute Anhand von n Attributen wird (n+)-tes vorhergesagt. Zusätzliches Attribut erst später
MehrKapitel : Andere dynamische Datenstrukturen. Algorithmen und Datenstrukturen WS 2012/13. Prof. Dr. Sándor Fekete
Kapitel 4.8-4.11: Andere dynamische Datenstrukturen Algorithmen und Datenstrukturen WS 2012/13 Prof. Dr. Sándor Fekete 4.6 AVL-Bäume 4.8 Rot-Schwarz-Bäume Idee: Verwende Farben, um den Baum vertikal zu
Mehr11.1 Grundlagen - Denitionen
11 Binärbäume 11.1 Grundlagen - Denitionen Denition: Ein Baum ist eine Menge, die durch eine sog. Nachfolgerrelation strukturiert ist. In einem Baum gilt: (I) (II) 1 Knoten w ohne VATER(w), das ist die
MehrAufgabe des Monats Mai
Aufgabe des Monats Mai 2013 1 Ein Monopolist produziere mit folgender Kostenfunktion: K(x) = x 3 12x 2 + 60x + 98 und sehe sich der Nachfragefunktion (Preis-Absatz-Funktion) p(x) = 10, 5x + 120 gegenüber.
MehrBayes sches Lernen: Übersicht
Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 5: Naive Bayes + IBL (V.
MehrVollständige Induktion
Schweizer Mathematik-Olympiade smo osm Vollständige Induktion Aktualisiert: 1 Dezember 01 vers 100 Eine der wichtigsten Beweistechniken der Mathematik überhaupt ist die (vollständige) Induktion Wir nehmen
MehrKombinatorik: Abzählverfahren (Teschl/Teschl 7) Summenregel. Allgemeiner
Kombinatorik: Abzählverfahren Teschl/Teschl 7 Fragestellung: Wie viele verschiedene Möglichkeiten gibt es, Elemente auszuwählen, z. B. Anzahl verschiedener möglicher Passwörter, IPAdressen, Zahlenkombinationen
MehrBeispiel 2 (Einige Aufgaben zu Lageparametern) Aufgabe 1 (Lageparameter)
Beispiel (Einige Aufgaben zu Lageparametern) Aufgabe 1 (Lageparameter) 1 Ein Statistiker ist zu früh zu einer Verabredung gekommen und vertreibt sich nun die Zeit damit, daß er die Anzahl X der Stockwerke
Mehr2. Schulaufgabe aus der Mathematik Lösungshinweise
2. Schulaufgabe aus der Mathematik Lösungshinweise Gruppe A (a) Bei dieser Aufgabe kann man die Umwandlung in eine Dezimalzahl vornehmen, indem man den Nenner auf 1000 erweitert: Aufgabe 1 3 8 = 3 125
MehrMultiplikation und Division - Division
Multiplikation und Division - Division Qualifizierungseinheit Multiplikation und Division Lernziele: Wenn Sie diese Qualifizierungseinheit bearbeitet haben, können Sie ganze Zahlen multiplizieren und dividieren
MehrMaschinelles Lernen Entscheidungsbäume
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Entscheidungsbäume Paul Prasse Entscheidungsbäume Eine von vielen Anwendungen: Kreditrisiken Kredit - Sicherheiten
MehrFolge 13 - Quicksort
Für Abiturienten Folge 13 - Quicksort 13.1 Grundprinzip des Quicksort Schritt 1 Gegeben ist ein unsortierter Array von ganzen Zahlen. Ein Element des Arrays wird nun besonders behandelt, es wird nämlich
MehrSchriftliche Prüfungsarbeit zur erweiterten Berufsbildungsreife und zum mittleren Schulabschluss 2014 im Fach Mathematik. Dienstag 13.
Ministerium für Bildung, Jugend und Sport Senatsverwaltung für Bildung, Jugend und Wissenschaft Schriftliche Prüfungsarbeit zur erweiterten Berufsbildungsreife und zum mittleren Schulabschluss 04 im Fach
MehrBabeș-Bolyai Universität Cluj Napoca Fakultät für Mathematik und Informatik Grundlagen der Programmierung MLG5005. Paradigmen im Algorithmenentwurf
Babeș-Bolyai Universität Cluj Napoca Fakultät für Mathematik und Informatik Grundlagen der Programmierung MLG5005 Paradigmen im Algorithmenentwurf Problemlösen Problem definieren Algorithmus entwerfen
MehrSuissemelio-Ratingtool im Kanton Bern
Suissemelio-Ratingtool im Kanton Bern Franz Hofer, Bernische Stiftung für Agrarkredite (BAK) 1. Organisatorische Einbettung Hintergrund Risikobeurteilung durch den Stiftungsrat Berechnungsmodell (Kennzahlen,
MehrLösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über
MehrGrundlagen: Folgen u. endliche Reihen Unendliche Reihen Potenzreihen. Reihen. Fakultät Grundlagen. März 2015
Fakultät Grundlagen März 015 Fakultät Grundlagen Grundlagen: und endliche Beispiele Geometrische Reihe, Konvergenzkriterien Fakultät Grundlagen Folie: Übersicht Grundlagen: und endliche Artithmetische
MehrChapter 1 : þÿ b e t a t h o m e A b s e t z f r i s t D e b i t k a r t e c h a p t e r
Chapter 1 : þÿ b e t a t h o m e A b s e t z f r i s t D e b i t k a r t e c h a p t e r þÿ R e c h n u n g. B e t W o r l d E i n z a h l u n g s b o n u s : 1 0 0 E U R j e t z t f ü r N e u k u n d
MehrOberstufe (11, 12, 13)
Department Mathematik Tag der Mathematik 1. Oktober 009 Oberstufe (11, 1, 1) Aufgabe 1 (8+7 Punkte). (a) Die dänische Flagge besteht aus einem weißen Kreuz auf rotem Untergrund, vgl. die (nicht maßstabsgerechte)
MehrKomplexe Zahlen und Wechselstromwiderstände
Komplexe Zahlen und Wechselstromwiderstände Axel Tobias 22.2.2000 Ein besonderer Dank geht an Ingo Treunowski, der die Übertragung meines Manuskriptes in L A TEX durchgeführt hat tob skript komplex.tex.
MehrChapter 1 : þÿ b e t a t h o m e S p i e l g e s p e r r t c h a p t e r
Chapter 1 : þÿ b e t a t h o m e S p i e l g e s p e r r t c h a p t e r þÿ s c e n a r i o s ( e x p l i c i t a n d.. W h a t w o u l d y o u r c u s t o m e r s b e t t h e i r m o n e y o n?.. u n
MehrChapter 1 : þÿ T r a n s f e r - W e t t e n b e t a t h o m e c h a p t e r
Chapter 1 : þÿ T r a n s f e r - W e t t e n b e t a t h o m e c h a p t e r þÿ f r o m h o m e i n t h e 2 0 1 5 G r a n d N a t i o n a l ; 1 6 / 1 H o l y w e l l, S a i n t A r e, & n b s p ;. t ä
MehrFamilien in Thüringen Ergebnisse des Mikrozensus von 2005 bis 2009
- März 211 Yvonne May Referat Bevölkerung, Mikrozensus, Haushaltsstatistiken Telefon: 361 37-84432 e-mail: Yvonne.May@statistik.thueringen.de Familien in Thüringen Ergebnisse des Mikrozensus von 25 bis
MehrLage- und Streuungsparameter
Lage- und Streuungsparameter Beziehen sich auf die Verteilung der Ausprägungen von intervall- und ratio-skalierten Variablen Versuchen, diese Verteilung durch Zahlen zu beschreiben, statt sie graphisch
MehrVorkurs Mathematik Übungen zu Komplexen Zahlen
Vorkurs Mathematik Übungen zu Komplexen Zahlen Komplexe Zahlen Koordinatenwechsel Aufgabe. Zeichnen Sie die folgende Zahlen zunächst in ein (kartesisches) Koordinatensystem. Bestimmen Sie dann die Polarkoordinaten
MehrKapitel : Andere dynamische Datenstrukturen. Algorithmen und Datenstrukturen WS 2013/14. Prof. Dr. Sándor Fekete
Kapitel 4.8-4.11: Andere dynamische Datenstrukturen Algorithmen und Datenstrukturen WS 2013/14 Prof. Dr. Sándor Fekete 1 4.6 AVL-Bäume 2 4.8 Rot-Schwarz-Bäume Rudolf Bayer Idee: Verwende Farben, um den
Mehrprofil datenreporter das sollte ich können...
profil datenreporter das sollte ich können... Abfragen Variable Kriterien in Abfragen verwenden Berechnungen in Abfragen durchführen, Daten zu neuen Informationen zusammensetzen Berichte Die Bereiche eines
Mehr2 Mengen und Abbildungen
2.1 Mengen Unter einer Menge verstehen wir eine Zusammenfassung von Objekten zu einem Ganzen. Die Objekte heiÿen Elemente. Ist M eine Menge und x ein Element von M so schreiben wir x M. Wir sagen auch:
MehrR = {(1, 1), (2, 2), (3, 3)} K 1 = {1} K 2 = {2} K 3 = {3}
Äquivalenzrelationen Aufgabe 1. Lesen Sie im Skript nach was eine Äquivalenzrelation und eine Äquivalenzklasse ist. Gegeben ist die Menge A = {1, 2, 3. Finden Sie 3 Äquivalenzrelationen auf A und geben
MehrDatenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut
Datenkompression Holger Rauhut 1. September 2010 Skript für die Schülerwoche 2010, 8.-11.9.2010 Hausdorff Center for Mathematics, Bonn 1 Allgemeines Datenkompression hat zum Ziel, Daten in digitaler Form,
MehrBitte bearbeite zunächst alle Aufgaben bevor du einen Blick in die Lösungen wirfst.
Übungsblatt 1 - Häufigkeiten, Mittelwert, Erwartungswert Das erste Übungsblatt ist als Einstieg ins Thema Wahrscheinlichkeitsrechnung gedacht und umfasst die Themen relative/absolute Häufigkeiten, Mittelwert
MehrGrundlagen der Programmierung 2. Bäume
Grundlagen der Programmierung 2 Bäume Prof. Dr. Manfred Schmidt-Schauÿ Künstliche Intelligenz und Softwaretechnologie 24. Mai 2006 Graphen Graph: Menge von Knoten undzugehörige (gerichtete oder ungerichtete)
MehrAlgorithmen und Datenstrukturen Balancierte Suchbäume
Algorithmen und Datenstrukturen Balancierte Suchbäume Matthias Teschner Graphische Datenverarbeitung Institut für Informatik Universität Freiburg SS 12 Überblick Einführung Einfügen und Löschen Einfügen
MehrBinary Decision Diagrams (Einführung)
Binary Decision Diagrams (Einführung) Binary Decision Diagrams (BDDs) sind bestimmte Graphen, die als Datenstruktur für die kompakte Darstellung von booleschen Funktionen benutzt werden. BDDs wurden von
MehrTestverfahren. 1. Pepsi vs. Coca-Cola
1. Pepsi vs. Coca-Cola Testverfahren Über Geschmack lässt sich bekanntermaßen streiten. Häufig stellt sich nämlich die Frage, ob der Unterschied zwischen zwei Produkten überhaupt feststellbar ist. Einer
MehrErste Schularbeit Mathematik Klasse 7A G am
Erste Schularbeit Mathematik Klasse 7A G am 12.11.2015 SCHÜLERNAME: Punkte im ersten Teil: Punkte im zweiten Teil: Davon Kompensationspunkte: Note: Notenschlüssel: Falls die Summe der erzielten Kompensationspunkte
MehrChapter 1 : þÿ b w i n m o b i l e C a s i n o - A p p c h a p t e r
Chapter 1 : þÿ b w i n m o b i l e C a s i n o - A p p c h a p t e r þÿ b e s t ä t i g u n g d e r d i e n s t l e i s t u n g s f r e i h e i t & q u o t ;, h e i s s t e s s e i t e n s b w i n.. b
MehrDer Bipolar-Transistor und die Emitterschaltung Gruppe B412
TECHNISCHE UNIVERSITÄT MÜNCHEN Der Bipolar-Transistor und die Emitterschaltung Gruppe B412 Patrick Christ und Daniel Biedermann 16.10.2009 1. INHALTSVERZEICHNIS 1. INHALTSVERZEICHNIS... 2 2. AUFGABE 1...
MehrChapter 1 : þÿ b e t a t h o m e B i n g o L o g i n c h a p t e r
Chapter 1 : þÿ b e t a t h o m e B i n g o L o g i n c h a p t e r þÿ N e b e n e n g l i s c h e n Q u o t e n g i b t e s a u c h n o c h a m e r i k a n i s c h e Q u o t e n u n d. s p i e l e d e
MehrVorkurs Informatik WiSe 15/16
Konzepte der Informatik Dr. Werner Struckmann / Stephan Mielke, Jakob Garbe, 16.10.2015 Technische Universität Braunschweig, IPS Inhaltsverzeichnis Suchen Binärsuche Binäre Suchbäume 16.10.2015 Dr. Werner
MehrÜbung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell
Universität Ulm 89069 Ulm Germany Dipl.-WiWi Christian Peukert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2010
Mehr13. Der diskrete Logarithmus
13. Der diskrete Logarithmus 13.1. Definition. Sei p eine Primzahl. Wie wir in 9 bewiesen haben, ist die multiplikative Gruppe F p des Körpers F p = Z/p zyklisch. Sei g ein erzeugendes Element von F p
MehrMathematik und Logik
Mathematik und Logik 6. Übungsaufgaben 2006-01-24, Lösung 1. Berechnen Sie für das Konto 204938716 bei der Bank mit der Bankleitzahl 54000 den IBAN. Das Verfahren ist z.b. auf http:// de.wikipedia.org/wiki/international_bank_account_number
MehrRationale Zahlen. Vergleichen und Ordnen rationaler Zahlen
Rationale Zahlen Vergleichen und Ordnen rationaler Zahlen Von zwei rationalen Zahlen ist die die kleinere Zahl, die auf der Zahlengeraden weiter links liegt.. Setze das richtige Zeichen. a) -3 4 b) - -3
MehrKurs 1613 Einführung in die imperative Programmierung Musterlösung zur Klausur am
Kurs 1613 Einführung in die imperative Programmierung 1 Aufgabe 1 procedure NachVorn( inwert: integer; var iorefanfang: trefelement); {Sucht das erste vorkommende Element mit inwert in der info-komponente
MehrErfolg im Mathe-Abi 2014
Gruber I Neumann Erfolg im Mathe-Abi 2014 Schleswig-Holstein Übungsbuch Prüfungsaufgaben mit Tipps und Lösungen Inhaltsverzeichnis 1. Aufgabensatz... 7 2. Aufgabensatz... 12 3. Aufgabensatz... 17 4. Aufgabensatz...
MehrRekursion. Annabelle Klarl. Einführung in die Informatik Programmierung und Softwareentwicklung
Rekursion Annabelle Klarl Zentralübung zur Vorlesung Einführung in die Informatik: http://www.pst.ifi.lmu.de/lehre/wise-12-13/infoeinf WS12/13 Aufgabe 1: Potenzfunktion Schreiben Sie eine Methode, die
MehrChapter 1 : þÿ i p h o n e b e t a t e s t e r w e r d e n c h a p t e r
Chapter 1 : þÿ i p h o n e b e t a t e s t e r w e r d e n c h a p t e r þÿ n i c h t m ö g l i c h, a l l e Z a h l u n g e n m i t d e r m o b i l e n W e b s e i t e v o n b e t - a t - h o m e z u
MehrProtokoll zum Teil Sauerstoffbestimmung
Übung Labormethoden Protokoll zum Teil Sauerstoffbestimmung Vereinfachtes Übungsprotokoll zu Demonstrationszwecken Inhaltsverzeichnis 1. EINLEITUNG...2 1.1 GASOMETRISCHE METHODE...2 2. MATERIAL UND METHODEN...3
MehrAuf der Festplatte des Rechners sind Informationen als Dateien (Bilddateien, Textdateien, Videodateien usw.) abgespeichert.
Auf der Festplatte des Rechners sind Informationen als Dateien (Bilddateien, Textdateien, Videodateien usw.) abgespeichert. Dateimanager Das Werkzeug, mit dem man Dateien am besten anschauen und verwalten
Mehr