Neuronale Netze zur Dokumentenklassifikation

Größe: px
Ab Seite anzeigen:

Download "Neuronale Netze zur Dokumentenklassifikation"

Transkript

1 Neuronale Netze zur Dokumentenklassifikation Manuel Ihlenfeld 10. Mai 2005 Überblick Neuronale Netze können zum Erkennen und Klassifizieren von Mustern eingesetzt werden. Bei der Dokumentenklassifikation werden spezielle Ausprägungen neuronaler Netze verwendet, um Dokumente in eine vorgegebene Kategorie 1 einzuordnen. Um sich den Vorgang der Dokumentenklassifikation anhand Neuronaler Netze vorstellen zu können, sind Vorkenntnisse über eben diese erforderlich. Der erste Abschnitt gibt deshalb einen Überblick darüber, wie Neuronale Netze modelliert werden. Nach einer kurzen Einführung in die Fuzzy-Logik werden die Prinzipien von so genannten ART-Netzen vorgestellt. Beides dient der Vorbereitung auf ein spezielles Neuronales Netz, welches zur Dokumentenklassifikation eingesetzt werden kann und im anschliessenden Abschnitt vorgestellt wird. Die Beschreibung der Durchführung und Auswertung von Versuchen mit diesem Netz folgt zum Abschluss. 1 In diesem Text werden die Begriffe Klasse und Kategorie synonym verwendet. 1

2 1 Prinzipien künstlicher Neuronaler Netze 1.1 Wie werden Neuronale Netze modelliert? Künstliche Neuronale Netze bestehen aus idealisierten Neuronen. Verwendet wird ein sehr einfaches Modell des biologischen Vorbilds. Dieses Modell besteht aus dem Zellkörper, den Dendriten und ihren Synapsen und dem Axon. Über die Dendriten werden Eingabesignale aufsummiert, über das Axon wird die Ausgabe einer Zelle an andere Zellen weitergeleitet. Das Axon ist über Synapsen mit den Dendriten anderer Neuronen verbunden. Durch diese Verbindungen entsteht ein Netzwerk aus Neuronen. 1.2 Was ist ein künstliches Neuron? Ein Tupel (x, w, f a, f o, o) ist ein künstliches Neuron. Dabei ist x R n ein Eingabevektor, w R n ein Gewichtsvektor, f a : R n R n R eine Aktivierungsfunktion, f o : R R eine Ausgabefunktion und o = f o (f a (x, w)) der Ausgabewert des Neurons. Der Zusammenhang mit realen Neuronen ist folgender: Der Eingabevektor stellt die Werte der Dendriten anderer Neuronen dar und der Gewichtsvektor modelliert die Synapsen. Die Aktivierungsfunktion repräsentiert die Aktivität des Neurons und über die Ausgabefunktion wird schließlich der Wert berechnet, der an nachfolgende Neuronen weitergeleitet wird. Die Gewichte des Gewichtsvektors können so eingestellt sein, daß sie wie die Synapsen hemmend oder verstärkend auf Eingabesignale wirken. Für die Aktivierungsfunktion wird häufig das Skalarprodukt (gewichtete Summe) von Eingabevektor und Gewichtsvektor verwendet: f a (x, w) = n x i w i =< x, w > i=1 Die Ausgabefunktion ist in der Regel eine Schwellenwertfunktion wie zum Beispiel die binäre Schwellenwertfunktion { 1 z > 0 f o (z) = 0 sonst oder eine s-förmige Funktion (sigmoide Funktion), etwa die logistische Funktion f o (z) = e z wobei z = f a (x, w) die Aktivität des Neurons durch die Eingabe x ist. 1.3 Was ist ein künstliches Neuronales Netz? Wenn N eine Menge von Neuronen und V eine Menge von gewichteten Verbindungen ist, dann ist der gerichtete Graph (N, V ) mit gewichteten Kanten ein Neuronales Netz. Jedes Neuron erhält über eine Menge von Verbindungen seine Eingabe von anderen Neuronen oder der Aussenwelt und gibt genau eine Ausgabe über eine Menge von Verbindungen an andere Neuronen weiter. 2

3 In der Regel werden die Neuronen in einzelnen Schichten angeordnet, die miteinander verbunden sind. Die Verarbeitung erfolgt dann von der Eingabeschicht über sogenannte versteckte Schichten im Inneren hin zur Ausgabeschicht. Bemerkung: Die gewichteten Verbindungen zwischen Neuronen in verschiedenen Schichten A und B können in Form von Matrizen dargestellt werden. Dabei gibt die Spaltennummer die Nummer eines Neurons in Schicht A an und die Zeilenummer die Nummer eines Neurons in Schicht B an. Am Kreuzungspunkt von Spalten- und Zeilennummer wird dann der Wert des Gewichts eingetragen. Eine solche Matrix wird als Gewichtsmatrix bezeichnet. Für jedes Neuron gibt es dann einen sogenannten Gewichtsvektor aus der Gewichtsmatrix. 1.4 Wie wird das Lernen modelliert? Zum Trainieren eines Neuronalen Netzes werden dem Netz an der Eingabeschicht nacheinander verschiedene Muster präsentiert, denen das Netz jeweils eine bestimmte Ausgabe an der Ausgabeschicht zuordnen soll. Durch Modifikation des Netzes anhand einer Lernregel kann dieses lernen. Dazu gibt es folgende Möglichkeiten: Entwicklung neuer Verbindungen Löschen existierender Verbindungen Verändern der Gewichte Modifikation des Schwellenwerts Veränderung der Aktivierungs- oder Ausgabefunktion Hinzufügen neuer Zellen Löschen bestehender Zellen Das Verändern der Gewichte ist die am häufigsten verwendete Methode. Je nachdem ob das Netz während des Lernvorgangs zu einem bestimmten Eingabemuster die richtige Ausgabe zuordnet, gibt es generell drei Möglichkeiten, Fehler eventuell zu korrigieren. Hat das Netz einer Eingabe die richtige Ausgabe zugeordnet, so ist keine Veränderung notwendig. Andernfalls soll das Netz dahingehend verändert werden, daß die falsch erkannte Eingabe zukünftig der richtigen Ausgabe zugeordnet wird. Im Folgenden sind diese drei Möglichkeiten kurz dargestellt. Überwachtes Lernen (supervised learning) Bei dieser Technik wird vorrausgesetzt, daß zu einer größeren Menge von Eingaben auch entsprechende Ausgaben ( Trainingsbeispiele ) zur Verfügung stehen. Dem Netz wird jeweils eine Eingabe präsentiert und die Ausgabe des Netzes mit der korrekten Ausgabe verglichen. Anhand der Differenz von Ist-Ausgabe und Soll-Ausgabe können z.b. die Gewichte der Verbindungen modifiziert werden. Bestärkendes Lernen (reinforcement learning) Im Unterschied zum Überwachten Lernen erfährt das Netz nur, ob die Ausgabe korrekt war oder nicht (im Gegensatz zur exakten Differenz). Mit dieser Information muss sich das Netz dann selbstständig so nach der Lernregel verändern, daß möglichst kein Fehler mehr gemacht wird. 3

4 Unüberwachtes Lernen (unsupervised learning) Dieses Konzept heißt auch self-organized learning. Dabei gibt es überhaupt keine externe Kontrolle, die das Netz beeinflusst. Das Netz versucht, die Eingaben selbstständig in Ähnlichkeitsklassen aufzuteilen. Daraus folgt auch, daß die Ausgabe nicht in der Zuordnung zu einer Klasse besteht, sondern nur darin, daß ein eingegebenes Muster zu einer bestimmten Menge anderer bereits bekannter Muster gehört, ohne daß diese Menge eine Bezeichnung hat (Clustering). Im Gegensatz dazu muss bei den beiden vorigen Konzepten zu den Eingaben jeweils eine bestimmte Klasse gelernt werden, die dann aber auch ausgegeben wird. Damit das Lernen in Neuronalen Netzen konkreter vorstellbar wird, folgt eine kurze Beschreibung eines Verfahrens zum Überwachten Lernen. Mit den Trainingsbeispielen, die beim Lernen verwendet werden, können die Gewichte in einem mehrschichtigen Neuronalen Netz zur Minimierung des Fehlers angepasst werden. Um die Größe der Gewichtsänderung zu bestimmen, kann die sogenannte Delta-Regel verwendet werden, mit der versucht wird, den Fehler auf die einzelnen Gewichte aufzuteilen. Der Fehler wird aus der Differenz der Ausgabe eines Neurons und dem Wert bestimmt, den das Neuron für eine richtige Zuordnung ausgeben sollte. Eine Herleitung der Delta-Regel würde an dieser Stelle zu weit führen, weshalb hier nur die Regel angegeben wird: Für die Ausgabeschicht wird und für die inneren Schichten wird δ k = (t k o k )o k (1 o k ) und w jk = ηδ k o j (1) δ j = o j (1 o j ) k δ k w jk und w ij = ηδ j o i (2) verwendet. Dabei ist t j der gewünschte Ausgabewert des Neurons j, o k der wirkliche Ausgabewert dieser Einheit (analog o j ) und η die Lernrate, mit der die Grösse der Änderung eingestellt werden kann. Mit w ij kann dann der neue Wert des Gewichts der Verbindung von Neuron i zu Neuron j berechnet werden: w (t+1) ij = w (t) ij + w ij (3) Der Paramter t ist als Index zu verstehen und gibt den Lernschritt an, in dem sich das Netz befindet. Zusammengenommen ergibt sich folgender Vorgang: Ein Trainingsbeispiel wird an die Eingabeschicht angelegt; damit werden in den aufeinanderfolgenden Schichten nacheinander die Ausgabewerte der Neuronen berechnet bis schließlich die Ausgabe des Netzes an der Ausgabeschicht vorliegt. Dies ist der sogenannte Feedforward-Schritt. Aus der Ausgabe des Netzes und der Soll-Ausgabe werden mit (1) die notwendigen Änderungen der Verbindungen zwischen letzter innerer Schicht und der Ausgabeschicht bestimmt und die Gewichte mit (3) angepasst. Mit den δ k der Folgeschicht werden in der Richtung von der Ausgabeschicht zur Eingabeschicht die neuen Gewichte für die Neuronen analog mit (2) geändert. Die Gewichtsänderung von der Ausgabeschicht hin zur Eingabeschicht heißt Backpropagation-Schritt. Die beiden dargestellten Schritte werden zusammen als Backpropagation-Lernen bezeichnet. Dabei werden die beiden Schritte mit relativ vielen Trainingsbeispielen wiederholt durchgeführt. 4

5 1.5 Eigenschaften Neuronaler Netze Neuronale Netze eignen sich zur Klassifikation beziehungsweise zur Mustererkennung und auch als Assoziativspeicher. Dabei haben sie die folgenden Eigenschaften: Lernfähigkeit Fähigkeit zur Verallgemeinerung Die Gewichte werden nach einer Lernregel selbstständig angepasst, so daß das Netz das gewünschte Verhalten zeigt. Zusammenhänge zwischen Eingabe und Ausgabe werden verteilt und parallel in den Gewichten dargestellt Zuordnen von Eingabemustern zu Ausgabemustern Fehlertoleranz In diesem Abschnitt wurden künstliche Neuronale Netze sehr allgemein beschrieben. Um mit künstlichen Neuronalen Netzen Dokumente zu klassifizieren, müssen spezielle Neuronale Netze verwendet werden. Das in diesem Artikel vorgestellte Netz zur Dokumentenklassifikation verwendet Elemente aus der Fuzzy- Logik und ART-Netze. Deshalb werden im folgenden diese beiden Themen kurz behandelt. 2 Fuzzy-Logik Mit der Fuzzy-Logik werden nicht genau begrenze (unscharfe), allgemein vage und auch ungesicherte Sachverhalte einer exakten Beschreibung zugänglich gemacht. Auch ungenaue sprachliche Ausdrücke wie viel, niedrig, oftmals, hoch oder im Mittel werden innerhalb des Konzepts der Fuzzy-Logik mathematisch beschreibbar. Die Basis der Fuzzy-Logik ist die Theorie der unscharfen Mengen. Jedem Element einer Menge (also jeder Aussage) wird ein gradueller Wahrheitswert aus dem Intervall [0, 1] zugeordnet. Die klassische zweiwertige Logik kann als Sonderfall dieser Zuordnungsbeziehung angesehen werden. Abbildung 1: Beispiele für Fuzzy-Mengen 5

6 2.1 Fuzzy-Mengen Definition (Fuzzy-Menge, Zugehörigkeitsfunktion, Kardinalität) Es sei U eine Grundmenge (Universum) und µ A : U [0, 1] eine totale Abbildung. Dann ist A = {(u, µ A (u)) u U} eine Fuzzy-Menge. Die Funktion µ A (u) heißt Zugehörigkeitsfunktion und gibt den Grad der Mitgliedschaft eines Elements u U an. Die Kardinalität einer Fuzzy-Menge ist mit A = x A µ A(x) definiert. Definition (Gleichheit, Teilmenge, Leere Menge) Gegeben seien Fuzzy-Mengen A und B. Sie heißen gleich, falls gilt µ A (u) = µ B (u) u U. A heißt Teilmenge von B, falls µ A (u) µ B (u) u U. A heißt leer, wenn µ A (u) = 0 u U. (Schreibweisen entsprechend A = B, A B und A = ). Definition (Mengenoperationen) Gegeben seien die beiden Fuzzy-Mengen A und B über dem Universum U und u U. Die Zugehörigkeitsfunktion für das Komplement C von A ist gegeben durch µ C (u) = 1 µ A (u). Für die Vereinigung C von A und B ist µ C (u) = max{µ A (u), µ B (u)}. Der Durchschnitt C von A und B wird über µ C (u) = min{µ A (u), µ B (u)} gebildet. Für C gilt dann jeweils C = {(u, µ C (u)) u U}. (Schreibweisen entsprechend A, A B und A B). Abbildung 2: Komplementbildung, Vereinigung und Durchschnitt 2.2 Fuzzy-Logik Wie in Abbildung 1 zu sehen ist, können schon mit der Glocken-, der Dreiecksoder der Trapezfunktion einfache Aussagen mathematisch beschrieben werden. Das Ziel der Fuzzy-Logik ist es jetzt, solche Aussagen logisch miteinander zu verknüpfen. Die Disjunktion kann mit max{µ A (u), µ B (u)}, die Konjunktion mit min{µ A (u), µ B (u)} und das Komplement mit 1 µ A (u) berechnet werden. Das Ergebnis ist dann wieder ein Wert aus dem Intervall [0, 1]. (Schreibweisen entsprechend A B, A B und A). 6

7 3 Adaptive Resonanztheorie In Abschnitt 1.4 wurden Konzepte zum Trainieren Neuronaler Netze vorgestellt. Dabei werden dem Netz wiederholt Trainingsbeispiele präsentiert, mit denen es auf seine Aufgabe vorbereitet wird. Wenn jetzt immer wieder verschiedene Muster in das Netz eingegeben werden und sich das Netz anhand seiner Lernregel verändert, kann es vorkommen, daß ein bereits gelerntes Muster verlernt wird. Ein Netz, das Gelerntes nicht verlernt, hat die Eigenschaft der Stabilität. Eine naheliegende Idee zur Lösung des Problems wäre es, die Adaption der Gewichte einzuschränken. Damit wird aber auch die Lernfähigkeit des Netzes eingeschränkt. Ein Netz, das seine Lernfähigkeit behält, hat die Eigenschaft der Plastizität. Die beschriebene Problematik heißt allgemein Stabilitäts-Plastizitäts-Dilemma. Eine Lösung für dieses Dilemma bietet die Adaptive Resonanztheorie. Sogenannte ART-Netze sind in Lage, gelernte Muster zu behalten und dabei neue Muster lernen zu können. Beim Lernen neuer Muster wird darauf geachtet, daß gespeicherte Muster nicht zu stark verändert werden. ART-Netze lösen also das Stabilitäts-Plastizitäts-Dilemma. Grob beschrieben geschieht dies dadurch, daß neue Muster nur dann gespeicherten Mustern zugeordnet werden, wenn sich diese nicht zu sehr unterscheiden. Andernfalls kann für dieses neue Muster eine neue Kategorie im Netz erzeugt werden. Daraus folgt, daß spezielle ART-Netze neue Muster bereits nach einmaliger Präsentation lernen können, was wiederum ein unüberwachtes Lernverfahren ermöglicht. Die bekanntesten Vertreter von ART- Netzen sind ART-1 (verarbeitet binäre Eingaben), ART-2 (verarbeitet reelle Eingaben), ART-3 (simuliert zeitliche und chemische Vorgänge aus realen Neuronen), ARTMAP (ermöglicht überwachtes Lernen) und schliesslich Fuzzy ART (Kombination von ART-1 und der Fuzzy-Logik). Abbildung 3: Vereinfachtes Schema von Fuzzy-ART Ein Fuzzy-ART-Netz besteht aus einer Vergleichsschicht F 1 und einer Erkennungsschicht F 2, die über die Gewichtsmatrix W in beiden Richtungen miteinander verbunden sind. Zusätzlich ist eine Reset-Komponente vorhanden. Bei der Präsentation wird der Eingabevektor an die Vergleichsschicht angelegt. Für jede bekannte Kategorie ist in F 2 ein Knoten 2 vorhanden. Ausserdem sind freie 2 Die Begriffe Neuron und Knoten werden synonym verwendet. 7

8 Knoten enthalten, die beim Lernen belegt werden können. Für jeden Knoten in F 2 gibt es in der Gewichtsmatrix W eine Zeile, die den Knoten mit Neuronen aus der Vergleichsschicht verbindet. Die Muster sind in den Gewichten gespeichert. Alle ART-Netze haben ein grundsätzlich ähnliches Verhalten beim Lernen. Für einen präsentierten Eingabevektor wird die Ähnlichkeit mit allen bekannten Mustern berechnet, d.h. der Eingabevektor wird mit allen Zeilen der Gewichtsmatrix W verglichen. Dafür kann zum Beispiel das Skalarprodukt 3 oder die Norm der komponentenweise (Fuzzy-)AND-Operation der Zeilenvektoren von W und dem Eingabevektor verwendet werden (beide Operationen haben ein reelles Skalar als Ergebniss). Diese Werte werden mit dem jeweiligen Gewichtsvektor normiert und dann der Größte davon ausgewählt. Das Neuron der Erkennungsschicht, zu dem der Gewichtsvektor des größten Wertes gehört, heißt Gewinnneuron ( Winner-takes-all ). Die Resetkomponente überprüft, ob die Ähnlichkeit des Eingabevektors und dem Gewichtsvektor (normiert mit dem Eingabevektor) größer als eine sogenannte Ähnlichkeitsschranke 4 ist. Falls diese Bedingung erfüllt ist, wurde eine Kategorie gefunden, in welche die Eingabe eingeordnet werden kann. Die Gewichte des Gewichtsvektors werden dann mit einer einfachen Lernregel angepasst (geringe Lernrate, slow-learning); in diesem Fall tritt die sogenannte Resonanz auf. Im anderen Fall, d.h. wenn das Gewinnneuron das Ähnlichkeitskriterium nicht erfüllt, wird das Gewinnneuron für die Dauer der Präsentation von der Resetkomponente deaktiviert (ein Reset tritt auf) und es wird wiederholt mit dem beschriebenen Suchverfahren ein Gewinnneuron gesucht, welches das Ähnlichkeitskriterium erfüllt. Falls kein Gewichtsvektor gefunden wird, der die Eingabe ausreichend genau klassifiziert, wird ein freies Neuron in der Erkennungsschicht belegt und auf den Eingabevektor trainiert (hohe Lernrate, fast-learning). Bemerkenswert an diesem Verfahren ist, daß gänzlich unbekannte Muster nach einmaliger Präsentation gelernt werden können (fast-learning), d.h. das Netz hat eine hohe Plastizität. Zusätzlich werden gelernte Klassen nur dann an einen neuen Eingabevektor angepasst, wenn bereits eine hohe Ähnlichkeit vorhanden ist, d.h. es ist eine hohe Stabilität von bereits gelernten Mustern gewährleistet. 4 Klassifikation von Dokumenten mit ARAM In diesem Abschnitt wird ein Neuronales Netz zur Dokumentenklassifikation beschrieben, die sogenannte Adaptive Resonance Associative Map (ARAM). ARAM ist ein selbst-organisierendes Neuronales Netz mit überwachtem Lernverfahren. Es besteht aus zwei sich überlappenden ART-Modulen mit den Eingabeschichten F a 1 und F b 1 und einer Schicht F 2, welche die zu erkennenden Klassen kodiert. Bei der Klassifikation wird an F a 1 ein Merkmalsvektor angelegt, F b 1 enthält dann als Ausgabe den Vektor für die Kategorie, in die das Netz die Eingabe eingeordnet hat. Im nächsten Abschnitt wird kurz beschrieben, wie ein Dokument für das Netz als Merkmalsvektor kodiert wird. 3 Das Skalarprodukt ist ein Ähnlichkeitsmaß für zwei Einheitsvektoren; je ähnlicher diese sind, um so größer ist das Skalarprodukt. 4 Für die Ähnlichkeitsschranke ρ gilt ρ [0, 1]. 8

9 Abbildung 4: Aufbau von ARAM 4.1 Extraktion von Merkmalen aus Dokumenten Jedes Dokument wird durch eine Menge von Merkmalen aus Schlüsselwörtern repräsentiert. Für ARAM gibt es zwei Quellen, aus denen Merkmale gewonnen werden können. Zum einen gibt es Regeln die der Benutzer eingeben kann. Zum anderen können die Merkmale aus den Wörtern der Trainingsdokumente ausgewählt werden. Für beide Quellen wird der Sprachteil und die Stammform für jedes Wort bestimmt. Zur Vereinfachung werden nur die Stammformen von Nomen und Verben zur Weiterverarbeitung verwendet. Bei der Merkmalsextraktion wird wird jedes Dokument in einen Merkmalsvektor v mit M ausgewählten Schlüsselwortmerkmalen kodiert: v = (v 1, v 2,..., v M ) Im Folgenden ist tf j die Frequenz eines Schlüsselworts w j innerhalb des Dokuments. N ist die Anzahl der verfügbaren Dokumente und df j ist die Anzahl der Dokumente, die das Schlüsselwort w j enthalten. Um den Vektor v zu erhalten, können folgende drei Möglichkeiten verwendet werden: 5 v j = tf j v j = tf j log 2 N df j v j = (1 + log 2 tf j ) log 2 N df j (tf Schema) (tf*idf Schema) (log-tf*idf Schema) Der Vektor v wird normalisiert, um den endgültigen Merkmalsvektor a zu erstellen mit a = v/v m mit v m = max v i i {1,...,M} Dieser Vektor a wird dem Neuronalen Netz präsentiert. 5 tf = term frequency, df = document frequency, idf = inverse document frequency 9

10 4.2 Lernen Im Folgenden werden einige Bezeichner eingeführt und die Anfangsbedingungen des Netzes beschrieben. Danach wird der Vorgang des Lernens beschrieben, der sich grob an den der ART-Netze anlehnt Eingaben des Netzes Als Eingabe des Netzes wird ein Trainingspaar verwendet, das aus aus einem Merkmalsvektor a R M eines Dokuments und dem Merkmalsvektor b R N der zugehörigen Kategorie besteht. Die Vektoren a und b werden in die komplementkodierten Vektoren A R M : A = (a 1,..., a M, 1 a 1,..., 1 a M ) B R N : B = (b 1,..., b N, 1 b 1,..., 1 b N ) transformiert. Diese sind auch in Abbildung 4 zu sehen. Durch die Komplementkodierung wird erreicht, daß ein Vektor immer die gleiche Länge p hat, wenn p = i p i ist: A = M und B = N. Damit lassen sich Vektoren einfacher auf Ähnlichkeit überprüfen Aktivitäten der einzelnen Schichten Die Aktivitätsvektoren der Schichten F a 1, F b 1 und F 2 werden in dieser Reihenfolge mit x a, x b und y bezeichnet. Bei der Eingabepräsentation sind die Aktivitäten der Merkmalsschichten F a 1 und F b 1 gleich den komplement-kodierten Merkmalsvektoren, d.h. x a = A und x b = B Gewichte der Verbindungsmatrizen Jeder Knoten in F 2 ist über den Gewichtsvektor w a j mit F a 1 und über den Gewichtsvektor w b j mit F b 1 verbunden. Jeder Knoten von F 2 kann eine Kategorie repräsentieren. Anfangs sind alle Gewichte gleich und kein Knoten von F 2 ist belegt Parameter von ARAM Die folgenden Parameter beeinflussen das Verhalten beim Lernen und bei der Klassifikation. Wie beim Backpropagation-Lernen kann die Lerngeschwindigkeit über Lernraten eingestellt werden. Für die Gewichte von einem Neuron aus F 2 zu einem Knoten aus F1 a ist β a [0, 1] die Lernrate und für die Verbindungen von F 2 zu F1 b ist dies β b [0, 1]. Über die Ähnlichkeitsschranken ρ a, ρ b [0, 1] und den Gewichtungsparameter γ [0, 1] wird die Genauigkeit der Klassifikation festgelegt Wahl der Kategorie Das Netz versucht nach der Präsentation der Eingabe diejenige Kategorie zu finden, mit der der Eingabevektor die größte Ähnlichkeit aufweist. Falls die Eingabe in keine gespeicherte Kategorie passt, d.h. die Gewichte der ähnlichsten Kategorie würden beim Anpassen an diese Eingabe zu stark verändert werden, wird ein neuer Knoten in F 2 belegt. 10

11 An F1 a liegt jetzt A an und an F1 b entsprechend B. Dann wird folgende Maximumsbestimmung durchgeführt. Für jeden Knoten j aus F 2 wird die Funktion T j = γ A wa j α a + wj a + (1 γ) B wb j α b + wj b berechnet. 6 Hierbei ist (p q) i = min(p i, q i ) die Fuzzy-AND-Operation und p = i p i die Norm für Vektoren p und q. Von allen T j wird anschliessend der größte Wert ausgewählt und mit J indiziert, d.h. T J = max{t j j Knoten in F 2 }. In dem Aktivitätsvektor y von F 2 ist y J = 1 und y j J = 0. An diesem Punkt werden die beiden Fälle Resonanz und Reset unterschieden. Resonanz tritt auf, wenn folgendes Ähnlichkeitskriterium erfüllt wird: A w a J A ρ a und B wb J B ρ b In diesem Fall wird ein Lernzyklus durchgeführt, wie in Abschnitt beschrieben. Andernfalls wird ein Reset ausgelöst. Dabei wird T J für die restliche Dauer der Eingabepräsentation auf Null gesetzt, d.h. das Neuron J der Schicht F 2 wird von der Resetkomponente am Feuern gehindert; es hat den Ausgabewert Null. Danach wird die Maximumsbestimmung wie oben beschrieben solange wiederholt, bis Resonanz erreicht wird. Dies passiert in jedem Fall, wenn vor dem Lernen alle Gewichtsvektoren mit 1 initialisiert werden. Die Resonanz tritt dann spätestens nach einer endlichen Anzahl von Durchläufen bei einem Gewichtsvektor auf, der noch in allen Komponenten 1 ist, d.h. der Knoten dieses Gewichtsvektors ist noch nicht belegt. Diesenfalls kann in dem nachfolgend beschriebenen Lernzyklus der Knoten dadurch belegt werden, indem die Lernraten β a und β b auf 1 gesetzt werden Ein Lernzyklus Nach dem Ende der beschriebenen Suche werden die Gewichtsvektoren w a J und w b J über und w a(new) J w b(new) J = (1 β a )w a(old) J = (1 β b )w b(old) J + β a (A w a(old) J ) + β b (B w b(old) J ) angepasst. Wenn J ein unbelegter Knoten in F 2 ist, wird β a = β b = 1 gesetzt. Wenn dies in obige Ausdrücke eingesetzt und berücksichtigt wird, daß bei einem unbelegten Knoten alle Gewichte 1 sind, ist schnell klar, daß auf der rechten Seite des Ausdrucks nur A übrig bleibt. Daraus folgt, daß die Gewichte von J in einem Durchlauf an die unbekannte Eingabe angepasst werden. Nachdem ein Knoten belegt wurde, wird β a < 1 und β b < 1 gesetzt. 6 α a und α b verhindern eine Division durch Null, beide liegen nahe bei Null um die Rechnung nicht zu verfälschen. Die Faktoren γ und (1 γ) ermöglichen eine Gewichtung der beiden Summanden. 11

12 4.3 Klassifikation Wenn ein ARAM-Netz wie oben beschrieben die zu erkennenden Kategorien gelernt hat, kann die Klassifikation von Dokumenten durchgeführt werden. Dazu wird der Merkmalsvektor eines Dokuments wieder an F1 a angelegt und die Kategorie, in die das Dokument vom Netz eingeordnet wurde, über F1 b ausgegeben. Nur der Knoten J aus F 2, der den größten Eingabewert T J erhält, bestimmt die Ausgabe von ART b (Abbildung 4), d.h. von F1 a nach F 2 { 1 j = J mit TJ > T y j = k k J 0 sonst Der Aktivitätsvektor x b von F b 1 ist gegeben durch x b = j w b jy j = w b J. Der Ausgabevektor B wird gebildet mit B = (b 1,..., b 2N ) = x b, wobei b i die Zugehörigkeit eines Musters zur Kategorie i angibt. 4.4 Einfügen von Regeln in ein ARAM-Netz Um die Genauigkeit bei der Klassifizierung zu erhöhen und um Benutzerwissen bei der Kategorisierung heranziehen zu können, ist es möglich, Regeln der Form Wenn-dann in ein ARAM-Netz einzufügen. Dies geschieht dadurch, daß ein Algorithmus aus den Regeln die Vektoren A und B erzeugt, mit denen das Netz wie oben beschrieben trainiert werden kann. Die Regeln könnten von einem Benutzer eingegeben werden oder dazu dienen, in Bereichen, in denen nur wenige Trainingsbeispiele zur Verfügung stehen, die Genauigkeit zu erhöhen. 4.5 Versuche mit ARAM Für die Versuche wird eine Datenbank mit Nachrichtenmeldungen verwendet (Reuters-21578). Dafür gibt es mehrere Gründe: Die Datenbank ist sehr groß. Sie besteht aus mehreren zehntausend Dokumenten, die bereits klassifiziert sind. Es gibt Kategorien mit vielen Dokumenten und Kategorien mit wenigen Dokumenten. Dadurch ist es möglich, die Lernfähigkeit von ARAM und die Auswirkungen des Einfügens von Regeln zu vergleichen. Reuters wurde bereits ausgiebig in der Literatur zur statistischen Textkategorisierung untersucht, was den Vergleich von ARAM mit anderen Modellen erlaubt. Zur Erleichterung von Vergleichen wurde die Datenbank in Übungs- und Testdaten aufgeteilt. Verwendet wurden 90 von 135 Kategorien, wobei jede mindestens ein Übungsbeispiel und ein Testbeispiel enthielt. Insgesamt ergab das 7770 Übungsdokumente und 3019 Testdokumente. 12

13 4.5.1 Leistungsmaße Der Prozentsatz der Dokumente für eine gegebene Kategorie, die korrekt klassifiziert wurden, wird mit recall (bzw. r) bezeichnet. Der Prozentsatz der eingeordneten Dokumente für eine gegebene Kategorie, die korrekt klassifiziert wurden wird mit precision (bzw. p) bezeichnet. Gemeinhin wird r und p kombiniert, um einen einzelnen Vergleichswert zu erhalten: F 1 (r, p) = 2rp r + p. Diese Werte können für mehrere Versuche ermittelt und dann der Durchschnitt gebildet werden. Bei diesem kann jedes Dokument gleich gewichtet werden oder jeder Kategorie wird das selbe Gewicht beigemessen. Im ersten Fall dominiert die Leistung des Klassifizierers bei großen Kategorien das Maß, im zweiten wird das Maß eher durch kleine Kategorien beeinflusst Ergebnisse Durch das Einfügen von Regeln kann die Leistungsfähigkeit von ARAM bei kleinen Kategorien verbessert werden. In den meisten Bereichen hat ARAM eine mindestens so hohe Leistung gezeigt, wie andere aktuelle Verfahren zur Textklassifizierung, insbesondere bei kleinen Kategorien. Gerade dies legt nahe, daß ARAM für on-line Textklassifikations-Anwendungen wie die Filterung von Dokumenten verwendet verwendet wird. Verwendete Literatur Ah-Hwee Tan, Predictive Self-Organizing Networks for Text Categorization G. Turi, Fuzzy - ART (MAP), paetz/nfs2.pdf vom G. Reif, Kapitel 7 Fuzzy Logik vom G. Reif, Kapitel 8 Neuronale Netze vom IT-Handbuch IT-Systemelektroniker/-in Fachinformatiker/-in, westermann 1999, S. 176 Fuzzy-Logik 13

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20 Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt

Mehr

Aufbau und Beschreibung Neuronaler Netzwerke

Aufbau und Beschreibung Neuronaler Netzwerke Aufbau und Beschreibung r 1 Inhalt Biologisches Vorbild Mathematisches Modell Grundmodelle 2 Biologisches Vorbild Das Neuron Grundkomponenten: Zellkörper (Soma) Zellkern (Nukleus) Dendriten Nervenfaser

Mehr

Einführung in neuronale Netze

Einführung in neuronale Netze Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze

Mehr

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen Was bisher geschah Lernen: überwachtes Lernen korrigierendes Lernen bestärkendes Lernen unüberwachtes Lernen biologisches Vorbild neuronaler Netze: Neuron (Zellkörper, Synapsen, Axon) und Funktionsweise

Mehr

Neuronale Netze mit mehreren Schichten

Neuronale Netze mit mehreren Schichten Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren

Mehr

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze. Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung

Mehr

Kohonennetze Selbstorganisierende Karten

Kohonennetze Selbstorganisierende Karten Kohonennetze Selbstorganisierende Karten Julian Rith, Simon Regnet, Falk Kniffka Seminar: Umgebungsexploration und Wegeplanung mit Robotern Kohonennetze: Neuronale Netze In Dendriten werden die ankommenden

Mehr

weitere Modelle und Methoden

weitere Modelle und Methoden weitere Modelle und Methoden LVQ-Netze, competetive learning, counterpropagation, motorische karten, adaptive resonance theory LVQ Struktur Lernende Vektor-Quantisierung Input-Raum mit Distanz-Funktion

Mehr

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Softcomputing Biologische Prinzipien in der Informatik Neuronale Netze Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Überblick Motivation Biologische Grundlagen und ihre Umsetzung

Mehr

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron Neuronale Netzwerke Gliederung Biologische Motivation Künstliche neuronale Netzwerke Das Perzeptron Aufbau Lernen und Verallgemeinern Anwendung Testergebnis Anwendungsbeispiele Zusammenfassung Biologische

Mehr

Einführung in die Fuzzy Logik

Einführung in die Fuzzy Logik Einführung in die Fuzzy Logik Einleitung und Motivation Unscharfe Mengen fuzzy sets Zugehörigkeitsfunktionen Logische Operatoren IF-THEN-Regel Entscheidungsfindung mit dem Fuzzy Inferenz-System Schlußbemerkungen

Mehr

Selbstorganisierende Karten

Selbstorganisierende Karten Selbstorganisierende Karten Yacin Bessas yb1@informatik.uni-ulm.de Proseminar Neuronale Netze 1 Einleitung 1.1 Kurzüberblick Die Selbstorganisierenden Karten, auch Self-Organizing (Feature) Maps, Kohonen-

Mehr

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014 Übersicht Stand der Kunst im Bilderverstehen: Klassifizieren und Suchen Was ist ein Bild in Rohform? Biologische

Mehr

Grundlagen Neuronaler Netze

Grundlagen Neuronaler Netze Grundlagen Neuronaler Netze Neuronen, Aktivierung, Output, Netzstruktur, Lernziele, Training, Grundstruktur Der Begriff neuronales Netz(-werk) steht immer für künstliche neuronale Netzwerke, wenn nicht

Mehr

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Unüberwachtes Lernen: Adaptive Vektor Quantisierung und Kohonen Netze Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Überwachtes Lernen Alle bis lang betrachteten Netzwerke

Mehr

3.6 Eigenwerte und Eigenvektoren

3.6 Eigenwerte und Eigenvektoren 3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse

Mehr

Einführung in. Neuronale Netze

Einführung in. Neuronale Netze Grundlagen Neuronale Netze Einführung in Neuronale Netze Grundlagen Neuronale Netze Zusammengestellt aus: Universität Münster: Multimediales Skript Internetpräsentation der MFH Iserlohn (000) U. Winkler:

Mehr

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1 Neuronale Netze, Fuzzy Control, Genetische Algorithmen Prof. Jürgen Sauer 5. Aufgabenblatt: Neural Network Toolbox 1 A. Mit Hilfe der GUI vom Neural Network erstelle die in den folgenden Aufgaben geforderten

Mehr

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training des XOR-Problems mit einem Künstlichen Neuronalen Netz (KNN) in JavaNNS 11.04.2011 2_CI2_Deckblatt_XORbinaer_JNNS_2

Mehr

Anhang B. Relationenalgebraische Definitionen. B.1 Relationen

Anhang B. Relationenalgebraische Definitionen. B.1 Relationen Anhang B Relationenalgebraische Definitionen Die relationenalgebraischen Definitionen bilden die Grundlage der formalen Aspekte der Projekte WebReference und InterMediate [Her00]. Sie sind [SS89] entnommen.

Mehr

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität 1 Clustering: Partitioniere Objektmenge in Gruppen(Cluster), so dass sich Objekte in einer Gruppe ähnlich sind und Objekte

Mehr

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform. (hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild

Mehr

00. Einiges zum Vektorraum R n

00. Einiges zum Vektorraum R n 00. Einiges zum Vektorraum R n In diesem einleitenden Kapitel werden die in der LV Einführung in die mathematischen Methoden erwähnten Konzepte über Vektoren (im R 2 und R 3 ) im Rahmen des n-dimensionalen

Mehr

Implementationsaspekte

Implementationsaspekte Implementationsaspekte Überlegungen zur Programmierung Neuronaler Netzwerke Implementationsprinzipien Trennung der Aspekte: Datenhaltung numerische Eigenschaften der Objekte Funktionalität Methoden der

Mehr

Einführung in Neuronale Netze

Einführung in Neuronale Netze Einführung in Neuronale Netze Thomas Ruland Contents 1 Das menschliche Gehirn - Höchstleistungen im täglichen Leben 2 2 Die Hardware 2 2.1 Das Neuron 2 2.2 Nachahmung in der Computertechnik: Das künstliche

Mehr

Donnerstag, 11. Dezember 03 Satz 2.2 Der Name Unterraum ist gerechtfertigt, denn jeder Unterraum U von V ist bzgl.

Donnerstag, 11. Dezember 03 Satz 2.2 Der Name Unterraum ist gerechtfertigt, denn jeder Unterraum U von V ist bzgl. Unterräume und Lineare Hülle 59 3. Unterräume und Lineare Hülle Definition.1 Eine Teilmenge U eines R-Vektorraums V heißt von V, wenn gilt: Unterraum (U 1) 0 U. (U ) U + U U, d.h. x, y U x + y U. (U )

Mehr

Vektor-Multiplikation Vektor- Multiplikation

Vektor-Multiplikation Vektor- Multiplikation Vektor- Multiplikation a d c b Thema: Schultyp: Vorkenntnisse: Bearbeitungsdauer: Vektor-Multiplikation: Vektorprodukt Mittelschule, Berufsschule, Fachhochschule Elementare Programmierkenntnisse, Geometrie,

Mehr

Einführung in Neuronale Netze

Einführung in Neuronale Netze Wintersemester 2005/2006 VO 181.138 Einführung in die Artificial Intelligence Einführung in Neuronale Netze Oliver Frölich Abteilung für Datenbanken und Artificial Intelligence Institut für Informationssysteme

Mehr

Selbstorganisierende Karten

Selbstorganisierende Karten Selbstorganisierende Karten Vorlesung Maschinelles Lernen II Dr. Theo Lettmann Oliver Kramer 22. Mai 2006 Überblick Grundlagen SOMs Anwendungen 2D-SOMs Neuronales Gas 2 Grundlagen der Neuronalen Informationsverarbeitung

Mehr

Kapitel 2: Mathematische Grundlagen

Kapitel 2: Mathematische Grundlagen [ Computeranimation ] Kapitel 2: Mathematische Grundlagen Prof. Dr. Stefan M. Grünvogel stefan.gruenvogel@fh-koeln.de Institut für Medien- und Phototechnik Fachhochschule Köln 2. Mathematische Grundlagen

Mehr

3.4 Der Gaußsche Algorithmus

3.4 Der Gaußsche Algorithmus 94 34 Der Gaußsche Algorithmus Wir kommen jetzt zur expliziten numerischen Lösung des eingangs als eine Motivierung für die Lineare Algebra angegebenen linearen Gleichungssystems 341 n 1 a ik x k = b i,

Mehr

Schriftlicher Test Teilklausur 2

Schriftlicher Test Teilklausur 2 Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2009 / 2010 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher

Mehr

Neuronale Netze (I) Biologisches Neuronales Netz

Neuronale Netze (I) Biologisches Neuronales Netz Neuronale Netze (I) Biologisches Neuronales Netz Im menschlichen Gehirn ist ein Neuron mit bis zu 20.000 anderen Neuronen verbunden. Milliarden von Neuronen beteiligen sich simultan an der Verarbeitung

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

Am Dienstag, den 16. Dezember, ist Eulenfest. 1/48

Am Dienstag, den 16. Dezember, ist Eulenfest. 1/48 Am Dienstag, den 16. Dezember, ist Eulenfest. 1/48 Grundbegriffe der Informatik Einheit 12: Erste Algorithmen in Graphen Thomas Worsch Universität Karlsruhe, Fakultät für Informatik Wintersemester 2008/2009

Mehr

Tabellenkalkulation 1. Einheit 5 Rechnerpraktikum EDV

Tabellenkalkulation 1. Einheit 5 Rechnerpraktikum EDV Tabellenkalkulation 1 Einheit 5 Rechnerpraktikum EDV Inhalt Einführung in die Tabellenkalkulation Berechnungen in Excel Formeln und Bezüge Funktionen Arbeiten mit Datenlisten Sortieren und Filtern Übungen

Mehr

Machine Learning - Maschinen besser als das menschliche Gehirn?

Machine Learning - Maschinen besser als das menschliche Gehirn? Machine Learning - Maschinen besser als das menschliche Gehirn? Seminar Big Data Science Tobias Stähle 23. Mai 2014 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der

Mehr

1 Fraktale Eigenschaften der Koch-Kurve

1 Fraktale Eigenschaften der Koch-Kurve Anhang Inhaltsverzeichnis Fraktale Eigenschaften der Koch-Kurve iii. Einführung.................................. iii.2 Defintion.................................... iii.3 Gesamtlänge der Koch-Kurve........................

Mehr

Grundsätzliches Rechnen mit Matrizen Anwendungen. Matrizenrechnung. Fakultät Grundlagen. Juli 2015

Grundsätzliches Rechnen mit Matrizen Anwendungen. Matrizenrechnung. Fakultät Grundlagen. Juli 2015 Matrizenrechnung Fakultät Grundlagen Juli 2015 Fakultät Grundlagen Matrizenrechnung Übersicht Grundsätzliches 1 Grundsätzliches Matrixbegriff Rechenregeln Spezielle Matrizen 2 Matrizenrechnung Determinanten

Mehr

Mathematik 1, Teil B

Mathematik 1, Teil B FH Oldenburg/Ostfriesland/Wilhelmshaven Fachb. Technik, Abt. Elektrotechnik u. Informatik Prof. Dr. J. Wiebe www.et-inf.fho-emden.de/~wiebe Mathematik 1, Teil B Inhalt: 1.) Grundbegriffe der Mengenlehre

Mehr

Mengen und Abbildungen

Mengen und Abbildungen 1 Mengen und bbildungen sind Hilfsmittel ( Sprache ) zur Formulierung von Sachverhalten; naive Vorstellung gemäß Georg Cantor (1845-1918) (Begründer der Mengenlehre). Definition 1.1 Eine Menge M ist eine

Mehr

Im allerersten Unterabschnitt wollen wir uns mit einer elementaren Struktur innerhalb der Mathematik beschäftigen: Mengen.

Im allerersten Unterabschnitt wollen wir uns mit einer elementaren Struktur innerhalb der Mathematik beschäftigen: Mengen. Kapitel 1 - Mathematische Grundlagen Seite 1 1 - Mengen Im allerersten Unterabschnitt wollen wir uns mit einer elementaren Struktur innerhalb der Mathematik beschäftigen: Mengen. Definition 1.1 (G. Cantor.

Mehr

Semestralklausur zur Vorlesung. Web Mining. Prof. J. Fürnkranz Technische Universität Darmstadt Sommersemester 2004 Termin: 22. 7.

Semestralklausur zur Vorlesung. Web Mining. Prof. J. Fürnkranz Technische Universität Darmstadt Sommersemester 2004 Termin: 22. 7. Semestralklausur zur Vorlesung Web Mining Prof. J. Fürnkranz Technische Universität Darmstadt Sommersemester 2004 Termin: 22. 7. 2004 Name: Vorname: Matrikelnummer: Fachrichtung: Punkte: (1).... (2)....

Mehr

4 Greedy-Algorithmen (gierige Algorithmen)

4 Greedy-Algorithmen (gierige Algorithmen) Greedy-Algorithmen (gierige Algorithmen) Greedy-Algorithmen werden oft für die exakte oder approximative Lösung von Optimierungsproblemen verwendet. Typischerweise konstruiert ein Greedy-Algorithmus eine

Mehr

Indexvokabular {Korsika, Sardinien, Strand, Ferienwohnung, Gebirge} Verknüpfung von Enthaltenseinsbedingungen mittels Boole'scher Junktoren.

Indexvokabular {Korsika, Sardinien, Strand, Ferienwohnung, Gebirge} Verknüpfung von Enthaltenseinsbedingungen mittels Boole'scher Junktoren. Boole'sches Modell Boole'sches Modell: Beispiel basiert auf Mengentheorie und Boole'scher Algebra sehr einfaches Modell mit klarer Semantik Dokumente als Mengen von Indextermen Termgewichte sind binär:

Mehr

(künstliche) Neuronale Netze. (c) Till Hänisch 2003,2015, DHBW Heidenheim

(künstliche) Neuronale Netze. (c) Till Hänisch 2003,2015, DHBW Heidenheim (künstliche) Neuronale Netze (c) Till Hänisch 2003,2015, DHBW Heidenheim Literatur zusätzlich zum Lit. Verz. Michael Negnevitsky, Artificial Intelligence, Addison Wesley 2002 Aufbau des Gehirns Säugetiergehirn,

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Wärmebedarfsprognose für Einfamilienhaushalte auf Basis von Künstlichen Neuronalen Netzen

Wärmebedarfsprognose für Einfamilienhaushalte auf Basis von Künstlichen Neuronalen Netzen Wärmebedarfsprognose für Einfamilienhaushalte auf Basis von Künstlichen Neuronalen Netzen Internationale Energiewirtschaftstagung Wien - 12.02.2015 Maike Hasselmann, Simon Döing Einführung Wärmeversorgungsanlagen

Mehr

LOOP-Programme: Syntaktische Komponenten

LOOP-Programme: Syntaktische Komponenten LOOP-Programme: Syntaktische Komponenten LOOP-Programme bestehen aus folgenden Zeichen (syntaktischen Komponenten): Variablen: x 0 x 1 x 2... Konstanten: 0 1 2... Operationssymbole: + Trennsymbole: ; :=

Mehr

Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens

Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 19.12.2013 Allgemeine Problemstellung

Mehr

entspricht der Länge des Vektorpfeils. Im R 2 : x =

entspricht der Länge des Vektorpfeils. Im R 2 : x = Norm (oder Betrag) eines Vektors im R n entspricht der Länge des Vektorpfeils. ( ) Im R : x = x = x + x nach Pythagoras. Allgemein im R n : x x = x + x +... + x n. Beispiele ( ) =, ( 4 ) = 5, =, 4 = 0.

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 7

Technische Universität München Zentrum Mathematik. Übungsblatt 7 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 7 Hausaufgaben Aufgabe 7. Für n N ist die Matrix-Exponentialfunktion

Mehr

Information Retrieval,

Information Retrieval, Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Information Retrieval, Vektorraummodell Tobias Scheffer Uwe Dick Peter Haider Paul Prasse Information Retrieval Konstruktion von

Mehr

(Man sagt dafür auch, dass die Teilmenge U bezüglich der Gruppenoperationen abgeschlossen sein muss.)

(Man sagt dafür auch, dass die Teilmenge U bezüglich der Gruppenoperationen abgeschlossen sein muss.) 3. Untergruppen 19 3. Untergruppen Nachdem wir nun einige grundlegende Gruppen kennengelernt haben, wollen wir in diesem Kapitel eine einfache Möglichkeit untersuchen, mit der man aus bereits bekannten

Mehr

(Allgemeine) Vektorräume (Teschl/Teschl 9)

(Allgemeine) Vektorräume (Teschl/Teschl 9) (Allgemeine) Vektorräume (Teschl/Teschl 9) Sei K ein beliebiger Körper. Ein Vektorraum über K ist eine (nichtleere) Menge V, auf der zwei Operationen deniert sind, die bestimmten Rechenregeln genügen:

Mehr

Bestimmung einer ersten

Bestimmung einer ersten Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,

Mehr

Lineare Algebra 1. Detlev W. Hoffmann. WS 2013/14, TU Dortmund

Lineare Algebra 1. Detlev W. Hoffmann. WS 2013/14, TU Dortmund Lineare Algebra 1 Detlev W. Hoffmann WS 2013/14, TU Dortmund 1 Mengen und Zahlen 1.1 Mengen und Abbildungen Eine Menge ist eine Zusammenfassung wohlunterscheidbarer Objekte unserer Anschauung/unseres Denkens/unserer

Mehr

Informationsverarbeitung auf Bitebene

Informationsverarbeitung auf Bitebene Informationsverarbeitung auf Bitebene Dr. Christian Herta 5. November 2005 Einführung in die Informatik - Informationsverarbeitung auf Bitebene Dr. Christian Herta Grundlagen der Informationverarbeitung

Mehr

Lineare Algebra. I. Vektorräume. U. Stammbach. Professor an der ETH-Zürich

Lineare Algebra. I. Vektorräume. U. Stammbach. Professor an der ETH-Zürich Lineare Algebra U Stammbach Professor an der ETH-Zürich I Vektorräume Kapitel I Vektorräume 1 I1 Lineare Gleichungssysteme 1 I2 Beispiele von Vektorräumen 7 I3 Definition eines Vektorraumes 8 I4 Linearkombinationen,

Mehr

Routing Algorithmen. Begriffe, Definitionen

Routing Algorithmen. Begriffe, Definitionen Begriffe, Definitionen Routing (aus der Informatik) Wegewahl oder Verkehrslenkung bezeichnet in der Telekommunikation das Festlegen von Wegen für Nachrichtenströme bei der Nachrichtenübermittlung über

Mehr

Lineare Gleichungssysteme - Grundlagen

Lineare Gleichungssysteme - Grundlagen Lineare Gleichungssysteme - Grundlagen Betrachtet wird ein System linearer Gleichungen (im deutschen Sprachraum: lineares Gleichungssystem mit m Gleichungen für n Unbekannte, m, n N. Gegeben sind m n Elemente

Mehr

Zugriff auf Matrizen. Anhängen von Elementen. Punktweise Operatoren. Vektoren und Matrizen in MATLAB II

Zugriff auf Matrizen. Anhängen von Elementen. Punktweise Operatoren. Vektoren und Matrizen in MATLAB II Zugriff auf Matrizen. Anhängen von Elementen. Punktweise Operatoren. Vektoren und Matrizen in MATLAB II Matrixzugriff Wir wollen nun unsere Einführung in die Arbeit mit Vektoren und Matrizen in MATLAB

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016 Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online

Mehr

Einführung in die Vektor- und Matrizenrechnung. Matrizen

Einführung in die Vektor- und Matrizenrechnung. Matrizen Einführung in die Vektor- und Matrizenrechnung Matrizen Definition einer Matrix Unter einer (reellen) m x n Matrix A versteht man ein rechteckiges Schema aus reellen Zahlen, die wie folgt angeordnet sind:

Mehr

2 ZAHLEN UND VARIABLE

2 ZAHLEN UND VARIABLE Zahlen und Variable 2 ZAHLEN UND VARIABLE 2.1 Grundlagen der Mengenlehre Unter einer Menge versteht man die Zusammenfassung von unterscheidbaren Objekten zu einem Ganzen. Diese Objekte bezeichnet man als

Mehr

Kleines Handbuch Neuronale Netze

Kleines Handbuch Neuronale Netze Norbert Hoffmann Kleines Handbuch Neuronale Netze Anwendungsorientiertes Wissen zum Lernen und Nachschlagen - vieweg INHALTSVERZEICHNIS 1 Einleitung, 1.1 Begriff des neuronalen Netzes 1 11.1 Neurophysiologie

Mehr

Multimedia Retrieval im WS 2011/2012

Multimedia Retrieval im WS 2011/2012 Multimedia Retrieval im WS 2011/2012 2. Prinzipien des Information Retrieval Prof. Dr.-Ing. Marcin Grzegorzek Juniorprofessur für Mustererkennung Institut für Bildinformatik im Department ETI Fakultät

Mehr

Einführung in die Informatik

Einführung in die Informatik Universität Innsbruck - Institut für Informatik Datenbanken und Informationssysteme Prof. Günther Specht, Eva Zangerle 24. November 28 Einführung in die Informatik Übung 7 Allgemeines Für die Abgabe der

Mehr

Computational Intelligence I Künstliche Neuronale Netze

Computational Intelligence I Künstliche Neuronale Netze Computational Intelligence I Künstliche Neuronale Nete Universität Dortmund, Informatik I Otto-Hahn-Str. 6, 44227 Dortmund lars.hildebrand@uni-dortmund.de Inhalt der Vorlesung 0. Organisatorisches & Vorbemerkungen.

Mehr

Universität zu Köln Seminar: Künstliche Intelligenz II Dozent: Claes Neuefeind SS 2012. Neuronale Netze. Von Deasy Sukarya & Tania Bellini

Universität zu Köln Seminar: Künstliche Intelligenz II Dozent: Claes Neuefeind SS 2012. Neuronale Netze. Von Deasy Sukarya & Tania Bellini Universität zu Köln Seminar: Künstliche Intelligenz II Dozent: Claes Neuefeind SS 2012 Neuronale Netze Von Deasy Sukarya & Tania Bellini Einführung Symbolische vs. Sub-symbolische KI Symbolische KI: Fokussierung

Mehr

Seminar zum Thema Künstliche Intelligenz:

Seminar zum Thema Künstliche Intelligenz: Wolfgang Ginolas Seminar zum Thema Künstliche Intelligenz: Clusteranalyse Wolfgang Ginolas 11.5.2005 Wolfgang Ginolas 1 Beispiel Was ist eine Clusteranalyse Ein einfacher Algorithmus 2 bei verschieden

Mehr

Entwicklung von Methoden zum Nachweis von ökologisch erzeugten Produkten am Beispiel der Lachszucht - Neronale Netzanalyse -

Entwicklung von Methoden zum Nachweis von ökologisch erzeugten Produkten am Beispiel der Lachszucht - Neronale Netzanalyse - Entwicklung von Methoden zum Nachweis von ökologisch erzeugten Produkten am Beispiel der Lachszucht - Neronale Netzanalyse - Development of Methods to Detect Products Made from Organic Salmon FKZ: 02OE073/1

Mehr

2 Die Dimension eines Vektorraums

2 Die Dimension eines Vektorraums 2 Die Dimension eines Vektorraums Sei V ein K Vektorraum und v 1,..., v r V. Definition: v V heißt Linearkombination der Vektoren v 1,..., v r falls es Elemente λ 1,..., λ r K gibt, so dass v = λ 1 v 1

Mehr

4.4.1 Statisches perfektes Hashing. des Bildbereichs {0, 1,..., n 1} der Hashfunktionen und S U, S = m n, eine Menge von Schlüsseln.

4.4.1 Statisches perfektes Hashing. des Bildbereichs {0, 1,..., n 1} der Hashfunktionen und S U, S = m n, eine Menge von Schlüsseln. 4.4 Perfektes Hashing Das Ziel des perfekten Hashings ist es, für eine Schlüsselmenge eine Hashfunktion zu finden, so dass keine Kollisionen auftreten. Die Größe der Hashtabelle soll dabei natürlich möglichst

Mehr

1 0 1, V 3 = M, und λ A = λa

1 0 1, V 3 = M, und λ A = λa Aufgabe 57. Magische Quadrate Eine reelle 3 3-Matrix A = a 11 a 12 a 13 a 21 a 22 a 23 heißt magisches Quadrat, falls alle Zeilensummen, alle Spaltensummen und die beiden Diagonalsummen a 11 + a 22 + a

Mehr

Aufgabe 1 Probabilistische Inferenz

Aufgabe 1 Probabilistische Inferenz Seite 1 von 9 Aufgabe 1 Probabilistische Inferenz (30 Punkte) In einer medizinischen Studie wurden die Auswirkungen von Metastasen bildenden Karzinomen untersucht. Dabei wurde folgendes festgestellt: Bei

Mehr

4. Vektorräume und Gleichungssysteme

4. Vektorräume und Gleichungssysteme technische universität dortmund Dortmund, im Dezember 2011 Fakultät für Mathematik Prof Dr H M Möller Lineare Algebra für Lehramt Gymnasien und Berufskolleg Zusammenfassung der Abschnitte 41 und 42 4 Vektorräume

Mehr

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21 5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11

Mehr

DIE SPRACHE DER WAHRSCHEINLICHKEITEN

DIE SPRACHE DER WAHRSCHEINLICHKEITEN KAPITEL 1 DIE SPRACHE DER WAHRSCHEINLICHKEITEN Es ist die Aufgabe der ersten drei Kapitel, eine vollständige Beschreibung des grundlegenden Tripels (Ω, A, P) und seiner Eigenschaften zu geben, das heutzutage

Mehr

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben: Korrelationsmatrix Bisher wurden nur statistische Bindungen zwischen zwei (skalaren) Zufallsgrößen betrachtet. Für den allgemeineren Fall einer Zufallsgröße mit N Dimensionen bietet sich zweckmäßiger Weise

Mehr

WMS Block: Management von Wissen in Dokumentenform PART: Text Mining. Myra Spiliopoulou

WMS Block: Management von Wissen in Dokumentenform PART: Text Mining. Myra Spiliopoulou WMS Block: Management von Wissen in nform PART: Text Mining Myra Spiliopoulou WIE ERFASSEN UND VERWALTEN WIR EXPLIZITES WISSEN? 1. Wie strukturieren wir Wissen in nform? 2. Wie verwalten wir nsammlungen?

Mehr

Vorlesung. Einführung in die mathematische Sprache und naive Mengenlehre

Vorlesung. Einführung in die mathematische Sprache und naive Mengenlehre Vorlesung Einführung in die mathematische Sprache und naive Mengenlehre Allgemeines RUD26 Erwin-Schrödinger-Zentrum (ESZ) RUD25 Johann-von-Neumann-Haus Fachschaft Menge aller Studenten eines Institutes

Mehr

Zahlen und metrische Räume

Zahlen und metrische Räume Zahlen und metrische Räume Natürliche Zahlen : Die natürlichen Zahlen sind die grundlegendste Zahlenmenge, da man diese Menge für das einfache Zählen verwendet. N = {1, 2, 3, 4,...} bzw. N 0 = {0, 1, 2,

Mehr

Zahlen und metrische Räume

Zahlen und metrische Räume Zahlen und metrische Räume Natürliche Zahlen : Die natürlichen Zahlen sind die grundlegendste Zahlenmenge, da man diese Menge für das einfache Zählen verwendet. N = {1, 2, 3, 4,...} Ganze Zahlen : Aus

Mehr

9 Vektorräume mit Skalarprodukt

9 Vektorräume mit Skalarprodukt 9 Skalarprodukt Pink: Lineare Algebra 2014/15 Seite 79 9 Vektorräume mit Skalarprodukt 9.1 Normierte Körper Sei K ein Körper. Definition: Eine Norm auf K ist eine Abbildung : K R 0, x x mit den folgenden

Mehr

(künstliche) Neuronale Netze. (c) Till Hänisch 2003, BA Heidenheim

(künstliche) Neuronale Netze. (c) Till Hänisch 2003, BA Heidenheim (künstliche) Neuronale Netze (c) Till Hänisch 2003, BA Heidenheim Literatur zusätzlich zum Lit. Verz. Michael Negnevitsky, Artificial Intelligence, Addison Wesley 2002 Warum? Manche Probleme (z.b. Klassifikation)

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2015 4. April 2016 Zu der Vorlesung wird ein Skript erstellt, welches auf meiner Homepage veröffentlicht wird: http://www.math.uni-hamburg.de/home/geschke/lehre.html

Mehr

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok Kurs über Lineare Gleichungssysteme PD Dr. Karin Halupczok Mathematisches Institut Albert-Ludwigs-Universität Freiburg http://home.mathematik.unifreiburg.de/halupczok/diverses.html karin.halupczok@math.uni-freiburg.de

Mehr

Die Schreibweise x M bedeutet, dass das Objekt x in der Menge M liegt. Ist dies nicht der Fall, dann schreibt man

Die Schreibweise x M bedeutet, dass das Objekt x in der Menge M liegt. Ist dies nicht der Fall, dann schreibt man Die Schreibweise x M bedeutet, dass das Objekt x in der Menge M liegt. Ist dies nicht der Fall, dann schreibt man x / M. Man sagt, M ist Teilmenge von N und schreibt M N, wenn für jedes x M auch x N gilt.

Mehr

Matrizen, Determinanten, lineare Gleichungssysteme

Matrizen, Determinanten, lineare Gleichungssysteme Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n

Mehr

5 Eigenwerte und die Jordansche Normalform

5 Eigenwerte und die Jordansche Normalform Mathematik für Physiker II, SS Mittwoch 8.6 $Id: jordan.tex,v.6 /6/7 8:5:3 hk Exp hk $ 5 Eigenwerte und die Jordansche Normalform 5.4 Die Jordansche Normalform Wir hatten bereits erwähnt, dass eine n n

Mehr

x 2 x 1 x 3 5.1 Lernen mit Entscheidungsbäumen

x 2 x 1 x 3 5.1 Lernen mit Entscheidungsbäumen 5.1 Lernen mit Entscheidungsbäumen Falls zum Beispiel A = {gelb, rot, blau} R 2 und B = {0, 1}, so definiert der folgende Entscheidungsbaum eine Hypothese H : A B (wobei der Attributvektor aus A mit x

Mehr

Brückenkurs Mathematik

Brückenkurs Mathematik Brückenkurs Mathematik 6.10. - 17.10. Vorlesung 3 Geometrie Doris Bohnet Universität Hamburg - Department Mathematik Mi 8.10.2008 1 Geometrie des Dreiecks 2 Vektoren Länge eines Vektors Skalarprodukt Kreuzprodukt

Mehr

Definition 7.1. Der Coxeter Graph zu W ist der ungerichtete gewichtete Graph Γ W = (V, E), mit Eckenmenge V und Kantenmenge E, gegeben durch V = und

Definition 7.1. Der Coxeter Graph zu W ist der ungerichtete gewichtete Graph Γ W = (V, E), mit Eckenmenge V und Kantenmenge E, gegeben durch V = und 7. Coxeter Graphen Um die endlichen Spiegelungsgruppen zu klassifizieren, wollen wir ihnen nun Graphen zuordnen, die die Gruppen bis auf Isomorphie eindeutig bestimmen. Im Folgenden sei wie vorher Π Φ

Mehr

Lineare Algebra I (WS 13/14)

Lineare Algebra I (WS 13/14) Lineare Algebra I (WS 13/14) Alexander Lytchak Nach einer Vorlage von Bernhard Hanke 29.11.2013 Alexander Lytchak 1 / 13 Wiederholung Der Rang einer linearen Abbildung ist gleich dem Spaltenrang der darstellenden

Mehr

Lineare Gleichungssysteme (Teschl/Teschl 11.1)

Lineare Gleichungssysteme (Teschl/Teschl 11.1) Lineare Gleichungssysteme (Teschl/Teschl.) Ein Lineares Gleichungssystem (LGS) besteht aus m Gleichungen mit n Unbekannten x,...,x n und hat die Form a x + a 2 x 2 +... + a n x n b a 2 x + a 22 x 2 +...

Mehr

Mengenlehre. Jörg Witte

Mengenlehre. Jörg Witte Mengenlehre Jörg Witte 25.10.2007 1 Grbegriffe Die Menegenlehre ist heute für die Mathematik grlegend. Sie spielt aber auch in der Informatik eine entscheidende Rolle. Insbesondere fußt die Theorie der

Mehr

1 Boolesches Retrieval (2)

1 Boolesches Retrieval (2) 2. Übung zur Vorlesung Internet-Suchmaschinen im Sommersemester 2009 mit Lösungsvorschlägen Prof. Dr. Gerd Stumme, M.Sc. Wi-Inf. Beate Krause 06. Mai 2009 1 Boolesches Retrieval (2) Eine Erweiterung des

Mehr