Information Modellierung Shannon Fano Praxis. Entropie. Ingo Blechschmidt, Michael Hartmann. 15. November 2006
|
|
- Insa Beck
- vor 6 Jahren
- Abrufe
Transkript
1 Information Modellierung Shannon Fano Praxis Ingo Blechschmidt, Michael Hartmann 15. November 2006
2 Information Modellierung Shannon Fano Praxis Inhalt 1 Information Definition Informationsebenen 2 Mathematische Modellierung Beispiel: Nachricht Beispiel: LAPLACEscher Münzwurf Beispiel: Gezinkter Münzwurf Beispiel: Musikstücke 3 Shannon Fano-Kodierung Grundideen Algorithmus Beispiel 4 in der Praxis Anwendungen Nachteile
3 Information Modellierung Shannon Fano Praxis Definition Informationsebenen Mögliche Definitionen Information (v. lat.: informare ˆ= bilden, eine Form geben): Muster von Materie oder Energieformen Beseitigung von Ungewissheit
4 Information Modellierung Shannon Fano Praxis Definition Informationsebenen Informationsebenen 1 Codierung 2 Syntax 3 Semantik 4 Pragmatik
5 Information Modellierung Shannon Fano Praxis Definition Informationsebenen Codierung Codierung Vorschrift, mit der Informationen zur Übertragung umgewandelt werden kann. Beispiele: Sprache Schrift Brailleschrift Flaggenalphabet Morsezeichen
6 Information Modellierung Shannon Fano Praxis Definition Informationsebenen Syntax Syntax Information als bloße Struktur, ohne Sinn. Inhalt oder Bedeutung der Information sind irrelevant. Beispiele: Übertragung von Webseiten auf einen Computer Übertragung von Bildern einer Überwachungskamera Übertragung von Tönen beim Telefonieren
7 Information Modellierung Shannon Fano Praxis Definition Informationsebenen Semantik Semantik Interpretierte, sinnbehaftete Information 1gh Allgemeine Formel für den Flächeninhalt 2 eines Dreiecks S. 251/29 Aufgabe 29 im Stochastik-Buch auf Seite vier Personen im Raum; vier Stunden lange Klausur (kontextabhängige Interpretation)
8 Information Modellierung Shannon Fano Praxis Definition Informationsebenen Pragmatik Pragmatik Effektiver Informationsgehalt einer Information Beispiele: 1 Situation: Person will gerade das Haus verlassen Es ist kalt. Informationsgewinn (warme Kleidung anziehen) 2 Situation: Person wartet frierend auf den Bus Es ist kalt. kein Informationsgewinn
9 Information Modellierung Shannon Fano Praxis Nachrichten Münzwurf Gezinkter Münzwurf Musik Modellierung nach Shannon Informationsgehalt eines Zeichens I(x) := log 2 P(x); [1 bit] : Zu erwartender Informationsgehalt E(I) := x Σ P(x) I(x); x: ein bestimmtes Zeichen Σ: Menge aller vorkommenden Zeichen P(x): Wahrscheinlichkeit des Auftretens von x
10 Information Modellierung Shannon Fano Praxis Nachrichten Münzwurf Gezinkter Münzwurf Musik Eigenschaften der Je seltener ein Zeichen, desto höher der Informationsgehalt Spezialfall bei gleicher Häufigkeit aller Zeichen: P(x 1 ) = P(x 2 ) = = P(x n ); I(x 1 ) = I(x 2 ) = = I(x n ) = log 2 P(x n ); }{{} E(I)= log 2 P(x n); Beispiel: M = abcdabcdabcd; P(x n ) = 1 4 ; E(I) = log = 2 bit; Maximale bei Σ = 2 n, n N: E(I) = log n = n bit;
11 Information Modellierung Shannon Fano Praxis Nachrichten Münzwurf Gezinkter Münzwurf Musik Beispiel: Nachricht Definitionen I(x) := log 2 P(x); E(I) := x Σ P(x) I(x); M = (i, n, f, o, r, m, a, t, i, o, n) ; Σ = {i, n, f, o, r, m, a, t} ; I(f ) = I(r) = I(m) = I(a) = I(t) = 1 log 2 11 I(o) = I(i) = I(n) = 2 log 2 11 E(I) ,46 bit + 3 2,46 bit 2,91 bit; ,46 bit; 2,46 bit;
12 Information Modellierung Shannon Fano Praxis Nachrichten Münzwurf Gezinkter Münzwurf Musik Beispiel: LAPLACEscher Münzwurf Definitionen I(x) := log 2 P(x); E(I) := x Σ P(x) I(x); Σ = {Kopf, Zahl} ; P(Kopf) = P(Zahl) = 1 2 ; I(Kopf) = I(Zahl) = log = 1 bit; E(I) = 1 2 I(Kopf) I(Zahl) = = 1 1 bit bit = 1 bit; 2 2
13 Information Modellierung Shannon Fano Praxis Nachrichten Münzwurf Gezinkter Münzwurf Musik Beispiel: Gezinkter Münzwurf Definitionen I(x) := log 2 P(x); E(I) := x Σ P(x) I(x); Σ = {Kopf, Zahl} ; P(Kopf) = p = 1 P(Zahl); I(Kopf) = log 2 p; I(Zahl) = log 2 (1 p) ; E(I) = p I(Kopf) + (1 p) I(Zahl) = = p [ log 2 p] + (1 p) [ log 2 (1 p)] ;
14
15 Information Modellierung Shannon Fano Praxis Nachrichten Münzwurf Gezinkter Münzwurf Musik Beispiel: von Musikstücken Mozart, Bach: Klassische Komponisten Harmonienlehre, Akkorde, Intervalle etc. Schönberg (20. Jhd.): Zwölftonmusik Wiederholung bestimmter zwölf Töne auf verschiedene Arten subjektiv wirr, chaotisch von Zwölftonstücken höher als bei Mozart und Bach! Kritik am Verfahren: (Viel zu) kleiner Korpus, willkürliche Kodierung der Musik zu Buchstaben
16
17
18
19 Information Modellierung Shannon Fano Praxis Grundideen Algorithmus Beispiel Shannon Fano-Kodierung Shannon Fano-Kodierung kodierung ( Kompressionsverfahren ) Darstellung häufiger Zeichen durch kurze Bitfolgen; Darstellung seltener Zeichen durch lange Bitfolgen Eindeutigkeit der Bitfolgen ( Präfixfreiheit ) Problembeispiel: A 10 B 01 C 0 } ABC nicht eindeutig ACA 10010
20 Information Modellierung Shannon Fano Praxis Grundideen Algorithmus Beispiel Algorithmus 1 Sortierung der Zeichen nach rel. Häufigkeit 2 Einteilung der Zeichen in zwei Gruppen, sodass Summen der Häufigkeiten etwa gleich 3 So lange fortfahren, bis Entsprechung jedes Zeichens durch einen Pfad im Baum
21 Information Modellierung Shannon Fano Praxis Grundideen Algorithmus Beispiel Beispiel Text (39 Zeichen): ABADDCCAABABEDAECBDDDAAAABAAAABBCAECECE Zeichen A B C D E Abs. Häufigkeit
22 Information Modellierung Shannon Fano Praxis Grundideen Algorithmus Beispiel Beispiel Original (117 bit; 0,82 bit): Komprimiert (89 bit; 0,99 bit (!!)): Zeichen A B C D E Abs. Häufigkeit Benötigte Bits Bit 0 1 Abs. Häufigkeit A 000 B 001 C 010 D 011 E 100 Zeichen A B C D E Abs. Häufigkeit Benötigte Bits Bit 0 1 Abs. Häufigkeit A 11 B 10 C 01 D 001 E 000
23 Information Modellierung Shannon Fano Praxis Anwendungen Nachteile Anwendung des konzepts Maß für die untere Schranke verlustfreier Kompression Maß für die Zufälligkeit von Information (Zufallsgeneratoren) Maß für Chaos (hohe ˆ= hohe Überraschung) Charakteristika für Autoren (nvergleiche Schlüsse auf Autoren)
24 Information Modellierung Shannon Fano Praxis Anwendungen Nachteile Nachteile Keine Beachtung der Reihenfolge: n von und gleich! (mögliche) Lösung: Algorithmische Information Länge des kürzesten Beschreibung in einer bestimmten Sprache Analyse nur auf syntaktischer Ebene (mögliche) Lösung: Memetik: Übertragung der Prinzipien der Evolutionstheorien auf Gedanken ( Mutation, Viren)
25 Bildnachweis Bildnachweis http: // braillegoogle.gif
Redundanz. Technische Informationsquelle Entropie und Redundanz Huffman Codierung. Martin Werner WS 09/10. Martin Werner, Dezember 09 1
Information, Entropie und Redundanz Technische Informationsquelle Entropie und Redundanz Huffman Codierung Martin Werner WS 9/ Martin Werner, Dezember 9 Information und Daten Informare/ Informatio (lat.)
MehrDatenkompression. 1 Allgemeines. 2 Verlustlose Kompression. Holger Rauhut
Datenkompression Holger Rauhut 1. September 2010 Skript für die Schülerwoche 2010, 8.-11.9.2010 Hausdorff Center for Mathematics, Bonn 1 Allgemeines Datenkompression hat zum Ziel, Daten in digitaler Form,
MehrSeminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung
Huffman-Codierung, arithmetische Codierung Theoretische Informatik RWTH-Aachen 4. April 2012 Übersicht 1 Einführung 2 3 4 5 6 Einführung Datenkompression Disziplin,die Kompressionsalgorithmen entwirft
MehrGrundlagen Anwendungen Quellen. Steganographie. Ingo Blechschmidt, Michael Hartmann LUGA. 4. Oktober 2006
Grundlagen Anwendungen Quellen Ingo Blechschmidt, Michael Hartmann LUGA 4. Oktober 2006 Grundlagen Anwendungen Quellen Inhalt 1 Grundlagen Definition der Beispiele für Historische Anwendungen der Abgrenzung
MehrBegriffe aus der Informatik Nachrichten
Begriffe aus der Informatik Nachrichten Gerhard Goos definiert in Vorlesungen über Informatik, Band 1, 1995 Springer-Verlag Berlin Heidelberg: Die Darstellung einer Mitteilung durch die zeitliche Veränderung
Mehr1 Grundlagen. 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen
1 Grundlagen 1.1 Erste Grundbegriffe 1.2 Kryptographische Systeme 1.3 Informationstheoretische Grundlagen Die Überlegungen dieses Kapitels basieren auf der Informationstheorie von Shannon. Er beschäftigte
MehrDatenkompression. Vortrag von Markus Durzinsky Student der Otto-von-Guericke-Universität Magdeburg
Vortrag am 25. Januar 200 Werner von Siemens Gymnasium Magdeburg Zeitansatz: 5h (inklusive Programmieraufgaben) Datenkompression Vortrag von Markus Durzinsky Student der Otto-von-Guericke-Universität Magdeburg
MehrKodierungsalgorithmen
Kodierungsalgorithmen Komprimierung Verschlüsselung Komprimierung Zielsetzung: Reduktion der Speicherkapazität Schnellere Übertragung Prinzipien: Wiederholungen in den Eingabedaten kompakter speichern
MehrAlgorithmus zur komprimierten Übertragung von Textdaten an mobile Endgeräte
Fachhochschule Wedel Seminararbeit Algorithmus zur komprimierten Übertragung von Textdaten an mobile Endgeräte Sven Reinck 7. Januar 2007 Inhaltsverzeichnis Inhaltsverzeichnis Motivation 2 Wörterbuch 2.
MehrProblem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert.
Anwendungen von Bäumen 4.3.2 Huffman Code Problem: Finde für Alphabet mit n Zeichen einen Binärcode, der die Gesamtlänge eines Textes (über diesem Alphabet) minimiert. => nutzbar für Kompression Code fester
MehrProgrammierkurs II. C und Assembler
Programmierkurs II C und Assembler Prof. Dr. Wolfgang Effelsberg Universität Mannheim Sommersemester 2003 1-1 Inhalt Teil I: Die Programmiersprache C 2. Datentypen und Deklarationen 3. Operatoren und Ausdrücke
MehrEinführung in die Informatik 1
Einführung in die Informatik 1 Algorithmen und algorithmische Sprachkonzepte Sven Kosub AG Algorithmik/Theorie komplexer Systeme Universität Konstanz E 202 Sven.Kosub@uni-konstanz.de Sprechstunde: Freitag,
MehrMathematik für Information und Kommunikation
Mathematik für Information und Kommunikation Am Beispiel des Huffman- Algorithmus Thomas Borys und (Christian Urff) Huffman im Alltag MPEG Telefax JPEG MP3 ZIP avid Huffman avid Huffman [95-999] www.soe.ucsc.edu/people/faculty/huffman.html
Mehr1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes
1 Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche: Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 5/ 44 Unser Modell Shannon
MehrStatistische Kenngrößen. Histogramm. Grundlagen zur statistischen Signalverarbeitung. Statistische Beschreibung von Audio
8.3.6 Statistische Kenngrößen Grundlagen zur statistischen Signalverarbeitung Dr. Detlev Marpe Fraunhofer Institut für achrichtentechnik HHI Histogramm Wahrscheinlichkeitsdichteverteilung Mittelwert µ
MehrEinführung in Kompressionstechniken
Einführung in Kompressionstechniken W. Kowarschick 7. Februar 997. November 9 W. Kowarschick Motivation Dateigrößen Text Vektorgraphiken Rasterbilder Tomographien Telephon CD-Stereo Bildfolgen VD7 VD7
MehrDie Mathematik in der CD
Lehrstuhl D für Mathematik RWTH Aachen Lehrstuhl D für Mathematik RWTH Aachen St.-Michael-Gymnasium Monschau 14. 09. 2006 Codes: Definition und Aufgaben Ein Code ist eine künstliche Sprache zum Speichern
MehrKlausur Informatik-Propädeutikum (Niedermeier/Hartung/Nichterlein, Wintersemester 2012/13)
Berlin, 21. Februar 2013 Name:... Matr.-Nr.:... Klausur Informatik-Propädeutikum (Niedermeier/Hartung/Nichterlein, Wintersemester 2012/13) 1 2 3 4 5 6 7 8 9 Σ Bearbeitungszeit: 90 min. max. Punktezahl:
MehrVorkurs Mathematik 1
Vorkurs Mathematik 1 Einführung in die mathematische Notation Konstanten i komplexe Einheit i 2 + 1 = 0 e Eulersche Zahl Kreiszahl 2 Einführung in die mathematische Notation Bezeichner Primzahlen, Zähler
MehrKodierung. Kodierung von Zeichen mit dem ASCII-Code
Kodierung Kodierung von Zeichen mit dem ASCII-Code Weiterführende Aspekte zur Kodierung: Speicherplatzsparende Codes Fehlererkennende und -korrigierende Codes Verschlüsselnde Codes Spezielle Codes, Beispiel
MehrWahrscheinlichkeit und Zufall
Wahrscheinlichkeit und Zufall Klassische Probleme der Wahrscheinlichkeitsrechnung 23. Juni 2009 Dr. Katja Krüger Universität Paderborn Inhalt Die Wetten des Chevalier de Méréé Warten auf die erste Sechs
MehrProseminar WS 2002/2003
Technische Universität Chemnitz Fakultät für Informatik Professur Theoretische Informatik Proseminar WS 2002/2003 Thema: Datenkompression Dynamisches / Adaptives Huffman-Verfahren Danny Grobe Rainer Kuhn
MehrEinführung in die Fuzzy Logik
Einführung in die Fuzzy Logik Einleitung und Motivation Unscharfe Mengen fuzzy sets Zugehörigkeitsfunktionen Logische Operatoren IF-THEN-Regel Entscheidungsfindung mit dem Fuzzy Inferenz-System Schlußbemerkungen
Mehr2 Informationstheorie
2 Informationstheorie Formale Grundlagen der Informatik I Herbstsemester 2012 Robert Marti Vorlesung teilweise basierend auf Unterlagen von Prof. emer. Helmut Schauer Grundbegriffe Informatik (IT: Information
MehrDas Java-Hamster-Modell
Das Java-Hamster-Modell Programmieren lernen mit dem Hamster Informatikunterricht in der Jahrgansstufe 11 der Ursulaschule Osnabrück Das Java-Hamster-Modell Übersicht 1. Was ist ein Programm? 2. Wodurch
MehrÜbrigens: um den Algorithmus im Unterricht einzuführen, sind keine Formeln notwendig! Warum reicht die normale ASCII-Codierung nicht aus?
Huffman-Code Dieser Text ist als Hintergrundinformation ausschliesslich für die Lehrperson gedacht. Der Text ist deshalb eher technisch gehalten. Er lehnt sich an das entsprechende Kapitel in "Turing Omnibus"
MehrEntwicklung und Implementierung von
Verteidigung der Diplomarbeit: Entwicklung und Implementierung von Michael Rentzsch Technische Universität Chemnitz Professur Datenverwaltungssysteme 20. Oktober 2005 Inhaltsübersicht 1 2 3 4 5 6 Bedeutung
MehrWahrscheinlichkeitsrechnung für die Mittelstufe
Wahrscheinlichkeitsrechnung für die Mittelstufe Wir beginnen mit einem Beispiel, dem Münzwurf. Es wird eine faire Münze geworfen mit den Seiten K (für Kopf) und Z (für Zahl). Fair heißt, dass jede Seite
MehrLehrwerk: Lambacher Schweizer, Klett Verlag
Thema I: Lineare und lineare Gleichungen 1. Lineare 2. Aufstellen von linearen Funktionsgleichungen 3. Nullstellen und Schnittpunkte 1. Klassenarbeit Thema II: Reelle 1. Von bekannten und neuen 2. Wurzeln
MehrKompression und Datenformate. Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate
Kompression und Datenformate Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate AGENDA Digitale Speicherung von Bildern Digitalisierung Informationsgehalt Speicherbedarf Kompression von
MehrRun Length Coding und Variable Length Coding
Fachbereich Medieninformatik Hochschule Harz Run Length Coding und Variable Length Coding Referat Matthias Zittlau 11034 Abgabe: 15.01.2007 Inhaltsverzeichnis 1. RLC...1 2.1 Einführung...1 2.2 Prinzip...1
Mehr2. Digitale Codierung und Übertragung
2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Speicherbedarf und Kompression 2.3 Digitalisierung, Digitale Medien Ludwig-Maximilians-Universität München Prof. Hußmann
MehrKryptographie und Codierung für den Mathematikunterricht
Kryptographie und Codierung für den Mathematikunterricht Pädagogische Hochschule Karlsruhe University of Education École Supérieure de Pédagogie Institut für Mathematik und Informatik Th. Borys Was verstehst
MehrAlgorithmen und Datenstrukturen 2
Algorithmen und Datenstrukturen 2 Sommersemester 2006 6. Vorlesung Peter F. Stadler Universität Leipzig Institut für Informatik studla@bioinf.uni-leipzig.de Datenkomprimierung Bei den meisten bisher betrachteten
MehrInformationstheorie als quantitative Methode in der Dialektometrie
Informationstheorie als quantitative Methode in der Dialektometrie 1 Informationstheorie als quantitative Methode in der Dialektometrie Informationstheorie als quantitative Methode in der Dialektometrie
MehrSeminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume. von Lars-Peter Meyer. im Seminar Methoden wissensbasierter Systeme
Seminarvortrag zum Thema maschinelles Lernen I - Entscheidungsbäume von Lars-Peter Meyer im Seminar Methoden wissensbasierter Systeme bei Prof. Brewka im WS 2007/08 Übersicht Überblick maschinelles Lernen
MehrLösungsvorschläge Blatt Z1
Theoretische Informatik Departement Informatik Prof. Dr. Juraj Hromkovič http://www.ita.inf.ethz.ch/theoinf16 Lösungsvorschläge Blatt Z1 Zürich, 2. Dezember 2016 Lösung zu Aufgabe Z1 Wir zeigen L qi /
MehrDatenbanken und Informationssysteme Sommersemester 2012 Probeklausur
Datenbanken und Informationssysteme Sommersemester 2012 Probeklausur 1 Konzeptuelle Modellierung (12 Punkte) Die folgende Beschreibung skizziert ein Informationssystem zur Verwaltung von Musikern: Jeder
MehrTechnische Universität München SS 2006 Fakultät für Informatik 12. Oktober 2006 Prof. Dr. A. Knoll. Aufgabe 1 Transferfragen (Lösungsvorschlag)
Technische Universität München SS 2006 Fakultät für Informatik 12. Oktober 2006 Prof. Dr. A. Knoll Lösungsvorschläge der Klausur zu Einführung in die Informatik II Aufgabe 1 Transferfragen (Lösungsvorschlag)
MehrEigenschaften von Kompressionsverfahren
6 Textkompression Eigenschaften von Kompressionsverfahren Das Ziel der Datenkompression ist es, eine gegebene Information (Datenquelle) auf eine kompaktere Weise zu repräsentieren. Dies geschieht, indem
Mehr1. Erläutern Sie die Aufgaben von Datentypen in der imperativen Programmierung.
1. Erläutern Sie die Aufgaben von Datentypen in der imperativen Programmierung. Beschreiben Sie ferner je einen frei gewählten Datentyp aus der Gruppe der skalaren und einen aus der Gruppe der strukturierten
MehrMit Simulationen von einfachen Zufallsexperimenten bis zur Inferenzstatistik
Mit Simulationen von einfachen Zufallsexperimenten bis zur Inferenzstatistik Eine Familie hat zwei Kinder. Mit welcher Wahrscheinlichkeit haben alle Kinder dasselbe Geschlecht (2 Mädchen oder 2 Jungen)?
MehrVorlesung Wissensentdeckung
Gliederung Vorlesung Wissensentdeckung Additive Modelle Katharina Morik, Weihs 1 Merkmalsauswahl Gütemaße und Fehlerabschätzung.6.015 1 von 33 von 33 Ausgangspunkt: Funktionsapproximation Aufteilen der
MehrEine verlustbehaftete Komprimierung ist es, wenn wir einige Kleidungsstücke zu
Komprimierungen In Netzwerken müssen viele Daten transportiert werden. Dies geht natürlich schneller, wenn die Datenmengen klein sind. Um dies erreichen zu können werden die Daten komprimiert. Das heisst,
MehrEine Menge A ist die Zusammenfassung gleichartiger Elemente zu einer Gesamtheit. Eine Menge kann definiert werden durch
1.2 Mengenlehre Grundlagen der Mathematik 1 1.2 Mengenlehre Definition: Menge, Element, Variablenraum Eine Menge A ist die Zusammenfassung gleichartiger Elemente zu einer Gesamtheit. Eine Menge kann definiert
MehrLogic in a Nutshell. Christian Liguda
Logic in a Nutshell Christian Liguda Quelle: Kastens, Uwe und Büning, Hans K., Modellierung: Grundlagen und formale Methoden, 2009, Carl Hanser Verlag Übersicht Logik - Allgemein Aussagenlogik Modellierung
MehrÜbungsklausur WS 13/14
Übungsklausur WS 13/14 Name, Vorname: Geburtsdatum: Matrikelnummer: Datum: Für die Bearbeitung der Klausur dürfen keine Bleistifte oder Stifte mit roter Farbe verwendet werden. Zusatzblätter, welche nicht
MehrWas ist Physik? Modell der Natur universell es war schon immer so
Was ist Physik? Modell der Natur universell es war schon immer so Kultur Aus was sind wir gemacht? Ursprung und Aufbau der Materie Von wo/was kommen wir? Ursprung und Aufbau von Raum und Zeit Wirtschaft
MehrEntscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen?
Entscheidungsbäume Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Definition Entscheidungsbaum Sei T ein Binärbaum und A = {a 1,..., a n } eine zu sortierenden Menge. T ist ein Entscheidungsbaum
MehrInduktive Definitionen
Induktive Definitionen Induktive Definition: Konstruktive Methode zur Definition einer Menge M von Objekten aus Basisobjekten mittels (Erzeugungs-) Regeln Slide 1 Rekursion über den Aufbau: Konstruktive
MehrTeil 7. Grundlagen Logik
Teil 7 Grundlagen Logik Was ist Logik? etymologische Herkunft: griechisch bedeutet Wort, Rede, Lehre (s.a. Faust I ) Logik als Argumentation: Alle Menschen sind sterblich. Sokrates ist ein Mensch. Also
MehrDigitalisierung. analoges Signal PAM. Quantisierung
Digitalisierung U analoges Signal t U PAM t U Quantisierung t Datenreduktion Redundanzreduktion (verlustfrei): mehrfach vorhandene Informationen werden nur einmal übertragen, das Signal ist ohne Verluste
Mehr2. Digitale Codierung und Übertragung
2. Digitale Codierung und Übertragung 2.1 Informationstheoretische Grundlagen 2.2 Speicherbedarf und Kompression 2.3 Digitalisierung Ludwig-Maximilians-Universität München Prof. Hußmann Digitale Medien
Mehrx 2 x 1 x 3 5.1 Lernen mit Entscheidungsbäumen
5.1 Lernen mit Entscheidungsbäumen Falls zum Beispiel A = {gelb, rot, blau} R 2 und B = {0, 1}, so definiert der folgende Entscheidungsbaum eine Hypothese H : A B (wobei der Attributvektor aus A mit x
MehrStoffverteilungsplan Mathematik im Jahrgang 9
Überprüfung und Bewertung von Problembearbeitungen Problemlösungsstrategien (Funktionsplotter) Arithmetik / Algebra Operieren Lösen einfacher quadratischer (z.b. durch Faktorisieren oder pq-formel) Verwendung
MehrPulse Code Modulation
Fachbereich Medieninformatik Hochschule Harz Pulse Code Modulation Referat Johannes Bastian 11038 Abgabe: 15.01.2007 Inhaltsverzeichnis Einleitung / Vorwort...1 1 Analoge Signale als Grundlage von PCM...1
MehrMonte-Carlo Simulation
Monte-Carlo Simulation Sehr häufig hängen wichtige Ergebnisse von unbekannten Werten wesentlich ab, für die man allerhöchstens statistische Daten hat oder für die man ein Modell der Wahrscheinlichkeitsrechnung
MehrDigitale Signalverarbeitung
Digitale Signalverarbeitung Mario Hlawitschka Wissenschaftliche Visualisierung, Universität Leipzig hlawit@informatik.uni-leipzig.de, http://www.informatik.uni-leipzig.de/ hlawit/ Mario Hlawitschka Digitale
MehrSudoku. Warum 6? Warum 6?
. / Sudoku Füllen Sie die leeren Felder so aus, dass in jeder Zeile, in jeder Spalte und in jedem x Kästchen alle Zahlen von bis stehen.. / Warum?. / Warum?. / Geschichte der Logik Syllogismen (I) Beginn
MehrETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)
ETWR Teil B 2 Ziele Bisher (eindimensionale, mehrdimensionale) Zufallsvariablen besprochen Lageparameter von Zufallsvariablen besprochen Übertragung des gelernten auf diskrete Verteilungen Ziel des Kapitels
MehrIT- und Medientechnik
IT- und Medientechnik Vorlesung 6: 14.11.2014 Wintersemester 2014/2015 h_da, Lehrbeauftragter Themenübersicht der Vorlesung Hard- und Software Hardware: CPU, Speicher, Bus, I/O,... Software: System-, Unterstützungs-,
MehrHauptdiplomklausur Informatik August 2007: Multimedia Technology
Universität Mannheim Fakultät für Mathematik und Informatik Lehrstuhl für Praktische Informatik IV Prof. Dr.-Ing. W. Effelsberg Hauptdiplomklausur Informatik August 2007: Multimedia Technology Name: Matrikel-Nr.:
MehrCustomization (Zuschneiden)
Customization (Zuschneiden) Anpassen der (Graph)Datenstruktur an die Anwendung. I Ziel: schnell, kompakt. I benutze Entwurfsprinzip: make the common case fast I Listen vermeiden Mögliches Problem: Software-Engineering-Alptraum
MehrName: Matr.-Nr.: Seite: Geben Sie drei Klassifizierungsmerkmale aus dem Kurstext für den Begriff
Name: Matr.-Nr.: Seite: 1 Aufgabe 1 (20 Punkte) 1.1 Geben Sie drei Klassifizierungsmerkmale aus dem Kurstext für den Begriff Bedrohung an. (3 Punkte) 1.2 Was ist Steganographie? (1 Punkt) 1.3 Wozu benötigt
MehrKapitel 1.0. Aussagenlogik: Einführung. Mathematische Logik (WS 2011/12) Kapitel 1.0: Aussagenlogik: Einführung 1/ 1
Kapitel 1.0 Aussagenlogik: Einführung Mathematische Logik (WS 2011/12) Kapitel 1.0: Aussagenlogik: Einführung 1/ 1 Ziele der Aussagenlogik In der Aussagenlogik analysiert man die Wahrheitswerte zusammengesetzter
Mehr1 Grundprinzipien statistischer Schlußweisen
Grundprinzipien statistischer Schlußweisen - - Grundprinzipien statistischer Schlußweisen Für die Analyse zufallsbehafteter Eingabegrößen und Leistungsparameter in diskreten Systemen durch Computersimulation
MehrTerme stehen für Namen von Objekten des Diskursbereichs (Subjekte, Objekte des natürlichsprachlichen Satzes)
Prädikatenlogik Man kann den natürlichsprachlichen Satz Die Sonne scheint. in der Prädikatenlogik beispielsweise als logisches Atom scheint(sonne) darstellen. In der Sprache der Prädikatenlogik werden
MehrCODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005
CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005. Das Problem.. Quellcodierung und Datenkompression. Wir wollen eine Nachricht über einen digitalen Kanal, der nur 0 oder übertragen kann, schicken.
MehrMathematik und Musik: Fourieranalyse
Mathematik und Musik: Fourieranalyse Matheseminar JKU Linz WS2015/16 Peter Gangl Linz 5. Februar 2016 1 / 20 Outline 1 Musik mathematisch betrachtet 2 2 / 20 Outline 1 Musik mathematisch betrachtet 2 2
MehrBasisinformationstechnologie I
Basisinformationstechnologie I Wintersemester 2014/15 29. Oktober 2014 Grundlagen II Universität zu Köln. Historisch-Kulturwissenschaftliche Informationsverarbeitung Jan G. Wieners // jan.wieners@uni-koeln.de
MehrWahrscheinlichkeits - rechnung und Statistik
Michael Sachs Mathematik-Studienhilfen Wahrscheinlichkeits - rechnung und Statistik für Ingenieurstudenten an Fachhochschulen 4., aktualisierte Auflage 2.2 Eindimensionale Häufigkeitsverteilungen 19 absolute
MehrTheoretische Informatik. Reguläre Sprachen und Automaten
Theoretische Informatik Reguläre Sprachen und Automaten Reguläre Sprachen Reguläre Ausdrücke und Sprachen Gleichungen Syntaxdiagramme Erweiterungen Anwendungen Reguläre Ausdrücke über Σ Syntax: Konstante
Mehr1 1. Übung. Einleitung. 1.1 Urnenmodelle. 1.2 Beispiele. 1.3 Aufgaben
Einleitung Dieses sind die kompletten Präsenzaufgaben, die bei der Übung zur Vorlesung Einführung in die Stochastik im Sommersemester 2007 gerechnet wurden. Bei Rückfragen und Anmerkungen bitte an brune(at)upb.de
MehrRandomisierte Algorithmen
Randomisierte Algorithmen Randomisierte Algorithmen 5. Zwei spieltheoretische Aspekte Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2015/2016 1 / 36 Überblick
MehrHeinrich-Heine-Gymnasium Herausforderungen annehmen Haltungen entwickeln Gemeinschaft stärken
Heinrich-Heine-Gymnasium Herausforderungen annehmen Haltungen entwickeln Gemeinschaft stärken Schulinterner Lehrplan Mathematik in der ab dem Schuljahr 2014/15 Eingeführtes Schulbuch: Mathematik Gymnasiale
MehrVorläufiger schulinterner Lehrplan zum Kernlehrplan für die gymnasiale Oberstufe. Mathematik
Vorläufiger schulinterner Lehrplan zum Kernlehrplan für die gymnasiale Oberstufe Mathematik 2.1.1 ÜBERSICHTSRASTER UNTERRICHTSVORHABEN EINFÜHRUNGSPHASE Unterrichtsvorhaben I: Unterrichtsvorhaben II: Beschreibung
MehrKapitel VI - Lage- und Streuungsparameter
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VI - Lage- und Streuungsparameter Markus Höchstötter Lehrstuhl für Statistik, Ökonometrie
Mehr8 Fakultät für Philologie
8 Fakultät für Philologie 8.1 Linguistik 8.1.1 Linguistik, PO 2004 Fach Linguistik (101) Abschluss 2-Fach Bachelor (81) PO-Version 2004 Folgendes ist zurzeit in HISPOS eingerichtet: Modul-Typen: o Nachgewiesene
MehrReguläre Ausdrücke. Karin Haenelt
Reguläre Ausdrücke Karin Haenelt 25.04.2010 1 Inhalt Einführung Definitionen Kleene-Theorem Schreibweisen regulärer Ausdrücke Eigenschaften regulärer Sprachen 2 Was sind reguläre Ausdrücke? Reguläre Ausdrücke
MehrInformation Retrieval
Information Retrieval Norbert Fuhr 12. April 2010 Einführung 1 IR in Beispielen 2 Was ist IR? 3 Dimensionen des IR 4 Daten Information Wissen 5 Rahmenarchitektur für IR-Systeme IR in Beispielen IR-Aufgaben
MehrKompression und Datenformate. Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate
Kompression und Datenformate Grundlagen der Bildspeicherung, Kompressionsverfahren, Datenformate Digitale Speicherung von Bildern Digitalisierung Informationsgehalt Speicherbedarf Kompression von Multimediadaten
MehrKapitel 3: Etwas Informationstheorie
Stefan Lucks 3: Informationstheorie 28 orlesung Kryptographie (SS06) Kapitel 3: Etwas Informationstheorie Komplexitätstheoretische Sicherheit: Der schnellste Algorithmus, K zu knacken erfordert mindestens
MehrInformatik Kl.8. Name: Herr Schlaefendorf frank@schlaefendorf.de. Webseite: http://www.schlaefendorf.de/schule/
Informatik Kl.8 Name: Herr Schlaefendorf frank@schlaefendorf.de Webseite: http://www.schlaefendorf.de/schule/ Arbeitsmaterial: Schreibzeug, Hefter A4 kleinkariert Sitzplan: Fachraumbelehrung: Bewertung
MehrInformationssicherheit - Lösung Blatt 2
Informationssicherheit - Lösung Blatt 2 Adam Glodek adam.glodek@gmail.com 13.04.2010 1 1 Aufgabe 1: One Time Pad 1.1 Aufgabenstellung Gegeben ist der folgende Klartext 12Uhr (ASCII). Verschlüsseln Sie
MehrAlgorithmen mit konstantem Platzbedarf: Die Klasse REG
Algorithmen mit konstantem Platzbedarf: Die Klasse REG Sommerakademie Rot an der Rot AG 1 Wieviel Platz brauchen Algorithmen wirklich? Daniel Alm Institut für Numerische Simulation Universität Bonn August
Mehr6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)
6. Bayes-Klassifikation (Schukat-Talamazzini 2002) (Böhm 2003) (Klawonn 2004) Der Satz von Bayes: Beweis: Klassifikation mittels des Satzes von Bayes (Klawonn 2004) Allgemeine Definition: Davon zu unterscheiden
MehrMütze und Handschuhe trägt er nie zusammen. Handschuhe und Schal trägt er immer zugleich. (h s) Modellierung als Klauselmenge
Was bisher geschah Klassische Aussagenlogik: Syntax Semantik semantische Äquivalenz und Folgern syntaktisches Ableiten (Resolution) Modellierung in Aussagenlogik: Wissensrepräsentation, Schaltungslogik,
MehrZufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten
Zufallsgrößen Ergebnisse von Zufallsexperimenten werden als Zahlen dargestellt 0 Einführung Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Hypothesentests
MehrAbiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc.
Abiturvorbereitung Stochastik neue friedländer gesamtschule Klasse 12 GB 21.02.2014 Holger Wuschke B.Sc. Glücksspiel auf der Buchmesse Leipzig, 2013 Organisatorisches 1. Begriffe in der Stochastik (1)
MehrKompakte Graphmodelle handgezeichneter Bilder
Kompakte Graphmodelle handgezeichneter Bilder Einbeziehung in Authentizierung und Bilderkennung Inhaltsverzeichnis Seminar Mustererkennung WS 006/07 Autor: Stefan Lohs 1 Einleitung 1 Das graphische Modell.1
MehrFormale Sprachen, reguläre und kontextfreie Grammatiken
Formale Sprachen, reguläre und kontextfreie Grammatiken Alphabet A: endliche Menge von Zeichen Wort über A: endliche Folge von Zeichen aus A A : volle Sprache über A: Menge der A-Worte formale Sprache
MehrZur Verteidigung der Informationstheorie gegen unlautere Angriffe. Bertrand Klimmek,, Mai 2004
Zur Verteidigung der Informationstheorie gegen unlautere Angriffe Bertrand Klimmek,, Mai 2004 Historischer Überblick bis Mitte des 20. Jahrhunderts: Wohlfahrtsstaat, Keynesianismus, Sci-Fi theoretische
Mehr8. Konfidenzintervalle und Hypothesentests
8. Konfidenzintervalle und Hypothesentests Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Beispiel. Sie wollen den durchschnittlichen Fruchtsaftgehalt eines bestimmten Orangennektars
MehrSchulinterne Lehrpläne der Städtischen Realschule Waltrop. im Fach: MATHEMATIK Klasse 8
Klettbuch 978-3-12-740481-4 Arithmetik/Algebra 1 Rechnen mit Termen Verbalisieren Reflektieren Erläutern die Arbeitsschritte bei einfachen mathematischen Verfahren (Konstruktionen, Rechenverfahren, Algorithmen)
Mehr5 Zwei spieltheoretische Aspekte
5 Zwei spieltheoretische Aspekte In diesem Kapitel wollen wir uns mit dem algorithmischen Problem beschäftigen, sogenannte Und-Oder-Bäume (kurz UOB) auszuwerten. Sie sind ein Spezialfall von Spielbäumen,
MehrDiscrete Probability - Übungen (SS5) Wahrscheinlichkeitstheorie. 1. KR, Abschnitt 6.1, Aufgabe 5: 2. KR, Abschnitt 6.1, Aufgabe 7:
Discrete Probability - Übungen (SS5) Felix Rohrer Wahrscheinlichkeitstheorie 1. KR, Abschnitt 6.1, Aufgabe 5: Bestimmen Sie die Wahrscheinlichkeit dafür, dass die Augensumme von zwei geworfenen Würfeln
MehrKryptologie und Kodierungstheorie
Kryptologie und Kodierungstheorie Alexander May Horst Görtz Institut für IT-Sicherheit Ruhr-Universität Bochum Lehrerfortbildung 17.01.2012 Kryptologie Verschlüsselung, Substitution, Permutation 1 / 18
Mehr5 Kontinuierliches Wachstum
5 Kontinuierliches Wachstum Kontinuierlich meßbare Größe Wir betrachten nun eine Größe a, die man kontinuierlich messen kann. Den Wert von a zum Zeitpunkt t schreiben wir nun als a(t). Wir können jedem
Mehr