Statistische Methoden in der Sprachverarbeitung
|
|
- Lena Boer
- vor 6 Jahren
- Abrufe
Transkript
1 ' Statistische Methoden in der Sprachverarbeitung Gerhard Jäger 7. Mai 22 Inforationstheorie Der Entropiebegriff Entropie: Chaos, Unordung, Nicht-Vorhersagbarkeit,... Begriff kot ursprünglich aus der Physik: Entropie wird nur geringer wenn Energie zugeführt wird Maß der Ungewissheit: geringe Entropie bedeutet geringe Unsicherheit und ugekehrt hohe Entropie bedeutet hohe Überraschung je überraschender das Ergebnis eines Experientes ist, desto überraschter sind wir Die Forel Sei die Verteilung der Zufallsvariablen Entropie von ( ): Erwartungswert des negativen Logarithus der Wahrscheinlichkeit Einheit: Bit Konventionen: Wenn nicht explizit anders angegeben, benutzen wir den binären Logarithus ( ) "#$ Notationsvarianten: (' %& )& " ) 1
2 l g h j O, k Beispiele Extree Bernoulli-Verteilung, basiert auf fairer Münze * + -,. "/ ( * 7 8 * 7 :9; 1 Augenzahl bei fairen Würfel < = ( *EFAB HG I JG I > "K LE#MN Unfaire Münze: -,. / HH )& S Wenn für ein ^]Z L6,, dann Keine Überraschung _ 1T 1 VUWX Y,. S %& $ > 6@@AB = 7POQR keine Inforation keine oberste Schranke, aber a`bdcfejc V, E ZH\[ 7 %& "/ A#,. DC Wenn alle Eleentarereignisse gleich wahrscheinlich sind, ist die Vorhersagbarkeit a geringsten Kodierungs-Interpretation der Entropie iniale durchschnittliche Zahl von Bits, die nötig sind, u eine Botschaft (Zeichenkette, Sequenz, Serie,...) zu kodieren (wobei jedes Eleent Resultat eines Zufallsprozesses it Verteilung ist) ]1 Beispiel: 4 Sybole gihsjbk %& Wahrscheinlichkeiten $ 1, l Negative binäre Logarithen: $, l /,., l /,. A: 1 Bit, C: 2 Bit, G: 3 Bit, T: 3 Bit 2
3 j v l v Entropie no px 7 A,q9; Ars9t,u 7 9t 7 9t T 9;, 7T T A.vw9;,. A.v Mögliche Kodierung in binäre Alphabet: A: ; C: 1; G: 1; T: 11 gewichtete durchschnittliche Kode-Länge: 2 (x ) Besserer Kode: A: 1; C: 1; G: ; T: 1 gewichtete durchschnittliche Kode-Länge: 1 A,L9; Ars9; Optialer Kode: Kodelänge für Sybol yz{} ~u,. A.vw9t Wy" > A.vJN, 7T Perplexität: Motivation Gleichverteilung: bei 2 gleichwahrscheinlichen Ergebnissen: bei 32 gleichwahrscheinlichen Ergebnissen: %& {, %& bei 4.3 Milliarden gleichwahrscheinlichen Ergebnissen: %& M v Perplexität Wenn Ergebnissen nicht gleichwahrscheinlich sind: 32 Eleentarereignisse, 2 davon gleichwahrscheinlich, Rest unöglich: )& 6, Gibt es eine Möglichkeit, den Grad der Unsicherheit/Inforationsgehalt für Zufallsvariable zu vergleichen, wenn die zugrundeliegenden Ereignisräue unterschiedlich groß sind Perplexität )& Pƒ" 3
4 j D.h. wir sind wieder bei 32 (für 32 gleichwahrscheinliche Ergebnisse), 2 für Münzwurf usw. intuitiv leichter vorstellbar: )& /ˆ bedeutet, dass so gut vorhersagbar ist wie ein Experient it ˆ gleichwahrscheinlichen Ausgängen Je ehr eine Verteilung von der Gleichverteilung abweicht, desto geringer sind Entropie und Perplexität Geeinsae und bedingte Entropie Zwei Zufallsvariable: und Geeinsae Entropie: (Paare von - und -Werten werden als ein Ereignis betrachtet) Š\ ( "6 >Œ XŠ>Ž< naup XŠ>Ž< Bedingte Entropie: * c { Œ XŠ\Ž Au: *ŽXc Alternative Definition: = c Eigenschaften der Entropie * c K Z - Œ X *ŽXc *ŽXc Œ Ž c X *ŽXc Œ XŠ\Ž< Ž c Entropie ist nicht-negative a K Beweis: `K für i^`, ist nicht-negativ, also ist : nicht-positiv Sue nicht-positiver Werte ist nicht-positiv 4
5 ž Negation eines nicht-positiven Wertes ist nicht-positiv Kettenregel (analog zu Wahrscheinlichkeiten; statt Multiplikation aber Addition) Š " icf :9 * (, und Š " = c :9 Bedingte Entropie ist besser Š J a` p9, da * c a` ^Š ( Relative Entropie und geeinsae Inforation = J = "Š> = J (Gleichheit wenn und stochastisch unabhängig sind) Effiziente Kodierung eines stocahstischen Prozesses setzt Kenntnis seiner Wahrscheinlichkeitsverteilung voraus Annahe falscher Verteilung führt zu Verschwendung von Bits Relative Entropie zweier Verteilungen und š isst die iniale durchschnittliche Anzahl von verschwendeten Bits, wenn an einen Prozess it Verteilung auf der Basis von š kodiert Definition 1 (Relative Entropie) Die relative Entropie (oder der Kullback-Leibler-Abstand) zwischen zwei Wahrscheinlichkeitsfunktionen und š ist definiert als )nœ š Relative Entropie ist ier nicht-negativ %5œ š S gdw. ŸSš š š Kann als Abstand zwischen zwei Verteilungen aufgefasst werden Aber Vorsicht: Die relative Entropie (i Unterschied zu Abstand i geoetrischen Sinn) ist nicht ier syetrisch erfüllt die Dreiecksungleichung nicht 5
6 ž Œ Geeinsae Inforation und sind stochastisch abhängig _ enthält Inforation über (und ugekehrt) diese Inforation kann bei siultaner Kodierung von und genutzt werden bei fälschlicher Annahe von stochastischer Unabhängigkeit werden Bits verschwendet Geeinsae Inforation von und ist denach die relative Entropie zwischen der tatsächlichen geeinsaen Verteilung von und und ihrer geeinsaen Verteilung unter Annahe ihrer stochastischen Unabhängigkeit Definition 2 (Geeinsae Inforation) oũ J X XŠ\Ž \Œ X XŠ\Ž X X *Ž % XŠ\Ž.œ X X *Ž > ^Š ( u H X = ( = J Verhältnis von Entropie und geeinsaer Inforation Theore 1 3U> * J 5 p9 = U> H(X,Y) cf = c = J n ^Š ( H(X Y) I(X;Y) H(Y X) H(X) H(Y) 6
7 Hausaufgaben Das Morsealphabet kodiert Buchstaben des lateinischen Alphabets i Binärkode (der Einfachheit halber ignorieren wir das Leerzeichen zwischen den kodierten Buchstaben). In deutschen Texten sind die einzelnen Buchstaben folgenderaßen verteilt: 1. E 17.4% 14. M 2.53% 2. N 9.78% 15. O 2.51% 3. I 7.55% 16. B 1.89% 4. S 7.27% 17. W 1.89% 5. R 7.% 18. F 1.66% 6. A 6.51% 19. K 1.21% 7. T 6.15% 2. Z 1.13% 8. D 5.8% 21. P.79% 9. H 4.76% 22. V.67% 1. U 4.35% 23. J.27% 11. L 3.44% 24. Y.4% 12. C 3.6% 25. X.3% 13. G 3.1% 26. Q.2% 1. Was ist die Entropie eines Buchstabens in eine deutschen Text, wenn an Groß-/Kleinschreibung, Interpunktion und Leerzeichen ignoriert und die Wahrscheinlichkeit eines Buchstaben it seiner relativen Häufigkeit gleichsetzt 2. Was ist die erwartete Länge des Kodes eines deutschen Buchstaben i Morsealphabet 3. Was ist die erwartete Länge des Kodes eines deutschen Buchstaben i ASCII-Code 4. (freiwillig) Benutzen Sie ein Kopriierungsprogra wie gzip und einen selbstgewählten deutschen Text 1, u eine obere Schranke für die tatsächliche Entropie eines Buchstaben i Deutschen zu eritteln. 1 Zu Beispiel das Negra-Corpus; zugänglich von /hoe/jaeger/negra/negra-corpus.sent auf de Institutsserver 7
Mathematische Grundlagen III
Mathematische Grundlagen III Informationstheorie Prof Dr. Matthew Crocker Universität des Saarlandes 22. Juni 205 Matthew Crocker (UdS) Mathe III 22. Juni 205 / 43 Informationstheorie Entropie (H) Wie
Mehr1 Ordnung muß sein. 1.1 Angeordnete Körper. 1.2 Folgerungen aus den Anordnungsaxiomen. ( c) (b a) > 0. Somit a c b c > 0.
1 Ordnung uß sein 1.1 Angeordnete Körper Wir nehen einal an, daß es in eine Körper Eleente gibt, die wir positiv nennen. Welche Eigenschaften sollen diese haben? O1) Wenn x und y positiv sind, dann auch
MehrAlgorithmen und Datenstrukturen (ESE) Entwurf, Analyse und Umsetzung von Algorithmen (IEMS) WS 2014 / 2015. Vorlesung 5, Donnerstag, 20.
Algorithmen und Datenstrukturen (ESE) Entwurf, Analyse und Umsetzung von Algorithmen (IEMS) WS 2014 / 2015 Vorlesung 5, Donnerstag, 20. November 2014 (Wie baut man eine Hash Map, Universelles Hashing)
MehrDaten, Informationen, Kodierung. Binärkodierung
Binärkodierung Besondere Bedeutung der Binärkodierung in der Informatik Abbildung auf Alphabet mit zwei Zeichen, in der Regel B = {0, 1} Entspricht den zwei möglichen Schaltzuständen in der Elektronik:
Mehr3 Sicherheit von Kryptosystemen
3 Sicherheit von Kryptosystemen 43 3 Sicherheit von Kryptosystemen 3.1 Informationstheoretische Sicherheit Claude E. Shannon untersuchte die Sicherheit kryptographischer Systeme auf informationstheoretischer
MehrGrundlagen der Informatik I Informationsdarstellung
Grundlagen der Informatik I Informationsdarstellung Einführung in die Informatik, Gumm, H.-P./Sommer, M. Themen der heutigen Veranstaltung. ASCIi Code 2. Zeichenketten 3. Logische Operationen 4. Zahlendarstellung
MehrInformationssicherheit - Lösung Blatt 2
Informationssicherheit - Lösung Blatt 2 Adam Glodek adam.glodek@gmail.com 13.04.2010 1 1 Aufgabe 1: One Time Pad 1.1 Aufgabenstellung Gegeben ist der folgende Klartext 12Uhr (ASCII). Verschlüsseln Sie
MehrLösung 1. Übungsblatt
Fakultät Informatik, Technische Informatik, Professur für Mikrorechner Lösung 1. Übungsblatt Konvertierung von Zahlendarstellungen verschiedener Alphabete und Darstellung negativer Zahlen Stoffverteilung
MehrX = {x 1,x 2,...} sei ein Symbolalphabet eines Kodes. In diesem Kode sind card(x) = X Sachverhalte darstellbar
3. Kodierung Wir wollen Kodierung nicht als Verschlüsselung zum Zwecke der Geheimhaltung auffassen, sondern als Mittel zur Darstellung von Sachverhalten so, daß eine Rechner mit diesen Sachverhalten umgehen
Mehr15 Optimales Kodieren
15 Optimales Kodieren Es soll ein optimaler Kodierer C(T ) entworfen werden, welcher eine Information (z.b. Text T ) mit möglichst geringer Bitanzahl eindeutig überträgt. Die Anforderungen an den optimalen
Mehr1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes
1 Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche: Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 5/ 44 Unser Modell Shannon
MehrZufallsgrößen. Vorlesung Statistik für KW 29.04.2008 Helmut Küchenhoff
Zufallsgrößen 2.5 Zufallsgrößen 2.5.1 Verteilungsfunktion einer Zufallsgröße 2.5.2 Wahrscheinlichkeits- und Dichtefunktion Wahrscheinlichkeitsfunktion einer diskreten Zufallsgröße Dichtefunktion einer
Mehr4. Woche Decodierung; Maximale, Perfekte und Optimale Codes. 4. Woche: Decodierung; Maximale, Perfekte und Optimale Codes 69/ 140
4 Woche Decodierung; Maximale, Perfekte und Optimale Codes 4 Woche: Decodierung; Maximale, Perfekte und Optimale Codes 69/ 140 Szenario für fehlerkorrigierende Codes Definition (n, M)-Code Sei C {0, 1}
Mehr8. Quadratische Reste. Reziprozitätsgesetz
O Forster: Prizahlen 8 Quadratische Reste Rezirozitätsgesetz 81 Definition Sei eine natürliche Zahl 2 Eine ganze Zahl a heißt uadratischer Rest odulo (Abkürzung QR, falls die Kongruenz x 2 a od eine Lösung
MehrTheoretische Grundlagen der Informatik WS 09/10
Theoretische Grundlagen der Informatik WS 09/10 - Tutorium 6 - Michael Kirsten und Kai Wallisch Sitzung 13 02.02.2010 Inhaltsverzeichnis 1 Formeln zur Berechnung Aufgabe 1 2 Hamming-Distanz Aufgabe 2 3
MehrStatistische Thermodynamik I Lösungen zur Serie 1
Statistische Thermodynamik I Lösungen zur Serie Zufallsvariablen, Wahrscheinlichkeitsverteilungen 4. März 2. Zwei Lektoren lesen ein Buch. Lektor A findet 2 Druckfehler, Lektor B nur 5. Von den gefundenen
MehrBeispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen
4.3.2 Zusammengesetzte Zufallsvariablen Beispiel 48 Ein Würfel werde zweimal geworfen. X bzw. Y bezeichne die Augenzahl im ersten bzw. zweiten Wurf. Sei Z := X + Y die Summe der gewürfelten Augenzahlen.
MehrElementare statistische Methoden
Elementare statistische Methoden Vorlesung Computerlinguistische Techniken Alexander Koller 28. November 2014 CL-Techniken: Ziele Ziel 1: Wie kann man die Struktur sprachlicher Ausdrücke berechnen? Ziel
MehrCODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005
CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005. Das Problem.. Quellcodierung und Datenkompression. Wir wollen eine Nachricht über einen digitalen Kanal, der nur 0 oder übertragen kann, schicken.
MehrMartingale. Kapitel 6. 6.1 Martingale in diskreter Zeit. 6.1.1 Definition und Beispiele
Kapitel 6 Martingale In der Statistik modellieren Martingale z.b. Glücksspiele oder Handelsstrategien in Finanzmärkten und sind ein grundlegendes Hilfsmittel für die statistische Inferenz stochastischer
MehrInformation & Kommunikation - Zusammenfassung
Information & Kommunikation - Zusammenfassung Patrick Pletscher 29 September 2004 Grundlagen der Informationstheorie Entropie als Mass für Unsicherheit Definition der Entropie Die Entropie einer diskreten
MehrBITte ein BIT. Vom Bit zum Binärsystem. A Bit Of Magic. 1. Welche Werte kann ein Bit annehmen? 2. Wie viele Zustände können Sie mit 2 Bit darstellen?
BITte ein BIT Vom Bit zum Binärsystem A Bit Of Magic 1. Welche Werte kann ein Bit annehmen? 2. Wie viele Zustände können Sie mit 2 Bit darstellen? 3. Gegeben ist der Bitstrom: 10010110 Was repräsentiert
Mehr3. Informationsdarstellung
Fakultät Informatik Institut Systemarchitektur Professur Datenschutz und Datensicherheit WS 204/205 3. Informationsdarstellung Dr.-Ing. Elke Franz Elke.Franz@tu-dresden.de 3 Informationsdarstellung Bitfolgen
MehrZahlensysteme: Oktal- und Hexadezimalsystem
20 Brückenkurs Die gebräuchlichste Bitfolge umfasst 8 Bits, sie deckt also 2 8 =256 Möglichkeiten ab, und wird ein Byte genannt. Zwei Bytes, also 16 Bits, bilden ein Wort, und 4 Bytes, also 32 Bits, formen
MehrName:... Matrikel-Nr.:... 3 Aufgabe Handyklingeln in der Vorlesung (9 Punkte) Angenommen, ein Student führt ein Handy mit sich, das mit einer Wahrscheinlichkeit von p während einer Vorlesung zumindest
Mehr11/2/05. Darstellung von Text. ASCII-Code. American Standard Code for Information Interchange. Parity-Bit. 7 Bit pro Zeichen genügen (2 7 = 128)
Darstellung von Text ASCII-Code 7 Bit pro Zeichen genügen (2 7 = 128) 26 Kleinbuchstaben 26 Großbuchstaben 10 Ziffern Sonderzeichen wie '&', '!', ''' nicht druckbare Steuerzeichen, z.b. - CR (carriage
Mehr11/2/05. Darstellung von Text. ASCII-Code. American Standard Code for Information Interchange. ASCII-Tabelle. Parity-Bit. Länderspezifische Zeichen
Darstellung von Text ASCII-Code 7 Bit pro Zeichen genügen ( 7 = 18) 6 Kleinbuchstaben 6 Großbuchstaben 10 Ziffern Sonderzeichen wie '&', '!', ''' nicht druckbare Steuerzeichen, z.b. - CR (carriage return
MehrVorlesung Maschinelles Lernen
Vorlesung Maschinelles Lernen Additive Modelle Katharina Morik Informatik LS 8 Technische Universität Dortmund 7.1.2014 1 von 34 Gliederung 1 Merkmalsauswahl Gütemaße und Fehlerabschätzung 2 von 34 Ausgangspunkt:
MehrCodierungstheorie I: Information, Entropie, Kanäle
1 Codierungstheorie I: Information, Entropie, Kanäle Frieder Knüppel Hauptthema der Vorlesung sind fehlerkorrigierende Codes. Zunächst wollen wir aber in Teil I einige allgemeine Überlegungen zur Datenübertragung
MehrProbestudium der Physik: Mathematische Grundlagen
Probestudium der Physik: Mathematische Grundlagen Ludger Santen 1. Februar 2013 Fachrichtung Theoretische Physik, Universität des Saarlandes, Saarbrücken 1 Einführung Die Mathematik ist die Sprache der
Mehr2 Darstellung von Zahlen und Zeichen
2.1 Analoge und digitale Darstellung von Werten 79 2 Darstellung von Zahlen und Zeichen Computer- bzw. Prozessorsysteme führen Transformationen durch, die Eingaben X auf Ausgaben Y abbilden, d.h. Y = f
MehrEinführung in die Statistik
Einführung in die Statistik Dr. C.J. Luchsinger 2 Zufallsgrössen Literatur Kapitel 2 * Statistik in Cartoons: Kapitel 4 * Krengel: 3.1 und 3.2 in 3 und (Honours Program) 10 sowie 11.1, 11.2 und 11.3 in
MehrModul: Stochastik. Zufallsexperimente oder Wahrscheinlichkeit relative Häufigkeit Variation Permutation Kombinationen Binomialverteilung
Modul: Stochastik Ablauf Vorstellung der Themen Lernen Spielen Wiederholen Zusammenfassen Zufallsexperimente oder Wahrscheinlichkeit relative Häufigkeit Variation Permutation Kombinationen Binomialverteilung
Mehr2 Informationstheorie
2 Informationstheorie Formale Grundlagen der Informatik I Herbstsemester 2012 Robert Marti Vorlesung teilweise basierend auf Unterlagen von Prof. emer. Helmut Schauer Grundbegriffe Informatik (IT: Information
Mehrbereits in A,3 und A.4: Betrachtung von Addierschaltungen als Beispiele für Schaltnetze und Schaltwerke
Rechnerarithmetik Rechnerarithmetik 22 Prof. Dr. Rainer Manthey Informatik II Übersicht bereits in A,3 und A.4: Betrachtung von Addierschaltungen als Beispiele für Schaltnetze und Schaltwerke in diesem
MehrEin möglicher Unterrichtsgang
Ein möglicher Unterrichtsgang. Wiederholung: Bernoulli Experiment und Binomialverteilung Da der sichere Umgang mit der Binomialverteilung, auch der Umgang mit dem GTR und den Diagrammen, eine notwendige
MehrZur Verteidigung der Informationstheorie gegen unlautere Angriffe. Bertrand Klimmek,, Mai 2004
Zur Verteidigung der Informationstheorie gegen unlautere Angriffe Bertrand Klimmek,, Mai 2004 Historischer Überblick bis Mitte des 20. Jahrhunderts: Wohlfahrtsstaat, Keynesianismus, Sci-Fi theoretische
Mehr6 Fehlerkorrigierende Codes
R. Reischuk, ITCS 35 6 Fehlerkorrigierende Codes Wir betrachten im folgenden nur Blockcodes, da sich bei diesen das Decodieren und auch die Analyse der Fehlertoleranz-Eigenschaften einfacher gestaltet.
Mehrgeben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen
geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Vollständigkeit halber aufgeführt. Gehen wir einmal davon aus, dass die von uns angenommenen 70% im Beispiel exakt berechnet sind. Was würde
MehrDie Bestimmung des Quotienten Ladung/Masse für natürliche H-Strahlen und Atomtrümmer aus Aluminium
G edruckt it Unterstützung Akadeie d. Wissenschaften aus de Wien; Jeroe download unter und www.biologiezentru.at Margaret Stonborough-Fonds Mitteilungen aus de Institut für Radiuforschung Nr. 181 Die Bestiung
MehrÜbungen zur Mathematik für Pharmazeuten
Blatt 1 Aufgabe 1. Wir betrachten den Ereignisraum Ω = {(i,j) 1 i,j 6} zum Zufallsexperiment des zweimaligem Würfelns. Sei A Ω das Ereignis Pasch, und B Ω das Ereignis, daß der erste Wurf eine gerade Augenzahl
MehrJava Einführung VARIABLEN und DATENTYPEN Kapitel 2
Java Einführung VARIABLEN und DATENTYPEN Kapitel 2 Inhalt dieser Einheit Variablen (Sinn und Aufgabe) Bezeichner Datentypen, Deklaration und Operationen Typenumwandlung (implizit/explizit) 2 Variablen
MehrMathematische Grundlagen der Kryptographie. 1. Ganze Zahlen 2. Kongruenzen und Restklassenringe. Stefan Brandstädter Jennifer Karstens
Mathematische Grundlagen der Kryptographie 1. Ganze Zahlen 2. Kongruenzen und Restklassenringe Stefan Brandstädter Jennifer Karstens 18. Januar 2005 Inhaltsverzeichnis 1 Ganze Zahlen 1 1.1 Grundlagen............................
MehrData Mining: Einige Grundlagen aus der Stochastik
Data Mining: Einige Grundlagen aus der Stochastik Hagen Knaf Studiengang Angewandte Mathematik Hochschule RheinMain 21. Oktober 2015 Vorwort Das vorliegende Skript enthält eine Zusammenfassung verschiedener
MehrWahrscheinlichkeitstheorie. Zapper und
Diskrete Wahrscheinlichkeitsräume Slide 1 Wahrscheinlichkeitstheorie die Wissenschaft der Zapper und Zocker Diskrete Wahrscheinlichkeitsräume Slide 2 Münzwürfe, Zufallsbits Elementarereignisse mit Wahrscheinlichkeiten
Mehr1 Stochastische Prozesse in stetiger Zeit
1 Stochastische Prozesse in stetiger Zeit 1.1 Grundlagen Wir betrachten zufällige Prozesse, definiert auf einem Wahrscheinlichkeitsraum (Ω, F, P), welche Werte in einen fest gewählten Zustandsraum annehmen.
MehrGrundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt!
Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt! 1 Einführung 2 Wahrscheinlichkeiten kurz gefasst 3 Zufallsvariablen und Verteilungen 4 Theoretische Verteilungen (Wahrscheinlichkeitsfunktion)
MehrTechnische Informatik I
Technische Informatik I Vorlesung 2: Zahldarstellung Joachim Schmidt jschmidt@techfak.uni-bielefeld.de Übersicht Geschichte der Zahlen Zahlensysteme Basis / Basis-Umwandlung Zahlsysteme im Computer Binärsystem,
MehrGrundbegriffe der Informatik
Grundbegriffe der Informatik Einheit 3: Alphabete (und Relationen, Funktionen, Aussagenlogik) Thomas Worsch Universität Karlsruhe, Fakultät für Informatik Oktober 2008 1/18 Überblick Alphabete ASCII Unicode
MehrCodierungstheorie Rudolf Scharlau, SoSe 2006 9
Codierungstheorie Rudolf Scharlau, SoSe 2006 9 2 Optimale Codes Optimalität bezieht sich auf eine gegebene Quelle, d.h. eine Wahrscheinlichkeitsverteilung auf den Symbolen s 1,..., s q des Quellalphabets
MehrD A T E N... 1 Daten Micheuz Peter
D A T E N.....! Symbole, Alphabete, Codierung! Universalität binärcodierter Daten! Elementare Datentypen! Speicherung binärcodierter Daten! Befehle und Programme! Form und Bedeutung 1 Daten Micheuz Peter
MehrKugel-Fächer-Modell. 1fach. 3fach. Für die Einzelkugel gibt es 3 Möglichkeiten. 6fach. 3! Möglichkeiten
Kugel-Fächer-Modell n Kugeln (Rosinen) sollen auf m Fächer (Brötchen) verteilt werden, zunächst 3 Kugeln auf 3 Fächer. 1fach 3fach Für die Einzelkugel gibt es 3 Möglichkeiten } 6fach 3! Möglichkeiten Es
MehrFachbereichsarbeit aus Mathematik. Kryptographie Eine Annäherung
Bundesrealgynasiu 800 Graz, Petersgasse 0 Fachbereichsarbeit aus Matheatik Michael Kalcher, 8A Kryptographie Eine Annäherung Betreuer: OStR. Mag. Johann Knaß Ich erkläre hierit eidesstattlich, dass ich
MehrFrank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2011
Rechnernetze Übung 5 Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2011 Ziel: Nachrichten fehlerfrei übertragen und ökonomisch (wenig Redundanz) übertragen Was ist der Hamming-Abstand?
MehrKodierungsalgorithmen
Kodierungsalgorithmen Komprimierung Verschlüsselung Komprimierung Zielsetzung: Reduktion der Speicherkapazität Schnellere Übertragung Prinzipien: Wiederholungen in den Eingabedaten kompakter speichern
MehrE-Government-GesetzGesetz. Verfahrensablauf
E-Government-GesetzGesetz Verfahrensablauf 1 Bürgerkartenumgebung EGov-G 2010 Pauer 3 Ermittlung der Stammzahl für natürliche Personen Die Stammzahl wird durch eine symmetrische Verschlüsselung der ZMR-Zahl
MehrKapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung
Kapitel 3 Zufallsvariable Josef Leydold c 2006 Mathematische Methoden III Zufallsvariable 1 / 43 Lernziele Diskrete und stetige Zufallsvariable Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion
Mehr4. Digitale Datendarstellung
4 Digitale Datendarstellung Daten und Codierung Textcodierung Codierung natürlicher Zahlen - Stellenwertsysteme - Konvertierung - Elementare Rechenoperationen Codierung ganzer Zahlen - Komplementdarstellung
MehrDef.: Sei Σ eine Menge von Zeichen. Die Menge Σ* aller Zeichenketten (Wörter) über Σ ist die kleinste Menge, für die gilt:
8. Grundlgen der Informtionstheorie 8.1 Informtionsgehlt, Entropie, Redundnz Def.: Sei Σ eine Menge von Zeichen. Die Menge Σ* ller Zeichenketten (Wörter) über Σ ist die kleinste Menge, für die gilt: 1.
Mehr$ % + 0 sonst. " p für X =1 $
31 617 Spezielle Verteilungen 6171 Bernoulli Verteilung Wir beschreiben zunächst drei diskrete Verteilungen und beginnen mit einem Zufallsexperiment, indem wir uns für das Eintreffen eines bestimmten Ereignisses
MehrInformationstheorethisches Theorem nach Shannon
Informationstheorethisches Theorem nach Shannon Beispiel zum Codierungsaufwand - Wiederholung: Informationstheorethisches Modell (Shannon) Sei x eine Aussage. Sei M ein Modell Wieviele Bits sind aussreichend,
MehrHomomorphe Verschlüsselung
Homomorphe Verschlüsselung Sophie Friedrich, Nicholas Höllermeier, Martin Schwaighofer 11. Juni 2012 Inhaltsverzeichnis Einleitung Motivation Mathematische Definitionen Wiederholung Gruppe Ring Gruppenhomomorphisums
Mehr0 Im folgenden sei die Wortlänge gleich 8 (d. h.: es wird mit Bytes gearbeitet).
Aufgabe 0 Im folgenden sei die Wortlänge gleich 8 (d. h.: es wird mit Bytes gearbeitet). 1. i) Wie ist die Darstellung von 50 im Zweier =Komplement? ii) Wie ist die Darstellung von 62 im Einer =Komplement?
MehrKapitel 3: Etwas Informationstheorie
Stefan Lucks 3: Informationstheorie 28 orlesung Kryptographie (SS06) Kapitel 3: Etwas Informationstheorie Komplexitätstheoretische Sicherheit: Der schnellste Algorithmus, K zu knacken erfordert mindestens
MehrWozu wird ein Rechensystem genutzt? Informationsverarbeitung Information. Information. Interpretation, Abstraktion. Repräsentation.
Wozu wird ein Rechensystem genutzt? Wunsch: Informationsverarbeitung Information Repräsentation Daten Informationsverarbeitung Datenverarbeitung Wirklichkeit: Datenverarbeitung Information Daten Interpretation,
MehrFormelsammlung. Wahrscheinlichkeit und Information
Formelsammlung Wahrscheinlichkeit und Information Ein Ereignis x trete mit der Wahrscheinlichkeit p(x) auf, dann ist das Auftreten dieses Ereignisses verbunden mit der Information I( x): mit log 2 (z)
MehrDas Maschinenmodell Datenrepräsentation
Das Maschinenmodell Datenrepräsentation Darstellung von Zahlen/Zeichen in der Maschine Bit (0/1) ist die kleinste Informationseinheit Größere Einheiten durch Zusammenfassen mehrerer Bits, z.b. 8 Bit =
MehrAnalyse von Zeitreihen in der Umweltphysik und Geophysik Stochastische Prozesse
Analyse von Zeitreihen in der Umweltphysik und Geophysik Stochastische Prozesse Yannik Behr Gliederung 1 Stochastische Prozesse Stochastische Prozesse Ein stochastischer Prozess ist ein Phänomen, dessen
MehrDas Rechnermodell - Funktion
Darstellung von Zahlen und Zeichen im Rechner Darstellung von Zeichen ASCII-Kodierung Zahlensysteme Dezimalsystem, Dualsystem, Hexadezimalsystem Darstellung von Zahlen im Rechner Natürliche Zahlen Ganze
MehrFehlerhafte Codes und Zauberei
Fehlerhafte Codes und Zauberei THEORIE DER INFORMATIK Isolde Adler Humboldt Universität zu Berlin Girls Day, 24.04.2008 ISOLDE ADLER GIRLS DAY THEORIE DER INFORMATIK 1/12 Willkommen zum Girls Day! ISOLDE
MehrProgrammiertechnik Operatoren, Kommentare, Ein-/Ausgabe
Programmiertechnik Operatoren, Kommentare, Ein-/Ausgabe Prof. Dr. Oliver Haase Oliver Haase Hochschule Konstanz 1 Was sind Operatoren? Ein Operator ist eine in die Programmiersprache eingebaute Funktion,
Mehr16. All Pairs Shortest Path (ASPS)
. All Pairs Shortest Path (ASPS) All Pairs Shortest Path (APSP): Eingabe: Gewichteter Graph G=(V,E) Ausgabe: Für jedes Paar von Knoten u,v V die Distanz von u nach v sowie einen kürzesten Weg a b c d e
MehrFormale Methoden II. Gerhard Jäger. SS 2008 Universität Bielefeld. Teil 8, 11. Juni 2008. Formale Methoden II p.1/30
Formale Methoden II SS 2008 Universität Bielefeld Teil 8, 11. Juni 2008 Gerhard Jäger Formale Methoden II p.1/30 Beispiele Anmerkung: wenn der Wahrheitswert einer Formel in einem Modell nicht von der Belegungsfunktion
MehrPHYSIK Wurfbewegungen 1
PHYSIK Wurfbewegungen 1 Senkrechter Wurf nach unten Senkrechter Wurf nach oben Datei Nr. 9111 Auführliche Löungen und Drucköglichkeit nur auf CD Friedrich W. Buckel Augut Internatgynaiu Schloß Torgelow
MehrHauptprüfung Abiturprüfung 2014 (ohne CAS) Baden-Württemberg
Baden-Württemberg: Abitur 04 Pflichtteil www.mathe-aufgaben.com Hauptprüfung Abiturprüfung 04 (ohne CAS) Baden-Württemberg Pflichtteil Hilfsmittel: keine allgemeinbildende Gymnasien Alexander Schwarz www.mathe-aufgaben.com
MehrKodierung. Kodierung von Zeichen mit dem ASCII-Code
Kodierung Kodierung von Zeichen mit dem ASCII-Code Weiterführende Aspekte zur Kodierung: Speicherplatzsparende Codes Fehlererkennende und -korrigierende Codes Verschlüsselnde Codes Spezielle Codes, Beispiel
MehrA1.7: Entropie natürlicher Texte
A1.7: Entropie natürlicher Texte Anfang der 1950er Jahre hat Claude E. Shannon die Entropie H der englischen Sprache mit einem bit pro Zeichen abgeschätzt. Kurz darauf kam Karl Küpfmüller bei einer empirischen
MehrQuellen- und Leitungskodierung. Kommunikationstechnik, SS 08, Prof. Dr. Stefan Brunthaler 132
Quellen- und Leitungskodierung 0 1 Kommunikationstechnik, SS 08, Prof. Dr. Stefan Brunthaler 132 Begriffe Quellencodierung: Dient der Optimierung des Durchsatzes Dazu gehört auch Kompression Kanalcodierung:
MehrP X =3 = 2 36 P X =5 = 4 P X =6 = 5 36 P X =8 = 5 36 P X =9 = 4 P X =10 = 3 36 P X =11 = 2 36 P X =12 = 1
Übungen zur Stochastik - Lösungen 1. Ein Glücksrad ist in 3 kongruente Segmente aufgeteilt. Jedes Segment wird mit genau einer Zahl beschriftet, zwei Segmente mit der Zahl 0 und ein Segment mit der Zahl
Mehr13.5 Der zentrale Grenzwertsatz
13.5 Der zentrale Grenzwertsatz Satz 56 (Der Zentrale Grenzwertsatz Es seien X 1,...,X n (n N unabhängige, identisch verteilte zufällige Variablen mit µ := EX i ; σ 2 := VarX i. Wir definieren für alle
Mehr3.3. Aufgaben zur Binomialverteilung
.. Aufgaben zur Binomialverteilung Aufgabe 1: Ziehen mit Zurücklegen und Binomialverteilung Ein sechsseitiger Würfel wird zehnmal geworfen. a) Wie groß ist die Wahrscheinlichkeit, nur beim ersten Mal die
MehrCodierung, Codes (variabler Länge)
Codierung, Codes (variabler Länge) A = {a, b, c,...} eine endliche Menge von Nachrichten (Quellalphabet) B = {0, 1} das Kanalalphabet Eine (binäre) Codierung ist eine injektive Abbildung Φ : A B +, falls
MehrGrundlagen Anwendungen Quellen. Steganographie. Ingo Blechschmidt, Michael Hartmann LUGA. 4. Oktober 2006
Grundlagen Anwendungen Quellen Ingo Blechschmidt, Michael Hartmann LUGA 4. Oktober 2006 Grundlagen Anwendungen Quellen Inhalt 1 Grundlagen Definition der Beispiele für Historische Anwendungen der Abgrenzung
MehrProbabilistisches Tracking mit dem Condensation Algorithmus
Probabilistisches Tracking mit dem Condensation Algorithmus Seminar Medizinische Bildverarbeitung Axel Janßen Condensation - Conditional Density Propagation for Visual Tracking Michael Isard, Andrew Blake
MehrBin Packing oder Wie bekomme ich die Klamotten in die Kisten?
Bin Packing oder Wie bekomme ich die Klamotten in die Kisten? Ich habe diesen Sommer mein Abi gemacht und möchte zum Herbst mit dem Studium beginnen Informatik natürlich! Da es in meinem kleinen Ort keine
MehrEinführung in die Kodierungstheorie
Einführung in die Kodierungstheorie Einführung Vorgehen Beispiele Definitionen (Code, Codewort, Alphabet, Länge) Hamming-Distanz Definitionen (Äquivalenz, Coderate, ) Singleton-Schranke Lineare Codes Hamming-Gewicht
MehrMotivation. Formale Grundlagen der Informatik 1 Kapitel 5 Kontextfreie Sprachen. Informales Beispiel. Informales Beispiel.
Kontextfreie Kontextfreie Motivation Formale rundlagen der Informatik 1 Kapitel 5 Kontextfreie Sprachen Bisher hatten wir Automaten, die Wörter akzeptieren Frank Heitmann heitmann@informatik.uni-hamburg.de
MehrEinführung in die Informatik und Medieninformatik
Name, Vorname Matrikelnummer Klausur zur Vorlesung Einführung in die Informatik und Medieninformatik LVNr. 36 600, WS 2012/13, im Studiengang Medieninformatik Dienstag, 12. Februar 2013 16:00 18:00 Uhr
MehrMaschinelles Lernen Entscheidungsbäume
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Entscheidungsbäume Paul Prasse Entscheidungsbäume Eine von vielen Anwendungen: Kreditrisiken Kredit - Sicherheiten
MehrLectron. LECTRON Experimentiersystem Schwellwert- & Majoritätslogik Autor: Gerd Kopperschmidt
Lectron LECTRON Experientiersyste chwellwert- & Majoritätslogik utor: Gerd Kopperschidt 3 34 4 4 Lectron nleitungsbuch zu usbausyste Digitaltechnik chwellwert- & Majoritätslogik Herausgeber Lectron Eschersheier
MehrÜbung zur Vorlesung. Informationstheorie und Codierung
Übung zur Vorlesung Informationstheorie und Codierung Prof. Dr. Lilia Lajmi Juni 25 Ostfalia Hochschule für angewandte Wissenschaften Hochschule Braunschweig/Wolfenbüttel Postanschrift: Salzdahlumer Str.
Mehr4. Relationen. Beschreibung einer binären Relation
4. Relationen Relationen spielen bei Datenbanken eine wichtige Rolle. Die meisten Datenbanksysteme sind relational. 4.1 Binäre Relationen Eine binäre Relation (Beziehung) R zwischen zwei Mengen A und B
MehrStatistik I für Betriebswirte Vorlesung 5
Statistik I für Betriebswirte Vorlesung 5 PD Dr. Frank Heyde TU Bergakademie Freiberg Institut für Stochastik 07. Mai 2015 PD Dr. Frank Heyde Statistik I für Betriebswirte Vorlesung 5 1 Klassische Wahrscheinlichkeitsdefinition
MehrÜbung 13: Quellencodierung
ZHAW, NTM, FS2008, Rumc, /5 Übung 3: Quellencodierung Aufgabe : Huffmann-Algorithmus. Betrachten Sie die folgende ternäre, gedächtnislose Quelle mit dem Symbolalphabet A = {A,B,C} und den Symbol-Wahrscheinlichkeiten
MehrInformationsdarstellung im Rechner
Informationsdarstellung im Rechner Dr. Christian Herta 15. Oktober 2005 Einführung in die Informatik - Darstellung von Information im Computer Dr. Christian Herta Darstellung von Information im Computer
Mehr1. 4-Bit Binärzahlen ohne Vorzeichen 2. 4-Bit Binärzahlen mit Vorzeichen 3. 4-Bit Binärzahlen im 2er Komplement 4. Rechnen im 2er Komplement
Kx Binäre Zahlen Kx Binäre Zahlen Inhalt. Dezimalzahlen. Hexadezimalzahlen. Binärzahlen. -Bit Binärzahlen ohne Vorzeichen. -Bit Binärzahlen mit Vorzeichen. -Bit Binärzahlen im er Komplement. Rechnen im
MehrKontrollstrukturen, Pseudocode und Modulo-Rechnung
Kontrollstrukturen, Pseudocode und Modulo-Rechnung CoMa-Übung III TU Berlin 29.10.2012 CoMa-Übung III (TU Berlin) Kontrollstrukturen, Pseudocode und Modulo-Rechnung 29.10.2012 1 / 1 Themen der Übung 1
MehrAdvanced Encryption Standard. Copyright Stefan Dahler 20. Februar 2010 Version 2.0
Advanced Encryption Standard Copyright Stefan Dahler 20. Februar 2010 Version 2.0 Vorwort Diese Präsentation erläutert den Algorithmus AES auf einfachste Art. Mit Hilfe des Wissenschaftlichen Rechners
MehrAuch 2007 wird diese Empfehlung allerdings immer noch nicht universell befolgt.
UTF-8 Kodierung UTF-8 (Abk. für 8-bit Unicode Transformation Format) ist die am weitesten verbreitete Kodierung für Unicode Zeichen. Unicode ist ein internationaler Standard, in dem langfristig für jedes
Mehr