Statistische Methoden in der Sprachverarbeitung

Größe: px
Ab Seite anzeigen:

Download "Statistische Methoden in der Sprachverarbeitung"

Transkript

1 ' Statistische Methoden in der Sprachverarbeitung Gerhard Jäger 7. Mai 22 Inforationstheorie Der Entropiebegriff Entropie: Chaos, Unordung, Nicht-Vorhersagbarkeit,... Begriff kot ursprünglich aus der Physik: Entropie wird nur geringer wenn Energie zugeführt wird Maß der Ungewissheit: geringe Entropie bedeutet geringe Unsicherheit und ugekehrt hohe Entropie bedeutet hohe Überraschung je überraschender das Ergebnis eines Experientes ist, desto überraschter sind wir Die Forel Sei die Verteilung der Zufallsvariablen Entropie von ( ): Erwartungswert des negativen Logarithus der Wahrscheinlichkeit Einheit: Bit Konventionen: Wenn nicht explizit anders angegeben, benutzen wir den binären Logarithus ( ) "#$ Notationsvarianten: (' %& )& " ) 1

2 l g h j O, k Beispiele Extree Bernoulli-Verteilung, basiert auf fairer Münze * + -,. "/ ( * 7 8 * 7 :9; 1 Augenzahl bei fairen Würfel < = ( *EFAB HG I JG I > "K LE#MN Unfaire Münze: -,. / HH )& S Wenn für ein ^]Z L6,, dann Keine Überraschung _ 1T 1 VUWX Y,. S %& $ > 6@@AB = 7POQR keine Inforation keine oberste Schranke, aber a`bdcfejc V, E ZH\[ 7 %& "/ A#,. DC Wenn alle Eleentarereignisse gleich wahrscheinlich sind, ist die Vorhersagbarkeit a geringsten Kodierungs-Interpretation der Entropie iniale durchschnittliche Zahl von Bits, die nötig sind, u eine Botschaft (Zeichenkette, Sequenz, Serie,...) zu kodieren (wobei jedes Eleent Resultat eines Zufallsprozesses it Verteilung ist) ]1 Beispiel: 4 Sybole gihsjbk %& Wahrscheinlichkeiten $ 1, l Negative binäre Logarithen: $, l /,., l /,. A: 1 Bit, C: 2 Bit, G: 3 Bit, T: 3 Bit 2

3 j v l v Entropie no px 7 A,q9; Ars9t,u 7 9t 7 9t T 9;, 7T T A.vw9;,. A.v Mögliche Kodierung in binäre Alphabet: A: ; C: 1; G: 1; T: 11 gewichtete durchschnittliche Kode-Länge: 2 (x ) Besserer Kode: A: 1; C: 1; G: ; T: 1 gewichtete durchschnittliche Kode-Länge: 1 A,L9; Ars9; Optialer Kode: Kodelänge für Sybol yz{} ~u,. A.vw9t Wy" > A.vJN, 7T Perplexität: Motivation Gleichverteilung: bei 2 gleichwahrscheinlichen Ergebnissen: bei 32 gleichwahrscheinlichen Ergebnissen: %& {, %& bei 4.3 Milliarden gleichwahrscheinlichen Ergebnissen: %& M v Perplexität Wenn Ergebnissen nicht gleichwahrscheinlich sind: 32 Eleentarereignisse, 2 davon gleichwahrscheinlich, Rest unöglich: )& 6, Gibt es eine Möglichkeit, den Grad der Unsicherheit/Inforationsgehalt für Zufallsvariable zu vergleichen, wenn die zugrundeliegenden Ereignisräue unterschiedlich groß sind Perplexität )& Pƒ" 3

4 j D.h. wir sind wieder bei 32 (für 32 gleichwahrscheinliche Ergebnisse), 2 für Münzwurf usw. intuitiv leichter vorstellbar: )& /ˆ bedeutet, dass so gut vorhersagbar ist wie ein Experient it ˆ gleichwahrscheinlichen Ausgängen Je ehr eine Verteilung von der Gleichverteilung abweicht, desto geringer sind Entropie und Perplexität Geeinsae und bedingte Entropie Zwei Zufallsvariable: und Geeinsae Entropie: (Paare von - und -Werten werden als ein Ereignis betrachtet) Š\ ( "6 >Œ XŠ>Ž< naup XŠ>Ž< Bedingte Entropie: * c { Œ XŠ\Ž Au: *ŽXc Alternative Definition: = c Eigenschaften der Entropie * c K Z - Œ X *ŽXc *ŽXc Œ Ž c X *ŽXc Œ XŠ\Ž< Ž c Entropie ist nicht-negative a K Beweis: `K für i^`, ist nicht-negativ, also ist : nicht-positiv Sue nicht-positiver Werte ist nicht-positiv 4

5 ž Negation eines nicht-positiven Wertes ist nicht-positiv Kettenregel (analog zu Wahrscheinlichkeiten; statt Multiplikation aber Addition) Š " icf :9 * (, und Š " = c :9 Bedingte Entropie ist besser Š J a` p9, da * c a` ^Š ( Relative Entropie und geeinsae Inforation = J = "Š> = J (Gleichheit wenn und stochastisch unabhängig sind) Effiziente Kodierung eines stocahstischen Prozesses setzt Kenntnis seiner Wahrscheinlichkeitsverteilung voraus Annahe falscher Verteilung führt zu Verschwendung von Bits Relative Entropie zweier Verteilungen und š isst die iniale durchschnittliche Anzahl von verschwendeten Bits, wenn an einen Prozess it Verteilung auf der Basis von š kodiert Definition 1 (Relative Entropie) Die relative Entropie (oder der Kullback-Leibler-Abstand) zwischen zwei Wahrscheinlichkeitsfunktionen und š ist definiert als )nœ š Relative Entropie ist ier nicht-negativ %5œ š S gdw. ŸSš š š Kann als Abstand zwischen zwei Verteilungen aufgefasst werden Aber Vorsicht: Die relative Entropie (i Unterschied zu Abstand i geoetrischen Sinn) ist nicht ier syetrisch erfüllt die Dreiecksungleichung nicht 5

6 ž Œ Geeinsae Inforation und sind stochastisch abhängig _ enthält Inforation über (und ugekehrt) diese Inforation kann bei siultaner Kodierung von und genutzt werden bei fälschlicher Annahe von stochastischer Unabhängigkeit werden Bits verschwendet Geeinsae Inforation von und ist denach die relative Entropie zwischen der tatsächlichen geeinsaen Verteilung von und und ihrer geeinsaen Verteilung unter Annahe ihrer stochastischen Unabhängigkeit Definition 2 (Geeinsae Inforation) oũ J X XŠ\Ž \Œ X XŠ\Ž X X *Ž % XŠ\Ž.œ X X *Ž > ^Š ( u H X = ( = J Verhältnis von Entropie und geeinsaer Inforation Theore 1 3U> * J 5 p9 = U> H(X,Y) cf = c = J n ^Š ( H(X Y) I(X;Y) H(Y X) H(X) H(Y) 6

7 Hausaufgaben Das Morsealphabet kodiert Buchstaben des lateinischen Alphabets i Binärkode (der Einfachheit halber ignorieren wir das Leerzeichen zwischen den kodierten Buchstaben). In deutschen Texten sind die einzelnen Buchstaben folgenderaßen verteilt: 1. E 17.4% 14. M 2.53% 2. N 9.78% 15. O 2.51% 3. I 7.55% 16. B 1.89% 4. S 7.27% 17. W 1.89% 5. R 7.% 18. F 1.66% 6. A 6.51% 19. K 1.21% 7. T 6.15% 2. Z 1.13% 8. D 5.8% 21. P.79% 9. H 4.76% 22. V.67% 1. U 4.35% 23. J.27% 11. L 3.44% 24. Y.4% 12. C 3.6% 25. X.3% 13. G 3.1% 26. Q.2% 1. Was ist die Entropie eines Buchstabens in eine deutschen Text, wenn an Groß-/Kleinschreibung, Interpunktion und Leerzeichen ignoriert und die Wahrscheinlichkeit eines Buchstaben it seiner relativen Häufigkeit gleichsetzt 2. Was ist die erwartete Länge des Kodes eines deutschen Buchstaben i Morsealphabet 3. Was ist die erwartete Länge des Kodes eines deutschen Buchstaben i ASCII-Code 4. (freiwillig) Benutzen Sie ein Kopriierungsprogra wie gzip und einen selbstgewählten deutschen Text 1, u eine obere Schranke für die tatsächliche Entropie eines Buchstaben i Deutschen zu eritteln. 1 Zu Beispiel das Negra-Corpus; zugänglich von /hoe/jaeger/negra/negra-corpus.sent auf de Institutsserver 7

Mathematische Grundlagen III

Mathematische Grundlagen III Mathematische Grundlagen III Informationstheorie Prof Dr. Matthew Crocker Universität des Saarlandes 22. Juni 205 Matthew Crocker (UdS) Mathe III 22. Juni 205 / 43 Informationstheorie Entropie (H) Wie

Mehr

1 Ordnung muß sein. 1.1 Angeordnete Körper. 1.2 Folgerungen aus den Anordnungsaxiomen. ( c) (b a) > 0. Somit a c b c > 0.

1 Ordnung muß sein. 1.1 Angeordnete Körper. 1.2 Folgerungen aus den Anordnungsaxiomen. ( c) (b a) > 0. Somit a c b c > 0. 1 Ordnung uß sein 1.1 Angeordnete Körper Wir nehen einal an, daß es in eine Körper Eleente gibt, die wir positiv nennen. Welche Eigenschaften sollen diese haben? O1) Wenn x und y positiv sind, dann auch

Mehr

Algorithmen und Datenstrukturen (ESE) Entwurf, Analyse und Umsetzung von Algorithmen (IEMS) WS 2014 / 2015. Vorlesung 5, Donnerstag, 20.

Algorithmen und Datenstrukturen (ESE) Entwurf, Analyse und Umsetzung von Algorithmen (IEMS) WS 2014 / 2015. Vorlesung 5, Donnerstag, 20. Algorithmen und Datenstrukturen (ESE) Entwurf, Analyse und Umsetzung von Algorithmen (IEMS) WS 2014 / 2015 Vorlesung 5, Donnerstag, 20. November 2014 (Wie baut man eine Hash Map, Universelles Hashing)

Mehr

Daten, Informationen, Kodierung. Binärkodierung

Daten, Informationen, Kodierung. Binärkodierung Binärkodierung Besondere Bedeutung der Binärkodierung in der Informatik Abbildung auf Alphabet mit zwei Zeichen, in der Regel B = {0, 1} Entspricht den zwei möglichen Schaltzuständen in der Elektronik:

Mehr

3 Sicherheit von Kryptosystemen

3 Sicherheit von Kryptosystemen 3 Sicherheit von Kryptosystemen 43 3 Sicherheit von Kryptosystemen 3.1 Informationstheoretische Sicherheit Claude E. Shannon untersuchte die Sicherheit kryptographischer Systeme auf informationstheoretischer

Mehr

Grundlagen der Informatik I Informationsdarstellung

Grundlagen der Informatik I Informationsdarstellung Grundlagen der Informatik I Informationsdarstellung Einführung in die Informatik, Gumm, H.-P./Sommer, M. Themen der heutigen Veranstaltung. ASCIi Code 2. Zeichenketten 3. Logische Operationen 4. Zahlendarstellung

Mehr

Informationssicherheit - Lösung Blatt 2

Informationssicherheit - Lösung Blatt 2 Informationssicherheit - Lösung Blatt 2 Adam Glodek adam.glodek@gmail.com 13.04.2010 1 1 Aufgabe 1: One Time Pad 1.1 Aufgabenstellung Gegeben ist der folgende Klartext 12Uhr (ASCII). Verschlüsseln Sie

Mehr

Lösung 1. Übungsblatt

Lösung 1. Übungsblatt Fakultät Informatik, Technische Informatik, Professur für Mikrorechner Lösung 1. Übungsblatt Konvertierung von Zahlendarstellungen verschiedener Alphabete und Darstellung negativer Zahlen Stoffverteilung

Mehr

X = {x 1,x 2,...} sei ein Symbolalphabet eines Kodes. In diesem Kode sind card(x) = X Sachverhalte darstellbar

X = {x 1,x 2,...} sei ein Symbolalphabet eines Kodes. In diesem Kode sind card(x) = X Sachverhalte darstellbar 3. Kodierung Wir wollen Kodierung nicht als Verschlüsselung zum Zwecke der Geheimhaltung auffassen, sondern als Mittel zur Darstellung von Sachverhalten so, daß eine Rechner mit diesen Sachverhalten umgehen

Mehr

15 Optimales Kodieren

15 Optimales Kodieren 15 Optimales Kodieren Es soll ein optimaler Kodierer C(T ) entworfen werden, welcher eine Information (z.b. Text T ) mit möglichst geringer Bitanzahl eindeutig überträgt. Die Anforderungen an den optimalen

Mehr

1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes

1. Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 1 Woche: Einführung in die Codierungstheorie, Definition Codes, Präfixcode, kompakte Codes 5/ 44 Unser Modell Shannon

Mehr

Zufallsgrößen. Vorlesung Statistik für KW 29.04.2008 Helmut Küchenhoff

Zufallsgrößen. Vorlesung Statistik für KW 29.04.2008 Helmut Küchenhoff Zufallsgrößen 2.5 Zufallsgrößen 2.5.1 Verteilungsfunktion einer Zufallsgröße 2.5.2 Wahrscheinlichkeits- und Dichtefunktion Wahrscheinlichkeitsfunktion einer diskreten Zufallsgröße Dichtefunktion einer

Mehr

4. Woche Decodierung; Maximale, Perfekte und Optimale Codes. 4. Woche: Decodierung; Maximale, Perfekte und Optimale Codes 69/ 140

4. Woche Decodierung; Maximale, Perfekte und Optimale Codes. 4. Woche: Decodierung; Maximale, Perfekte und Optimale Codes 69/ 140 4 Woche Decodierung; Maximale, Perfekte und Optimale Codes 4 Woche: Decodierung; Maximale, Perfekte und Optimale Codes 69/ 140 Szenario für fehlerkorrigierende Codes Definition (n, M)-Code Sei C {0, 1}

Mehr

8. Quadratische Reste. Reziprozitätsgesetz

8. Quadratische Reste. Reziprozitätsgesetz O Forster: Prizahlen 8 Quadratische Reste Rezirozitätsgesetz 81 Definition Sei eine natürliche Zahl 2 Eine ganze Zahl a heißt uadratischer Rest odulo (Abkürzung QR, falls die Kongruenz x 2 a od eine Lösung

Mehr

Theoretische Grundlagen der Informatik WS 09/10

Theoretische Grundlagen der Informatik WS 09/10 Theoretische Grundlagen der Informatik WS 09/10 - Tutorium 6 - Michael Kirsten und Kai Wallisch Sitzung 13 02.02.2010 Inhaltsverzeichnis 1 Formeln zur Berechnung Aufgabe 1 2 Hamming-Distanz Aufgabe 2 3

Mehr

Statistische Thermodynamik I Lösungen zur Serie 1

Statistische Thermodynamik I Lösungen zur Serie 1 Statistische Thermodynamik I Lösungen zur Serie Zufallsvariablen, Wahrscheinlichkeitsverteilungen 4. März 2. Zwei Lektoren lesen ein Buch. Lektor A findet 2 Druckfehler, Lektor B nur 5. Von den gefundenen

Mehr

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen 4.3.2 Zusammengesetzte Zufallsvariablen Beispiel 48 Ein Würfel werde zweimal geworfen. X bzw. Y bezeichne die Augenzahl im ersten bzw. zweiten Wurf. Sei Z := X + Y die Summe der gewürfelten Augenzahlen.

Mehr

Elementare statistische Methoden

Elementare statistische Methoden Elementare statistische Methoden Vorlesung Computerlinguistische Techniken Alexander Koller 28. November 2014 CL-Techniken: Ziele Ziel 1: Wie kann man die Struktur sprachlicher Ausdrücke berechnen? Ziel

Mehr

CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005

CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005 CODIERUNGSTHEORIE KURS ZELL AN DER PRAM, FEBRUAR 2005. Das Problem.. Quellcodierung und Datenkompression. Wir wollen eine Nachricht über einen digitalen Kanal, der nur 0 oder übertragen kann, schicken.

Mehr

Martingale. Kapitel 6. 6.1 Martingale in diskreter Zeit. 6.1.1 Definition und Beispiele

Martingale. Kapitel 6. 6.1 Martingale in diskreter Zeit. 6.1.1 Definition und Beispiele Kapitel 6 Martingale In der Statistik modellieren Martingale z.b. Glücksspiele oder Handelsstrategien in Finanzmärkten und sind ein grundlegendes Hilfsmittel für die statistische Inferenz stochastischer

Mehr

Information & Kommunikation - Zusammenfassung

Information & Kommunikation - Zusammenfassung Information & Kommunikation - Zusammenfassung Patrick Pletscher 29 September 2004 Grundlagen der Informationstheorie Entropie als Mass für Unsicherheit Definition der Entropie Die Entropie einer diskreten

Mehr

BITte ein BIT. Vom Bit zum Binärsystem. A Bit Of Magic. 1. Welche Werte kann ein Bit annehmen? 2. Wie viele Zustände können Sie mit 2 Bit darstellen?

BITte ein BIT. Vom Bit zum Binärsystem. A Bit Of Magic. 1. Welche Werte kann ein Bit annehmen? 2. Wie viele Zustände können Sie mit 2 Bit darstellen? BITte ein BIT Vom Bit zum Binärsystem A Bit Of Magic 1. Welche Werte kann ein Bit annehmen? 2. Wie viele Zustände können Sie mit 2 Bit darstellen? 3. Gegeben ist der Bitstrom: 10010110 Was repräsentiert

Mehr

3. Informationsdarstellung

3. Informationsdarstellung Fakultät Informatik Institut Systemarchitektur Professur Datenschutz und Datensicherheit WS 204/205 3. Informationsdarstellung Dr.-Ing. Elke Franz Elke.Franz@tu-dresden.de 3 Informationsdarstellung Bitfolgen

Mehr

Zahlensysteme: Oktal- und Hexadezimalsystem

Zahlensysteme: Oktal- und Hexadezimalsystem 20 Brückenkurs Die gebräuchlichste Bitfolge umfasst 8 Bits, sie deckt also 2 8 =256 Möglichkeiten ab, und wird ein Byte genannt. Zwei Bytes, also 16 Bits, bilden ein Wort, und 4 Bytes, also 32 Bits, formen

Mehr

Name:... Matrikel-Nr.:... 3 Aufgabe Handyklingeln in der Vorlesung (9 Punkte) Angenommen, ein Student führt ein Handy mit sich, das mit einer Wahrscheinlichkeit von p während einer Vorlesung zumindest

Mehr

11/2/05. Darstellung von Text. ASCII-Code. American Standard Code for Information Interchange. Parity-Bit. 7 Bit pro Zeichen genügen (2 7 = 128)

11/2/05. Darstellung von Text. ASCII-Code. American Standard Code for Information Interchange. Parity-Bit. 7 Bit pro Zeichen genügen (2 7 = 128) Darstellung von Text ASCII-Code 7 Bit pro Zeichen genügen (2 7 = 128) 26 Kleinbuchstaben 26 Großbuchstaben 10 Ziffern Sonderzeichen wie '&', '!', ''' nicht druckbare Steuerzeichen, z.b. - CR (carriage

Mehr

11/2/05. Darstellung von Text. ASCII-Code. American Standard Code for Information Interchange. ASCII-Tabelle. Parity-Bit. Länderspezifische Zeichen

11/2/05. Darstellung von Text. ASCII-Code. American Standard Code for Information Interchange. ASCII-Tabelle. Parity-Bit. Länderspezifische Zeichen Darstellung von Text ASCII-Code 7 Bit pro Zeichen genügen ( 7 = 18) 6 Kleinbuchstaben 6 Großbuchstaben 10 Ziffern Sonderzeichen wie '&', '!', ''' nicht druckbare Steuerzeichen, z.b. - CR (carriage return

Mehr

Vorlesung Maschinelles Lernen

Vorlesung Maschinelles Lernen Vorlesung Maschinelles Lernen Additive Modelle Katharina Morik Informatik LS 8 Technische Universität Dortmund 7.1.2014 1 von 34 Gliederung 1 Merkmalsauswahl Gütemaße und Fehlerabschätzung 2 von 34 Ausgangspunkt:

Mehr

Codierungstheorie I: Information, Entropie, Kanäle

Codierungstheorie I: Information, Entropie, Kanäle 1 Codierungstheorie I: Information, Entropie, Kanäle Frieder Knüppel Hauptthema der Vorlesung sind fehlerkorrigierende Codes. Zunächst wollen wir aber in Teil I einige allgemeine Überlegungen zur Datenübertragung

Mehr

Probestudium der Physik: Mathematische Grundlagen

Probestudium der Physik: Mathematische Grundlagen Probestudium der Physik: Mathematische Grundlagen Ludger Santen 1. Februar 2013 Fachrichtung Theoretische Physik, Universität des Saarlandes, Saarbrücken 1 Einführung Die Mathematik ist die Sprache der

Mehr

2 Darstellung von Zahlen und Zeichen

2 Darstellung von Zahlen und Zeichen 2.1 Analoge und digitale Darstellung von Werten 79 2 Darstellung von Zahlen und Zeichen Computer- bzw. Prozessorsysteme führen Transformationen durch, die Eingaben X auf Ausgaben Y abbilden, d.h. Y = f

Mehr

Einführung in die Statistik

Einführung in die Statistik Einführung in die Statistik Dr. C.J. Luchsinger 2 Zufallsgrössen Literatur Kapitel 2 * Statistik in Cartoons: Kapitel 4 * Krengel: 3.1 und 3.2 in 3 und (Honours Program) 10 sowie 11.1, 11.2 und 11.3 in

Mehr

Modul: Stochastik. Zufallsexperimente oder Wahrscheinlichkeit relative Häufigkeit Variation Permutation Kombinationen Binomialverteilung

Modul: Stochastik. Zufallsexperimente oder Wahrscheinlichkeit relative Häufigkeit Variation Permutation Kombinationen Binomialverteilung Modul: Stochastik Ablauf Vorstellung der Themen Lernen Spielen Wiederholen Zusammenfassen Zufallsexperimente oder Wahrscheinlichkeit relative Häufigkeit Variation Permutation Kombinationen Binomialverteilung

Mehr

2 Informationstheorie

2 Informationstheorie 2 Informationstheorie Formale Grundlagen der Informatik I Herbstsemester 2012 Robert Marti Vorlesung teilweise basierend auf Unterlagen von Prof. emer. Helmut Schauer Grundbegriffe Informatik (IT: Information

Mehr

bereits in A,3 und A.4: Betrachtung von Addierschaltungen als Beispiele für Schaltnetze und Schaltwerke

bereits in A,3 und A.4: Betrachtung von Addierschaltungen als Beispiele für Schaltnetze und Schaltwerke Rechnerarithmetik Rechnerarithmetik 22 Prof. Dr. Rainer Manthey Informatik II Übersicht bereits in A,3 und A.4: Betrachtung von Addierschaltungen als Beispiele für Schaltnetze und Schaltwerke in diesem

Mehr

Ein möglicher Unterrichtsgang

Ein möglicher Unterrichtsgang Ein möglicher Unterrichtsgang. Wiederholung: Bernoulli Experiment und Binomialverteilung Da der sichere Umgang mit der Binomialverteilung, auch der Umgang mit dem GTR und den Diagrammen, eine notwendige

Mehr

Zur Verteidigung der Informationstheorie gegen unlautere Angriffe. Bertrand Klimmek,, Mai 2004

Zur Verteidigung der Informationstheorie gegen unlautere Angriffe. Bertrand Klimmek,, Mai 2004 Zur Verteidigung der Informationstheorie gegen unlautere Angriffe Bertrand Klimmek,, Mai 2004 Historischer Überblick bis Mitte des 20. Jahrhunderts: Wohlfahrtsstaat, Keynesianismus, Sci-Fi theoretische

Mehr

6 Fehlerkorrigierende Codes

6 Fehlerkorrigierende Codes R. Reischuk, ITCS 35 6 Fehlerkorrigierende Codes Wir betrachten im folgenden nur Blockcodes, da sich bei diesen das Decodieren und auch die Analyse der Fehlertoleranz-Eigenschaften einfacher gestaltet.

Mehr

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Vollständigkeit halber aufgeführt. Gehen wir einmal davon aus, dass die von uns angenommenen 70% im Beispiel exakt berechnet sind. Was würde

Mehr

Die Bestimmung des Quotienten Ladung/Masse für natürliche H-Strahlen und Atomtrümmer aus Aluminium

Die Bestimmung des Quotienten Ladung/Masse für natürliche H-Strahlen und Atomtrümmer aus Aluminium G edruckt it Unterstützung Akadeie d. Wissenschaften aus de Wien; Jeroe download unter und www.biologiezentru.at Margaret Stonborough-Fonds Mitteilungen aus de Institut für Radiuforschung Nr. 181 Die Bestiung

Mehr

Übungen zur Mathematik für Pharmazeuten

Übungen zur Mathematik für Pharmazeuten Blatt 1 Aufgabe 1. Wir betrachten den Ereignisraum Ω = {(i,j) 1 i,j 6} zum Zufallsexperiment des zweimaligem Würfelns. Sei A Ω das Ereignis Pasch, und B Ω das Ereignis, daß der erste Wurf eine gerade Augenzahl

Mehr

Java Einführung VARIABLEN und DATENTYPEN Kapitel 2

Java Einführung VARIABLEN und DATENTYPEN Kapitel 2 Java Einführung VARIABLEN und DATENTYPEN Kapitel 2 Inhalt dieser Einheit Variablen (Sinn und Aufgabe) Bezeichner Datentypen, Deklaration und Operationen Typenumwandlung (implizit/explizit) 2 Variablen

Mehr

Mathematische Grundlagen der Kryptographie. 1. Ganze Zahlen 2. Kongruenzen und Restklassenringe. Stefan Brandstädter Jennifer Karstens

Mathematische Grundlagen der Kryptographie. 1. Ganze Zahlen 2. Kongruenzen und Restklassenringe. Stefan Brandstädter Jennifer Karstens Mathematische Grundlagen der Kryptographie 1. Ganze Zahlen 2. Kongruenzen und Restklassenringe Stefan Brandstädter Jennifer Karstens 18. Januar 2005 Inhaltsverzeichnis 1 Ganze Zahlen 1 1.1 Grundlagen............................

Mehr

Data Mining: Einige Grundlagen aus der Stochastik

Data Mining: Einige Grundlagen aus der Stochastik Data Mining: Einige Grundlagen aus der Stochastik Hagen Knaf Studiengang Angewandte Mathematik Hochschule RheinMain 21. Oktober 2015 Vorwort Das vorliegende Skript enthält eine Zusammenfassung verschiedener

Mehr

Wahrscheinlichkeitstheorie. Zapper und

Wahrscheinlichkeitstheorie. Zapper und Diskrete Wahrscheinlichkeitsräume Slide 1 Wahrscheinlichkeitstheorie die Wissenschaft der Zapper und Zocker Diskrete Wahrscheinlichkeitsräume Slide 2 Münzwürfe, Zufallsbits Elementarereignisse mit Wahrscheinlichkeiten

Mehr

1 Stochastische Prozesse in stetiger Zeit

1 Stochastische Prozesse in stetiger Zeit 1 Stochastische Prozesse in stetiger Zeit 1.1 Grundlagen Wir betrachten zufällige Prozesse, definiert auf einem Wahrscheinlichkeitsraum (Ω, F, P), welche Werte in einen fest gewählten Zustandsraum annehmen.

Mehr

Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt!

Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt! Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt! 1 Einführung 2 Wahrscheinlichkeiten kurz gefasst 3 Zufallsvariablen und Verteilungen 4 Theoretische Verteilungen (Wahrscheinlichkeitsfunktion)

Mehr

Technische Informatik I

Technische Informatik I Technische Informatik I Vorlesung 2: Zahldarstellung Joachim Schmidt jschmidt@techfak.uni-bielefeld.de Übersicht Geschichte der Zahlen Zahlensysteme Basis / Basis-Umwandlung Zahlsysteme im Computer Binärsystem,

Mehr

Grundbegriffe der Informatik

Grundbegriffe der Informatik Grundbegriffe der Informatik Einheit 3: Alphabete (und Relationen, Funktionen, Aussagenlogik) Thomas Worsch Universität Karlsruhe, Fakultät für Informatik Oktober 2008 1/18 Überblick Alphabete ASCII Unicode

Mehr

Codierungstheorie Rudolf Scharlau, SoSe 2006 9

Codierungstheorie Rudolf Scharlau, SoSe 2006 9 Codierungstheorie Rudolf Scharlau, SoSe 2006 9 2 Optimale Codes Optimalität bezieht sich auf eine gegebene Quelle, d.h. eine Wahrscheinlichkeitsverteilung auf den Symbolen s 1,..., s q des Quellalphabets

Mehr

D A T E N... 1 Daten Micheuz Peter

D A T E N... 1 Daten Micheuz Peter D A T E N.....! Symbole, Alphabete, Codierung! Universalität binärcodierter Daten! Elementare Datentypen! Speicherung binärcodierter Daten! Befehle und Programme! Form und Bedeutung 1 Daten Micheuz Peter

Mehr

Kugel-Fächer-Modell. 1fach. 3fach. Für die Einzelkugel gibt es 3 Möglichkeiten. 6fach. 3! Möglichkeiten

Kugel-Fächer-Modell. 1fach. 3fach. Für die Einzelkugel gibt es 3 Möglichkeiten. 6fach. 3! Möglichkeiten Kugel-Fächer-Modell n Kugeln (Rosinen) sollen auf m Fächer (Brötchen) verteilt werden, zunächst 3 Kugeln auf 3 Fächer. 1fach 3fach Für die Einzelkugel gibt es 3 Möglichkeiten } 6fach 3! Möglichkeiten Es

Mehr

Fachbereichsarbeit aus Mathematik. Kryptographie Eine Annäherung

Fachbereichsarbeit aus Mathematik. Kryptographie Eine Annäherung Bundesrealgynasiu 800 Graz, Petersgasse 0 Fachbereichsarbeit aus Matheatik Michael Kalcher, 8A Kryptographie Eine Annäherung Betreuer: OStR. Mag. Johann Knaß Ich erkläre hierit eidesstattlich, dass ich

Mehr

Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2011

Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2011 Rechnernetze Übung 5 Frank Weinhold Professur VSR Fakultät für Informatik TU Chemnitz Mai 2011 Ziel: Nachrichten fehlerfrei übertragen und ökonomisch (wenig Redundanz) übertragen Was ist der Hamming-Abstand?

Mehr

Kodierungsalgorithmen

Kodierungsalgorithmen Kodierungsalgorithmen Komprimierung Verschlüsselung Komprimierung Zielsetzung: Reduktion der Speicherkapazität Schnellere Übertragung Prinzipien: Wiederholungen in den Eingabedaten kompakter speichern

Mehr

E-Government-GesetzGesetz. Verfahrensablauf

E-Government-GesetzGesetz. Verfahrensablauf E-Government-GesetzGesetz Verfahrensablauf 1 Bürgerkartenumgebung EGov-G 2010 Pauer 3 Ermittlung der Stammzahl für natürliche Personen Die Stammzahl wird durch eine symmetrische Verschlüsselung der ZMR-Zahl

Mehr

Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung

Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung Kapitel 3 Zufallsvariable Josef Leydold c 2006 Mathematische Methoden III Zufallsvariable 1 / 43 Lernziele Diskrete und stetige Zufallsvariable Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion

Mehr

4. Digitale Datendarstellung

4. Digitale Datendarstellung 4 Digitale Datendarstellung Daten und Codierung Textcodierung Codierung natürlicher Zahlen - Stellenwertsysteme - Konvertierung - Elementare Rechenoperationen Codierung ganzer Zahlen - Komplementdarstellung

Mehr

Def.: Sei Σ eine Menge von Zeichen. Die Menge Σ* aller Zeichenketten (Wörter) über Σ ist die kleinste Menge, für die gilt:

Def.: Sei Σ eine Menge von Zeichen. Die Menge Σ* aller Zeichenketten (Wörter) über Σ ist die kleinste Menge, für die gilt: 8. Grundlgen der Informtionstheorie 8.1 Informtionsgehlt, Entropie, Redundnz Def.: Sei Σ eine Menge von Zeichen. Die Menge Σ* ller Zeichenketten (Wörter) über Σ ist die kleinste Menge, für die gilt: 1.

Mehr

$ % + 0 sonst. " p für X =1 $

$ % + 0 sonst.  p für X =1 $ 31 617 Spezielle Verteilungen 6171 Bernoulli Verteilung Wir beschreiben zunächst drei diskrete Verteilungen und beginnen mit einem Zufallsexperiment, indem wir uns für das Eintreffen eines bestimmten Ereignisses

Mehr

Informationstheorethisches Theorem nach Shannon

Informationstheorethisches Theorem nach Shannon Informationstheorethisches Theorem nach Shannon Beispiel zum Codierungsaufwand - Wiederholung: Informationstheorethisches Modell (Shannon) Sei x eine Aussage. Sei M ein Modell Wieviele Bits sind aussreichend,

Mehr

Homomorphe Verschlüsselung

Homomorphe Verschlüsselung Homomorphe Verschlüsselung Sophie Friedrich, Nicholas Höllermeier, Martin Schwaighofer 11. Juni 2012 Inhaltsverzeichnis Einleitung Motivation Mathematische Definitionen Wiederholung Gruppe Ring Gruppenhomomorphisums

Mehr

0 Im folgenden sei die Wortlänge gleich 8 (d. h.: es wird mit Bytes gearbeitet).

0 Im folgenden sei die Wortlänge gleich 8 (d. h.: es wird mit Bytes gearbeitet). Aufgabe 0 Im folgenden sei die Wortlänge gleich 8 (d. h.: es wird mit Bytes gearbeitet). 1. i) Wie ist die Darstellung von 50 im Zweier =Komplement? ii) Wie ist die Darstellung von 62 im Einer =Komplement?

Mehr

Kapitel 3: Etwas Informationstheorie

Kapitel 3: Etwas Informationstheorie Stefan Lucks 3: Informationstheorie 28 orlesung Kryptographie (SS06) Kapitel 3: Etwas Informationstheorie Komplexitätstheoretische Sicherheit: Der schnellste Algorithmus, K zu knacken erfordert mindestens

Mehr

Wozu wird ein Rechensystem genutzt? Informationsverarbeitung Information. Information. Interpretation, Abstraktion. Repräsentation.

Wozu wird ein Rechensystem genutzt? Informationsverarbeitung Information. Information. Interpretation, Abstraktion. Repräsentation. Wozu wird ein Rechensystem genutzt? Wunsch: Informationsverarbeitung Information Repräsentation Daten Informationsverarbeitung Datenverarbeitung Wirklichkeit: Datenverarbeitung Information Daten Interpretation,

Mehr

Formelsammlung. Wahrscheinlichkeit und Information

Formelsammlung. Wahrscheinlichkeit und Information Formelsammlung Wahrscheinlichkeit und Information Ein Ereignis x trete mit der Wahrscheinlichkeit p(x) auf, dann ist das Auftreten dieses Ereignisses verbunden mit der Information I( x): mit log 2 (z)

Mehr

Das Maschinenmodell Datenrepräsentation

Das Maschinenmodell Datenrepräsentation Das Maschinenmodell Datenrepräsentation Darstellung von Zahlen/Zeichen in der Maschine Bit (0/1) ist die kleinste Informationseinheit Größere Einheiten durch Zusammenfassen mehrerer Bits, z.b. 8 Bit =

Mehr

Analyse von Zeitreihen in der Umweltphysik und Geophysik Stochastische Prozesse

Analyse von Zeitreihen in der Umweltphysik und Geophysik Stochastische Prozesse Analyse von Zeitreihen in der Umweltphysik und Geophysik Stochastische Prozesse Yannik Behr Gliederung 1 Stochastische Prozesse Stochastische Prozesse Ein stochastischer Prozess ist ein Phänomen, dessen

Mehr

Das Rechnermodell - Funktion

Das Rechnermodell - Funktion Darstellung von Zahlen und Zeichen im Rechner Darstellung von Zeichen ASCII-Kodierung Zahlensysteme Dezimalsystem, Dualsystem, Hexadezimalsystem Darstellung von Zahlen im Rechner Natürliche Zahlen Ganze

Mehr

Fehlerhafte Codes und Zauberei

Fehlerhafte Codes und Zauberei Fehlerhafte Codes und Zauberei THEORIE DER INFORMATIK Isolde Adler Humboldt Universität zu Berlin Girls Day, 24.04.2008 ISOLDE ADLER GIRLS DAY THEORIE DER INFORMATIK 1/12 Willkommen zum Girls Day! ISOLDE

Mehr

Programmiertechnik Operatoren, Kommentare, Ein-/Ausgabe

Programmiertechnik Operatoren, Kommentare, Ein-/Ausgabe Programmiertechnik Operatoren, Kommentare, Ein-/Ausgabe Prof. Dr. Oliver Haase Oliver Haase Hochschule Konstanz 1 Was sind Operatoren? Ein Operator ist eine in die Programmiersprache eingebaute Funktion,

Mehr

16. All Pairs Shortest Path (ASPS)

16. All Pairs Shortest Path (ASPS) . All Pairs Shortest Path (ASPS) All Pairs Shortest Path (APSP): Eingabe: Gewichteter Graph G=(V,E) Ausgabe: Für jedes Paar von Knoten u,v V die Distanz von u nach v sowie einen kürzesten Weg a b c d e

Mehr

Formale Methoden II. Gerhard Jäger. SS 2008 Universität Bielefeld. Teil 8, 11. Juni 2008. Formale Methoden II p.1/30

Formale Methoden II. Gerhard Jäger. SS 2008 Universität Bielefeld. Teil 8, 11. Juni 2008. Formale Methoden II p.1/30 Formale Methoden II SS 2008 Universität Bielefeld Teil 8, 11. Juni 2008 Gerhard Jäger Formale Methoden II p.1/30 Beispiele Anmerkung: wenn der Wahrheitswert einer Formel in einem Modell nicht von der Belegungsfunktion

Mehr

PHYSIK Wurfbewegungen 1

PHYSIK Wurfbewegungen 1 PHYSIK Wurfbewegungen 1 Senkrechter Wurf nach unten Senkrechter Wurf nach oben Datei Nr. 9111 Auführliche Löungen und Drucköglichkeit nur auf CD Friedrich W. Buckel Augut Internatgynaiu Schloß Torgelow

Mehr

Hauptprüfung Abiturprüfung 2014 (ohne CAS) Baden-Württemberg

Hauptprüfung Abiturprüfung 2014 (ohne CAS) Baden-Württemberg Baden-Württemberg: Abitur 04 Pflichtteil www.mathe-aufgaben.com Hauptprüfung Abiturprüfung 04 (ohne CAS) Baden-Württemberg Pflichtteil Hilfsmittel: keine allgemeinbildende Gymnasien Alexander Schwarz www.mathe-aufgaben.com

Mehr

Kodierung. Kodierung von Zeichen mit dem ASCII-Code

Kodierung. Kodierung von Zeichen mit dem ASCII-Code Kodierung Kodierung von Zeichen mit dem ASCII-Code Weiterführende Aspekte zur Kodierung: Speicherplatzsparende Codes Fehlererkennende und -korrigierende Codes Verschlüsselnde Codes Spezielle Codes, Beispiel

Mehr

A1.7: Entropie natürlicher Texte

A1.7: Entropie natürlicher Texte A1.7: Entropie natürlicher Texte Anfang der 1950er Jahre hat Claude E. Shannon die Entropie H der englischen Sprache mit einem bit pro Zeichen abgeschätzt. Kurz darauf kam Karl Küpfmüller bei einer empirischen

Mehr

Quellen- und Leitungskodierung. Kommunikationstechnik, SS 08, Prof. Dr. Stefan Brunthaler 132

Quellen- und Leitungskodierung. Kommunikationstechnik, SS 08, Prof. Dr. Stefan Brunthaler 132 Quellen- und Leitungskodierung 0 1 Kommunikationstechnik, SS 08, Prof. Dr. Stefan Brunthaler 132 Begriffe Quellencodierung: Dient der Optimierung des Durchsatzes Dazu gehört auch Kompression Kanalcodierung:

Mehr

P X =3 = 2 36 P X =5 = 4 P X =6 = 5 36 P X =8 = 5 36 P X =9 = 4 P X =10 = 3 36 P X =11 = 2 36 P X =12 = 1

P X =3 = 2 36 P X =5 = 4 P X =6 = 5 36 P X =8 = 5 36 P X =9 = 4 P X =10 = 3 36 P X =11 = 2 36 P X =12 = 1 Übungen zur Stochastik - Lösungen 1. Ein Glücksrad ist in 3 kongruente Segmente aufgeteilt. Jedes Segment wird mit genau einer Zahl beschriftet, zwei Segmente mit der Zahl 0 und ein Segment mit der Zahl

Mehr

13.5 Der zentrale Grenzwertsatz

13.5 Der zentrale Grenzwertsatz 13.5 Der zentrale Grenzwertsatz Satz 56 (Der Zentrale Grenzwertsatz Es seien X 1,...,X n (n N unabhängige, identisch verteilte zufällige Variablen mit µ := EX i ; σ 2 := VarX i. Wir definieren für alle

Mehr

3.3. Aufgaben zur Binomialverteilung

3.3. Aufgaben zur Binomialverteilung .. Aufgaben zur Binomialverteilung Aufgabe 1: Ziehen mit Zurücklegen und Binomialverteilung Ein sechsseitiger Würfel wird zehnmal geworfen. a) Wie groß ist die Wahrscheinlichkeit, nur beim ersten Mal die

Mehr

Codierung, Codes (variabler Länge)

Codierung, Codes (variabler Länge) Codierung, Codes (variabler Länge) A = {a, b, c,...} eine endliche Menge von Nachrichten (Quellalphabet) B = {0, 1} das Kanalalphabet Eine (binäre) Codierung ist eine injektive Abbildung Φ : A B +, falls

Mehr

Grundlagen Anwendungen Quellen. Steganographie. Ingo Blechschmidt, Michael Hartmann LUGA. 4. Oktober 2006

Grundlagen Anwendungen Quellen. Steganographie. Ingo Blechschmidt, Michael Hartmann LUGA. 4. Oktober 2006 Grundlagen Anwendungen Quellen Ingo Blechschmidt, Michael Hartmann LUGA 4. Oktober 2006 Grundlagen Anwendungen Quellen Inhalt 1 Grundlagen Definition der Beispiele für Historische Anwendungen der Abgrenzung

Mehr

Probabilistisches Tracking mit dem Condensation Algorithmus

Probabilistisches Tracking mit dem Condensation Algorithmus Probabilistisches Tracking mit dem Condensation Algorithmus Seminar Medizinische Bildverarbeitung Axel Janßen Condensation - Conditional Density Propagation for Visual Tracking Michael Isard, Andrew Blake

Mehr

Bin Packing oder Wie bekomme ich die Klamotten in die Kisten?

Bin Packing oder Wie bekomme ich die Klamotten in die Kisten? Bin Packing oder Wie bekomme ich die Klamotten in die Kisten? Ich habe diesen Sommer mein Abi gemacht und möchte zum Herbst mit dem Studium beginnen Informatik natürlich! Da es in meinem kleinen Ort keine

Mehr

Einführung in die Kodierungstheorie

Einführung in die Kodierungstheorie Einführung in die Kodierungstheorie Einführung Vorgehen Beispiele Definitionen (Code, Codewort, Alphabet, Länge) Hamming-Distanz Definitionen (Äquivalenz, Coderate, ) Singleton-Schranke Lineare Codes Hamming-Gewicht

Mehr

Motivation. Formale Grundlagen der Informatik 1 Kapitel 5 Kontextfreie Sprachen. Informales Beispiel. Informales Beispiel.

Motivation. Formale Grundlagen der Informatik 1 Kapitel 5 Kontextfreie Sprachen. Informales Beispiel. Informales Beispiel. Kontextfreie Kontextfreie Motivation Formale rundlagen der Informatik 1 Kapitel 5 Kontextfreie Sprachen Bisher hatten wir Automaten, die Wörter akzeptieren Frank Heitmann heitmann@informatik.uni-hamburg.de

Mehr

Einführung in die Informatik und Medieninformatik

Einführung in die Informatik und Medieninformatik Name, Vorname Matrikelnummer Klausur zur Vorlesung Einführung in die Informatik und Medieninformatik LVNr. 36 600, WS 2012/13, im Studiengang Medieninformatik Dienstag, 12. Februar 2013 16:00 18:00 Uhr

Mehr

Maschinelles Lernen Entscheidungsbäume

Maschinelles Lernen Entscheidungsbäume Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Entscheidungsbäume Paul Prasse Entscheidungsbäume Eine von vielen Anwendungen: Kreditrisiken Kredit - Sicherheiten

Mehr

Lectron. LECTRON Experimentiersystem Schwellwert- & Majoritätslogik Autor: Gerd Kopperschmidt

Lectron. LECTRON Experimentiersystem Schwellwert- & Majoritätslogik Autor: Gerd Kopperschmidt Lectron LECTRON Experientiersyste chwellwert- & Majoritätslogik utor: Gerd Kopperschidt 3 34 4 4 Lectron nleitungsbuch zu usbausyste Digitaltechnik chwellwert- & Majoritätslogik Herausgeber Lectron Eschersheier

Mehr

Übung zur Vorlesung. Informationstheorie und Codierung

Übung zur Vorlesung. Informationstheorie und Codierung Übung zur Vorlesung Informationstheorie und Codierung Prof. Dr. Lilia Lajmi Juni 25 Ostfalia Hochschule für angewandte Wissenschaften Hochschule Braunschweig/Wolfenbüttel Postanschrift: Salzdahlumer Str.

Mehr

4. Relationen. Beschreibung einer binären Relation

4. Relationen. Beschreibung einer binären Relation 4. Relationen Relationen spielen bei Datenbanken eine wichtige Rolle. Die meisten Datenbanksysteme sind relational. 4.1 Binäre Relationen Eine binäre Relation (Beziehung) R zwischen zwei Mengen A und B

Mehr

Statistik I für Betriebswirte Vorlesung 5

Statistik I für Betriebswirte Vorlesung 5 Statistik I für Betriebswirte Vorlesung 5 PD Dr. Frank Heyde TU Bergakademie Freiberg Institut für Stochastik 07. Mai 2015 PD Dr. Frank Heyde Statistik I für Betriebswirte Vorlesung 5 1 Klassische Wahrscheinlichkeitsdefinition

Mehr

Übung 13: Quellencodierung

Übung 13: Quellencodierung ZHAW, NTM, FS2008, Rumc, /5 Übung 3: Quellencodierung Aufgabe : Huffmann-Algorithmus. Betrachten Sie die folgende ternäre, gedächtnislose Quelle mit dem Symbolalphabet A = {A,B,C} und den Symbol-Wahrscheinlichkeiten

Mehr

Informationsdarstellung im Rechner

Informationsdarstellung im Rechner Informationsdarstellung im Rechner Dr. Christian Herta 15. Oktober 2005 Einführung in die Informatik - Darstellung von Information im Computer Dr. Christian Herta Darstellung von Information im Computer

Mehr

1. 4-Bit Binärzahlen ohne Vorzeichen 2. 4-Bit Binärzahlen mit Vorzeichen 3. 4-Bit Binärzahlen im 2er Komplement 4. Rechnen im 2er Komplement

1. 4-Bit Binärzahlen ohne Vorzeichen 2. 4-Bit Binärzahlen mit Vorzeichen 3. 4-Bit Binärzahlen im 2er Komplement 4. Rechnen im 2er Komplement Kx Binäre Zahlen Kx Binäre Zahlen Inhalt. Dezimalzahlen. Hexadezimalzahlen. Binärzahlen. -Bit Binärzahlen ohne Vorzeichen. -Bit Binärzahlen mit Vorzeichen. -Bit Binärzahlen im er Komplement. Rechnen im

Mehr

Kontrollstrukturen, Pseudocode und Modulo-Rechnung

Kontrollstrukturen, Pseudocode und Modulo-Rechnung Kontrollstrukturen, Pseudocode und Modulo-Rechnung CoMa-Übung III TU Berlin 29.10.2012 CoMa-Übung III (TU Berlin) Kontrollstrukturen, Pseudocode und Modulo-Rechnung 29.10.2012 1 / 1 Themen der Übung 1

Mehr

Advanced Encryption Standard. Copyright Stefan Dahler 20. Februar 2010 Version 2.0

Advanced Encryption Standard. Copyright Stefan Dahler 20. Februar 2010 Version 2.0 Advanced Encryption Standard Copyright Stefan Dahler 20. Februar 2010 Version 2.0 Vorwort Diese Präsentation erläutert den Algorithmus AES auf einfachste Art. Mit Hilfe des Wissenschaftlichen Rechners

Mehr

Auch 2007 wird diese Empfehlung allerdings immer noch nicht universell befolgt.

Auch 2007 wird diese Empfehlung allerdings immer noch nicht universell befolgt. UTF-8 Kodierung UTF-8 (Abk. für 8-bit Unicode Transformation Format) ist die am weitesten verbreitete Kodierung für Unicode Zeichen. Unicode ist ein internationaler Standard, in dem langfristig für jedes

Mehr