Lernen Formaler Sprachen

Größe: px
Ab Seite anzeigen:

Download "Lernen Formaler Sprachen"

Transkript

1 Lernen Formaler Sprachen Timo Kötzing 28. Januar Einleitung Dieses Dokument ist das Skript zur Vorlesung Lernen Formaler Sprachen. Bei den Definitionen der Lernbarkeitskriterien folgen wir dem etwas ungewöhnlichen Baukasten -Ansatz aus [Köt09]. Eine gute Übersicht über die Lerntheorie bietet das Buch Systems that learn, sowohl in der aktuellen zweiten Ausgabe [JORS99], aber auch in der signifikant unterschiedlichen ersten Ausgabe [OSW86]. Die Einührung der Berechenbarkeit erfolgt in 5 Treffen, mit einem zusätzlichen Treffen für einen Test. Folgende Auflistung gibt einen Überblick über die Daten. Eine grobe Übersicht der Wochenplanung: Woche Thema 1-3 Vorkurs Berechenbarkeit 4 Einführung und Topologische Restriktionen 5 Konsistenz 6-8 Verzögerbare Lernrestriktionen 9-10 Fin, Bc, Fex Weihnachten 11 Verschiedene Themen der Lerntheorie (Rel, Prud) & Konkrete Algorithmen 12 Was ist ein Beweis? 13 Beweisanalyse und Alternativbeweise 14 Forschungsfragen 15 Uniform entscheidbare Sprachfamilien 1

2 2 Informelle Einleitung Eine Sprache ist eine Menge L N (wir interessieren uns für die Lernbarkeit von aufzählbaren Sprachen). Ein Lerner ist eine Funktion h P. Ein Text T ist eine Funktion T : N N {#}, wobei # das Pausezeichen ist; wir nennen content(t ) = range(t ) \ {#} den Content oder Gehalt von T. Ein Text T ist Text für eine Sprache L, falls content(t ) = L. Für eine Funktion T und jedes n sei T [n] die endliche Sequenz der n ersten elemente von T (T (0),... T (n 1)). Wir interessieren uns für die Frage: wann gibt es für eine Menge L von Sprachen einen Lerner h, so dass h jede Sprache L L von beliebigem Text lernt? Dies formalisieren wir nun. Gegeben ein Lerner h und ein Text T, wir definieren, für alle n, p(n) = h(t [n]). Wir nennen p die G-Hypothesensequenz von h auf T ( G steht für Gold und symbolisiert volle Information des Lernenden). Wir sagen p ist Ex-erfolgreich für T, falls es ein n gibt, so dass Für alle n > n, p(n) = p(n ) (die Hypothese ändert sich nicht mehr, die Hypothesensequenz konvergiert zu einer finalen Hypothese); W p(n) = content(t ) (die finale Hypothese ist korrekt). Eine Menge von Sprachen L heisst TxtGEx-lernbar, falls es einen Lerner h gibt, so dass, für jede Sprache L L und jeden Text T für L, die G-Hypothesensequenz von h auf T Ex-erfolgreich für T ist. Aufgabe 1 Zeige, dass {xn x N} ist TxtGEx-lernbar. Gegeben ein Lerner h und ein Text T, wir definieren p(0) = h( ); (die initiale Hypothese) n : p(n + 1) = h(p(n), T (n)). Wir nennen p die It-Hypothesensequenz von h auf T ( It steht für iterativ ). Eine Menge von Sprachen L heisst TxtItEx-lernbar, falls es einen Lerner h gibt, so dass, für jede Sprache L L und jeden Text T für L, die It-Hypothesensequenz von h auf T ist Ex-erfolgreich für T. Aufgabe 2 Zeige, dass {xn x N} ist TxtItEx-lernbar. 2

3 Eine Lockingsequenz von einem Lerner h auf einer Sprache L ist eine endliche Sequenz σ aus Elementen von L, so dass h nach σ für beliebige weitere Daten (in beliebiger Reihenfolge) aus L seine Meinung nie mehr ändert. Aufgabe 3 (1) Was sind Lockingsequenzen für die Lerner aus den vorigen Aufgaben auf 15N? (2) Gibt es einen Lerner h der 15N TxtGEx-lernt und einen Text T für 15N, so dass, für alle n, T [n] ist keine Lockingsequenz? Im Allgemeinen hat jeder Lerner eine Lockingsequenz für alle Sprachen, die er Ex-lernt, wie das folgende Theorem zeigt. Theorem 2.1. Sei h ein Lerner und sei L eine Sprache, die h TxtGEx-lernt. Dann gibt es eine Lockingsequenz von h auf L. Beweis. Sei T ein Text für L und nehme an, dass h keine Lockingsequenz auf L hat. Dann gibt es also für jede Sequenz τ eine Verlängerung r(τ), so dass h(τ) h(r(τ)). Wir definieren eine unenedliche Folge (σ n ) n N rekusiv wie folgt. σ 0 = ; n : σ n+1 = r(σ n T (n)). Es gilt nun, für alle n, σ n σ n+1. Sei T = n N σ n. T ist ein Text für L; aber h macht unendlich viele Hypothesenwechsel auf T, ein Widerspruch dazu, dass h ein TxtGEx-Lerner für L ist. Aufgabe 4 Sei L = {D D N endlich, 0 D} {N + }. Zeige (1) L ist TxtGEx-lernbar; (2) L ist nicht TxtItEx-lernbar. 3

4 3 Formelle Einleitung In diesem Abschnitt lernen wir die formalen Definitionen für Lernbarkeitskriterien kennen. Dabei nutzen wir den Baukasten -Ansatz aus [Köt09]. Eine Sprache ist eine Menge L N (wir interessieren uns für die Lernbarkeit von aufzählbaren Sprachen). Ein Lerner ist eine Funktion h, welcher optional auch? ausgeben darf; üblicherweise gehen wir von h P aus. Ein Text T ist eine Funktion T : N N {#}, wobei # das Pausezeichen ist; wir nennen content(t ) = range(t ) \ {#} den Content oder Gehalt von T. Ein Text T ist Text für eine Sprache L, falls content(t ) = L. Für eine Funktion T und jedes n sei T [n] die endliche Sequenz der n ersten Elemente von T (T (0),..., T (n 1)). Wir benutzen als Hypothesenraum das W -system; damit ist jedes e eine Hypothese für W e = dom(ϕ e ), wodurch jede aufzählbare Menge unendlich viele Hypothesen hat. Da nicht-aufzählbare Mengen somit keine Hypothesen haben, beschränken wir uns auf das Lernen von aufzählbaren Mengen; die Menge aller aufzählbaren Sprachen schreiben wir als E. Ein Interaktionsoperator ist eine Funktion β welches als Argumente h (den Lerner) und einen Text T nimmt, und welcher eine Funktion p ausgibt. Wir nennen p die β-hypothesensequenz von h auf T. Wir definieren die Interaktionsoperatoren G und It (passend zu den Lernbarkeitskriterien aus Abschnitt 2) wie folgt. Für Lerner h, Texte T und i N, G(h, T )(i) = h(t [i]); { It(h, T )(i) = h( ), falls i = 0; 1 h(it(h, T )(i 1), T (i 1)), sonst. Dadurch hat ein Lerner Zugang zu ausschließlich dem momentanen Datum beim iterativen Lernen, aber zu allen Daten beim G-Lernen. Wir definieren drei weitere Interaktionsoperator Td ( transductive ), Sd ( set-driven ) und Psd ( partially set-driven ) wie folgt.?, falls i = 0; Td(h, T )(i) = Td(h, T )(i 1), sonst, falls h(t (i 1)) =?; h(t (i 1)), sonst. Sd(h, T )(i) = h(content(t [i])); Psd(h, T )(i) = h(content(t [i]), i). Somit hat ein transduktiver Lerner fast keine Information über den Lernprozess, nur das momentane Datum ist bekannt; ein solcher Lerner kann jedoch die Ausgabe? nutzen, um effektiv die vorangegangene Hypothese zu nutzen. Beim set-driven Lerner hat ein Lerner keine Information über Reihenfolge oder Häufigkeit der Aufzählung einzelner Daten, kennt aber alle Daten; beim partial set-driven Lernen hat der Lerner zusätzlich die Information der Länge des bisher präsentierten Datensegments. Erfolgreiches Lernen erfordert besondere Eigenschaften der Hypothesensequenz, zum Beispiel Konvergenz zu einer korrekten Hypothese. Diese Anforderungen werden mit der nächsten Definition formalisiert. Eine Lernrestriktion ist ein Prädikat δ auf Lerner und Text. Wir geben die Beispiele Ex ( explanatory ), Bc ( behaviorally correct ), Cons ( consistent ), sowie Coh ( coherent ). Später werden wir noch viele mehr kennenlernen. Wir definieren, für alle 1 h( ) ist die initiale Hypothese von h. 4

5 Hypothesensequenzen p und texte T, Ex(p, T ) [ q n : p(n) = q content(t ) = W q ]; Bc(p, T ) [ n : content(t ) = W p(n) ]; Cons(p, T ) [ i : content(t [i]) W p(i) ]; Coh(p, T ) [ i : T (i) W p(i+1) ]. Aufgabe 5 Sei p eine Hypothesensequenz und sei T ein Text. Zeige: Cons(p, T ) impliziert Coh(p, T ) und Ex(p, T ) impliziert Bc(p, T ). Wir kombinieren zwei Lernrestriktionen δ und δ indem wir ihren Schnitt bilden; wir schreiben dies als Juxtaposition (zum Beispiel wird Cons immer zusammen mit Ex benutzt). Sei C eine Menge von Lernern, β ein Interaktionsoperator und α und δ Lernrestriktionen. Dann ist (α, C, β, δ) ein Lernbarkeitskriterium (oder einfach Kriterium ). Hierbei ist α die globale Lernrestriktion und δ die lokale Lernrestriktion; C ist die Lernereinschränkung. Wir schreiben dieses auch verkürzt als τ(α)ctxtβδ, wobei τ(α) weggelassen wird, falls α das konstant wahre Prädikat ist, und C wird weggelassen, falls C = P. Die Menge aller Texte schreiben wir als Txt, die Menge aller Texte für eine Sprache L als Txt(L). Sei ein Lernbarkeitskriterium I = (α, C, β, δ) gegeben. Ein Lerner h I-lernt die leere Menge, falls h C oder falls es einen Text T gibt, so dass nicht α(β(h, T ), T ), ansonsten die Menge I(h) = {L E T Txt(L) : δ(β(h, T ), T )}. Damit beschränken also sowohl C wie auch α welche Lerner benutzt werden dürfen. Typische Beispiele für C sind P und R; ein interessantes Beispiel für α ist Cons, welches effektiv fordert, dass jede von dem Lerner gemachte Hypothese die Daten enthält, auf denen die Hypothese basiert. Für ein Lernbarkeitskriterium I schreiben wir [I] für die Menge aller I-lernbaren Mengen von Sprachen (lernbar durch irgend einen Lerner). 5

6 4 Notwendige Bedingungen In diesem Abschnitt werden wir uns das wichtige Lernbarkeitskriterium TxtGEx anschauen und insbesondere ein paar notwendige Bedingungen für Lernbarkeit herausstellen. Eine Lockingsequenz von einem Lerner h auf einer Sprache L ist eine endliche Sequenz σ aus Elementen von L, so dass h nach σ für beliebige weitere Daten (in beliebiger Reihenfolge) aus L seine Meinung nie mehr ändert. Im Allgemeinen hat jeder Lerner eine Lockingsequenz für alle Sprachen, die er Ex-lernt, wie das folgende Theorem zeigt. Theorem 4.1 (Lockinglemma). Sei h ein Lerner und sei L eine Sprache, die h TxtGEx-lernt. Sei σ eine endliche Sequenz mit Elementen aus L. Dann gibt es eine Erweiterung von σ welches eine Lockingsequenz von h auf L ist. Beweis. Sei T ein Text für L und nehme an, dass h keine Erweiterung von σ als Lockingsequenz auf L hat. Dann gibt es also für jede Sequenz τ σ mit Elementen aus L eine Verlängerung r(τ) mit Elementen aus L so, dass h(τ) h(r(τ)). Wir definieren eine unendliche Folge (ρ n ) n N rekursiv wie folgt. ρ 0 = σ; n : ρ n+1 = r(ρ n T (n)). Es gilt nun, für alle n, ρ n ρ n+1. Sei T = n N ρ n. T ist ein Text für L; aber h macht unendlich viele Hypothesenwechsel auf T, ein Widerspruch dazu, dass h ein TxtGEx-Lerner für L ist. Als nächstes lernen wir Angluins Kriterium kennen, welches wir hier als notwendige Bedingung beschreiben (Angluin hat genauer die Lernbarkeit von uniform berechenbaren Sprachmengen charakterisiert). Dieses Kriterium kann man mittels Lockinsequenzen sehr einfach beweisen. Aufgabe 6 Sei L eine Menge von Sprachen, welche TxtGEx-lernbar ist. Dann gibt es für jedes L L eine endliche Menge D L so, dass für alle Sprachen L mit D L L gilt L L. 6

7 5 Relationen von Interaktionsoperatoren In diesem Abschnitt lernen wir die Verschiedenen Interaktionsoperatoren näher kennen. Zuerst wollen wir aber sehen, dass TxtGEx-Lerner immer o.b.d.a. als total angenommen werden können. Aufgabe 7 Zeige [RTxtGEx] = [TxtGEx]. Als nächstes sehen wir, wie Lernen mit dem Operator Psd ( partially set-driven ) keine Einschränkung gegenüber voller Information darstellt. Theorem 5.1. Eine Menge von Sprachen ist TxtPsdEx-lernbar genau dann, wenn sie TxtGExlernbar ist. Beweis. Es ist klar, dass jede TxtPsdEx-lernbare Sprachemenge auch TxtGEx-lernbar ist. Sei nun also L eine TxtGEx-lernbare Sprachmenge und sei h R ein (totaler) TxtGEx-Lerner für L. Für jede endliche Menge D N und t N sei D t die Menge aller endlichen Sequenzen mit Elementen aus D {#} und Länge höchstens t; es sei außerdem p(d, t) = {σ D t τ D t : h(σ) = h(σ τ)}. Intuitiv enthält p(d, t) mögliche Lockingsequenzen (solche, die mit bisherigen Mitteln nicht verworfen werden können). Da wir endliche Sequenzen codieren können, ist p(d, t) implizit auch eine Menge an (natürlichen) Zahlen und hat damit ein Minimum (falls nicht-leer). Wir definieren einen Psd-Lerner h so, dass für alle endlichen Mengen D und alle t N { h h(min(p(d, t))), falls p(d, t) ; (D, t) = 0, sonst. Intuitiv sucht h nach einer Lockingsequenz von h auf der gegebenen Sprache; für diese Lockingsequenz muss h eine korrekte Antwort liefern. Sei nun L L und T Txt(L). Sei M die Menge aller Lockinsequenzen von h auf L. Nach Theorem 4.1 ist M nicht leer. Sei σ = min(m). Wir setzen D = content(σ) und t = len(σ). Für alle (endlich viele) τ < σ gibt es ein n so, dass n > n : τ p(content(t [n ], n ); sei also n 0 das Maximum über all diese endlich vielen n. Sei n 1 so, dass D content(t [n 1 ]). Sei n 2 das Maximum aus n 0, n 1 und t. Dann gilt nun also, für alle n n 2, Psd(h, T )(n ) = h(σ), was zeigt, dass h auf T eine Ex-erfolgreiche Sequenz ausgibt. Aufgabe 8 Zeige: Eine Menge von unendlichen Sprachen ist RTxtSdEx-lernbar genau dann, wenn sie TxtGEx-lernbar ist. 7

8 Aufgabe 9 Mit R bezeichnen wir die Menge aller Funktionen N N. Sei L eine Sprachmenge. Zeige, dass die folgenden Aussagen äquivalent sind. (1) L [RTxtGEx]; (2) L [RTxtSdEx]; (3) Für alle L L gibt es eine endliche Menge D L so, dass für alle Sprachen L mit D L L gilt L L. Interessanterweise gibt es Sprachmengen, welche TxtGEx-gelernt werden können, nicht jedoch TxtSdEx-gelernt. Den Beweis hierzu geben wir später mit Theorem 5.3. Stattdessen schauen wir uns nun weitere Interaktionsoperatoren an. Theorem 5.2. Es gibt eine Menge von Sprachen welche TxtSdEx-lernbar, aber nicht TxtItExlernbar ist. Beweis. Sei L = {D D N endlich, 0 D} {N + } und nehme an es gäbe einen TxtItEx-Lerner h für L. Sei σ eine Lockingsequenz für h auf N + und sei x das maximale Element von content(σ) (0, falls content(σ) = ). Dann sind σ (x + 1) 0 und σ (x + 2) 0 Texte für unterschiedliche Sprachen aus L für welche h die exakt gleiche It-Hypothesensequenz erzeugt. Da diese Sequenz nur Ex-erfolgreich für maximal eine der beiden Sprachen ist, ist h unerfolgreich auf mindestens einer der beiden Sprachen. Aufgabe 10 Zeige: Es gibt eine TxtItEx-lernbare Menge von Sprachen, die nicht TxtTdEx-lernbar ist. 8

9 Theorem 5.3. Es gibt eine TxtGEx-lernbare Menge von Sprachen, die nicht TxtSdEx-lernbar ist. Beweis. Für alle e seien L e = { e, x x N ϕ e (0) }; L e = { e, x x ϕ e (0) ϕ e (0) }; L = {L e ϕ e (0) } {L e ϕ e (0) }. Wir zeigen zuerst, dass L TxtGEx-lernbar ist, danach, dass es nicht TxtSdEx-lernbar ist. Mit dem S-m-n Theorem gibt es zwei total berechenbare Funktionen p und r so, dass für alle e und endliche Mengen D W p(e) = { e, x x N}; W r(d) = D. Dann ist L TxtGEx-lernbar durch den folgenden Lerner h. r(content(σ)), falls e, 0 content(σ) Φ e (0) σ ; σ : h(σ) = p(e), sonst, falls e, 0 content(σ) Φ e (0) > σ ;?, sonst. Um zu zeigen, dass h L TxtGEx-lernt sei nun e gegeben. Fall 1: ϕ e (0). Nun ist L e zu lernen. Sei T ein Text für L e und sei n so groß, dass e, 0 content(t [n]) Dann gilt, für alle n n, h(t [n ]) = p(e) wie gewünscht. Fall 2: ϕ e (0). Nun ist L e zu lernen. Sei T ein Text für L e und sei n so groß, dass L e content(t [n]) und Φ e (0) n. Dann gilt, für alle n n, h(t [n ]) = r(l e) wie gewünscht. Jetzt zeigen wir über einen Widerspruchsbeweis, dass L nicht TxtSdEx-lernbar ist. Nehmen wir also an, L sei doch TxtSdEx-lernbar durch einen Lerner h. Mit KRT gibt es e so, dass für alle x N, ϕ e (x) ist das erste gefundene m mit e, m + 1 W h({ e,z z m}), und undefiniert, falls es kein solches m gibt. Da die Menge solcher m aufzählbar ist (das Prädikat ist Σ 1, oder partiell entscheidbar ), ist dies eine erlaubte Verwendung von KRT. Fall 1: ϕ e (0). Dies bedeutet m : e, m + 1 W h({ e,x x m}). Sei T der Text so, dass i : T (i) = e, i. Dann ist T ein Text für L e L, aber h macht niemals eine korrekte Hypothese, ein Widerspruch. Fall 2: ϕ e (0). Sei m = ϕ e (0). Dies bedeutet L e = { e, x x m} ist in L. Sei T ein beliebiger Text für L e und sei n groß genug, so dass L e = content(t [n]). Nun gilt, für alle n n, h(content(t [n ])) = h(content(t [n])) = h(l e) = h({ e, x x m}), aber mit unserer Wahl von m gilt nun e, m + 1 W h({ e,x x m}), ein Widerspruch. Zusammenfassend haben wir das folgende Bild: [TxtTdEx] [TxtItEx] [TxtSdEx] [TxtPsdEx] = [TxtGEx]. Hierbei haben wir schon alle Separationen gezeigt, und die Inklusionen sind fast alle trivial, nur [TxtItEx] [TxtSdEx] bleibt noch zu zeigen. 9

10 Theorem 5.4. Jede TxtItEx-lernbare Menge ist auch TxtSdEx-lernbar. Beweis. Sei L eine TxtItEx-lernbare Menge mit Lerner h. Wir zeigen nun zuerst, dass es einen TxtItEx-Lerner für L gibt, so dass, für alle e, h (e, #) = e, also so, dass h seine Hypothese niemals auf # ändert. Zuerst definieren wir aber h rekursiv so, dass für alle e und alle m, h (e, 0) = e; h (e, m + 1) = h(h (e, m), #). Intuitiv ist also h (e, m) die Hypothese, die nach m zusätzlichen Pausezeichen aktuell ist. Außerdem sei, mit S-m-n, f R streng monoton steigend so, dass für alle e, { W h (e,m), wobei m minimal so, dass h (e, m + 1) = h (e, m); W f(e) =, falls es kein solches m gibt. Wir definieren nun h so, dass h ( ) = f(h( )); { e, x : h (f(e), x) = f(e), falls x = #; f(h(h(e, #), x)), sonst. Sei nun L L und sei T ein Text für L. Sei T der Text, der aus T durch Löschen von allen # entsteht, sowie Ersetzen aller nicht-# x durch # x. Falls T nun endlich ist, so konvergiert h auf T # zu einer korrekten Hypothese e, während h zur äquivalenten Hypothese f(h(t )) konvergiert. Ansonsten konvergiert h auf T zu einer korrekten Hypothese e mit h(e, #) = e und h zu einer äquivalenten Hypothese f(e). Dies zeigt, dass TxtItEx-Lerner immer so angenommen werden können, dass Pausezeichen die Hypothese nicht verändern. Zu einer endlichen Menge D sei nun σ D die Auflistung der Elemente von D in strikt aufsteigender Reihenfolge. Wir definieren einen Sd-Lerner h wie folgt. Für eine endliche Menge D ist h (D) die Hypothese, die von h nach sehen des Textanfangs σ D ausgegeben wird. Sei L L und sei T ein Text für L und sei T der Text, der alle Elemente aus L in numerisch aufsteigender Reihenfolge auflistet. Sei e der Index, zu dem h auf T konvergiert. Dann konvergiert h auf T auch zu e, sobald alle Elemente gesehen sind, die h zur Konvergenz auf T benötigt. Aufgabe 11 Zeige: (1) E ist nicht TxtGEx-lernbar. (2) Sei L eine unendliche Menge. Dann ist {D D L endlich} {L} nicht TxtGExlernbar. (3) Sei (L i ) i N so, dass i : L i L i+1. Dann ist {L i i N} { i N L i} nicht TxtGExlernbar. 10

11 6 Konsistenz und Kohärenz In diesem Abschnitt befassen wir uns eingehender mit Konsistenz und Kohärenz. Zuerst halten wir fest, dass beide Konzepte Extensional äquivalent sind, wie für einen Fall in der Hausaufgabe schon gezeigt. Theorem 6.1. Es gelten die folgenden Aussagen. (1) [TxtGConsEx] = [TxtGCohEx]. (2) [RTxtGConsEx] = [RTxtGCohEx]. (3) [τ(cons)txtgex] = [τ(coh)txtgex]. Beweis. Der Beweis ist jeweils analog zum Beweis von Theorem 4 in der Hausaufgabenserie 3. Das τ(cons)txtgex-lernen hat eine Besonderheit, auf welche in der folgenden Aufgabe eingegangen wird. Sie lässt sich mittels Lockingsequenzen beweisen. Aufgabe 12 Sei L τ(cons)txtgex-lernbar. Zeige: Jedes L L ist entscheidbar. Allgemein lassen sich die verschiedenen Varianten der Konsistenz wie vergleichen wie im folgenden Theorem gezeigt. Insbesondere können konsistente Lerner nicht als total angenommen werden. Theorem 6.2. Es gilt [τ(cons)txtgex] [RTxtGConsEx] [TxtGConsEx] [TxtGEx]. Beweis. Der Beweis von Theorem 3 in der Hausaufgabenserie 3 zeigt genauer [TxtGConsEx] [TxtGEx]. Als nächstes zeigen wir [τ(cons)txtgex] [RTxtGConsEx]. Wir definieren dazu einen Td- Lerner h = π 1 ; dann ist offenbar h R. Sei L = RTxtTdConsEx(h) die Menge der Sprachen, die h konsistent lernt. Aufgabe 13 Charakterisiere L in etwa wie in dem Beweis von Theorem 3 in der Hausaufgabenserie 3. Nehme an, es gäbe einen Lerner h welcher L τ(cons)txtgex-lernt. Mit ORT (wobei wir nur zwei Indizes benutzen) gibt es e und p so, dass für alle x W e = content(ϕ p ); { ϕ p (x) = e, 2x, e, 2x + 1, falls h(ϕ p [x] e, 2x ) h(ϕ p [x]); sonst. Sei L = W e. 11

12 Aufgabe 14 Zeige, dass L L und dass h L nicht τ(cons)txtgex-lernt. Nun zeigen wir [RTxtGConsEx] [TxtGConsEx]. Dazu nehmen wir ein L fast wie im vorigen Beweis, allerdings so abgeändert, dass nun das extrahieren der Hypothese nicht mehr total berechenbar sein kann. Wir definieren h als Sd-Lerner mit Hilfsfunktionen r, s so, dass für alle D r(d) = max{k e : e, k D}; s(d) = min{e e, r(d) D}; h(d) = ϕ s(d) (0). Intuitiv codiert die Eingabe das Auszugebende Element nicht mehr als erst Komponente eines Paars, sondern über die Ausgabe eines Programms, welches in der ersten Komponente kodiert ist. Sei L = TxtSdConsEx(h) die Menge der Sprachen, die h konsistent lernt. Aufgabe 15 Charakterisiere L in etwa wie in dem Beweis von Theorem 3 in der Hausaufgabenserie 3. Für jede Menge endliche Menge D sei q(d) ein Index für D. Nehme an, es gäbe einen Lerner h welcher L RTxtGConsEx-lernt. Mit ORT (wobei wir nun tatsächlich unendlich viele Indizes benutzen) gibt es e R injektiv so, dass für alle x, n W e(0) = content(ϕ e(1) ); { e(2x + 2), 0, falls h (ϕ e(1) [x] e(2x + 2), 0 ) h (ϕ e(1) [x]); ϕ e(1) (x) = e(2x + 3), 0, sonst; { e(0), falls h (ϕ e(1) [x] e(2x + 2), 0 ) h (ϕ e(1) [x]); ϕ e(2n+2) (x) = q(content(ϕ e(1) [x] e(2x + 2), 0 )), sonst; ϕ e(2n+3) (x) = e(0). Sei T = ϕ e(1) und L = W e0. Aufgabe 16 Zeige, dass L L und dass h L nicht RTxtGConsEx-lernt. 12

13 7 Verzögerbare Lernkriterien In diesem Abschnitt sind wir an einer Anzahl von neuen Lernrestriktionen interessiert. Für eine Hypothesensequenz p und einen Text T definieren wir Prädikate wie folgt. Conv(p, T ) [ i : content(t [i + 1]) W p(i) p(i) = p(i + 1)]; Caut(p, T ) [ i, j : W p(i) W p(j) i < j]; NU(p, T ) [ i, j, k : i j k W p(i) = W p(k) = content(t ) W p(j) = W p(i) ]; Dec(p, T ) [ i, j, k : i j k W p(i) = W p(k) W p(j) = W p(i) ]; SNU(p, T ) [ i, j, k : i j k W p(i) = W p(k) = content(t ) p(j) = p(i)]; SDec(p, T ) [ i, j, k : i j k W p(i) = W p(k) p(j) = p(i)]; SMon(p, T ) [ i, j : i < j W p(i) W p(j) ]; Mon(p, T ) [ i, j : i < j W p(i) content(t ) W p(j) content(t )]; WMon(p, T ) [ i, j : i < j content(t [j]) W p(i) W p(i) W p(j) ]. Der Reihe nach sind dies conservative (Conv, nur Hypothesen verwerfen, die nicht alle bisherigen Daten beinhalten), cautious (Caut, nie zu einer echt kleineren Hypothese als eine bisher ausgegebene wechseln), non-u-shaped (NU, niemals eine korrekte Hypothese semantisch verwerfen), decisive (Dec, niemals zu einer semantisch verworfenen Hypothese zurückkehren), strongly non-u-shaped (SNU, niemals eine korrekte Hypothese syntaktisch verwerfen), strongly decisive (SDec, niemals zu einer syntaktisch verworfenen Hypothese zurückkehren), strongly monotone (SMon, die Hypothese wächst nur in ihrem Umfang), monotone (Mon, aus der Hypothese werden nur garantiert falsche Daten entfernt) und weakly monotone (WMon, solange die Hypothese konsistent ist, werden keine Daten aus ihr entfernt). Für alle Hypothesenfolgen p seien Sem(p) = {p i : ϕ p(i) = ϕ p (i)}; Mc(p) = {p i : (p(i) = p(i + 1) p (i) = p (i + 1))}. Eine Lernrestriktion δ heißt semantisch falls, für alle (p, T ) δ und p Sem(p), (p, T ) δ. Eine Lernrestriktion δ heißt pseudo-semantisch falls, für alle (p, T ) δ and p Sem(p) Mc(p), (p, T ) δ. Intuitiv dürfen bei semantischen Lernrestriktionen alle Hypothesen durch semantisch äquivalente ersetzt werden; bei pseudo-semantischen Lernrestriktionen dürfen hierdurch keine neuen Hypothesenwechsel entstehen. Sei R die Menge aller r : N N mit unendlichem Limes inferior, d.h. für alle m gilt n : r(n) m. Eine Lernrestriktion δ heißt verzögerbar (delayable) falls, für alle (p, g) δ und r R nicht-fallend mit n : r(n) n, (p r, g) δ. Intuitiv darf man Hypothesenwechsel hinauszögern, muss sie aber im Limes vollziehen. 13

14 Das folgende Diagramm zeigt die Inklusionsbeziehungen zwischen den verschiedenen Lernrestriktionen ( T steht für das immer-wahre Prädikat). T NU Caut Dec SNU WMon SDec Mon Conv SMon Alle diese Lernrestriktionen sind verzögerbar, die gestrichelt umkreisten sind pseudo-semantisch, alle anderen sind semantisch. Eine Kante bedeutet, dass die untere der beiden verbundenen Lernrestriktionen in der oberen enthalten ist (Hasse-Diagramm). Der Grund für den Namen verzögerbar ergibt sich aus der Eigenschaft, dass solche Restriktion beliebige Verzögerungstricks bei den Berechnungen des Lerners erlauben. Daraus ergibt sich sofort das folgende Theorem (siehe auch Aufgabe 7). Aufgabe 17 Sei δ verzögerbar. Dann gilt [RTxtGδEx] = [TxtGδEx]. Wir nennen einen Lerner sink-locking auf L, falls, für alle L L und jeden Text T für L es ein n gibt, so dass T [n] eine Lockingsequenz von h auf L ist. Von Aufgabe 3 wissen wir, dass nicht jeder TxtGEx-Lerner sink-locking ist. Aufgabe 18 Zeige, dass jeder TxtSdEx-Lerner auf der Menge seiner gelernten Sprachen sink-locking ist. 14

15 Von hier an Nutzen wir eine Funktion ind, so dass, für alle endlichen Mengen D, W ind(d) = D; solch eine Funktion existiert mit s-m-n. Theorem 7.1. Es gilt [TxtSdEx] \ [RTxtSdEx]. Beweis. Wir definieren einen Sd-Lerner h so, dass für alle endlichen, nicht-leeren Mengen D, h(d) = ϕ max(d) (0). Sei L = TxtSdEx(h). Wir nehmen an, dass L von einem Lerner h R ebenfalls TxtSdEx-gelernt wird und zeigen nun einen Widerspruch. Mit ORT gibt es p und e R stark monoton steigend so, dass für n, x, W p = range(e); { ϕ e(n) (x) = p, falls n n : h (content(e[n + 1])) h (content(e[n + 2])); ind(content(e[n + 1])), sonst. Fall 1: Für alle n, h (content(e[n + 1])) h (content(e[n + 2])). Dann gilt W p L, aber h macht unendliche viele Hypothesenwechsel auf dem Text e für W p. Fall 2: Es gibt ein n mit h (content(e[n + 1])) = h (content(e[n + 2])). Dann gilt h(content(e[n + 1])) = ϕ e(n) (0) = ind(content(e[n + 1])); h(content(e[n + 2])) = ϕ e(n+1) (0) = ind(content(e[n + 2])). Damit gilt nun content(e[n + 1]), content(e[n + 2]) L, aber h konvergiert auf beliebigen Texten für die beiden Sprachen zur immer gleichen Hypothese, ein Widerspruch. Die folgende Aufgabe zeigt eine interessante Struktureigenschaft lernbarer Mengen. Man zeigt sie mittels Lockingsequenzen und einer Fallunterscheidung N L. Aufgabe 19 Sei L eine TxtGEx-lernbare Menge. Dann gibt es eine unendliche Menge L so, dass für alle Obermengen L L, welche sich von L nur endlich unterscheiden (in Zeichen: L = L ): L L. 15

16 Theorem 7.2. Es gilt [TxtGEx] = [TxtGSNUEx]. Beweis. Sei L TxtGEx-lernbar und sei h R der TxtGEx-Lerner für L, welcher äquivalent zu dem in Theorem 5.1 definierten Psd-Lerner für L ist. Sei L 0 wie gefunden in Aufgabe 19 (für L). Das Prädikat Q(σ, t) sei definiert als man findet kein τ mit Elementen nur aus W h(σ) so, dass h(σ τ) h(σ) innerhalb von t Schritten. Mit s-m-n gibt es nun ein p R so, dass für alle σ, W p(σ) = {x W h(σ) Q(σ, x)} {x L 0 t : Q(σ, t)}. Dann gilt, dass W p(σ) eine endliche Obermenge von L 0 ist, falls es ein t gibt mit Q(σ, t), und W p(σ) = W h(σ), sonst. Wir definieren h als { σ : h (σ) = p(σ), falls σ = oder h(σ) h(σ ); h (σ ), sonst. Aufgabe 20 Zeige, dass h ein TxtGSNUEx-Lerner für L ist. Wir befassen uns nun mit dem Fall für iterative Lerner. Theorem 7.3. Sei L eine TxtItEx-lernbare Sprachmenge. Die folgenden Aussagen sind äquivalent. (1) L ist TxtItSNUEx-lernbar. (2) L ist TxtItConvEx-lernbar. (3) L ist TxtItSDecEx-lernbar. (4) L ist TxtItEx-lernbar durch einen Lerner, der sink-locking auf L ist. Beweis. Sei h ein TxtItSNUEx-Lerner für L und seien L L und T ein Text für L. Sei n so, dass für alle n n, It(h, T )(n ) = It(h, T )(n). Dann ist It(h, T )(n) also eine korrekte Hypothese für L. Dann kann, da h strongly non-u-shaped ist, diese Hypothese nie mehr verlassen werden, mit anderen Worten: T [n] ist eine Lockingsequenz von h auf L. Dies zeigt, dass h sink-locking auf L ist. Damit ist (1) (4) gezeigt. Außerdem sind (2) (1) und (3) (1) klar. Die folgende Aufgabe beendet somit den Beweis. Aufgabe 21 Sei h ein TxtItEx-Lerner, der sink-locking auf L ist. Zeige, dass L dann auch TxtItSNUEx-lernbar ist. 16

17 Beweis. Sei L TxtItEx-lernbar durch einen Lerner h, der sink-locking auf L ist. Mit dem S-m-n Theorem gibt es ein p R so, dass e : W p(e) = {x W e h(e, x) = e}. Wir konstruieren einen Lerner h mit Initialhypothese p(h( )) derart, dass für alle e, x, h (p(e), x) = p(h(e, x)). Sei nun L L und T ein Text für L. Sei e so, dass h auf T zu e konvergiert (somit gilt L = W e ). Dann konvergiert h auf T zu p(e). Da h sink-locking ist, gilt nun, für alle x L, h(e, x) = e. Somit ist W p(e) = W e. Sei p(e ) eine Ausgabe von h auf T vor der Ausgabe von p(e). Dann gilt, für alle x L, dass h nur dann seine Meinung wechselt, wenn h dies tut auf e ; für ein solches x gilt jedoch, dass x W p(e ) wie gewünscht. Dies zeigt, dass L TxtItConvEx-lernbar ist. Als nächstes beschäftigen wir uns mit Caut. Theorem 7.4. Es gilt Beweis. Aufgabe 22 [TxtGWMonEx] [TxtGCautEx] [TxtGEx]. Zeige, dass [TxtGCautEx] [TxtGEx]. Aufgabe 23 Zeige, dass [TxtGWMonEx] [TxtGCautEx]. Aufgabe 24 Zeige, dass [TxtGWMonEx] [TxtGCautEx]. 17

18 8 Bc und Fin In diesem Abschnitt analysieren wir verschiedene Alternativen zu Ex. Formal sei, für jede Hypothesensequenz p und jeden Text T, Fin(p, T ) [ e, n : W e = content(t ) i < n : p(i) =? i n : p(i) = e]; Fex(p, T ) [ D : e D : W e = content(t ) i : p(i) D]; Ex (p, T ) [ e : W e = content(t ) i : p(i) = e]; Bc(p, T ) [ i : W p(i) = content(t )]; Bc (p, T ) [ i : W p(i) = content(t )]. Aufgabe 25 Welche der obigen Restriktionen sind verzögerbar? Welche semantisch? Welche pseudosemantisch? Wir nennen eine eine Lernrestriktion Abbildungs-pseudo-semantisch falls, für alle Funktionen f mit e : W f(e) = W e und alle (p, T ) δ gilt (f p, T ) δ. Aufgabe 26 Welche der obigen Restriktionen sind Abbildungs-pseudo-semantisch? Aus der Hausaufgabe wissen wir [TxtGEx] [TxtGBc]; [TxtGFin] [TxtItEx]; [TxtGEx] [TxtGEx ]. Dabei ist die Inklusion [TxtGFin] [TxtItEx] eher etwas untergegangen (die Separation erfolgt durch die Menge aller endlichen Mengen). Deshalb nun die folgende Aufgabe. Aufgabe 27 Zeige [TxtGFin] [TxtItEx]. Für jede Sprache L bezeichnen wir mit Seq(L) die Menge aller endlichen Sequenzen mit Elementen aus L. Aus dem Theorem über Lockingsequenzen wissen wir das folgende. Theorem 8.1 (Lockingtheorem für TxtGEx). Sei h ein Lerner und L eine Sprache so, dass h L TxtGEx-lernt. Dann gibt es, für jedes σ Seq(L) eine Erweiterung τ Seq(L) derart, dass für alle Erweiterungen ρ Seq(L) gilt h(σ τ ρ) = h(σ τ). Wir nennen σ τ eine Lockingsequenz. 18

19 Wir haben dieses Theorem auch für andere Interaktionsoperatoren benutzt etwa so, dass auch iterative Lerner sowas wie Lockingsequenzen haben. Etwas formaler ist dies mit der folgenden Definition. Definition 8.2. Seien β, β zwei Interaktionsoperatoren. Wir schreiben β β (in Worten: β-lerner können zu β -Lernern übersetzt werden), falls für jeden Lerner h gibt es einen Lerner h so, dass für alle Texte T β(h, T ) = β (h, T ). Insbesondere gibt es für jeden β-lerner einer Sprachmenge auch einen β -Lerner. Für unsere Transaktionsoperatoren gilt das folgende Bild. Td It Sd Psd G Für β G und h ein β-lerner schreiben wir h für den zu h gehörigen G-Lerner, den es nach Defintion 8.2 gibt. Nun haben wir allgemein das folgende Lockingtheorem. Theorem 8.3 (Lockingtheorem, beliebige Interaktionsoperatoren). Sei β G, sei h ein β-lerner und L eine Sprache so, dass h L TxtβEx-lernt. Dann gibt es, für jedes σ Seq(L) eine Erweiterung τ Seq(L) derart, dass für alle Erweiterungen ρ Seq(L) gilt h (σ τ ρ) = h (σ τ). Für eine Funktion f : N N und n, m N mit n m schreiben wir f[n, m] für die endliche Sequenz σ der Länge m n + 1 so, dass für alle x < m n + 1, σ(x) = f(x + n). Definition 8.4. Sei δ eine Lernrestriktion und sei P ein Prädikat auf Paaren aus einer endlichen Hypothesensequenzen und einem Text. Dann nennen wir δ die Lernrestriktion zum Limesprädikat P falls, für alle Hypothesensequenzen p und alle Texte T, δ(p, T ) n m n : P (p[n, m], T ). Jedes Limesprädikat P definiert demnach eindeutig seine zugehörige Lernrestriktion; anders herum gibt es allerdings potentiell mehrere Limesprädikate zu einer gegebenen Lernrestriktion (oder gar keine). Falls eine Lernrestriktion δ mindestens ein zugehöriges Limesprädikat hat, so nennen wir δ eine Limesrestriktion. Aufgabe 28 Welche Limesrestriktionen kennen wir? Was sind zugehörige Prädikate? Theorem 8.5 (Generalisiertes Lockingtheorem). Sei δ eine Limesrestriktion zu einem Limesprädikat P. Sei h ein Lerner und L eine Sprache so, dass h L TxtGδ-lernt. Dann gibt es, für jedes σ Seq(L) eine Erweiterung τ Seq(L) derart, dass für jeden Text T für L mit σ τ T und n = σ τ gilt m n : P (G(h, T )[n, m], T ). Wir nennen σ τ eine P -Lockingsequenz (oder, falls das mit δ assoziierte P klar ist, eine δ- Lockingsequenz). 19

20 Wir nutzen jetzt diese verallgemeinerten Lockingsequenzen um die folgende Aussage zu zeigen. Aufgabe 29 Sei L = {L L = N}. Dann ist L TxtGEx -lernbar, aber nicht TxtGBc-lernbar. Als Schlussfolgerung ergibt sich nun auch das folgende Theorem. Theorem 8.6. Es gilt [TxtGBc] [TxtGBc ]. Zusätzlich bohren wir nun den Beweis zu [TxtGEx] [TxtGBc] noch ein bisschen auf und zeigen, dass Bc auch Sprachmengen lernen kann, die nicht Ex lernbar sind. Mit der vorigen Aufgabe ergibt sich also der folgende Satz. Theorem 8.7. Die Lernbarkeitsklassen [TxtGEx ] und [TxtGBc] sind unvergleichbar. Beweis. Wir wissen bereits [TxtGEx ] [TxtGBc] (Aufgabe 29). Nun zeigen wir [TxtGBc] [TxtGEx ]. Für zwei Mengen A, B N schreiben wir A B = { a, b a A, b B}. Sei Aufgabe 30 L = {(K {x}) N x N}. Zeige, dass L TxtGBc-lernbar ist. Nehme nun an, L sei TxtGEx -lernbar durch einen Lerner h. Sei σ eine Lockingsequenz von h auf K N L. Dann gilt x K τ Seq((K {x}) N) : h(σ τ) h(σ). Dies zeigt, dass K aufzählbar ist, ein Widerspruch zur Unentscheidbarkeit des Halteproblems. Aufgabe 31 Was ist TxtGConvBc-lernbar? 20

21 Aufgabe 32 Zeige, dass es eine TxtGEx-lernbare Sprachmenge gibt, welche nicht TxtGCautBclernbar ist. Wir analysieren nun eine Erweiterung des endlichen Lernens, des Lernens mit beschränkt vielen Hypothesenwechseln (mind-changes, Mc). Dazu definieren wir, für alle n, die folgende Lernrestriktion. Für alle p, T sei Mc n (p, T ) [Ex(p, T ) D, D n : p(i) p(i + 1) (p(i) =? i D)]. Intuitiv darf der Lerner also nur n Hypothesenwechsel machen (an allen Stellen in D), wobei der Wechsel von einer (Initial-)hypothese? nicht mitgezählt wird. Damit ist auch klar, dass Fin = Mc 0. Aufgabe 33 Zeige, für alle n, [TxtGMc n ] [TxtGMc n+1 ]. Aufgabe 34 Sei n gegeben. Wie verhalten sich TxtGMc n und confident TxtGEx-Lernen? Abschließend zeigen wir nun das folgende Theorem. Theorem 8.8. Es gilt [TxtGEx] [TxtGFex]. Beweis. Sei r R so, dass für alle σ r(σ) das minimale Element x content(σ) ist, für das π 2 (x) maximal ist. Sei h R so, dass für alle σ h(σ) = π 1 (r(σ)). Sei L = TxtGFex(h). Nehmen wir nun an, dass L auch TxtGEx-lernbar ist, durch einen Lerner h. Mit ORT gibt es dann eine berechenbare Folge (σ i ) i N sowie p, q so, dass σ 0 = ; i : σ i+1 = σ i (µτ {( p, i ) t, ( q, i ) t t N} h (σ i ) h (σ i τ)) p, i q, i ; W p = (content(σ i ) { p, i }); W q = i N,σ i i N,σ i (content(σ i ) { q, i }). Dabei sind W p so zu verstehen, dass iterative die σ i berechnet werden, und dann jeweils (nach terminierter Berechnung) content(σ i ) { p, i } aufgezählt wird (entsprechend bei W q ). 21

22 Fall 1: Es gibt ein i so, dass σ i und σ i+1. Seien T 0 = σ i p, i ; T 1 = σ i q, i. Dann ist T 0 ein Text für W p und T 1 ein Text für W q ; auf beiden Texten konvergiert h zur selben Hypothese. Jedoch sind beide Sprachen in L, da h zu p respektive zu q konvergiert, ein Widerspruch. Fall 2: Für alle i gilt σ i. Sei T = i N σ i ein Text für L = content(t ) = { e, i e {p, q}, i N}. Es gilt, dass h auf T nicht konvergiert, daher L nicht lernt. Andererseits gilt, dass h auf beliebigen Texten nur p und q ausgibt, welches beide korrekte Hypothesen für L sind. 22

23 9 Verschiedene Beweisarten In diesem Abschnitt schauen wir uns die drei prinzipiellen Arten an, wie man eine Separation von zwei Lernbarkeitskritierien zeigen kann. Diese sind im einzelnen: (1) Reduktion eines bekannten Problems auf das gegebene; (2) Ausnutzung eines Rekursionstheorems; und (3) direkte Diagonalisierung. Bisher haben wir für die meisten Separationsbeweise ein Rekursionstheorem (KRT oder ORT) benutzt. Diese Technik ist sehr universell und, in meinen Augen, intuitiv. Mit ein bisschen Raffinesse bietet die erste Möglichkeit aber durchaus kürzere und einleuchtendere Beweise, bezieht sich dabei aber meist auf Wissen aus der Berechenbarkeitstheorie (wir werden nur Reduktionen mit dem Halteproblem nehmen). Die dritte Möglichkeit ist vielleicht die mächtigste von allen, benötigt aber auch die meiste Notation und ist im Allgemeinen unelegant. Interessant ist noch zu erwähnen, dass sowohl die Reduktionen wie auch die Rekursiontheoreme implizit eine Diagonalisierung benutzen: KRT und ORT werden über Diagonalisierungen bewiese, und die Unentscheidbarkeit des Halteproblems auch. Wir besprechen jetzt für zwei Separationen Beweise für alle drei Techniken. Zuerst zeigen Theorem 9.1. Es gilt [TxtGConsEx] [TxtGEx]. Beweis. Reduktion vom Halteproblem. Die Idee bei diesem Beweisansatz ist zu zeigen, dass bei Gleichmächtigkeit der Lernbarkeitskrierien auch das Halteproblem berechenbar wäre. Sei L = {N, K}, wobei K das (diagonale) Halteproblem ist (insbesondere is K aufzählbar aber nicht entscheidbar). Diese Menge ist TxtGEx-lernbar indem man sich ein Element x K hernimmt und solange als Hypothese K ausgibt bis x in der Eingabe erscheint; dann wechselt man zu einer Hypothese für N. Nehmen wir nun an es gäbe einen TxtGConsEx-Lerner h für L. Da L dicht ist, ist h immer konsistent. Sei σ eine Lockingsequenz von h auf K. Dann gilt nun also, für alle x, x K h(σ x) = h(σ) x K h(σ x) h(σ) wegen σ Lockingsequenz; wegen h konsistent; Damit können wir K entscheiden indem wir h(σ x) = h(σ) testen, ein Widerspruch zur Unentscheidbarkeit des Halteproblems. Aufgabe 35 Zeige, mit einer einfachen Reduktion, [τ(cons)txtgex] [TxtGConsEx]. Beweis. Ausnutzung eines Rekursionstheorems. Dies ist der Beweis, den wir schon aus der Vorlesung kennen. Sei L 0 = {L e, k : [ e, k L W e = L x L : x = e, k π 2 (x) < k]}. 23

24 Es ist leicht zu sehen, dass L 0 dicht und TxtGEx-lernbar ist. Nehmen wir nun an, dass L 0 [TxtGConsEx] durch einen Lerner h. Da L 0 dicht ist, muss h konsistent auf beliebigen Daten sein. Mit ORT gibt es e und p so, dass für alle x W e = range(ϕ p ); e, 1, falls x = 0; ϕ p (x) = 2x, 0, sonst, falls h(ϕ p [x] 2x, 0 ) h(ϕ p [x]); 2x + 1, 0, sonst. Sei T = ϕ p ein Text für L = W e. Es gilt, dass L L 0, da wir e, 1 L als einziges Datum mit π 2 -Wert > 0. Da h nun insbesondere L lernt, gibt es ein n 0 so, dass für alle n > n 0 gilt h(t [n]) = h(t [n 0 ]) und W h(t [n]) = L. Somit gilt mit der Wahl von T = ϕ p, für alle n > n 0, T (n) = 2n + 1, 0 und h(t [n] 2n, 0 ) = h(t [n]). Aus der Definition von Cons ergibt sich n > n 0 : 2n, 0 W h(t [n] 2n,0 ) = W h(t [n]) = W h(t [n0]) = L. Das ist aber ein Widerspruch, da L = W e nur 2n + 1, 0, nicht jedoch 2n, 0 enthält. Beweis. Direkte Diagonalisierung. Bei der direkten Diagonalisierung ist die Idee für jeden möglichen Lerner ϕ j einige Sprachen in L zu haben, die dieser konkrete Lerner ϕ j nicht lernen kann. Das machen wir hier zum Beispiel wie folgt. Für alle j N definieren wir rekursiv eine Funktion f j so, dass { j, 2x, falls ϕ j (f j [x]) ϕ j (f j [x] j, 2x ) ; x : f j (x) = j, 2x + 1, sonst. Für jedes j sei L j = range(f j ) und es sei L = {L j j N}. Die Parallelen zum Beweis durch Rekursionstheorem sind erkennbar in der. Ein wichtiger Unterschied ist der, dass L schon in Referenz auf die Möglichen Lerner für L konstruiert wird. L ist TxtGEx-lernbar: Ein Lerner gibt erst eine Hypothese für aus, bis das erste Datum j, y gesehen wurde. Ab dann gibt der Lerner eine Hypothese für range(f j ) aus, welche mit dem S-m-n Theorem leicht aus dem j berechnet werden kann. Nehmen wir nun also an, dass L konsistent TxtGEx-lernbar ist, durch einen Lerner h. Dann gibt es natürlich ein j so, dass h = ϕ j (da dies für alle berechenbaren Funktionen gilt). Nun kann man zeigen, dass h = ϕ j nicht L j lernen kann, analog zu dem Beweis mittels Rekursionstheorem. Insgesamt sehen wir insbesondere bei diesem Beweis, dass man Definitionen für alle möglichen Lerner macht, dann später aber nur den Teil für einen konkreten Lerner nutzt. Theorem 9.2. Es gilt [TxtGCautEx] [TxtGEx]. Beweis. Ausnutzung eines Rekursionstheorems. Für alle e seien e, ϕ e (0) : L e = { e, x x N}; e, ϕ e (0) : L e = { e, x x < ϕ e (0)}; L = {L e ϕ e (0) } {L e ϕ e (0) }. 24

25 Es ist klar, dass L TxtGEx-lernbar ist. Nehmen wir an, L sei doch TxtGCautEx-lernbar durch einen Lerner h. Für alle e sei T e der Text so, dass i : T e (i) = e, i. Mit KRT gibt es e so, dass für alle x N, ϕ e (x) ist das erste gefundene m mit e, m W h(te[m]), und undefiniert, falls es kein solches m gibt. Fall 1: ϕ e (0). Dies bedeutet m : e, m W h(t [m]). Dann ist T ein Text für L e L, aber h macht niemals eine korrekte Hypothese, ein Widerspruch. Fall 2: ϕ e (0). Sei m = ϕ e (0). Dies bedeutet L e = { e, x x < m} ist in L. Sei T ein Text für L e der mit T e [m]. Da h nach T [m] übergeneralisiert, kann h L e nicht cautious lernen. Beweis. Direkte Diagonalisierung. In diesem Fall brauchen wir je potentiellem Lerner zwei Sprachen. Für alle j N sei L j so, dass L j = { j, x x N} und für jedes j sei T ein Text so, dass i : T (i) = j, i ; wir definieren eine zweite Sprache L j zu j so, dass { content(t [m]), falls es ein minimales Paar m, t gibt mit content(t [m]) W t ϕj(t [m]) ; L j =, sonst. Sei L = {L j j N} {L j j N}. L ist TxtGEx-lernbar: Ein Lerner gibt erst eine Hypothese für aus, bis das erste Datum j, y gesehen wurde. Ab dann gibt der Lerner eine Hypothese für L j aus, bis ein m gefunden wurde mit content(t [m]) W h(t [m]) in σ Schritten, dann wechseln wir zu L j. Hierbei ist es wichtig zu bemerken, dass wir einen Index für L j berechnen können, weil die Fallunterscheidung (und die Bestimmung von m) berechenbar sind. Nehmen wir nun also an, dass L TxtGCautEx-lernbar ist, durch einen Lerner h. Dann gibt es natürlich ein j so, dass h = ϕ j (da dies für alle berechenbaren Funktionen gilt). Nun kann man zeigen, dass h = ϕ j entweder nicht L j oder nicht L j lernen kann, analog zu dem Beweis mittels Rekursionstheorem. Beweis. Reduktion vom Halteproblem. Wir nehmen wieder K als das (diagonale) Halteproblem. Für jedes x sei L x so, dass { {D D N endlich min(d) = x}, falls x K; L x = {{y y x}}, sonst. Insbesondere ist L x unendlich, falls x K, und einelementig sonst. Wir nehmen L = x N L x. Aufgabe 36 Zeige: L ist TxtGEx-lernbar. Aufgabe 37 Zeige: L ist nicht TxtGCautEx-lernbar. 25

26 Bei diesem Beweis sieht man auch sehr schön wie viel Rafinesse für solche Reduktionen manchmal nötig ist. 26

27 10 Beweisstrategien Hier ist eine Übersicht darüber, welche Strategien wir für die Beweise in der formalen Lerntheorie verwenden. Im letzten Abschnitt haben wir drei Formen von Beweisen für Separationen gesehen. Dazu kommt nun auch noch eine Strategie, die wir zum Beispiel in Theorem 5.2 benutzt haben, sogenannte topologische Separationen. Hierbei wird der berechenbarkeitstheoretische Aspekt komplett vernachlässigt. Separationen berechenbarkeitstheoretisch Reduktion von Unentscheidbarer Menge Ausnutzung eines Rekursionstheorems Direkte Diagonalisierung topologisch Wie zeigt man nun im einzelnen, dass ein Lerner h eine Sprachklasse L nicht lernt? Separationen: h lernt L nicht Ex-Konvergenz h konvergiert nicht h konvergiert zu inkorrekter Hypothese h konvergiert auf Texten für 2 Sprachen aus L zur gleichen Hypothese Fex-Konvergenz neue Hypothesen Bc-Konvergenz keine Semantisch korrekten Hypothesen h gibt auf Texten für 2 Sprachen aus L dieselbe Hypothesensequenz aus (im Limes) It-Lernen Vergessen von Daten endliche Mengen Sd-Lernen keine unendlich wachsende Eingabe (zur beschränkten Suche) endliche Mengen Was können wir im umgekehrten Fall machen, um die Gleichheit von Kritierien (bzw. einzelnge Inklusionen) zu zeigen? Inklusionen Simulation vom gegebenen Lerner... auf dem gleichen Text... auf neu strukturiertem/umgeordneten Text Suche nach Lockingsequenz Ausnutzen von Normalenformen sink-locking total Vergiften Verzögern Direkt über Charakterisierungen 27

28 Literatur [JORS99] S. Jain, D. Osherson, J. Royer, and A. Sharma. Systems that Learn: An Introduction to Learning Theory. MIT Press, Cambridge, Massachusetts, second edition, [Köt09] T. Kötzing. Abstraction and Complexity in Computational Learning in the Limit. PhD thesis, University of Delaware, Available online at [OSW86] D. Osherson, M. Stob, and S. Weinstein. Systems that Learn: An Introduction to Learning Theory for Cognitive and Computer Scientists. MIT Press, Cambridge, Mass.,

Primzahlen und RSA-Verschlüsselung

Primzahlen und RSA-Verschlüsselung Primzahlen und RSA-Verschlüsselung Michael Fütterer und Jonathan Zachhuber 1 Einiges zu Primzahlen Ein paar Definitionen: Wir bezeichnen mit Z die Menge der positiven und negativen ganzen Zahlen, also

Mehr

1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage:

1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage: Zählen und Zahlbereiche Übungsblatt 1 1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage: Für alle m, n N gilt m + n = n + m. in den Satz umschreiben:

Mehr

Übung Theoretische Grundlagen

Übung Theoretische Grundlagen Übung Theoretische Grundlagen Berechenbarkeit/Entscheidbarkeit Nico Döttling November 26, 2009 INSTITUT FÜR KRYPTOGRAPHIE UND SICHERHEIT KIT University of the State of Baden-Wuerttemberg and National Laboratory

Mehr

1 topologisches Sortieren

1 topologisches Sortieren Wolfgang Hönig / Andreas Ecke WS 09/0 topologisches Sortieren. Überblick. Solange noch Knoten vorhanden: a) Suche Knoten v, zu dem keine Kante führt (Falls nicht vorhanden keine topologische Sortierung

Mehr

1 Mathematische Grundlagen

1 Mathematische Grundlagen Mathematische Grundlagen - 1-1 Mathematische Grundlagen Der Begriff der Menge ist einer der grundlegenden Begriffe in der Mathematik. Mengen dienen dazu, Dinge oder Objekte zu einer Einheit zusammenzufassen.

Mehr

Grundlagen der Theoretischen Informatik, SoSe 2008

Grundlagen der Theoretischen Informatik, SoSe 2008 1. Aufgabenblatt zur Vorlesung Grundlagen der Theoretischen Informatik, SoSe 2008 (Dr. Frank Hoffmann) Lösung von Manuel Jain und Benjamin Bortfeldt Aufgabe 2 Zustandsdiagramme (6 Punkte, wird korrigiert)

Mehr

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren Lineargleichungssysteme: Additions-/ Subtraktionsverfahren W. Kippels 22. Februar 2014 Inhaltsverzeichnis 1 Einleitung 2 2 Lineargleichungssysteme zweiten Grades 2 3 Lineargleichungssysteme höheren als

Mehr

Einführung in die Algebra

Einführung in die Algebra Prof. Dr. H. Brenner Osnabrück SS 2009 Einführung in die Algebra Vorlesung 13 Einheiten Definition 13.1. Ein Element u in einem Ring R heißt Einheit, wenn es ein Element v R gibt mit uv = vu = 1. DasElementv

Mehr

a n + 2 1 auf Konvergenz. Berechnen der ersten paar Folgenglieder liefert:

a n + 2 1 auf Konvergenz. Berechnen der ersten paar Folgenglieder liefert: Beispiel: Wir untersuchen die rekursiv definierte Folge a 0 + auf Konvergenz. Berechnen der ersten paar Folgenglieder liefert: ( ) (,, 7, 5,...) Wir können also vermuten, dass die Folge monoton fallend

Mehr

Stellen Sie bitte den Cursor in die Spalte B2 und rufen die Funktion Sverweis auf. Es öffnet sich folgendes Dialogfenster

Stellen Sie bitte den Cursor in die Spalte B2 und rufen die Funktion Sverweis auf. Es öffnet sich folgendes Dialogfenster Es gibt in Excel unter anderem die so genannten Suchfunktionen / Matrixfunktionen Damit können Sie Werte innerhalb eines bestimmten Bereichs suchen. Als Beispiel möchte ich die Funktion Sverweis zeigen.

Mehr

Absolute Stetigkeit von Maßen

Absolute Stetigkeit von Maßen Absolute Stetigkeit von Maßen Definition. Seien µ und ν Maße auf (X, Ω). Dann heißt ν absolut stetig bezüglich µ (kurz ν µ ), wenn für alle A Ω mit µ(a) = 0 auch gilt dass ν(a) = 0. Lemma. Sei ν ein endliches

Mehr

Informationsblatt Induktionsbeweis

Informationsblatt Induktionsbeweis Sommer 015 Informationsblatt Induktionsbeweis 31. März 015 Motivation Die vollständige Induktion ist ein wichtiges Beweisverfahren in der Informatik. Sie wird häufig dazu gebraucht, um mathematische Formeln

Mehr

Beweisbar sichere Verschlüsselung

Beweisbar sichere Verschlüsselung Beweisbar sichere Verschlüsselung ITS-Wahlpflichtvorlesung Dr. Bodo Möller Ruhr-Universität Bochum Horst-Görtz-Institut für IT-Sicherheit Lehrstuhl für Kommunikationssicherheit bmoeller@crypto.rub.de 6

Mehr

Professionelle Seminare im Bereich MS-Office

Professionelle Seminare im Bereich MS-Office Der Name BEREICH.VERSCHIEBEN() ist etwas unglücklich gewählt. Man kann mit der Funktion Bereiche zwar verschieben, man kann Bereiche aber auch verkleinern oder vergrößern. Besser wäre es, die Funktion

Mehr

Codierungstheorie Rudolf Scharlau, SoSe 2006 9

Codierungstheorie Rudolf Scharlau, SoSe 2006 9 Codierungstheorie Rudolf Scharlau, SoSe 2006 9 2 Optimale Codes Optimalität bezieht sich auf eine gegebene Quelle, d.h. eine Wahrscheinlichkeitsverteilung auf den Symbolen s 1,..., s q des Quellalphabets

Mehr

Was meinen die Leute eigentlich mit: Grexit?

Was meinen die Leute eigentlich mit: Grexit? Was meinen die Leute eigentlich mit: Grexit? Grexit sind eigentlich 2 Wörter. 1. Griechenland 2. Exit Exit ist ein englisches Wort. Es bedeutet: Ausgang. Aber was haben diese 2 Sachen mit-einander zu tun?

Mehr

Grundbegriffe der Informatik

Grundbegriffe der Informatik Grundbegriffe der Informatik Einheit 15: Reguläre Ausdrücke und rechtslineare Grammatiken Thomas Worsch Universität Karlsruhe, Fakultät für Informatik Wintersemester 2008/2009 1/25 Was kann man mit endlichen

Mehr

Basis und Dimension. Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren.

Basis und Dimension. Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren. Basis und Dimension Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren. Definition. Sei V ein K-Vektorraum und (v i ) i I eine Familie von Vektoren

Mehr

4. AUSSAGENLOGIK: SYNTAX. Der Unterschied zwischen Objektsprache und Metasprache lässt sich folgendermaßen charakterisieren:

4. AUSSAGENLOGIK: SYNTAX. Der Unterschied zwischen Objektsprache und Metasprache lässt sich folgendermaßen charakterisieren: 4. AUSSAGENLOGIK: SYNTAX 4.1 Objektsprache und Metasprache 4.2 Gebrauch und Erwähnung 4.3 Metavariablen: Verallgemeinerndes Sprechen über Ausdrücke von AL 4.4 Die Sprache der Aussagenlogik 4.5 Terminologie

Mehr

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis Unterrichtsmaterialien in digitaler und in gedruckter Form Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis Das komplette Material finden Sie hier: Download bei School-Scout.de

Mehr

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x

Mehr

Zeichen bei Zahlen entschlüsseln

Zeichen bei Zahlen entschlüsseln Zeichen bei Zahlen entschlüsseln In diesem Kapitel... Verwendung des Zahlenstrahls Absolut richtige Bestimmung von absoluten Werten Operationen bei Zahlen mit Vorzeichen: Addieren, Subtrahieren, Multiplizieren

Mehr

0, v 6 = 2 2. 1, v 4 = 1. 2. span(v 1, v 5, v 6 ) = span(v 1, v 2, v 3, v 4, v 5, v 6 ) 4. span(v 1, v 2, v 4 ) = span(v 2, v 3, v 5, v 6 )

0, v 6 = 2 2. 1, v 4 = 1. 2. span(v 1, v 5, v 6 ) = span(v 1, v 2, v 3, v 4, v 5, v 6 ) 4. span(v 1, v 2, v 4 ) = span(v 2, v 3, v 5, v 6 ) Aufgabe 65. Ganz schön span(n)end. Gegeben sei folgende Menge M von 6 Vektoren v, v,..., v 6 R 4 aus Aufgabe P 6: M = v =, v =, v =, v 4 =, v 5 =, v 6 = Welche der folgenden Aussagen sind wahr? span(v,

Mehr

Wichtige Forderungen für ein Bundes-Teilhabe-Gesetz

Wichtige Forderungen für ein Bundes-Teilhabe-Gesetz Wichtige Forderungen für ein Bundes-Teilhabe-Gesetz Die Parteien CDU, die SPD und die CSU haben versprochen: Es wird ein Bundes-Teilhabe-Gesetz geben. Bis jetzt gibt es das Gesetz noch nicht. Das dauert

Mehr

Kapitalerhöhung - Verbuchung

Kapitalerhöhung - Verbuchung Kapitalerhöhung - Verbuchung Beschreibung Eine Kapitalerhöhung ist eine Erhöhung des Aktienkapitals einer Aktiengesellschaft durch Emission von en Aktien. Es gibt unterschiedliche Formen von Kapitalerhöhung.

Mehr

Tangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort:

Tangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort: Tangentengleichung Wie Sie wissen, gibt die erste Ableitung einer Funktion deren Steigung an. Betrachtet man eine fest vorgegebene Stelle, gibt f ( ) also die Steigung der Kurve und somit auch die Steigung

Mehr

7 Rechnen mit Polynomen

7 Rechnen mit Polynomen 7 Rechnen mit Polynomen Zu Polynomfunktionen Satz. Zwei Polynomfunktionen und f : R R, x a n x n + a n 1 x n 1 + a 1 x + a 0 g : R R, x b n x n + b n 1 x n 1 + b 1 x + b 0 sind genau dann gleich, wenn

Mehr

Also kann nur A ist roter Südler und B ist grüner Nordler gelten.

Also kann nur A ist roter Südler und B ist grüner Nordler gelten. Aufgabe 1.1: (4 Punkte) Der Planet Og wird von zwei verschiedenen Rassen bewohnt - dem grünen und dem roten Volk. Desweiteren sind die Leute, die auf der nördlichen Halbkugel geboren wurden von denen auf

Mehr

ERGÄNZUNGEN ZUR ANALYSIS II MITTELWERTSATZ UND ANWENDUNGEN

ERGÄNZUNGEN ZUR ANALYSIS II MITTELWERTSATZ UND ANWENDUNGEN ERGÄNZUNGEN ZUR ANALYSIS II MITTELWERTSATZ UND ANWENDUNGEN CHRISTIAN HARTFELDT. Zweiter Mittelwertsatz Der Mittelwertsatz Satz VI.3.4) lässt sich verallgemeinern zu Satz.. Seien f, g : [a, b] R auf [a,

Mehr

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse 11 13. 501322 Lösung 10 Punkte

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse 11 13. 501322 Lösung 10 Punkte 50. Mathematik-Olympiade. Stufe (Regionalrunde) Klasse 3 Lösungen c 00 Aufgabenausschuss des Mathematik-Olympiaden e.v. www.mathematik-olympiaden.de. Alle Rechte vorbehalten. 503 Lösung 0 Punkte Es seien

Mehr

! " # $ " % & Nicki Wruck worldwidewruck 08.02.2006

!  # $  % & Nicki Wruck worldwidewruck 08.02.2006 !"# $ " %& Nicki Wruck worldwidewruck 08.02.2006 Wer kennt die Problematik nicht? Die.pst Datei von Outlook wird unübersichtlich groß, das Starten und Beenden dauert immer länger. Hat man dann noch die.pst

Mehr

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Vollständigkeit halber aufgeführt. Gehen wir einmal davon aus, dass die von uns angenommenen 70% im Beispiel exakt berechnet sind. Was würde

Mehr

Was ist Sozial-Raum-Orientierung?

Was ist Sozial-Raum-Orientierung? Was ist Sozial-Raum-Orientierung? Dr. Wolfgang Hinte Universität Duisburg-Essen Institut für Stadt-Entwicklung und Sozial-Raum-Orientierte Arbeit Das ist eine Zusammen-Fassung des Vortrages: Sozialräume

Mehr

Die Post hat eine Umfrage gemacht

Die Post hat eine Umfrage gemacht Die Post hat eine Umfrage gemacht Bei der Umfrage ging es um das Thema: Inklusion Die Post hat Menschen mit Behinderung und Menschen ohne Behinderung gefragt: Wie zufrieden sie in dieser Gesellschaft sind.

Mehr

4. Jeder Knoten hat höchstens zwei Kinder, ein linkes und ein rechtes.

4. Jeder Knoten hat höchstens zwei Kinder, ein linkes und ein rechtes. Binäre Bäume Definition: Ein binärer Baum T besteht aus einer Menge von Knoten, die durch eine Vater-Kind-Beziehung wie folgt strukturiert ist: 1. Es gibt genau einen hervorgehobenen Knoten r T, die Wurzel

Mehr

Einführung. Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Vorlesungen zur Komplexitätstheorie. K-Vollständigkeit (1/5)

Einführung. Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Vorlesungen zur Komplexitätstheorie. K-Vollständigkeit (1/5) Einführung 3 Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Univ.-Prof. Dr. Christoph Meinel Hasso-Plattner-Institut Universität Potsdam, Deutschland Hatten den Reduktionsbegriff

Mehr

Musterlösungen zur Linearen Algebra II Blatt 5

Musterlösungen zur Linearen Algebra II Blatt 5 Musterlösungen zur Linearen Algebra II Blatt 5 Aufgabe. Man betrachte die Matrix A := über dem Körper R und über dem Körper F und bestimme jeweils die Jordan- Normalform. Beweis. Das charakteristische

Mehr

Zahlen und das Hüten von Geheimnissen (G. Wiese, 23. April 2009)

Zahlen und das Hüten von Geheimnissen (G. Wiese, 23. April 2009) Zahlen und das Hüten von Geheimnissen (G. Wiese, 23. April 2009) Probleme unseres Alltags E-Mails lesen: Niemand außer mir soll meine Mails lesen! Geld abheben mit der EC-Karte: Niemand außer mir soll

Mehr

8. Quadratische Reste. Reziprozitätsgesetz

8. Quadratische Reste. Reziprozitätsgesetz O Forster: Prizahlen 8 Quadratische Reste Rezirozitätsgesetz 81 Definition Sei eine natürliche Zahl 2 Eine ganze Zahl a heißt uadratischer Rest odulo (Abkürzung QR, falls die Kongruenz x 2 a od eine Lösung

Mehr

Anleitung über den Umgang mit Schildern

Anleitung über den Umgang mit Schildern Anleitung über den Umgang mit Schildern -Vorwort -Wo bekommt man Schilder? -Wo und wie speichert man die Schilder? -Wie füge ich die Schilder in meinen Track ein? -Welche Bauteile kann man noch für Schilder

Mehr

Mathematische Maschinen

Mathematische Maschinen Mathematische Maschinen Ziel: Entwicklung eines allgemeinen Schemas zur Beschreibung von (mathematischen) Maschinen zur Ausführung von Algorithmen (hier: (partiellen) Berechnungsverfahren). Mathematische

Mehr

Anleitung zum erfassen von Last Minute Angeboten und Stellenangebote

Anleitung zum erfassen von Last Minute Angeboten und Stellenangebote Anleitung zum erfassen von Last Minute Angeboten und Stellenangebote Zweck dieser Anleitung ist es einen kleinen Überblick über die Funktion Last Minute auf Swisshotelportal zu erhalten. Für das erstellen

Mehr

Leichte-Sprache-Bilder

Leichte-Sprache-Bilder Leichte-Sprache-Bilder Reinhild Kassing Information - So geht es 1. Bilder gucken 2. anmelden für Probe-Bilder 3. Bilder bestellen 4. Rechnung bezahlen 5. Bilder runterladen 6. neue Bilder vorschlagen

Mehr

Wie löst man Mathematikaufgaben?

Wie löst man Mathematikaufgaben? Wie löst man Mathematikaufgaben? Manfred Dobrowolski Universität Würzburg Wie löst man Mathematikaufgaben? 1 Das Schubfachprinzip 2 Das Invarianzprinzip 3 Das Extremalprinzip Das Schubfachprinzip Verteilt

Mehr

Das große ElterngeldPlus 1x1. Alles über das ElterngeldPlus. Wer kann ElterngeldPlus beantragen? ElterngeldPlus verstehen ein paar einleitende Fakten

Das große ElterngeldPlus 1x1. Alles über das ElterngeldPlus. Wer kann ElterngeldPlus beantragen? ElterngeldPlus verstehen ein paar einleitende Fakten Das große x -4 Alles über das Wer kann beantragen? Generell kann jeder beantragen! Eltern (Mütter UND Väter), die schon während ihrer Elternzeit wieder in Teilzeit arbeiten möchten. Eltern, die während

Mehr

Ist Fernsehen schädlich für die eigene Meinung oder fördert es unabhängig zu denken?

Ist Fernsehen schädlich für die eigene Meinung oder fördert es unabhängig zu denken? UErörterung zu dem Thema Ist Fernsehen schädlich für die eigene Meinung oder fördert es unabhängig zu denken? 2000 by christoph hoffmann Seite I Gliederung 1. In zu großen Mengen ist alles schädlich. 2.

Mehr

Motivation. Formale Grundlagen der Informatik 1 Kapitel 5 Kontextfreie Sprachen. Informales Beispiel. Informales Beispiel.

Motivation. Formale Grundlagen der Informatik 1 Kapitel 5 Kontextfreie Sprachen. Informales Beispiel. Informales Beispiel. Kontextfreie Kontextfreie Motivation Formale rundlagen der Informatik 1 Kapitel 5 Kontextfreie Sprachen Bisher hatten wir Automaten, die Wörter akzeptieren Frank Heitmann heitmann@informatik.uni-hamburg.de

Mehr

Programmiersprachen und Übersetzer

Programmiersprachen und Übersetzer Programmiersprachen und Übersetzer Sommersemester 2010 19. April 2010 Theoretische Grundlagen Problem Wie kann man eine unendliche Menge von (syntaktisch) korrekten Programmen definieren? Lösung Wie auch

Mehr

LU-Zerlegung. Zusätze zum Gelben Rechenbuch. Peter Furlan. Verlag Martina Furlan. Inhaltsverzeichnis. 1 Definitionen.

LU-Zerlegung. Zusätze zum Gelben Rechenbuch. Peter Furlan. Verlag Martina Furlan. Inhaltsverzeichnis. 1 Definitionen. Zusätze zum Gelben Rechenbuch LU-Zerlegung Peter Furlan Verlag Martina Furlan Inhaltsverzeichnis Definitionen 2 (Allgemeine) LU-Zerlegung 2 3 Vereinfachte LU-Zerlegung 3 4 Lösung eines linearen Gleichungssystems

Mehr

Info zum Zusammenhang von Auflösung und Genauigkeit

Info zum Zusammenhang von Auflösung und Genauigkeit Da es oft Nachfragen und Verständnisprobleme mit den oben genannten Begriffen gibt, möchten wir hier versuchen etwas Licht ins Dunkel zu bringen. Nehmen wir mal an, Sie haben ein Stück Wasserrohr mit der

Mehr

Was ich als Bürgermeister für Lübbecke tun möchte

Was ich als Bürgermeister für Lübbecke tun möchte Wahlprogramm in leichter Sprache Was ich als Bürgermeister für Lübbecke tun möchte Hallo, ich bin Dirk Raddy! Ich bin 47 Jahre alt. Ich wohne in Hüllhorst. Ich mache gerne Sport. Ich fahre gerne Ski. Ich

Mehr

3. Zusammenhang. 22 Andreas Gathmann

3. Zusammenhang. 22 Andreas Gathmann 22 Andreas Gathmann 3. Zusammenhang Eine der anschaulichsten Eigenschaften eines topologischen Raumes ist wahrscheinlich, ob er zusammenhängend ist oder aus mehreren Teilen besteht. Wir wollen dieses Konzept

Mehr

Das Leitbild vom Verein WIR

Das Leitbild vom Verein WIR Das Leitbild vom Verein WIR Dieses Zeichen ist ein Gütesiegel. Texte mit diesem Gütesiegel sind leicht verständlich. Leicht Lesen gibt es in drei Stufen. B1: leicht verständlich A2: noch leichter verständlich

Mehr

Berechnungen in Access Teil I

Berechnungen in Access Teil I in Access Teil I Viele Daten müssen in eine Datenbank nicht eingetragen werden, weil sie sich aus anderen Daten berechnen lassen. Zum Beispiel lässt sich die Mehrwertsteuer oder der Bruttopreis in einer

Mehr

Prolog basiert auf Prädikatenlogik

Prolog basiert auf Prädikatenlogik Software-Technologie Software-Systeme sind sehr komplex. Im Idealfall erfolgt die Programmierung problemorientiert, während die notwendige Übertragung in ausführbare Programme automatisch erfolgt. Prolog-Philosophie:

Mehr

Entscheidungsprobleme. Berechenbarkeit und Komplexität Entscheidbarkeit und Unentscheidbarkeit. Die Entscheidbarkeit von Problemen

Entscheidungsprobleme. Berechenbarkeit und Komplexität Entscheidbarkeit und Unentscheidbarkeit. Die Entscheidbarkeit von Problemen Berechenbarkeit und Komlexität Entscheidbarkeit und Unentscheidbarkeit Wolfgang Schreiner Wolfgang.Schreiner@risc.uni-linz.ac.at Research Institute for Symbolic Comutation (RISC) Johannes Keler University,

Mehr

Suche schlecht beschriftete Bilder mit Eigenen Abfragen

Suche schlecht beschriftete Bilder mit Eigenen Abfragen Suche schlecht beschriftete Bilder mit Eigenen Abfragen Ist die Bilderdatenbank über einen längeren Zeitraum in Benutzung, so steigt die Wahrscheinlichkeit für schlecht beschriftete Bilder 1. Insbesondere

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme 1 Zwei Gleichungen mit zwei Unbekannten Es kommt häufig vor, dass man nicht mit einer Variablen alleine auskommt, um ein Problem zu lösen. Das folgende Beispiel soll dies verdeutlichen

Mehr

6.2 Perfekte Sicherheit

6.2 Perfekte Sicherheit 04 6.2 Perfekte Sicherheit Beweis. H(B AC) + H(A C) = H(ABC) H(AC) + H(AC) H(C) Wegen gilt Einsetzen in die Definition gibt = H(AB C). H(A BC) = H(AB C) H(B C). I(A; B C) = H(A C) H(AB C) + H(B C). Da

Mehr

40-Tage-Wunder- Kurs. Umarme, was Du nicht ändern kannst.

40-Tage-Wunder- Kurs. Umarme, was Du nicht ändern kannst. 40-Tage-Wunder- Kurs Umarme, was Du nicht ändern kannst. Das sagt Wikipedia: Als Wunder (griechisch thauma) gilt umgangssprachlich ein Ereignis, dessen Zustandekommen man sich nicht erklären kann, so dass

Mehr

Gleichungen Lösen. Ein graphischer Blick auf Gleichungen

Gleichungen Lösen. Ein graphischer Blick auf Gleichungen Gleichungen Lösen Was bedeutet es, eine Gleichung zu lösen? Was ist überhaupt eine Gleichung? Eine Gleichung ist, grundsätzlich eine Aussage über zwei mathematische Terme, dass sie gleich sind. Ein Term

Mehr

Anmerkungen zur Übergangsprüfung

Anmerkungen zur Übergangsprüfung DM11 Slide 1 Anmerkungen zur Übergangsprüfung Aufgabeneingrenzung Aufgaben des folgenden Typs werden wegen ihres Schwierigkeitsgrads oder wegen eines ungeeigneten fachlichen Schwerpunkts in der Übergangsprüfung

Mehr

Anhand des bereits hergeleiteten Models erstellen wir nun mit der Formel

Anhand des bereits hergeleiteten Models erstellen wir nun mit der Formel Ausarbeitung zum Proseminar Finanzmathematische Modelle und Simulationen bei Raphael Kruse und Prof. Dr. Wolf-Jürgen Beyn zum Thema Simulation des Anlagenpreismodels von Simon Uphus im WS 09/10 Zusammenfassung

Mehr

Im Jahr t = 0 hat eine Stadt 10.000 Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. z(t) = at + b

Im Jahr t = 0 hat eine Stadt 10.000 Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. z(t) = at + b Aufgabe 1: Im Jahr t = 0 hat eine Stadt 10.000 Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. (a) Nehmen Sie lineares Wachstum gemäß z(t) = at + b an, wobei z die Einwohnerzahl ist und

Mehr

Dow Jones am 13.06.08 im 1-min Chat

Dow Jones am 13.06.08 im 1-min Chat Dow Jones am 13.06.08 im 1-min Chat Dieser Ausschnitt ist eine Formation: Wechselstäbe am unteren Bollinger Band mit Punkt d über dem 20-er GD nach 3 tieferen Hoch s. Wenn ich einen Ausbruch aus Wechselstäben

Mehr

mysql - Clients MySQL - Abfragen eine serverbasierenden Datenbank

mysql - Clients MySQL - Abfragen eine serverbasierenden Datenbank mysql - Clients MySQL - Abfragen eine serverbasierenden Datenbank In den ersten beiden Abschnitten (rbanken1.pdf und rbanken2.pdf) haben wir uns mit am Ende mysql beschäftigt und kennengelernt, wie man

Mehr

Literatur. Dominating Set (DS) Dominating Sets in Sensornetzen. Problem Minimum Dominating Set (MDS)

Literatur. Dominating Set (DS) Dominating Sets in Sensornetzen. Problem Minimum Dominating Set (MDS) Dominating Set 59 Literatur Dominating Set Grundlagen 60 Dominating Set (DS) M. V. Marathe, H. Breu, H.B. Hunt III, S. S. Ravi, and D. J. Rosenkrantz: Simple Heuristics for Unit Disk Graphs. Networks 25,

Mehr

Leit-Bild. Elbe-Werkstätten GmbH und. PIER Service & Consulting GmbH. Mit Menschen erfolgreich

Leit-Bild. Elbe-Werkstätten GmbH und. PIER Service & Consulting GmbH. Mit Menschen erfolgreich Leit-Bild Elbe-Werkstätten GmbH und PIER Service & Consulting GmbH Mit Menschen erfolgreich Vorwort zu dem Leit-Bild Was ist ein Leit-Bild? Ein Leit-Bild sind wichtige Regeln. Nach diesen Regeln arbeiten

Mehr

Theoretische Grundlagen der Informatik WS 09/10

Theoretische Grundlagen der Informatik WS 09/10 Theoretische Grundlagen der Informatik WS 09/10 - Tutorium 6 - Michael Kirsten und Kai Wallisch Sitzung 13 02.02.2010 Inhaltsverzeichnis 1 Formeln zur Berechnung Aufgabe 1 2 Hamming-Distanz Aufgabe 2 3

Mehr

Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume?

Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume? Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume? Bernhard Ganter Institut für Algebra TU Dresden D-01062 Dresden bernhard.ganter@tu-dresden.de WS 2013/14 Isomorphie Zwei Graphen (V 1, E 1 ) und (V

Mehr

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über Güte von s Grundlegendes zum Konzept der Güte Ableitung der Gütefunktion des Gauss im Einstichprobenproblem Grafische Darstellung der Gütefunktionen des Gauss im Einstichprobenproblem Ableitung der Gütefunktion

Mehr

Erstellen von x-y-diagrammen in OpenOffice.calc

Erstellen von x-y-diagrammen in OpenOffice.calc Erstellen von x-y-diagrammen in OpenOffice.calc In dieser kleinen Anleitung geht es nur darum, aus einer bestehenden Tabelle ein x-y-diagramm zu erzeugen. D.h. es müssen in der Tabelle mindestens zwei

Mehr

Würfelt man dabei je genau 10 - mal eine 1, 2, 3, 4, 5 und 6, so beträgt die Anzahl. der verschiedenen Reihenfolgen, in denen man dies tun kann, 60!.

Würfelt man dabei je genau 10 - mal eine 1, 2, 3, 4, 5 und 6, so beträgt die Anzahl. der verschiedenen Reihenfolgen, in denen man dies tun kann, 60!. 040304 Übung 9a Analysis, Abschnitt 4, Folie 8 Die Wahrscheinlichkeit, dass bei n - maliger Durchführung eines Zufallexperiments ein Ereignis A ( mit Wahrscheinlichkeit p p ( A ) ) für eine beliebige Anzahl

Mehr

Programmentwicklungen, Webseitenerstellung, Zeiterfassung, Zutrittskontrolle

Programmentwicklungen, Webseitenerstellung, Zeiterfassung, Zutrittskontrolle Version LG-TIME /Office A 8.3 und höher Inhalt 1. Allgemeines S. 1 2. Installation S. 1 3. Erweiterungen bei den Zeitplänen S. 1;2 4. Einrichtung eines Schichtplanes S. 2 5. Einrichtung einer Wechselschicht

Mehr

Grundlagen der höheren Mathematik Einige Hinweise zum Lösen von Gleichungen

Grundlagen der höheren Mathematik Einige Hinweise zum Lösen von Gleichungen Grundlagen der höheren Mathematik Einige Hinweise zum Lösen von Gleichungen 1. Quadratische Gleichungen Quadratische Gleichungen lassen sich immer auf die sog. normierte Form x 2 + px + = 0 bringen, in

Mehr

Rekursionen. Georg Anegg 25. November 2009. Methoden und Techniken an Beispielen erklärt

Rekursionen. Georg Anegg 25. November 2009. Methoden und Techniken an Beispielen erklärt Methoden und Techniken an Beispielen erklärt Georg Anegg 5. November 009 Beispiel. Die Folge {a n } sei wie folgt definiert (a, d, q R, q ): a 0 a, a n+ a n q + d (n 0) Man bestimme eine explizite Darstellung

Mehr

2.11 Kontextfreie Grammatiken und Parsebäume

2.11 Kontextfreie Grammatiken und Parsebäume 2.11 Kontextfreie Grammatiken und Parsebäume Beispiel: Beispiel (Teil 3): Beweis für L(G) L: Alle Strings aus L der Länge 0 und 2 sind auch in L(G). Als Induktionsannahme gehen wir davon aus, dass alle

Mehr

Modellbildungssysteme: Pädagogische und didaktische Ziele

Modellbildungssysteme: Pädagogische und didaktische Ziele Modellbildungssysteme: Pädagogische und didaktische Ziele Was hat Modellbildung mit der Schule zu tun? Der Bildungsplan 1994 formuliert: "Die schnelle Zunahme des Wissens, die hohe Differenzierung und

Mehr

EINFACHES HAUSHALT- KASSABUCH

EINFACHES HAUSHALT- KASSABUCH EINFACHES HAUSHALT- KASSABUCH Arbeiten mit Excel Wir erstellen ein einfaches Kassabuch zur Führung einer Haushalts- oder Portokasse Roland Liebing, im November 2012 Eine einfache Haushalt-Buchhaltung (Kassabuch)

Mehr

Lineare Funktionen. 1 Proportionale Funktionen 3 1.1 Definition... 3 1.2 Eigenschaften... 3. 2 Steigungsdreieck 3

Lineare Funktionen. 1 Proportionale Funktionen 3 1.1 Definition... 3 1.2 Eigenschaften... 3. 2 Steigungsdreieck 3 Lineare Funktionen Inhaltsverzeichnis 1 Proportionale Funktionen 3 1.1 Definition............................... 3 1.2 Eigenschaften............................. 3 2 Steigungsdreieck 3 3 Lineare Funktionen

Mehr

Säuglingsanfangsnahrung und Folgenahrung Was ändert sich? Was bleibt?

Säuglingsanfangsnahrung und Folgenahrung Was ändert sich? Was bleibt? Säuglingsanfangsnahrung und Folgenahrung Was ändert sich? Was bleibt? Begleitinformationen: Handout für das Verkaufspersonal im Handel Bei Rückfragen sprechen Sie uns bitte gerne an: DIÄTVERBAND e. V.

Mehr

4. Woche Decodierung; Maximale, Perfekte und Optimale Codes. 4. Woche: Decodierung; Maximale, Perfekte und Optimale Codes 69/ 140

4. Woche Decodierung; Maximale, Perfekte und Optimale Codes. 4. Woche: Decodierung; Maximale, Perfekte und Optimale Codes 69/ 140 4 Woche Decodierung; Maximale, Perfekte und Optimale Codes 4 Woche: Decodierung; Maximale, Perfekte und Optimale Codes 69/ 140 Szenario für fehlerkorrigierende Codes Definition (n, M)-Code Sei C {0, 1}

Mehr

Geld Verdienen im Internet leicht gemacht

Geld Verdienen im Internet leicht gemacht Geld Verdienen im Internet leicht gemacht Hallo, Sie haben sich dieses E-book wahrscheinlich herunter geladen, weil Sie gerne lernen würden wie sie im Internet Geld verdienen können, oder? Denn genau das

Mehr

Printserver und die Einrichtung von TCP/IP oder LPR Ports

Printserver und die Einrichtung von TCP/IP oder LPR Ports Printserver und die Einrichtung von TCP/IP oder LPR Ports In der Windowswelt werden Drucker auf Printservern mit 2 Arten von Ports eingerichtet. LPR-Ports (Port 515) oder Standard TCP/IP (Port 9100, 9101,9102)

Mehr

Windows XP Jugendschutz einrichten. Monika Pross Molberger PC-Kurse

Windows XP Jugendschutz einrichten. Monika Pross Molberger PC-Kurse Windows XP Jugendschutz einrichten Monika Pross Molberger PC-Kurse Um ein Benutzerkonto mit Jugendschutzeinstellungen zu verwenden, braucht man ein Eltern- Konto (Administrator) und eine Kinderkonto (Standard).

Mehr

Theoretische Grundlagen des Software Engineering

Theoretische Grundlagen des Software Engineering Theoretische Grundlagen des Software Engineering 11: Abstrakte Reduktionssysteme schulz@eprover.org Reduktionssysteme Definition: Reduktionssystem Ein Reduktionssystem ist ein Tupel (A, ) Dabei gilt: A

Mehr

Meet the Germans. Lerntipp zur Schulung der Fertigkeit des Sprechens. Lerntipp und Redemittel zur Präsentation oder einen Vortrag halten

Meet the Germans. Lerntipp zur Schulung der Fertigkeit des Sprechens. Lerntipp und Redemittel zur Präsentation oder einen Vortrag halten Meet the Germans Lerntipp zur Schulung der Fertigkeit des Sprechens Lerntipp und Redemittel zur Präsentation oder einen Vortrag halten Handreichungen für die Kursleitung Seite 2, Meet the Germans 2. Lerntipp

Mehr

Matrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist.

Matrizennorm. Definition 1. Sei A M r,s (R). Dann heißt A := sup die Matrixnorm. Wir wissen zunächst nicht, ob A eine reelle Zahl ist. Matrizennorm Es seien r,s N Mit M r,s (R bezeichnen wir die Menge der reellen r s- Matrizen (also der linearen Abbildungen R s R r, und setze M s (R := M s,s (R (also die Menge der linearen Abbildungen

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Brückenkurs Mathematik TU Dresden 2015 Lineare Gleichungssysteme Schwerpunkte: Modellbildung geometrische Interpretation Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik auf der

Mehr

4. Übungsblatt Matrikelnr.: 6423043

4. Übungsblatt Matrikelnr.: 6423043 Lineare Algebra I 1. Name: Bleeck, Christian 4. Übungsblatt Matrikelnr.: 6423043 Abgabe: 15.11.06 12 Uhr (Kasten D1 320) Übungsgruppe: 03 Patrick Schützdeller 2. Name: Niemann, Philipp Matrikelnr.: 6388613

Mehr

Erklärung zu den Internet-Seiten von www.bmas.de

Erklärung zu den Internet-Seiten von www.bmas.de Erklärung zu den Internet-Seiten von www.bmas.de Herzlich willkommen! Sie sind auf der Internet-Seite vom Bundes-Ministerium für Arbeit und Soziales. Die Abkürzung ist: BMAS. Darum heißt die Seite auch

Mehr

10. Public-Key Kryptographie

10. Public-Key Kryptographie Stefan Lucks 10. PK-Krypto 274 orlesung Kryptographie (SS06) 10. Public-Key Kryptographie Analyse der Sicherheit von PK Kryptosystemen: Angreifer kennt öffentlichen Schlüssel Chosen Plaintext Angriffe

Mehr

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung.

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung. Lineare Gleichungen mit einer Unbekannten Die Grundform der linearen Gleichung mit einer Unbekannten x lautet A x = a Dabei sind A, a reelle Zahlen. Die Gleichung lösen heißt, alle reellen Zahlen anzugeben,

Mehr

Korrigenda Handbuch der Bewertung

Korrigenda Handbuch der Bewertung Korrigenda Handbuch der Bewertung Kapitel 3 Abschnitt 3.5 Seite(n) 104-109 Titel Der Terminvertrag: Ein Beispiel für den Einsatz von Future Values Änderungen In den Beispielen 21 und 22 ist der Halbjahressatz

Mehr

Handbuch zur Anlage von Turnieren auf der NÖEV-Homepage

Handbuch zur Anlage von Turnieren auf der NÖEV-Homepage Handbuch zur Anlage von Turnieren auf der NÖEV-Homepage Inhaltsverzeichnis 1. Anmeldung... 2 1.1 Startbildschirm... 3 2. Die PDF-Dateien hochladen... 4 2.1 Neue PDF-Datei erstellen... 5 3. Obelix-Datei

Mehr

Skript und Aufgabensammlung Terme und Gleichungen Mathefritz Verlag Jörg Christmann Nur zum Privaten Gebrauch! Alle Rechte vorbehalten!

Skript und Aufgabensammlung Terme und Gleichungen Mathefritz Verlag Jörg Christmann Nur zum Privaten Gebrauch! Alle Rechte vorbehalten! Mathefritz 5 Terme und Gleichungen Meine Mathe-Seite im Internet kostenlose Matheaufgaben, Skripte, Mathebücher Lernspiele, Lerntipps, Quiz und noch viel mehr http:// www.mathefritz.de Seite 1 Copyright

Mehr

Vorlesung. Funktionen/Abbildungen 1

Vorlesung. Funktionen/Abbildungen 1 Vorlesung Funktionen/Abbildungen 1 1 Grundlagen Hinweis: In dieser Vorlesung werden Funktionen und Abbildungen synonym verwendet. In der Schule wird eine Funktion häufig als eindeutige Zuordnung definiert.

Mehr

Kapitalerhöhung - Verbuchung

Kapitalerhöhung - Verbuchung Kapitalerhöhung - Verbuchung Beschreibung Eine Kapitalerhöhung ist eine Erhöhung des Aktienkapitals einer Aktiengesellschaft durch Emission von en Aktien. Es gibt unterschiedliche Formen von Kapitalerhöhung.

Mehr

ONLINE-AKADEMIE. "Diplomierter NLP Anwender für Schule und Unterricht" Ziele

ONLINE-AKADEMIE. Diplomierter NLP Anwender für Schule und Unterricht Ziele ONLINE-AKADEMIE Ziele Wenn man von Menschen hört, die etwas Großartiges in ihrem Leben geleistet haben, erfahren wir oft, dass diese ihr Ziel über Jahre verfolgt haben oder diesen Wunsch schon bereits

Mehr

Plotten von Linien ( nach Jack Bresenham, 1962 )

Plotten von Linien ( nach Jack Bresenham, 1962 ) Plotten von Linien ( nach Jack Bresenham, 1962 ) Ac Eine auf dem Bildschirm darzustellende Linie sieht treppenförmig aus, weil der Computer Linien aus einzelnen (meist quadratischen) Bildpunkten, Pixels

Mehr