BOOTSTRAPPING UND DER ERWERB DES LEXIKONS

Größe: px
Ab Seite anzeigen:

Download "BOOTSTRAPPING UND DER ERWERB DES LEXIKONS"

Transkript

1 DGB 41 THeorien des Spracherwerbs Universität Athen, WiSe Winfried Lechner Skriptum #3 BOOTSTRAPPING UND DER ERWERB DES LEXIKONS In (1) werden einige der wichtigsten Stationen des L1-Erwerbs in den ersten 12 Monate nochmals kurz aufgelistet. (1) Stationen des Erstspracherwerbs: das erste Jahr a. Vor Geburt (28-35 Schwangerschaftswoche) i. Föten diskriminieren zwischen Sprechern ( unterscheiden) ii. Föten unterscheiden zwischen Phonemen b. Bei Geburt i. Kinder diskriminieren Muttersprache von Fremdsprache ii. Kinder diskriminieren zwischen unterschiedlichen, unbekannten Fremdsprachen iii. Kinder erkennen Vokale c. 1 Monat: Erkennung von Kontrasten zwischen Konsonanten ([b] vs. [p],...) d. 3 Monate: Absenkung des Kehlkopfes (Larynx) e. 6 Monate: Kinder erkennen Vokale sprachspezifisch f. 6-8 Monate: Lallphase (babbling) i. Reduplikativ: alle Äußerungen haben Form von CV-Silben ii. Nicht reduplikativ: Äußerungen enthalten beginnende Silbenstruktur Entwicklung von Akzent und Prosodie Protowörter (s.u. Protolexikon) g Monate i. Fähigkeit, Konsonantenkontraste in Fremdsprache wahrzunehmen, nimmt ab ii. Vokalinventar wird aufgebaut h Monate i. Kinder können nicht mehr nicht-muttersprachliche Konsonantenkontraste unterscheiden ii. Konsonanteninventar entwickelt sich iii. Erste Anzeichen der Entwicklung eines syntaktischen Systems (Liste adaptiert und erweitert aus Guasti 2002: 53. Die unterschiedlichen Stadien der sogenannten Lallphase wurden nicht im Detail besprochen). Bisher wurde besprochen, welche Entwicklungen Neugeborene und Kinder in die Lage versetzten, zwischen (i) unterschiedlichen Sprachen (ii) Lauten in fremden Sprachen sowie (iiii) Lauten der eigenen Sprache zu unterscheiden (Skriptum #2). Diese Beobachtungen wurden durch zwei Annahmen erklärt: Kinder erkennen Isochronieeigenschaften einer Sprache und sie besitzen die Fähigkeit zur kategorialen Perzeption, die wiederum die Grundlage für die Segmentierung des Sprachsignals bildet. 1 Der nächste Schritt im L1-Erwerb ist der Aufbau des mentalen Lexikons, also eine Liste mit Assoziationen zwischen Form und Bedeutung. Das Lexikon ist von zentraler Bedeutung, da sowohl Morphologie als auch die beiden kombinatorischen Systeme (Syntax und Semantik) Lexikoneinträge als Grundbausteine verwenden. Das Vorhandensein eines Lexikons ist also 1 Ähnliche Ergebnisse wurden auch bei der Verarbeitung nicht-sprachlicher akustischer Signale gefunden. Mit 4.5 Monate erkennen Kinder z.b. schon musikalische Rhythmen und diskriminieren zwischen grammatischen' und nicht ungrammatischen' musikalischen Phrasen.

2 Voraussetzung für die Entwicklung des syntaktischen und semantischen Teils der Grammatik. Die zeitlichen Abläufe beim Erwerb des Lexikons sind in (2) zusammengefasst. (2) Die Entwicklung des Mentalen Lexikons Alter Eigenschaften des Lexikon a. 4.5 Monate: Kinder unterscheiden zwischen eigenem und fremden Namen b. 6 Monate: Kleine Anzahl erster Worte (mummy, daddy, hand, foot) c. 8 Monate: Kinder behalten Wörter 2 Wochen im Gedächtnis d Monate Beginn systematischer Worterkennung; Produktion erster Wörter e. 18 Monate Lexikon enthält ca. 50 Wörter f Monate Beginn des vocabulary spurt: täglich werden 5 9 Wörter gelernt g. 24 Monate 300 Wörter; Produktion erster Wortkombinationen h. 36 Monate 2,000 Wörter i. 10 Jahre Wörter aktiv, passiv j Jahre Wörter aktiv, Wörter passiv k. Erwachsene 20,000-50,000 Wörter aktiv Große Vorsicht ist bei der Interpretation der Zahlen geboten. Die Altersangaben und die Angaben zur Größe des Lexikons sind statistische Werte, substantielle Abweichungen sind daher möglich, ohne dass daraus auf gestörte oder abnormale Entwicklung geschlossen werden könnte. Während einige Kinder die ersten Worte bereits mit 12m produzieren, ist es völlig normal, dass dies bei anderen erst mit 18m oder noch später geschieht. Auch die Anzahl der Muttersprachen kann in den ersten Jahren die zeitliche Entwicklung leicht verzögern. (Siehe Johnson 2016 für Übersicht.) Konkret verläuft die Entwicklung des Lexikons in zwei Stufen. Zu Beginn erwirbt das Kind ein phonologisches Proto-Lexikon, in dem nur phonologische Formen gespeichert sind. Kinder erkennen in dieser Phase, die in der zweiten Hälfte des ersten Lebensjahres beginnt, bestimmte Wortformen wieder, ohne ihnen eine konkrete Bedeutung zu geben. Dieses Lexikon enthält also noch keine vollständigen sprachlichen Zeichen (Verbindungen zwischen Form und Bedeutung). Erst in einem zweiten Abschnitt (ab ca. dem Monat) werden diese Formen mit den dazugehörigen Bedeutungen verbunden. Diese beiden Schritten entsprechen den beiden Aufgaben, die ein Kind beim Aufbau des Lexikons bewältigen muss: (3) a. Schritt 1: Segmentierung des akustischen Signals in einzelne Wörter/Morpheme b. Schritt 2: Assoziation von Form und Bedeutung Wie diese Entwicklungen im Detail ablaufen, bildet das Thema des vorliegenden Teils des Skriptums. (Die Ausführungen folgen im Großen und Ganzen Guasti 2002, Kapitel 3.) 1. BOOTSTRAPPING Wenn Babys erstmals mit Sprache in Kontakt kommen, hören sie nur äußerst selten isolierte Wörter. So zeigte z.b. eine Studie über das Niederländische, dass nur 7% aller Äußerungen, die an Kinder gerichtet worden, aus einzelnen Worten bestehen (van de Weijer 1998; s.a. Johnson et al. 2014). Einige Worte, wie etwa Determinatoren (jedes, kein,...), Präpositionen und Komplementierer (unter, vor, wegen, ob,...) werden überhaupt nie in Isolation verwendet. Die meisten PSD (primären sprachlichen Daten) bestehen also aus komplexen Äußerungen, d.h. Äußerungen, die nicht nur aus einer einzigen Einheit bestehen. Zudem nimmt das Kind diese Äußerungen als eine kontinuierliche Kette wahr, in der die Einheiten nicht durch Pausen voneinander getrennt sind. Nehmen wir einen einfachen Satz wie (4), der aus drei Wörtern besteht. Das Kind hört

3 3 DGB 41 Spracherwerb, WiSe diesen Satz ungefähr so wie in (4), als ein kontinuierliches akustisches Signal ohne Hinweise darauf, wo die Wortgrenzen verlaufen. Dennoch weiß das Kind schon ab ca. dem 8. Lebensmonat, dass die Lautreihe aus genau drei Worteinheiten, und nicht aus vier oder zwei Wörtern, besteht (dies gilt nur für trochäische Wortformen, also Abfolgen von starken und schwachen Silben; Johnson 2016: 396): (4) Peter spielte Karten a. Akustisches Signal: [peter pi:ltekartn] b. 15 Lautgrenzen: [p e t e r p i:... ] c. 5 Silbengrenzen: pe.ter.spiel.te.kar.ten d. 4 Morphemgrenzen: peter#spiel#te#karte#n e. 2 Wortgrenzen: peter+spielte+karten Außerdem gibt es in (4) segmentale Grenzen zwischen den Lauten, fünf Silbengrenzen (markiert durch einen Punkt), sowie vier Morphemgrenzen (markiert durch # ). Keine dieser Grenzen ist bei normalem Sprachtempo und bei normaler Artikulation im Signal hörbar. Dies stellt ein klassisches Beispiel für das Segmentierungsproblem dar. (5) Segmentierungsproblem (allgemeine Version) Wie lernen Kinder, einzelne Laute, Silben, Morpheme, und Konstituenten im Sprachsignal zu erkennen? Eine besondere Version des Segmentierungsproblem, das sich auf die Lauterkennung beschränkt hat, haben wir schon im 2. Teil des Skriptums (Abschnitt 2.2) kennen gelernt. Das Segmentierungsproblem hat weitreichende Folgen für die Frage nach dem kindlichen Spracherwerb. Die einfachsten sprachlichen Zeichen, aus denen alle komplexeren Aussagen aufgebaut sind, bestehen aus einem einzigen Morphem. Jedes Zeichen setzt sich weiters aus einer Form und einer zugehörigen Bedeutung zusammen. Kinder müssen also wissen, welche Form ein Morphem hat, und welche Bedeutung mit ihm assoziiert ist, um es in ihr mentales Lexikon aufnehmen zu können. Ein zentrale Bestandteil der Form ist die Ausdehnung, die Länge der Einheit; wer die Form eines Morphems kennt, weiß auch, wo es beginnt und wo es endet. Ohne zu wissen, wo die Morphemgrenzen verlaufen, ist es daher nicht möglich, die einfachsten sprachlichen Zeichen zu bilden. Das Problem wird dadurch verschärft, dass die Dinge der Welt für Kinder in den ersten Lebensmonaten noch keine Namen besitzen, sie kennen also keine Bedeutungen (da sie noch über kein Lexikon verfügen). Daraus ergibt sich folgende, nahezu paradoxe Situation. Kinder müssen auf der einen Seite ein Lexikon erwerben. Wir wissen, dass sie dies tun, da jeder erwachsene Sprecher über ein Lexikon verfügt. Doch auf der anderen Seite können sie dies eigentlich nicht bewerkstelligen ( tun), da sie weder wissen, wo die Wörter beginnen und enden, noch welche Bedeutungen diese Wörter haben könnten. Dieses Problem im L1-Erwerb nennt man das Problem des Bootstrapping. 2 Etwas verkürzt kann man sagen: wenn man sich mit dem Thema des Bootstrapping beschäftigt, dann will man in Erfahrung bringen, wie Kinder einfache Zeichen (d.h. Morpheme und Wörter) erwerben. 2 Der Begriff geht auf die engl. Version des Märchens von Münchhausen zurück, in dem sich dieser an den Schlaufen der eigenen Stiefeln (bootstrap) aus einem Sumpf zieht.

4 #3: Bootstrapping 4 Bootstrapping durch Syntax? Eine Möglichkeit, Wortgrenzen zu erkennen besteht nun darin, sich der syntaktischen Gesetze einer Sprache zu bedienen. Im Deutschen ist z.b. die Tatsache, dass eine Lautkette vor dem finiten Verb im Hauptsatz auftaucht ein Hinweis darauf, dass es sich um ein einzelnes Wort handeln könnte ( könnte, da die erste Position im Satz natürlich auch von Phrasen, wie etwas das kleine Kind eingenommen werden kann): (6) a. Maria muss in die Schule gehen. b. Viktor ist aus dem Bett gefallen. Doch hilft dies Kindern wenig, einfach aus dem Grund, dass das syntaktische System erst dann entstehen kann, wenn es zumindest ein rudimentäres Lexikon gibt, und gerade der Aufbau des Lexikons soll ja erklärt werden. Syntaktische Information kann also nicht herangezogen werden, um Bootstrapping zu erklären. Phonologisches Bootstrapping: Kinder sind bereits bevor sich das Lexikon entwickelt in der Lage, zwischen unterschiedlichen Sprachen und Lauten zu diskriminieren (siehe Diskussion in Skriptum #2). Diese Beobachtung wurde auf die Fähigkeit von Kindern zurückgeführt, bereits sehr früh prosodische Einheiten (28-35 Woche der Schwangerschaft), sowie phonetische und phonemische Unterschiede in der Muttersprache (ab 8-10 Monat) erkennen zu können. Könnte eine ähnliche Strategie auch das Bootstrappingproblem lösen helfen? Eine Anzahl von experimentellen Ergebnissen legt dies in der Tat nahe. Diese Hypothese, der zufolge Bootstrapping durch bereits vorhandenes phonologisches Wissen ermöglicht wird, wird in (7) etwas präziser gemacht: (7) Phonologisches Bootstrapping des Lexikons Kinder beziehen die wichtigsten Hinweise auf die Segmentierung von Wörtern aus phonologischen Eigenschaften des Signals. Genauer besehen basiert Bootstrapping auf vier unterschiedlichen Arten von phonetischer und phonologischer Information, auf die alle im Laufe des Skriptums noch genauer eingegangen werden wird: (8) Bootstrapping durch vier Faktoren Bei phonologischem Bootstrapping spielen zumindest die folgenden Faktoren eine Rolle: a. Distributionelle Regularitäten b. Phonotaktische Beschränkungen c. Typische Wortformen d. Prosodie Doch überlegen wir uns zuerst, wie Hypothese (7) sowie die Behauptungen (8) mit Bootstrapping in Zusammenhang stehen. Eine erfolgreiche empirische Argumentation für (7) und (8) setzt zwei Dinge voraus. Erstens muss demonstriert werden, dass die Information, die durch (8) bereitgestellt wird, ausreichend ist, um Wörter zu segmentieren. Zweitens muss überzeugende Evidenz für die Annahme gefunden werden, dass Kinder beim L1-Erwerb tatsächlich auf die in (8) beschriebenen Strategien zurückgreifen. Die folgende Diskussion führt beide Teile des Arguments für (7) näher aus. (Die Diskussion ist, bis auf die Bemerkungen zu Yang 2004, weitgehend Guasti 2002 entnommen.)

5 5 DGB 41 Spracherwerb, WiSe DISTRIBUTIONELLE REGULARITÄTEN Eine Strategie, um Wortgrenzen in einem kontinuierlichen Signal zu erkennen, besteht darin, statistische Regulariäten zu nutzen. Die Grundidee ist einfach. Es wurde bereits erwähnt, dass Kinder schon im 1. Lebensjahr, also schon bevor sie dazu in der Lage sind, aktiv Sprache zu produzieren, akustische Signale in Laute und Silben segmentieren. Kinder wissen zum Beispiel, wo sich im Satz (4) (teilweise unten wiederholt) die Grenzen zwischen Lauten ((4)b) und Silben ((4)c), also die phonologischen Grenzen, befinden (s. Skriptum #2). Die entscheidende Frage ist nun, wie diese bereits vorhandene phonologische Information zur Ermittlung von Morphem- und Wortgrenzen ((4)e) verwendet werden kann. (4) Peter spielte Karten b. Lautgrenzen: [p e t e r p i:... ] (vorhanden) c. Silbengrenzen: pe.ter.spiel.te.kar.ten (vorhanden) e. Wortgrenzen: peter+spielte+karten (gesucht) Eine mögliche Antwort, die auch (7) zugrunde liegt, lautet, dass es zwei Arten von phonologischen Grenzen gibt: phonologische Grenzen, die mit Wortgrenzen korrelieren, und solchen, die innerhalb eines Wortes liegen. Kinder könnten, so die Überlegung, diese Unterscheidung nutzen, um Rückschlüsse auf die Position von Wortgrenzen zu ziehen. Wie dies möglich ist, wird im Folgenden genauer besprochen werden. Transitionen und Wahrscheinlichkeit: Jede Grenze zwischen Einheiten ist gleichzeitig auch ein Übergang, in diesem Fall ein Übergang zwischen Lauten, Silben oder Wörtern. Solche Übergänge nennt man auch Transitionen. Transitionen besitzen des Weiteren eine wichtige Eigenschaft, die unter anderem auch in der automatischen Spracherkennung (etwa bei Google Translate) genutzt wird: sie sind nicht alle gleich wahrscheinlich. Dies kann zur Segmentierung in Wörter genutzt werden. Bevor wir uns den konkreten sprachlichen Fällen zuwenden, ist es jedoch hilfreich, ein wenig näher auf das Konzept der Wahrscheinlichkeit und der Wahrscheinlichkeit von Transitionen einzugehen. Für unsere Zwecke ist es am sinnvollsten, wenn man Wahrscheinlichkeit als Vorhersagbarkeit interpretiert, etwa so wie in (9): (9) a. Hohe Wahrscheinlichkeit kleine Überraschung große Vorhersagbarkeit b. Geringe Wahrscheinlichkeit große Überraschung geringe Vorhersagbarkeit Nehmen wir an, die Aufgabe in einer Quizzshow besteht darin, den nächsten Buchstaben in einem gegebenen deutschen Wort zu raten. Kandidatin A erhält Buchstabe q, und hat leichtes Spiel: die korrekte Antwort ist u ((10)a). Teilnehme B muss dagegen den Buchstaben erraten, der g folgt. Er muss sich im Gegensatz zu Teilnehmer A auf sein Glück verlassen, da nach einem g im Deutschen zumindestens die acht Buchstaben in (10)b zulässig sind: (10) a. Buchstaben, die auf q folgen können u (Qualle, Quitte, quer,...) b. Buchstaben, die auf g folgen können a (Gans), e (gehen), i (Gier), o (gotisch), u (gut), ö (Götter), ü (Güte), l (gleiten) Die Aufgaben waren offensichtlich nicht gerecht verteilt, da die Wahrscheinlichkeit, dass ein bestimmter Buchstabe dem q folgt, besser vorhersagbar ist, als die Wahrscheinlichkeit, dass

6 #3: Bootstrapping 6 ein bestimmter Buchstaben dem g folgt. Man sagt auch, dass q und g unterschiedliche Transitionswahrscheinlichkeiten (kurz TP für transition probability) aufweisen. Etwas präziser kann dies so definiert werden. (11) Die Transitionswahrscheinlichkeit einer Sequenz αβ in Symbolen: TP(αβ) ist die Wahrscheinlichkeit, dass β nach einem gegebenen α auftritt. (Man fixiert also zuerst α und berechnet dann die Wahrscheinlichkeit, dass β auftritt). TP(E) denotiert dabei die Wahrscheinlichkeit des Eintretens des Ereignisses E, α und β stehen für Einheiten und αβ bedeutet, dass α und β direkt nebeneinander liegen (man sagt auch: α und β sind adjazent). Transitionswahrscheinlichkeiten können präzise berechnet werden. Wenn ein Ereignis völlig voraussagbar ist, dann ist die Wahrscheinlichkeit, dass dieses Ereignis eintritt 100% - oder 1. Nehmen wir den Fall von q. Hier kann das nächste Elements vollständig vorhergesagt werden. Die Wahrscheinlichkeit, dass ein bestimmtes Zeichen α (in unserem Fall u ) dem q folgt ist also 1. Man schreibt dies verkürzt auch so: TP(qα) = 1 ( TP von ku-alpha ist eins ). Gibt es dagegen acht Möglichkeiten, von einem Buchstaben zu einem nächsten Buchstaben zu gelangen, so wie im Falle von g, dann ist die TP nicht mehr 100% sondern nur mehr ein Achtel von 100%. In symbolischer Schreibweise: TP = 1/8 oder, äquivalent, TP = (12) a. TP zwischen q und folgendem Buchstaben α: TP(qα) = 1 b. TP zwischen g und folgendem Buchstaben α: TP(gα) = Die beiden Kandidaten in der Quizzshow werden also ungleich behandelt, da ihre Aufgaben ungleiche TPs beinhalten - und das ist nicht gerecht! Achtung! Die Transitionswahrscheinlichkeit hängt nicht von der tatsächlichen Anzahl der Ereignisse ab. Wenn es mehr von einem Ereignis gibt, bedeutet dies nicht automatisch, dass dieses Ereignis wahrscheinlicher ist. So ist zum Beispiel die Transitionswahrscheinlichkeit zwischen der Kombination qu und einem folgenden Vokal kleiner als 1/4, also 0.25, da vier Vokale nach qu auftreten können ((13)a). Die Transitionswahrscheinlichkeit zwischen qu und einem folgenden Konsonanten ist dagegen 1, also größer, obwohl es keinen einzigen attestierten ( durch Beobachtung belegten) Fall von qu+konsontant gibt ((13)a; V steht für einen beliebigen Vokal und C für einen beliebigen Konsonanten): (13) a. TP zwischen qu und folgendem Vokal: TP(quV) 0.25 qui Quitte quo Quorum (Wahl) que Quelle qua Qualle *quu *quö *quü b. TP zwischen qu und folgendem Konsonant: TP(quC) = 1 * (nicht attestiert, es gibt kein Wort, in dem auf qu ein Konsonant folgt) Die TPs sind deshalb von Bedeutung, da sie statistische Regulariäten in Sprache sichtbar machen. Wortinterne vs. über Wortgrenzen: Es ist eine interessante empirische Beobachtung, dass Transitionen innerhalb eines Wortes strengeren Regeln unterworfen sind, als Transitionen zwischen zwei Wörtern. Daraus lässt sich die Generalisierung in (14) ableiten, eine Beobachtung, die (unter anderem Namen, und etwas anders formuliert) bereits 1954 vom amerikanischen

7 7 DGB 41 Spracherwerb, WiSe Linguisten Zelig Harris 3 (1954) gemacht wurde. (14) Generalisierung T ( T für Transition ) Die Transitionswahrscheinlichkeit zwischen zwei Einheiten ist höher, wenn sie innerhalb eines Wortes (wortintern) auftreten, als wenn sie über Wortgrenzen hinweg auftreten. Unter Einheiten verstehen wir im vorliegenden Kontext Laute, Silben oder Morpheme. In Symbolen kann (14) etwas kompakter so wie in (15) ausgedrückt werden. (15) TP(α Wort A β Wort A ) > TP (α Wort A β Wort B ) (In Worten: Zwei Einheiten α und β haben eine höhere TP, wenn sie innerhalb eines Wortes liegen, als wenn sie sich in zwei unterschiedlichen Wörtern befinden. ) Generalisierung T beschreibt eine empirische Beobachtung. Je besser mvorhersagbar ist, ob z.b. eine Silbe einer bestimmten anderen Silbe folgt (d.h. je größer die TP), desto wahrscheinlicher ist es, dass diese beiden Silben Teil ein und desselben Wortes sind. Wenn dagegen die TPs zwischen zwei Einheiten sinkt, so steigt die Wahrscheinlichkeit, dass diese beiden Silben Bestandteile von zwei unterschiedlichen Wörtern sind. Aus Generalisierung T folgt also, dass in unserem Beispielsatz Peter spielte Karten der Übergang von [kar] zu [te] in Kar.te eine geringere TP besitzen sollte (also besser vorhersagbar ist), als die Transition von [te] zu [kar] in spiel.te.kar.ten. Ob dies tatsächlich korrekt ist, wird sich im Rahmen einer Übungsaufgabe ergeben. Vorerst wenden wir uns etwas einfacheren Beispielen zu. Generalisierung T ist insbesondere für die Theorie des Spracherwerbs und die Frage nach dem Bootstrapping relevant. Konkret kann überprüft werden, ob Kinder tatsächlich statistische Regularitäten, die von Generalisierung T beschrieben werden, nutzen, um Grenzen im akustischen Signal zu isolieren. Im folgenden Abschnitt wird diese Idee des sogenannten Statistischen Lernens genauer ausgeführt werden (siehe auch Guasti 2002: 62ff und Johnson 2016: 4.1.2) STATISTISCHES LERNEN Wenden wir uns jetzt den Details der oben skizzierten Art von statistischem Lernen zu. Wie lassen sich die Wahrscheinlichkeiten berechnen? Es folgen eine erste Anwendung von Generalisierung T ( 1.2.1) und ein konkretes Beispiel ( 1.2.2), das zeigt, wie statistisches Lernen zur Berechnung von Wortgrenzen herangezogen werden kann. Diese Ausführungen bilden den Hintergrund für ein Experiment, das im Anschluss vorgestellt werden wird ( 1.2.3) Generalisierung T: erste Anwendung Wie wird nun Generalisierung T angewendet, wie werden Transitionswahrscheinlichkeiten zwischen Wörtern mit den wortinternen Transitionswahrscheinlichkeiten verglichen? Betrachten wir zu Beginn ein sehr einfaches Beispiel, und zwar die Transition von [ele] und [mag] zu einer beliebigen, nachfolgenden Silbe. [ele] kann im Deutschen nur der Silbe [fant] (Elephant) und 3 Zelig Harris beeinflusste maßgeblich Chomsky und dessen Entwicklung der Transformationsgrammatik, wie sie von 1955 bis ca genannt wurde. Ab ca spricht man übrigens nicht mehr von Transformationsgrammatik sondern von Generativer Grammatik, da Transformationen vor mehr als 40 Jahren abgeschafft wurden. Sie sollten also vorsichtig wein, wenn Sie den Ausdruck Transformationsgrammatik hören.

8 #3: Bootstrapping 8 [gant] (elegant) vorangehen. Die TP von [ele] zur nächsten Silbe σ ist somit 0.5. In Symbolen: (16) TP ([ele] σ) = 0.5 Dagegen ist die Wahrscheinlichkeit, dass die Silbe [mag] einer spezifischen anderen Silbe vorangeht relativ gering. [mag] kann z.b. vor der Silbe [das] stehen, wie in (17)a, oder vor [ein] ((17)b) oder vor [jed] ((17)d) oder vor [kain] ((17)d) und noch vor vielen anderen Silben: (17) a. Hans mag das Buch b. Hans mag ein Buch c. Hans mag jedes Buch d. Hans mag kein Buch Die TP von der Silbe [mag] zur nächsten Silbe σ ist also auf jeden Fall kleiner als 0.25: (18) TP ([mag] σ) 0.25 Dieser Kontrast zwischen [ele] und der folgenden Einheit (TP = 0.5) und [mag] und der folgenden Einheit (TP = 0.25) wird nun korrekt von Generalisierung T erfasst: [ele] besitzt einen höheren TP-Wert als [mag]. Dies korreliert mit der Beobachtung, dass [ele] mit der folgenden Silbe ein Wort bildet. Die Kombination von [mag] mit einer adjazenten Silbe muss dagegen nicht unbedingt innerhalb eines Wortes liegen Generalisierung T und Wortgrenzen Wenn man wissen will, ob Statistisches Lernen den Kindern bei der Suche nach Wortgrenzen helfen kann, muss man zu Beginn zwei Fragen beantworten. Erstens, ist es im Prinzip möglich, Wortgrenzen durch Transitionswahrscheinlichkeit aufzufinden? Zweitens, verwenden Kinder tatsächlich diese Methode beim Spracherwerb, um Wortgrenzen zu identifizieren? Wir befassen uns hier zunächst mit der ersten Frage, die bei systematischer Betrachtung in die zwei Teilfragen in (19) zerfällt (zur zweiten Frage siehe 1.2.3). (19) Fragen zur Wortsegmentierung durch statistischer Lernen a. Sind Wortgrenzen alleine mit Information über Lautkombinationen auffindbar? b. Kann man Wortgrenzen mit Information über Silbenkombinationen identifizieren? (19)a und (19)b sind ident bis auf die unterschiedliche Größe der sprachlichen Einheiten: Laute vs. Silben. Laute sind in Silben organisiert. Um mögliche Lautkombinationen zu untersuchen, führen wir daher den Begriff der Silbe und der Silbenstruktur ein. Silbenstruktur und Phonotaktik: Silben bestehen aus den drei Teilen in (20): (20) a. Nukleus/Silbenkern = Def der Kern der Silbe, üblicherweise ein Vokal b. Onset/Silbenanlaut = Def Konsonanten, die dem Nukleus vorangehen c. Koda /Silbenauslaut = Def Konsonanten, die dem Nukleus folgen Nukleus uns Koda werden im Reim (R) zusammengefasst. (21) veranschaulicht den internen Aufbau einer Silbe anhand der deutschen Form streifst, die gleichzeitig ein Beispiel für die größtmögliche, also maximale Silbe des Deutschen, darstellt.

9 9 DGB 41 Spracherwerb, WiSe (21) Maximale Silbe im Deutschen ( streifst, schrumpfst,...) σ qp O R 8 ei!!! N K!!! 2 8 [ t r a f s t] Silben werden üblicherweise nach ihrer Form kategorisiert, wobei man unter Form die diversen möglichen Kombinationen von Konsonantem (C) und Vokalen (V) versteht. Einige mögliche Silbenmuster des Deutschen sind in (22) aufgelistet: (22) Silbenmuster Beispiele CV [da], [so] VC [um], [ab] CVC [bal]/ Ball, [f n] in Fenster CCV [bla] in blabla, [tr ] in trocken CCVVC [ ma:l]/ schmal, [klu:g]/ klug CCVCCC [krants]/ Kranz... Wichtig für unsere Zwecke ist die Beobachtung, dass nicht alle Kombinationen von Konsonanten in allen Position der Silbe vorkommen können. So ist es z.b. möglich, komplexe Onsets der Form [ts] (Zaun, zu) oder [ t] (Stadt, steigen) zu finden, aber es gibt kein einziges mögliches Wort des Deutschen (auch keine Neuschöpfung, etwa in der Werbesprache), dass mit [tn] oder [nt] beginnen würde. Die Analyse dieser Regelmäßigkeiten ist das Aufgabengebiet der Phonotaktik, eines Teilbereichs der Phonologie. Konkret beschreibt die Phonotaktik mögliche Kombinationen von Lauten sowie deren Position innerhalb der Silbe. Lautkombinationen ((19)a) Die folgende Diskussion wird zeigen, dass die Transitionswahrscheinlichkeiten einen Hinweis auf die Lage einer Grenze innerhalb der Silbe (Koda vs. Onset) geben. Dies macht es weiters möglich, die Position von Wortgrenzen zu lokalisieren. Beginnen wird mit der TP von [n] zu einem beliebigen Konsonanten α im Onset oder in der Koda. Wie das (aus didaktischen Gründen nicht ganz vollständige) Fragment (23)a zeigt, können die folgenden vier Laute einem alveolaren Nasal ([n]) am Silbenende folgen: [t], [f], [s] und [g]. Kombinationen wie [nm] oder [nr] sind dagegen in der Koda (oder auch anderswo) nicht möglich. Die TP von [nα] in der Koda beträgt somit ([nα] bedeutet hier: eine Sequenz, in der [n] von einem beliebigen Laut α gefolgt wird.) Wenn man weiss, dass [n] der erste Konsonant einer Koda ist, dann kann man mit 25% Wahrscheinlichkeit den folgenden Konsonanten vorhersagen. Wie schon oben gesehen wurde, kann im Onset auf ein [n] kein Konsonant folgen, p im Onset ist daher 1. (23) a. Koda: [nt] [nf] [ns] [ng] *[nm] *[nr] Hand 4 Hanf Hans hing b. TP([nα]) in Koda = 1/4 = /d/ [t] durch Auslautverhärtung

10 #3: Bootstrapping 10 (24) a. Onset: * b. TP([nα]) im Onset = 1 Betrachten wir schließlich die Transition von [n] über Silben- und Wortgrenzen hinweg. Hier finden sich nicht nur die selben Konsonantenkombinationen wie in der Koda, sondern auch Kombinationen, die in Kodas nicht möglich waren, wie z.b. [nm] oder [nr], um nur einige zu nennen: (25) a. Über Silbengrenzen und Wortgrenzen hinweg: [nt] [nf] [ns] [ng] [nm] [nr] zwischen Silben: Ein.trag Ein.fahrt Ein.stein ein.gehen ein.mal ein.rollen zwischen Wörter: ein.tier ein.fuß ein.see ein.gang ein.meer ein.rabe b. TP([nα]) zwischen Silben/Wortgrenzen = 1/6 = 0,1666 Die TP von [nα] über Silben- und Wortgrenzen ist also viel kleiner als der TP-Wert innerhalb der Koda oder des Onsets: (26) a. TP([nα]) im Onset = 1 b. TP([nα]) in Koda = 0.25 c. TP([nα]) zwischen Silben/Wörtern = 0,1666 Diese Verteilung von Wahrscheinlichkeiten entspricht nun genau der Vorhersage von Generalisierung T, die prognostiziert, dass der kleinste TP-Wert zwischen Wortgrenzen zu finden sein sollte. Mit anderen Worten gibt es zwischen zwei Wörtern oder Silben mehr mögliche Kombinationen von aufeinanderfolgenden Konsonanten, als innerhalb einer Silbe. Alle Wortgrenzen sind zudem auch Silbengrenzen. 5 Das bedeutet, dass die Wortgrenzen immer zwischen den Silben verlaufen, niemals innerhalb einer Silbe. Streng genommen ist dies natürlich noch nicht ausreichend, um mittels Statistischem Lernen die Wortgrenzen zu identifizieren. Ist jedoch bekannt, wo die Silbengrenzen liegen, so kann dies aber zumindest wichtige Hinweise auf die Wortgrenzen liefern, da viele unmögliche Wortgrenzen ausgeschlossen werden können. Dieses Ergebnis hat wichtige Konsequenzen für die Beantwortung der Teilfrage (19)a, die hier nochmals wiederholt wird. (19) Fragen zur Wortsegmentierung durch statistischer Lernen a. Sind Wortgrenzen alleine mit Information über Lautkombinationen auffindbar? b. Kann man Wortgrenzen mit Information über Silbenkombinationen identifizieren? Wenn man also die TP von einem Laut α zu einem Laut β kennt, so erlaubt einem Generalisierung T zwar, die Silbengrenzen in einer Abfolge von Lauten zu finden, aber noch nicht die Wortgrenzen. Die Antwort auf (19)a ist also negativ. Um die Wortgrenzen zu finden, muss der Lerner zusätzlich über das Wissen verfügen, welche der Silbengrenzen tatsächlich den Wortgrenzen entsprechen. Warum sind z.b. in Peter spiele Karten die Wortgrenzen nicht pe+terspiel+tekar+ten? Man beachte zum Abschluss, dass Statistisches Lernen außerdem voraussetzt, (i) dass der Lerner die gesamte Information über alle möglichen Lautkombinationen einer Sprache besitzt, sowie (ii) dass Generalisierung T bekannt ist. 5 Aber nicht umgekehrt: es gibt Silbengrenzen, die keine Wortgrenzen sind, etwa in Pfer.de ( Pferde ).

11 11 DGB 41 Spracherwerb, WiSe Silbenkombinationen ((19)a) Auch die Verteilung von Silben folgt Generalisierung T. Generell gilt, dass Silben innerhalb eines Wortes höhere TPs haben, als Silben, die sich über zwei Wörter erstrecken. Dies läßt sich anhand eines einfachen Beispiels zeigen (siehe auch Diskussion in ). Innerhalb eines deutschen Wortes kann auf die Silbe [kan] nur die Silbe [te] folgen (Kante oder kannte), über Wortgrenzen hinweg gibt es jedoch eine Unzahl von Möglichkeiten, unter anderem finden wir nach [kan] die Silben [la], [le], [e] und [te], wie (27) belegt: (27) er [kan] [la]ufen/[le]sen/[e]ssen/[te]traeder bauen... Er kann laufen/lesen/essen/tetraeder bauenä Wieder stimmt dieses Resultat mit den Vorhersagen von Generalisierung T ((14)) überein. Wenn die TP der Silbenfolge [kan]σ groß ist, dann liegen die beiden Silben innerhalb eines Wortes. Ist die TP dagegen klein, wie in (27), so werden die Silben durch eine Wortgrenze getrennt. Wer also die TPs zwischen SIlben kennt, kann tatsächlich Wortgrenzen vorhersagen. Die Antwort auf Frage (19)b ist also positiv: Statistisches Lernen ist, zumindest in den hier betrachteten, relativ einfachen Fällen, tatsächlich in der Lage, aus den TPs von Silben die Wortgrenzen im Sprachsignal zu isolieren. Im vorliegenden Abschnitt wurde gezeigt, wie man TPs berechnet, und wie Unterschiede in den TP-Werten zur Identifizierung von Wortgrenzen herangezogen werden können Verwenden Kinder Wahrscheinlichkeiten? Saffran, Aslin, and Newport (1996) Bisher haben wir gesehen, wie aus TPs die Übergänge zwischen unterschiedlichen Einheiten ermittelt werden können. Außerdem wurde festgestelt, dass Generalisierung T empirisch gut fundiert zu scheint und relevante Eigenschaften des phonologischen Systems korrekt beschreibt. Die Tatsache, dass Statistisches Lernen zumindest im Prinzip korrekte Resultate liefert, bedeutet aber noch lange nicht, dass Statistisches Lernen beim Spracherwerb tatsächlich zum Einsatz kommt. Es könnte sich bei Generalisierung T nämlich auch einfach um eine abstrakte, mathematische Eigenschaft handeln, auf welche die kindliche Kognition keinen Zugriff hat. Wir wissen z.b., dass optische Gesetze die Beziehung zwischen Licht und Objekten regeln. Aber diese optischen Gesetze werden von (sehenden) Organismen nicht erworben, sie existieren einfach unabhängig von diesen Organismus. In einem mittlerweile klassischen Artikel wenden sich Saffran, Aslin, and Newport (1996) dieser Frage zu und bringen Argumente vor, die darauf hinweisen, dass Kinder in der Tat auf Statistisches Lernen zurückgreifen. Sie argumentieren auf der Basis von einer Reihe von Experimenten, dass Unterschiede in der Transitionswahrscheinlichkeit es Kindern während des L1-Erwerbs erlauben, Wortgrenzen in einem kontinuierliche Signal zu erkennen. Diese Resultate sind mit der Annahme kompatibel, dass sich Kinder zumindest Teile des sprachlichen Wissens alleine durch die Analyse der unterschiedlichen Wahrscheinlichkeiten, also mittels statistischer Methoden, aneignen. Offensichtlich hätte ein solches Ergebnis auch signifikante Konsequenzen für die Frage, welche Teile des Sprachsystems angeboren sind und welche nicht. (Aufgabe: Machen Sie diese Konsequenz konkret.), Variablen und Bedingungen: Wie bereits in Teil 2 des Skriptums erwähnt, wird in einem Experiment immer eine genau kontrollierte Eigenschaft (die sogenannte unabhängige Variable) variiert, um dann festzustellen, welchen Einfluss diese systematische Veränderung auf eine andere Eigenschaft, die abhängige Variable hat. In der Literatur nennt man die unabhängige

12 #3: Bootstrapping 12 Variable auch die Experimentierbedingung oder, einfacher, die Bedingung. Das Schema (28) illustriert den Zusammenhang mit einem fiktiven Beispiel: es soll experimentell ermittelt werden, ob alle Mäuse (biologische Mäuse und die Eingabegeräte für Computer) durch Energiezufuhr Gewicht zulegen. (28) a. Hypothese: Energiezufuhr korreliert mit Gewicht von allen Mäusen unabhängige abhängige Variable b. Experiment: Veränderung der Energiezufuhr (Menge des Futters/Stromzufuhr) und Messen der Ergebisse (Wiegen der Mäuse) Das (fiktive) Experiment zeigt, dass die Energiezufuhr bei organischen Mäusen zu Gewichtszunahme führt, nicht aber bei Computermäusen. In der Psycholinguistik und L1-Forschung handelt es sich bei den Bedingungen um kontrollierte, d.h. genau definierter, Gruppen von akustischen, optischen oder haptischen Signalen, die man den Testsubjekten im Laufe des Experiments präsentiert, um den Einfluss dieser Bedingung auf die abhängige Variable zu messen. HPP: Im Experiment von Saffran et. al wurde die Head-Turn Preference Procedure (HPP) benutzt (Fernald 1985; Jusczyk 1997). Kleinkinder hören abwechselnd akustische Signale aus zwei unterschiedlichen Richtungen. Je länger das Kind den Kopf in die Richtung des Signals dreht, desto mehr Aufmerksamkeit erregt das Signal. Bekannten Stimuli ( Signalen, die für das Kind akzeptabel sind) wird mehr Aufmerksamkeit geschenkt, als unbekannter Information ( unakzeptablen Signalen). Auf diese Art und Weise kann man Hinweise über die Grammatik des Kindes erhalten. Zuätzlich gibt es im Experiment, so wie im Bild rechts gezeigt, drei Lichter, die vor Beginn des eigentlichen Experiments zur Einstellung (Kalibrierung) Aufbau eines HPP-Experiments des Apparats an die individuellen Kinder verwendet werden. (Weitere Details zur Architektur von Experimenten finden sich in Skriptum, Teil #4.) Teil I - Habituierung: Zur Erinnerung, Saffran, Aslin, and Newport (1996) vertreten die Hypothese in (29). (29) Hypothese: Kinder verwenden Statistisches Lernen um Wortgrenzen zu erkennen. Das Experiment, das Evidenz für (29) bereitstellen soll, ist nun wie folgt aufgebaut (für weitere Daten siehe Guasti 2002: 66/67). Zu Beginn wurden zwei Klassen von dreisilbigen Phantasiewörtern definiert, wie sie auszugsweise in (30) zu sehen sind. In einer ersten Phase hörten Kleinkindern (Alter: 8m) eine Reihe, die entweder aus den Ausdrücken in Bedingung A oder aus den Ausdrücken in Bedingung B zusammengesetzt wurden. (30) Habituierung (8m) a. Bedingung A: pabiku tibudo golatu daropi b. Bedingung B: tudaro pigola bikuti budopa

13 13 DGB 41 Spracherwerb, WiSe Eine Gruppe von Kindern hörte z.b. die Wortfolge pabikutibudogolatudaropi, gefolgt von golatutibudopabikudaropi, während einer anderen Gruppe budopapigolatudarobikuti vorgespielt wurde. In dieser Habituierungsphase sollten sich die Kinder an die Bedingungen gewöhnen. Nach Abschluss der Habituierungsphase hat sich ihr Blickverhalten normalisiert. Der Grund, warum zwei Bedingungen gewählt wurden, ist, dass idiosynkratische Einflüsse von spezifischen Silben ausgeschlossen werden sollte, ist aber für uns nicht weiter relevant. Wir werden uns im Folgenden ausschließlich auf Bedingung A konzentrieren. Die wichtigste Eigenschaft der beiden Gruppen in (30) ist nun, dass die Silbentransitionen zwischen Wörtern und wortintern unterschiedliche Wahrscheinlichkeiten besitzen. In Bedingung A folgt innerhalb eines Wortes auf pa immer bi, auf bi immer ku, auf ti immer bu, etc... Die Transitionswahrscheinlichkeit, dass das zweite Element dem ersten folgt ist daher 1. Anders ausgedrückt: wenn man die erste Silbe kennt, weiß man auch, welche Form die zweite Silbe besitzt, und wenn man die zweite Silbe kennt, kennt man die dritte, etc... (31) a. Kombinationsmöglichkeiten von Silben, wortintern (Bedingung A) pa-bi ti-bu go-la da-ro bi-ku bu-do la-tu ro-pi b. TP(σ 1 σ 2 ) = 1.0 Bei Τransitionen zwischen Wörtern folgt die Verteilung dagegen viel weniger strengen Gesetzen. Im vorliegenden Fall kann auf ku entweder ti, go oder da folgen. Gleiches gilt für die anderen drei Wörter, auch hier gibt es jeweils drei Möglichkeiten im Übergang von einem Wort zum nächsten. Die Wahrscheinlichkeit, dass man das zweite Element eines Paares vorhersagen kann beträgt daher nur 1/3. 6 (32) a. Kombinationsmöglichkeiten von Silben zwischen Wörtern ku-ti do-pa tu-pa pi-pa ku-go do-go tu-ti pi-ti ko-da do-da tu-da pigo b. TP(σ 1 σ 2 ) = 1/3 Daraus folgt, dass die nächste Silbe zwar innerhalb eines Wortes, aber nicht zwischen Wörtern vollständig aus den Daten vorhersagbar ist. Weiters ergibt sich daraus, dass Wortgrenzen immer dort auftauchen, wo die Vorhersagbarkeit/Wahrscheinlichkeit geringer ist. Wenn also Kinder in der Lage sind, statistische Information zu verarbeiten, sollten sie diese Unterschiede in Vorhersagbarkeit nutzen können, um Wortgrenzen zu finden. Diese Hypothese testeten Saffran et al. indem sie den Kindern in einem zweiten Teil des Experiment, der sogenannten Testphase, neue Reihen von Wörtern präsentierten. Teil II - Testphase: In der Testphase hörten die Kinder zwei Arten von isolierten Wörtern. Auf der einen Seite wurden sie mit Formen konfrontiert, die den statistischen Regeln entsprechen, die sie in der Habituierung gelernt haben. Auf der anderen Seite hörten Sie Kombinationen, die unerwartet sind. (33) zeigt eine dieser Reihen. Für Kinder, die mit Bedingung A habituiert worden sind, ist z.b. pabiku ein mögliches Wort (s., für Kinder, die mit Bedingung B habituiert 6 Zusätzliche Annahme: es folgen niemals zwei gleiche Wörter aufeinander. Wenn dies erlaubt wäre, wäre die Wahrscheinlichkeit 1/4.

14 #3: Bootstrapping 14 worden, dagegen nicht. Umgekehrt ist tudaro nur für Kinder, die mit Bedingung B habituiert worden sind, ein grammatischer Ausdruck. (33) Testphase pabiku tibudo tudaro pigola Bedingung A: mögliche Wörter unmögliche Wörter Bedingung B: unmögliche Wörter mögliche Wörter Nehmen wir an, Kinder konnten während der Habituierungsphase statistische Information über Transitionen aus den Daten finden. Dann sollte für jene Kinder, die mit Bedingung A habituiert worden sind, pikabu ein mögliches Wort sein, tudaro dagegen nicht. Dies ergibt sich aus folgender Überlegung: In der Habituierungsphase waren die Silbenübergänge innerhalb eines Wortes immer vollständig vorhersagbar. Bei tu-da-ro werden dagegen die zwei Silben tu-da kombiniert, deren Verbindung in der Habituierungsphase immer nur zwischen Wörtern vorkamen, und deren Wahrscheinlichkeit daher nur 1/3 beträgt (doppelt unterstricher Eintrag in (32)a; analoges gilt für pigola). Die beiden Formen tudaro und pigola sollten für die Kinder also neu und unerwartet sein, da sie nicht den statistischen Gesetzen folgen, die sie in der Habituierungsphase gelernt haben. Im Experiment fanden Saffran et al., dass Kinder tatsächlich zwischen möglichen und unmöglichen Wörtern im oben definierten Sinn unterscheiden. Konkret zeigten Kinder größere Aufmerksamkeit (gemessen durch Dauer des aktiven Hörens) bei unmöglichen Wörtern. Dies weist darauf hin, dass Kinder statistische Information, also Information über distributionelle Regelmäßigkeiten, heranziehen, um Wortgrenzen zu finden Statistisches Lernen vs. UG Das obige Experiment gibt ein Beispiel für sogenanntes Statistisches Lernen. Bei Statistischem Lernen wird Wissen alleine durch die Analyse der unterschiedlichen Wahrscheinlichkeiten von bestimmten Regelmäßigkeiten - im obigen Fall der Übergang von einer Silbe zur nächsten - erworben. Statistisches Lernen stellt nun eine potentielle Alternative dar zu der Annahme dar, dass Sprache mittels angeborener Prinzipien erworben wird, die aus der genetisch veranlagten Universalgrammatik stammen. Daraus ergibt sich folgende Frage: (34) Frage: Können Wortgrenzen ausschließlich durch Statistisches Lernen und ohne Hilfe von angeborenen Prinzipien erkannt werden? Die Frage ist wichtig, weil sie eine Annahme in Frage stellt, die hier von Beginn akzeptiert wurde: dass Spracherwerb durch Prinzipien der UG geleitet wird, also durch einen Teil des angeborene abstrakten Sprachorgans (Language Acquisition Device, UG; Skriptum #1), Wenn es möglich wäre, dass Kinder Wortgrenzen alleine durch statistisches Lernen erkennen, würde das bedeuten, dass man zumindest für die Erklärung von gewissen Aspekten von Sprache keine angeborenen Prinzipen braucht. Eine positive Antwort auf (34) würde ein ernsthaftes Problem für die Theorie der UG darstellen. 7 7 Wichtige Einschränkung: dies würde natürlich noch nicht zeigen, dass UG nicht in anderen Bereichen, etwa bei komplexeren phonologischen Phänomenen, Syntax, Morphologie oder Semantik eine wichtige Rolle spielt. Und in der Tat stammen die stärksten Argumente für UG aus diesen Bereichen.

15 15 DGB 41 Spracherwerb, WiSe Yang (2004): In einem wichtigen Artikel widmet sich Yang (2004) dieser Frage, und weist auf einige schwerwiegende Fehler in der Argumentation von Saffran et al. hin. Erstens muss bei jeder statistischen Analyse - auch wenn sie unbewusst abläuft, wie bei Kindern - vorher festgelegt werden, welche Eigenschaften genau statistisch erfasst werden sollen. Und diese Entscheidung kann nicht alleine dem Signal entnommen werden. Woher weiß das Kind, fragt Yang, dass bei der Erkennung von Grenzen die Transitionen zwischen Silben relevant sind, und nicht etwa Transitionen zwischen hohen und tiefen Vokalen, oder die Wahrscheinlichkeit, dass auf einen alveolaren Laut ein Nasal folgt, oder die Wahrscheinlichkeit, dass sich zwei aufeinander folgende Silben reimen? Im Prinzip gibt es eine unendlich große Anzahl von möglichen statistischen Werten - woher wissen Kinder also, dass sie beim Statistischen Lernen auf Silben achten müssen? Offensichtlich muss das Kind dies bereits vor Beginn des Lernprozesses wissen. Daraus folgt, dass das Wissen, dass Silben bei der Worterkennung eine wichtig Rolle spielen, bereits angeboren sein muss. Die Antwort auf (34) ist also negativ, Segmentierung kann, wie andere Eigenschaften, nicht alleine mit Hilfe von statistischer Information erworben werden. Zweitens stellt sich die Frage, woher die statistisch relevanten Eigenschaften von Silbenkontakten überhaupt stammen. Auch dies weist auf das Vorhandensein von unabhängigen, allgemeinen Prinzipien des Sprachsystems hin. Ein Vergleich: Nehmen wir an, wir setzen einem Hund drei Karten vor, auf denen jeweils das Wort fleisch, futter und ist steht. Dann trainieren wir den Hund, diese Karten in einer Reihe auf den Boden zu legen. Nach 100 erfolgreichen Versuchsreihen erhalten wir als Resultat 100 grammatische oder ungrammatische Sätze. Konkret wird der Hund immer wieder - und natürlich zufällig - vier grammatische Sätze (futter ist fleisch, fleisch ist futter, ist futter fleisch und ist fleisch futter) produzieren, sowie zwei ungrammatische Folgen (futter fleisch ist und fleisch futter ist). Die grammtischen Sätze kommen aber in diesem Fall statistisch häufiger vor, als die ungrammatischen (0.6 vs. 0.3). Dies ist so, da es einfach mehr Kombinationen dieser drei Wörter gibt, die grammatisch sind, als Kombinationen, die ungrammatisch sind. Können wir nun aber daraus schließen, dass der Hund die Regeln der deutschen Grammatik, oder zumindest einen Teil davon beherrscht? Nein, natürlich nicht. Der Grund liegt alleine darin, dass unabhängige Faktoren - die Auswahl der Wörter und deren Kombinatorik - für das Ergebnis verantwortlich sind. Genauso verhält es sich beim Saffran et a. Experiment. Auch hier sind unabhängige Faktoren dafür verantwortlich, dass Kinder anscheinend so erfolgreich sind, Wortgrenzen zu erkennen. Yang zeigte schließlich mittels eines Computermodells (artificial grammar learning), dass das Experiment nur dann statistisch relevante, also aussagekräftige Ergebnisse liefert, wenn Wörter verwendet werden, die mindestens drei Silben lang sind. Die PSD, die Kinder in ihrer natürlichem Umgebung hören, sind jedoch (zumindest im Englischen) meist kürzer. Und es kann gezeigt werden, dass die Information in diesen Daten nicht ausreicht, um daraus Wortgrenzen berechnen zu können. Werden also keine Kunstwörter, sondern natürlich vorkommende sprachliche Ausdrücke herangezogen, ist kein statistischer Lerneffekt mehr zu entdecken. Zusammenfassend kann festgestellt werden, dass statistische Methoden den Kindern beim Bootstrapping sicherlich wichtige Strategien zur Verfügung stellen, um gewisse Regularitäten zu erkennen. Diese Techniken helfen auch bei der Auffindung von Wortgrenzen. Auf der anderen Seite kann Statistik jedoch nicht der einzige Faktor sein, der Bootstrapping ermöglicht. Wenn nicht festgelegt wird, (i) welche Beziehungen statistisch erfasst werden sollen, und (ii) warum genau diese Fakten relevant sind, hilft Statistisches Lernen wenig. Und genau dieses Wissen wird

16 #3: Bootstrapping 16 durch UG zur Verfügung gestellt. Ohne die Annahme, dass sprachliches Wissen teilweise angeboren ist, kann also Spracherwerb nicht erklärt werden. Weitere Probleme für statistisches Lernen werden in Abschnitt 2 zur Sprache kommen, wo ein weiteres statistisches Modell, der sogenannte Konnektionismus, diskutiert werden wird, 1.3. PHONOTAKTISCHE BESCHRÄNKUNGEN Wie bereits in Abschnitt 1.1. gezeigt wurde, basiert Bootstrapping auf phonologischer Information. Unterstützende Evidenz für diese Annahme kommt von der Beobachtung, dass Kinder schon sehr früh die phonotaktischen Gesetze ihrer Sprache erlernen. Phonotaktik beschreibt (i) die möglichen Kombinationen von Lauten sowie (ii) deren Position innerhalb der Silbe. Sprachen unterscheiden sich zudem in ihrer Phonotaktik. Aus diesem Wissen können Kinder Hinweise auf Wortgrenzen ableiten. Der Einfluß der phonotaktischen Gesetze in Einzelsprachen wurde bereits in diskutiert. Hier erfolgt die Erweiterung auf sprachtypologische Bebachtungen. Erstens macht nicht jede Sprache von allen Kombinationsmöglichkeiten ihrer Laute gebrauch. Sowohl Deutsch als auch Griechisch besitzen [t] und [m]. Die Verbindung [tm] ist jedoch nur im Griechischen erlaubt. Zweitens treten gewisse Lautverbindungen treten nur an bestimmten Stellen in der Silbe auf. Im Deutschen ist [br] z.b. ein typischer Onset (brav, Brille, braun,...) während die spiegelbildliche Form [rb] eine typische Koda darstellt (starb, warb,...). Umgekehrt ist [rb] als Onset im Deutschen nicht erlaubt. Die selben Verhältnisse finden wir bei [tr] - ok im Onset (treu, triefen) aber nicht in der Koda - und [rt] (nur als Koda attestiert). Die Tabelle in (35) faßt diese phonotaktischen Beschränkungen kurz zusammen und fügt noch drei weitere Muster ([nt] vs. [tn], [ft] vs. [tf] und [st]/[ t] vs. [ts]) hinzu. (35) [br] [rb] [tr] [rt] [nt] [tn] [ft] [tf] [st]/[ t] [ts] Onset * * * * * * Coda * * * Welche Kombinationen wo möglich sind, wird durch die phonotaktischen Gesetze einer Sprache festgelegt. Diese Gesetze sind sprachspezifisch, so erlaubt das Griechische z.b. [tm] im Onset (τμήμα), das Deutsche dagegen nicht. Aus experimentellen Untersuchungen ist bekannt, dass Kinder die phonotaktischen Gesetze ihrer Sprache ungefähr ab dem 9. Monat, aber nicht vor dem 6. Monat, zu erwerben beginnen. Kinder erkennen in diesem Alter demnach, welche Verbindungen an welcher Stelle der Silbe (Koda oder Onset) möglich sind. Diese Information stellt einen weiteren, wichtigen Hinweis auf die Position von Grenzen dar. Wenn ein Kind z.b. [rb] hört, dann muss direkt im Anschluss daran eine neue Silbe beginnen, da [rb] nur in der Koda, aber nie im Silbenonset vorkommen kann. Und wenn eine neue Silbe beginnt, dann steigt die Wahrscheinlichkeit, dass ein neues Wort beginnt. Dagegen signalisiert [br], dass die Wahrscheinlichkeit hoch ist, dass gerade ein anderes Wort zu Ende gegangen ist. 8 Auch aus unmöglichen Verbindungen lernen Kinder. [nt] ist z.b. keine möglicher Onset im Deutschen, tritt jedoch zwischen Wörtern auf (Sie kan[n t]anzen). Auch aus dieser Information können somit Rückschlüsse auf Wortgrenzen gezogen werden. Wenn ein Kind [nt] hört, und es 8 Detaillierte Beschreibung des Experiments und Diskussion findet sich in Mattys, Jusczyk et. al (1999).

17 17 DGB 41 Spracherwerb, WiSe aus unabhängigen Gründen klar ist, dass es sich bei diesem [nt] nicht um eine Koda handelt, dann markiert der Übergang zwischen diesen beiden Lauten die Grenze zwischen zwei Wörtern. 9 Eine wichtige Frage, die sich natürlich sofort stellt, ist: wie lernen Kinder denn überhaupt die phonotaktischen Gesetze? Diese Regeln können nicht angeboren sein, da sich Sprachen ja in ihrer Phonotaktik unterscheiden. Die Antwort scheint hier zu sein, dass Kinder auf statistische Information in den Inputdaten zurückgreifen, um daraus phonotaktische Gesetze abzuleiten. In 1.1 haben wir schon gesehen, dass wortinterne Transitionen ganz allgemein besser vorhersagbar sind als Transitionen zwischen Wörtern. Diese Tatsache kann Kinder dazu führen, Hypothesen darüber zu bilden, welche Lautverbindungen wortintern möglich sind, und welche nicht. Da wir in der Diskussion von Yang (2004) aber auch gesehen haben, dass statistische Methoden ihre Grenzen haben, sollte man bei der Bewertung dieser Theorien auch vorsichtig sein. Wie genau der Beitrag von Statistik im Spracherwerb aussieht, stellt momentan ein äußerst spannendes und heftig diskutiertes Thema in der Linguistik und Kognitionsbiologie dar TYPISCHE WORTFORMEN Die Wortformen unterschiedlicher Sprachen besitzen unterschiedliche rhythmische Eigenschaften. Auch diese charakteristischen Eigenschaften können Kinder im L1-Erwerb verwenden, um daraus wichtige Hinweise auf Wortgrenzen abzuleiten: (36) a. Im Englischen beginnen die meisten Inhaltswörter mit einer langen Silbe. (table, content, window) b. Deutsche Inhaltswörter haben meist Initialbetonung (sehen, Abend, Wiese, Fenster, neben, unter, trockener,...) c. Im Französischen werden die Wörter meist auf der letzten Silbe betont (descendu, premier, hiver, duplication,...) Die Eigenschaften in (36) sind tendenziell, und nicht absolut, es gibt also immer Ausnahmen. Auch im Deutschen gibt es lexikalische Wörter, die mit einer schwachen Silbe beginnen (erzählen, Geschichte, Verbot,...). Experimente weisen aber darauf hin, dass Kinder ab dem 9 Monat zwischen typischen Wortformen und den weniger typischen rhythmischen Mustern unterscheiden können PROSODIE Die Regeln der Prosodie beschreiben u.a. regelmäßige Änderungen in der Grundfrequenz (Tonhöhe), die Lage des Satzakzent und die Verteilung von Pausen im Satz. Werden die Sätze (37) normal betont, etwa wenn sie als Antwort auf die Frage Was ist passiert? verwendet werden, dann trägt jenes Wort den Satzakzent, das direkt vor dem Verb liegt. Wenn es sich um ein einsilbiges Wort handelt ((37)a vs. (37)b), kann das Kind aus dem Satzakzent auf den Beginn des Verbs schließen. 9 Es handelt sich hier um einen Fall von indirekt negativer Evidenz. Siehe dazu auch Ausführungen im Seminar. 10 Neuere Arbeiten stützen sich auf komplexere Modelle, die auch Wahrscheinlichkeitsrechnung und Spieltheorie einbeziehen. Eine bekannte Theorie ist die Bayessche Statistik, die auf den englischen Pfarrer Thomas Bayes ( ) zurückgeht.

18 #3: Bootstrapping 18 (37) a. Sie hat den HUnd gestreichelt b. Sie hat den KAtze gestreichelt (38)a zeigt, dass Relativsätze durch Pausen ( ) vom Rest des Satzes getrennt werden. Auch dies kann von Kinder als ein Hinweis darauf gewertet werden, wo ein Wort (in diesem Fall Schwester bzw. die) endet bzw. beginnt. Ähnliches gilt für den Übergang zwischen zwei Teilen einer Konjunktion, also einer Verbindung mit und oder oder ((38)b). (38) a. Die Prinzessin hatte eine Schwester die weit weg wohnte. b. Die Prinzessin und ihre Schwester schliefen. Durch Nutzung von prosodischer Information können Kinder also Schlüsse auf die Lage von zumindest einigen Wortgrenzen ziehen ZUSAMMENFASSUNG Kinder verwenden unterschiedliche Information, um Wortgrenzen zu erkennen: phonotaktische Gesetze, allgemeine statistische Regelmäßigkeiten und Wissen über mögliche und unmögliche Wortformen. Außerdem spielt auch Prosodie eine wichtige Rolle bei der Segmentierung. Diese Prozesse arbeiten gleichzeitig, und ergänzen einander teilweise, zudem gibt es gegenseitige Abhängigkeiten, wie z.b. zwischen Phontaktik und Statistischem Lernen. Es wurde auch ersichtlich, dass statistisches Lernen auf zwei unterschiedliche Arten im L1- Erwerb genutzt wird: einerseits um quantitative Regelmäßigkeiten, die nicht in das grammtische System eingehen, aus den Daten zu filtern. (Die Übergänge von Silben zwischen Wörtern ist z.b. nicht grammatisch geregelt.) Andererseits verwenden Kinder Statistisches Lernen, um bestimmte Teile der Grammatik, wie z.b. die Regeln der Phonotaktik, zu bilden. Wichtig ist abschließend noch einmal zu betonen, dass rein statistische Modelle, die auf die Annahme von angeborenen Prinzipien (UG) verzichten, die Eigenschaften des L1-Erwerbs nicht erklären können. Grundlegende Aspekte des Sprachsystems sind also auf jeden Fall angeboren und genetisch veranlagt. Selbst in diesem relativ kleinen Bereich, der Frage des phonologischen Bootstrapping, sind, wie gezeigt wurde, viele Probleme noch nicht oder nicht vollständig geklärt. Momentan gibt es z.b. noch keine gute Erklärung für die Beziehung zwischen angeborenen Faktoren und Statistischem Lernen (aber siehe Yang 2016). Ist nun die Einsicht, dass man noch keine einfache, adäquate Theorie besitzt, ein negatives Resultat für den Zustand der Forschung? Nein, keineswegs. Erstens lebt jede gesunde Wissenschaft von der Tatsache, dass neue Erkenntnisse neue Fragen aufwerfen. Und für Wissenschafter sind interessante, also sinnvolle Fragen immer wichtiger als Antworten, da gute Fragen faszinieren können wie ein ungelöstes Rätsel oder ein ungelesenes Buch. Zweitens basieren die meisten relevanten neueren Arbeiten zu diesem Gebiert auf einer Verbindung von mathematischer Formalisierung, präziser linguistischer Analyse und der Anwendung von neuen experimentellen Methoden und Einsichten aus der Neuro- und Kognititionsforschung. Üblicherweise ergeben sich aus solchen neuen Konstellationen auch bald neue empirische Resultate und Einsichten.

19 19 DGB 41 Spracherwerb, WiSe STATISTISCHEM LERNEN UND KONNEKTIONISMUS Die letzten 30 Jahre sahen eine Renaissance von empiristischen Theorien zum Spracherwerb, die auf neuen technologischen Entwicklungen sowie auf Ergebnissen der theoretischen Computerwissenschaften basieren. Die einflussreichste dieser Strömungen ist der Konnektionismus. Konnektionismus bezeichnet eine Gruppe von Theorien, in der die menschliche Kognitionsfähigkeit als ein sogenanntes neuronales Netzwerk dargestellt wird, das die Prozesse im menschlichen Gehirn nachbilden soll. Diese Netzwerke bestehen aus einer Menge von (abstrakten) Knoten, die ähnliche Aufgaben wie die Neuronen im Gehirn übernehmen, sowie Verbindungen zwischen diesen Knoten. Konnektionistische Theorien gehen dabei von den vier Annahmen in (39) aus: (39) a. In einem neuronalen Netz besteht Information besteht in der unterschiedlichen Stärke von Verbindungen. b. Information wird parallel verarbeitet, nicht sequenziell (parallel distributed processing) c. Information wird nicht lokal, sondern global im ganzen Netz gespeichert. d. Information wird nicht symbolisch gespeichert. Es gibt daher keine Regeln, die Symbole manipulieren könnten. Das Modell ist subsymbolisch. In der Linguistik und Forschung zur künstlichen Intelligenz werden konnektionistische Modelle eingesetzt, um die Aspekte des Spracherwerbs zu simulieren. Anhänger des Konnektionismus behaupten, dass konnektionistische Netzwerke dazu in der Lage sind, allein durch Eingabe von Daten - also Wörtern oder Sätzen - die korrekten linguistischen Generalisierungen zu extrahieren. Bisher konnte dies jedoch noch in keinem einzigen Bereich überzeugend belegt werden RUMELHART UND MCCLELLAND (1986) Eines der bekanntesten Netzwerke wurde von Rumelhart und McClelland (1986) entwickelt. Es ist in der Lage, die Morphologie der englischen Perfektformen (play - played vs. sing - sang) zu erlernen. Das konnektionistisches Modell funktioniert wie folgt: Das Netztwerk besteht aus einer Menge von Eingabeknoten, Ausgabeknoten und sogenannten versteckten Knoten, über die Eingabeknoten und Ausgabeknoten miteinander verbunden sind: (40) play work sing hope say worked singed sang Im konkreten Fall entsprechen die Eingabeknoten englischen Verbstämmen (z.b. play, work oder sing) und die Ausgabeknoten allen möglichen Perfektformen (played, worked, sang, aber auch *singed). Durch Training, d.h. durch wiederholte Eingabe von Verben, lernt das Netzwerk nun, dass die Perfektform von play regelmäßig ist (played), jene von sing jedoch unregelmäßig (sang). Der Lernprozess wird dabei durch Verstärkung der Verbindungen, die von sing zu sang führen, sowie durch Schwächung der Verbindungen zwischen sing und singed modelliert. Nach Abschluss des Lernprozesses ist das Netzwerk - so behaupten zumindest Rumelhart und

BOOTSTRAPPING UND ERWERB DES LEXIKONS

BOOTSTRAPPING UND ERWERB DES LEXIKONS DGB 41 THeorien des Spracherwerbs Universität Athen, SoSe 2013 Winfried Lechner Handout #3 BOOTSTRAPPING UND ERWERB DES LEXIKONS Bisher wurde die Entwicklung besprochen, die Neugeborene und Kinder in die

Mehr

LÖSUNGEN ZU AUFGABE (41)

LÖSUNGEN ZU AUFGABE (41) DGB 40 Universität Athen, WiSe 2012-13 Winfried Lechner Handout #3 LÖSUNGEN ZU AUFGABE (41) 1. WIEDERHOLUNG: PARAPHRASEN, SITUATIONEN UND AMBIGUITÄT Ein Satz Σ ist ambig, wenn Σ mehr als eine Bedeutung

Mehr

Sprachwahrnehmung und verarbeitung in der frühen Kindheit

Sprachwahrnehmung und verarbeitung in der frühen Kindheit Sprachwahrnehmung und verarbeitung in der frühen Kindheit Anja van Kampen 01.12.2009 Die Rolle prosodischer Informationen: Phonotaktik Die Rolle prosodischer Informationen: Phonotaktik Einführung Phonotaktik

Mehr

Wortsegmentierung. Rhythmische Segmentierung. Phonotaktische Segmentierung. Katrin Wolfswinkler, Markus Jochim,

Wortsegmentierung. Rhythmische Segmentierung. Phonotaktische Segmentierung. Katrin Wolfswinkler, Markus Jochim, Wortsegmentierung Rhythmische Segmentierung Phonotaktische Segmentierung Katrin Wolfswinkler, Markus Jochim, 21.01.15 Rhythmische Segmentierung Cutler & Butterfield (1992) Cutler (1994) Segmentierungsstrategien

Mehr

Oktober BSL- Nachrichten. Ergebnisse zur Studie Sprachmelodie und Betonung bei der Segmentierung gesprochener Sprache

Oktober BSL- Nachrichten. Ergebnisse zur Studie Sprachmelodie und Betonung bei der Segmentierung gesprochener Sprache Oktober 2015 BSL- Nachrichten Ergebnisse zur Studie Sprachmelodie und Betonung bei der Segmentierung gesprochener Sprache BSL-Nachrichten Oktober 2015 2 Ein herzliches Dankeschön! Wir möchten uns ganz

Mehr

Psycholinguistik. Definition: Psycholinguistik (synonym: Sprachpsychologie) erforscht das kognitive (mentale) System, das den Sprachgebrauch erlaubt.

Psycholinguistik. Definition: Psycholinguistik (synonym: Sprachpsychologie) erforscht das kognitive (mentale) System, das den Sprachgebrauch erlaubt. Psycholinguistik Definition: Psycholinguistik (synonym: Sprachpsychologie) erforscht das kognitive (mentale) System, das den Sprachgebrauch erlaubt. Teilgebiete der Psycholinguistik Können danach klassifiziert

Mehr

Nativismus. Erklärungsansatz für den kindlichen Spracherwerb. Franziska Pelka & Jonas Lang

Nativismus. Erklärungsansatz für den kindlichen Spracherwerb. Franziska Pelka & Jonas Lang Nativismus Erklärungsansatz für den kindlichen Spracherwerb Franziska Pelka & Jonas Lang Gliederung Nativismus - Was ist das? LAD & Kritik am LAD?! Rolle des Inputs Lernbarkeits- und Entwicklungsproblem

Mehr

Geschichte der Psycholinguistik

Geschichte der Psycholinguistik Wörter und Morpheme Buchstaben à Zeichen für Sprachlaute Wörter à Zeichen für Bedeutung, Begriffe oder Konzepte Die Relation von Wort zu Bedeutung ist relativ beliebig (Pinker, 1994); z.b.: Hund = chien

Mehr

Erstspracherwerb. Referentin: Fouad Safaa Seminar: Deutsch als Zweitsprache Seminarleitung: Frau Schulz

Erstspracherwerb. Referentin: Fouad Safaa Seminar: Deutsch als Zweitsprache Seminarleitung: Frau Schulz Erstspracherwerb Referentin: Fouad Safaa Seminar: Deutsch als Zweitsprache Seminarleitung: Frau Schulz Überblick Die zwei großen Theoriefamilien LAD und P&P nach Chomsky Universalgrammatik Kritik Spracherwerb

Mehr

1. Psycholinguistische Studien zum Erstspracherwerb mit der Head-Turn-Preference Prozedur - Kategorienerwerb - Segmentierungsproblem

1. Psycholinguistische Studien zum Erstspracherwerb mit der Head-Turn-Preference Prozedur - Kategorienerwerb - Segmentierungsproblem 1. Psycholinguistische Studien zum Erstspracherwerb mit der Head-Turn-Preference Prozedur - Kategorienerwerb - Segmentierungsproblem 2. Weitere Beispiele für psycholinguistische Studien zur Sprachwahrnehmung

Mehr

Meint die zeitlich regelmäßige Wiederkehr von Ereignissen. Im Rahmen von auditiven Phänomenen Schallereignisse

Meint die zeitlich regelmäßige Wiederkehr von Ereignissen. Im Rahmen von auditiven Phänomenen Schallereignisse Die Unterscheidung zwische akzent- und silbenzählenden Sprachen Zentraler Begriff: Isochronie Meint die zeitlich regelmäßige Wiederkehr von Ereignissen Im Rahmen von auditiven Phänomenen Schallereignisse

Mehr

Geschichte der Psycholinguistik

Geschichte der Psycholinguistik Wörter und Morpheme Buchstaben à Zeichen für Sprachlaute Wörter à Zeichen für Bedeutung, Begriffe oder Konzepte Die Relation von Wort zu Bedeutung ist relativ beliebig (Pinker, 1994); z.b.: Hund = chien

Mehr

Terminus Sprache, Phonologie und Grammatik

Terminus Sprache, Phonologie und Grammatik Terminus Sprache, Phonologie und Grammatik Terminus Sprache Beinhaltet 4 verschiedene Bedeutungen Langage: menschliche Fähigkeit Langue: eine bestimmte Sprache, Untersuchungsgebiet der Linguistik Parole:

Mehr

Meilensteine des Spracherwerbs Erwerb von Wort- und Satzbedeutung Lexikon, Semantik, Syntax. Ein Referat von Nicole Faller.

Meilensteine des Spracherwerbs Erwerb von Wort- und Satzbedeutung Lexikon, Semantik, Syntax. Ein Referat von Nicole Faller. Meilensteine des Spracherwerbs Erwerb von Wort- und Satzbedeutung Lexikon, Semantik, Syntax Ein Referat von Nicole Faller. Es gibt eine spezifisch menschliche, angeborene Fähigkeit zum Spracherwerb. Der

Mehr

Sprachwahrnehmung in der frühen Kindheit. 12. Sitzung am Anja van Kampen

Sprachwahrnehmung in der frühen Kindheit. 12. Sitzung am Anja van Kampen Sprachwahrnehmung in der frühen Kindheit 12. Sitzung am 29.06.2010 Anja van Kampen Anja van Kampen Sprachwahrnehmung in der frühen Kindheit SoSe 2010 1 Mustererkennung Zunächst kurze Wiederholung Aufgabe

Mehr

Theoretische Grundlagen des Spracherwerbs

Theoretische Grundlagen des Spracherwerbs Sprachwahrnehmung, Anja van Kampen, WS 2009/10 Theoretische Grundlagen des Spracherwerbs Inside-out- und outside-in-theorien Anja van Kampen 1 Wie lernt ein Kind seine Muttersprache? Anja van Kampen, Sprachwahrnehmung,

Mehr

DGm 04 Semantik Universität Athen, SoSe 2010

DGm 04 Semantik Universität Athen, SoSe 2010 DGm 04 Semantik Universität Athen, SoSe 2010 Winfried Lechner wlechner@gs.uoa.gr Handout #1 WAS IST SEMANTIK? 1. BEDEUTUNG Die natürlichsprachliche Semantik untersucht A. die Bedeutung von sprachlichen

Mehr

Sprachwahrnehmung in der frühen Kindheit. 10. Sitzung am Anja van Kampen

Sprachwahrnehmung in der frühen Kindheit. 10. Sitzung am Anja van Kampen Sprachwahrnehmung in der frühen Kindheit 10. Sitzung am 22.06.2010 Anja van Kampen Anja van Kampen Sprachwahrnehmung in der frühen Kindheit SoSe 2010 1 Struktur der Sitzung Wiederholung statistische Hinweisreize

Mehr

Phonologische Typologie (2) Alena Witzlack-Makarevich SoSe Sitzu

Phonologische Typologie (2) Alena Witzlack-Makarevich SoSe Sitzu Phonologische Typologie (2) Alena Witzlack-Makarevich SoSe 2015 4. Sitzu Hauslektüre Bickel, Balthasar and Nichols, Johanna. 2007. InflecGonal morphology (aus T. Shopen Language Typology and Syntac1c Descrip1on)

Mehr

Auditory Learning. Seminar: Emotion, Motivation, Lernen und Gedächtnis Dozent: Joshua Lorenzen SoSe Alina Bech & Martina Schütte

Auditory Learning. Seminar: Emotion, Motivation, Lernen und Gedächtnis Dozent: Joshua Lorenzen SoSe Alina Bech & Martina Schütte Auditory Learning Seminar: Emotion, Motivation, Lernen und Gedächtnis Dozent: Joshua Lorenzen SoSe 2017 Alina Bech & Martina Schütte Lernstile Konzept der Lernpsychologie Jeder Mensch bevorzugt individuelle

Mehr

Optimalitätstheorie. Was ist die Optimalitätstheorie? Universalien

Optimalitätstheorie. Was ist die Optimalitätstheorie? Universalien Optimalitätstheorie Was ist die Optimalitätstheorie? Universalien OT-Grammatik als Input-Output Vorrichtung (Funktion) Eine Grammatik kann als Funktion betrachtet werden, die einem Input eindeutig einen

Mehr

3. Grundbegriffe der Wahrscheinlichkeitstheorie

3. Grundbegriffe der Wahrscheinlichkeitstheorie 03. JULI 2006: BLATT 17 3. Grundbegriffe der Wahrscheinlichkeitstheorie (v.a. nach Manning/Schütze: 40ff und Fahrmeir /Künstler/Pigeot/Tutz: 171ff) Übersicht Um entscheiden zu können, ob eine statistische

Mehr

Frage 8.3. Wozu dienen Beweise im Rahmen einer mathematischen (Lehramts-)Ausbildung?

Frage 8.3. Wozu dienen Beweise im Rahmen einer mathematischen (Lehramts-)Ausbildung? 8 Grundsätzliches zu Beweisen Frage 8.3. Wozu dienen Beweise im Rahmen einer mathematischen (Lehramts-)Ausbildung? ˆ Mathematik besteht nicht (nur) aus dem Anwenden auswendig gelernter Schemata. Stattdessen

Mehr

Psycholinguistik. p. 1/28

Psycholinguistik. p. 1/28 Psycholinguistik p. 1/28 Psycholinguistik: Allgemeine Fragen Wie und wo wird die Sprache im Gehirn verarbeitet? Sprachentwicklung 1: Wie erwerben Kinder ihre Muttersprache (Erstpracherwerb)? Sprachentwicklung

Mehr

Fabian Heck Perlmutter & Soames Beethovenstr. 15, Raum Sommmersemester 2007

Fabian Heck Perlmutter & Soames Beethovenstr. 15, Raum Sommmersemester 2007 Transformationsgrammatik der 60er/70er Fabian Heck Perlmutter & Soames 1979 Institut für Linguistik Dienstag, 11h15-12h45 Universität Leipzig Beethovenstr. 15, Raum 1.516 Sommmersemester 2007 14. Regelordnungen

Mehr

I. SEMIOTISCHE UND LINGUISTISCHE GRUNDBEGRIFFE. Kommunikation = wichtige Form sozialer Interaktion:

I. SEMIOTISCHE UND LINGUISTISCHE GRUNDBEGRIFFE. Kommunikation = wichtige Form sozialer Interaktion: Herkner / Kapitel 3 / Teil 1 140 3. KAPITEL: SPRACHE UND WISSEN I. SEMIOTISCHE UND LINGUISTISCHE GRUNDBEGRIFFE Kommunikation = wichtige Form sozialer Interaktion: verbale Kommunikation mit Hilfe von Sprache

Mehr

Statistische Tests. Kapitel Grundbegriffe. Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe

Statistische Tests. Kapitel Grundbegriffe. Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe Kapitel 4 Statistische Tests 4.1 Grundbegriffe Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe X 1,..., X n. Wir wollen nun die Beobachtung der X 1,...,

Mehr

Logik I. Symbole, Terme, Formeln

Logik I. Symbole, Terme, Formeln Logik I Symbole, Terme, Formeln Wie jede geschriebene Sprache basiert die Prädikatenlogik erster Stufe auf einem Alphabet, welches aus den folgenden Symbolen besteht: (a) Variabeln wie zum Beispiel v 0,v

Mehr

Geburtsschrei. Mit ca. 6 Wochen soziales Lächeln. 2 Gurrlaute, Quietschen, Brummen, Gurren

Geburtsschrei. Mit ca. 6 Wochen soziales Lächeln. 2 Gurrlaute, Quietschen, Brummen, Gurren Tabellarische Darstellung zum Spracherwerb Um die Komplexität des physiologischen Spracherwerbs darzustellen und um den Bereich des Wortschatzes in den Gesamtkontext der Sprachentwicklung einordnen zu

Mehr

Einführung in die allgemeine Sprachwissenschaft

Einführung in die allgemeine Sprachwissenschaft WS 2010-11 Einführung in die allgemeine Sprachwissenschaft Bistra Andreeva (nach Materialien von Bill Barry) Mögliche Antworten zu den Aufgaben 1 Suchen Sie Beispielausdrücke, in denen ein stimmhafter

Mehr

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de rbu leh ch s plu psych Heinz Holling Günther Gediga hogrefe.de Bachelorstudium Psychologie Statistik Testverfahren 18 Kapitel 2 i.i.d.-annahme dem unabhängig. Es gilt also die i.i.d.-annahme (i.i.d = independent

Mehr

Basiswissen Daten und Zufall Seite 1 von 8 1 Zufallsexperiment Ein Zufallsexperiment ist ein Versuchsaufbau mit zufälligem Ausgang, d. h. das Ergebnis kann nicht vorhergesagt werden. 2 Ergebnis (auch Ausgang)

Mehr

2.1.3 Interpretation von aussagenlogischen Formeln. 1) Intensionale Interpretation

2.1.3 Interpretation von aussagenlogischen Formeln. 1) Intensionale Interpretation 2.1.3 Interpretation von aussagenlogischen Formeln 1) Intensionale Interpretation Definition 11: Eine intensionale Interpretation einer aussagenlogischen Formel besteht aus der Zuordnung von Aussagen zu

Mehr

Bedingte Wahrscheinlichkeiten

Bedingte Wahrscheinlichkeiten Bedingte Wahrscheinlichkeiten Bei der Betrachtung der Ereignisse A und B eines Zufallsexperiments muss man die beiden im folgendem beschrieben zwei Situationen unterscheiden. 1. Das Ereignis A und B tritt

Mehr

Sprachentwicklung beim Kind

Sprachentwicklung beim Kind Gisela Szagun Sprachentwicklung beim Kind 6., vollständig überarbeitete Auflage BELIg Psychologie VerlagsUnion Inhaltsverzeichnis Vorwort zur 6. Auflage IX Einleitung 1 Teill Grammatik 1 Beschreibung der

Mehr

Plank, WS 03/04, EinfLing, M&S 4b 1 Morphologische Analyse:

Plank, WS 03/04, EinfLing, M&S 4b 1 Morphologische Analyse: Plank, WS 03/04, EinfLing, M&S 4b 1 Morphologische Analyse: Segmentieren in Morphe (gegebenenfalls) Zusammenfassen von Morphen als Realisierungen eines Morphems Erfassen von Allomorphie-Beziehungen (Art

Mehr

Statistisches Testen

Statistisches Testen Statistisches Testen Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Differenzen Anteilswert Chi-Quadrat Tests Gleichheit von Varianzen Prinzip des Statistischen Tests Konfidenzintervall

Mehr

Synchrone Linguistik

Synchrone Linguistik Synchrone Linguistik Phonetik/ Phonologie Morphologie Syntax Semantik Pragmatik Forensische Linguistik Psycholing. Neuroling. Textling. Sozioling. Aphasiologie Angewandte Linguistik 1 Fragen, Ziele und

Mehr

Zusammenfassung Stochastik

Zusammenfassung Stochastik Zusammenfassung Stochastik Die relative Häufigkeit Ein Experiment, dessen Ausgang nicht vorhersagbar ist, heißt Zufallsexperiment (ZE). Ein Würfel wird 40-mal geworfen, mit folgendem Ergebnis Augenzahl

Mehr

Abitur 2012 Mathematik Stochastik IV

Abitur 2012 Mathematik Stochastik IV Seite 1 http://www.abiturloesung.de/ Seite 2 Abitur 2012 Mathematik Stochastik IV Nachdem die Verfilmung eines bekannten Romans erfolgreich in den Kinos gezeigt wurde, veröffentlicht eine Tageszeitung

Mehr

7 Gültigkeit und logische Form von Argumenten

7 Gültigkeit und logische Form von Argumenten 7 Gültigkeit und logische Form von Argumenten Zwischenresümee 1. Logik ist ein grundlegender Teil der Lehre vom richtigen Argumentieren. 2. Speziell geht es der Logik um einen spezifischen Aspekt der Güte

Mehr

Einführung in die Linguistik, Teil 4

Einführung in die Linguistik, Teil 4 Einführung in die Linguistik, Teil 4 Spracherwerb Markus Bader, Frans Plank, Henning Reetz, Björn Wiemer Einführung in die Linguistik, Teil 4 p. 1/25 Spracherwerb Fragestellung Wie erwerben Kinder ihre

Mehr

Demo-Text für STOCHASTIK. Tschebyscheff-Ungleichung. Einführung mit Anwendungsbeispielen. Datei Nr Friedrich W.

Demo-Text für   STOCHASTIK. Tschebyscheff-Ungleichung. Einführung mit Anwendungsbeispielen. Datei Nr Friedrich W. STOCHASTIK Tschebyscheff-Ungleichung Einführung mit Anwendungsbeispielen Datei Nr. 36111 Friedrich W. Buckel Stand 1. April 010 INTERNETBIBLIOTHEK FÜR SCHULMATHEMATIK www.mathe-cd.de Inhalt 1 Wiederholung:

Mehr

Masterseminar Experimentalphonetik P 1.1 bei Prof. Dr. Jonathan Harrington Katharina Isabel Juhl The perception of phonetic contrasts by infants

Masterseminar Experimentalphonetik P 1.1 bei Prof. Dr. Jonathan Harrington Katharina Isabel Juhl The perception of phonetic contrasts by infants Masterseminar Experimentalphonetik P 1.1 bei Prof. Dr. Jonathan Harrington Katharina Isabel Juhl The perception of phonetic contrasts by infants Institut für Phonetik und Sprachverarbeitung 18.01.2017

Mehr

Unabhängigkeit KAPITEL 4

Unabhängigkeit KAPITEL 4 KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht

Mehr

Statistisches Lernen II: Mustererkennung

Statistisches Lernen II: Mustererkennung Statistisches Lernen II: Mustererkennung Die Ursprünge syntaktischen Wissens: Erkennen von Bestimmungswörtern bei einjährigen Kindern Barbara Höhle und Jürgen Weissenborn Universität Potsdam Sprachwahrnehmung

Mehr

Probleme bei reinen Strategien. Nash Gleichgewichte in gemischten Strategien Kopf 1, 1 1, 1 Zahl 1, 1 1, 1. Gemischte Strategien

Probleme bei reinen Strategien. Nash Gleichgewichte in gemischten Strategien Kopf 1, 1 1, 1 Zahl 1, 1 1, 1. Gemischte Strategien Probleme bei reinen Strategien Bisher hatten wir angenommen, daß sich jeder Spieler b auf genau eine Strategie S b S b festlegt. Das ist nicht immer plausibel. Nash Gleichgewichte in gemischten Strategien

Mehr

7. Sitzung. Kategoriale Wahrnehmung, McGurk-Effekt

7. Sitzung. Kategoriale Wahrnehmung, McGurk-Effekt K3.1 Phonetik und Phonologie II 7. Sitzung Kategoriale Wahrnehmung, McGurk-Effekt Hörfläche 2 Der stillste Raum der Welt Orfield Laboratories, USA 3 Wahrnehmung von Lautstärke Lautstärke wird in db (DeziBel)

Mehr

Einführung in die mathematische Logik

Einführung in die mathematische Logik Prof. Dr. H. Brenner Osnabrück SS 2014 Einführung in die mathematische Logik Vorlesung 3 Tautologien In der letzten Vorlesung haben wir erklärt, wie man ausgehend von einer Wahrheitsbelegung λ der Aussagevariablen

Mehr

Studienmaterial Einführung in das Rechnen mit Resten

Studienmaterial Einführung in das Rechnen mit Resten Studienmaterial Einführung in das Rechnen mit Resten H.-G. Gräbe, Institut für Informatik, http://www.informatik.uni-leipzig.de/~graebe 12. April 2000 Die folgenden Ausführungen sind aus Arbeitsmaterialien

Mehr

Wahrscheinlichkeitsverteilungen

Wahrscheinlichkeitsverteilungen Universität Bielefeld 3. Mai 2005 Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung Das Ziehen einer Stichprobe ist die Realisierung eines Zufallsexperimentes. Die Wahrscheinlichkeitsrechnung betrachtet

Mehr

Kuhn (kurze Zusammenfassung)

Kuhn (kurze Zusammenfassung) Kuhn (kurze Zusammenfassung) Claus Beisbart Seminar Wissenschaftsphilosophie 1.7.2008 Literatur: Kuhn, Die Struktur... Revolutionen Paradigmenwechsel Paradigma 1 Paradigma 2 Paradigmenwechsel Paradigmenvergleich?

Mehr

Sprachwahrnehmung beim Säugling

Sprachwahrnehmung beim Säugling Sprachwahrnehmung beim Säugling Referent: Markus Desoi Eimas, P. D. (1990): Sprachwahrnehmung beim Säugling. Gehirn und Kognition, Spektrum der Wissenschaft, 120-127. Grundlegende Voraussetzungen Kinder

Mehr

1. Einführung in die induktive Statistik

1. Einführung in die induktive Statistik Wichtige Begriffe 1. Einführung in die induktive Statistik Grundgesamtheit: Statistische Masse, die zu untersuchen ist, bzw. über die Aussagen getroffen werden soll Stichprobe: Teil einer statistischen

Mehr

Rolle der Input und Korrektur beim Spracherwerb. Liudmyla Liakhova

Rolle der Input und Korrektur beim Spracherwerb. Liudmyla Liakhova Rolle der Input und Korrektur beim Spracherwerb Liudmyla Liakhova Gliederung Einleitung Das Problem von Ursache und Wirkung im Spracherwerb. Die Instruktionshypohese. Form und Funktion korrektiver Rückmeldung.

Mehr

Brückenkurs Statistik für Wirtschaftswissenschaften

Brückenkurs Statistik für Wirtschaftswissenschaften Peter von der Lippe Brückenkurs Statistik für Wirtschaftswissenschaften Weitere Übungsfragen UVK Verlagsgesellschaft mbh Konstanz Mit UVK/Lucius München UVK Verlagsgesellschaft mbh Konstanz und München

Mehr

Syntax - Das Berechnen syntaktischer Strukturen beim menschlichen Sprachverstehen (Fortsetzung)

Syntax - Das Berechnen syntaktischer Strukturen beim menschlichen Sprachverstehen (Fortsetzung) Syntax - Das Berechnen syntaktischer Strukturen beim menschlichen Sprachverstehen (Fortsetzung) Markus Bader 9. Februar 2004 Inhaltsverzeichnis 4 Übertragung ins e 1 4.3 Bewegung und Satztyp................................

Mehr

Konkretes Durchführen einer Inferenzstatistik

Konkretes Durchführen einer Inferenzstatistik Konkretes Durchführen einer Inferenzstatistik Die Frage ist, welche inferenzstatistischen Schlüsse bei einer kontinuierlichen Variablen - Beispiel: Reaktionszeit gemessen in ms - von der Stichprobe auf

Mehr

Der Erwerb und die Verarbeitung der Laute bilingualer Sprecher

Der Erwerb und die Verarbeitung der Laute bilingualer Sprecher Der Erwerb und die Verarbeitung der Laute bilingualer Sprecher Referat von Angelika Giglberger am 22.05.2007 Hauptseminar Spracherwerb SS 2007 Prof. Dr. Jonathan Harrington Der Erwerb und die Verarbeitung

Mehr

1 Mengen. 1.1 Elementare Definitionen. Einige mathematische Konzepte

1 Mengen. 1.1 Elementare Definitionen. Einige mathematische Konzepte Einige mathematische Konzepte 1 Mengen 1.1 Elementare Definitionen Mengendefinition Die elementarsten mathematischen Objekte sind Mengen. Für unsere Zwecke ausreichend ist die ursprüngliche Mengendefinition

Mehr

Haben alle Mitglieder eines Systems dieselbe Intelligenz?

Haben alle Mitglieder eines Systems dieselbe Intelligenz? Haben alle Mitglieder eines Systems dieselbe Intelligenz? Oft wird diese Frage gestellt und meistens wird sie mit Natürlich, es haben doch alle das selbe Gehirn beantwortet. Doch reicht das aus, damit

Mehr

Computerlinguistische Grundlagen. Jürgen Hermes Wintersemester 17/18 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln

Computerlinguistische Grundlagen. Jürgen Hermes Wintersemester 17/18 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Computerlinguistische Grundlagen Jürgen Hermes Wintersemester 17/18 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Einführung in die Grundgedanken von Sprachwissenschaft/Linguistik

Mehr

Automatentheorie und formale Sprachen

Automatentheorie und formale Sprachen Automatentheorie und formale Sprachen Wiebke Petersen Wiebke Petersen Automatentheorie und formale Sprachen - WiSe12/13 1 Seminarplan Lektüre: Theoretische Grundlagen der Informatik, Rolf Socher, 2008

Mehr

Standardisierte Vorgehensweisen und Regeln zur Gewährleistung von: Eindeutigkeit Schlussfolgerungen aus empirischen Befunden sind nur dann zwingend

Standardisierte Vorgehensweisen und Regeln zur Gewährleistung von: Eindeutigkeit Schlussfolgerungen aus empirischen Befunden sind nur dann zwingend Standardisierte Vorgehensweisen und Regeln zur Gewährleistung von: Eindeutigkeit Schlussfolgerungen aus empirischen Befunden sind nur dann zwingend oder eindeutig, wenn keine alternativen Interpretationsmöglichkeiten

Mehr

THE ROLE OF PROSODIC SENSITIVITY IN CHILDREN S READING DEVELOPMENT

THE ROLE OF PROSODIC SENSITIVITY IN CHILDREN S READING DEVELOPMENT Universität des Saarlandes Fakultät 4.7 HS: Kinderintonation Dozentin: Bistra Andreeva Referentin: Juliane Schmidt THE ROLE OF PROSODIC SENSITIVITY IN CHILDREN S READING DEVELOPMENT Karen Whalley und Julie

Mehr

Jessica Pausch Natascha Nungesser

Jessica Pausch Natascha Nungesser Jessica Pausch Natascha Nungesser Auditive Entwicklung Des Fötus Im 1. Lebensjahr Methoden Headturn Preference Versuchsaufbau Versuchsablauf Modell von Hunter und Ames Aufgaben Gestationswoche Fähigkeiten

Mehr

1 0, x C X (A). = 1 χ A(x).

1 0, x C X (A). = 1 χ A(x). Aufgabe 1 a) Wir müssen nur zeigen, dass χ A B (x) = χ A (x) χ B (x) für alle x X gilt. (Dass χ A χ B Abbildung von X in {0, 1} ist, ist klar.) Sei also x X beliebig. Fall 1: x A B. Dies bedeutet x A und

Mehr

2 - Konvergenz und Limes

2 - Konvergenz und Limes Kapitel 2 - Folgen Reihen Seite 1 2 - Konvergenz Limes Definition 2.1 (Folgenkonvergenz) Eine Folge komplexer Zahlen heißt konvergent gegen, wenn es zu jeder positiven Zahl ein gibt, so dass gilt: Die

Mehr

Kölner Mathematikturnier 2011 Das Turnierlogo

Kölner Mathematikturnier 2011 Das Turnierlogo Kölner Mathematikturnier 2011 Das Turnierlogo Was sind denn das für komische Punkte im Turnierlogo?, fragt Ihr Euch sicherlich. Unser Turnierlogo stellt einee Visualisierung der Primzahlen in den Gaußschen

Mehr

Methodenlehre. Vorlesung 10. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg

Methodenlehre. Vorlesung 10. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg Methodenlehre Vorlesung 10 Prof. Dr., Cognitive Biopsychology and Methods University of Fribourg 1 Methodenlehre I Woche Datum Thema 1 FQ Einführung, Verteilung der Termine 1 25.9.13 Psychologie als Wissenschaft

Mehr

Sprachwahrnehmung in der frühen Kindheit. 10. Sitzung am Anja van Kampen

Sprachwahrnehmung in der frühen Kindheit. 10. Sitzung am Anja van Kampen Sprachwahrnehmung in der frühen Kindheit 10. Sitzung am 15.06.2010 Anja van Kampen Anjavan Kampenr Sprachwahrnehmung in der frühen Kindheit SoSe 2010 Aufbau der Sitzung Abschluss vom Thema Prosodie Wdhl.

Mehr

Kapitel 6. Fixpunkte und semantische Bereiche

Kapitel 6. Fixpunkte und semantische Bereiche Kapitel 6 Fixpunkte und semantische Bereiche Sowohl bei der Definition der operationalen Semantik als auch bei der Definition der mathematischen Semantik haben wir mehr oder weniger explizit Fixpunkte

Mehr

Statistische Tests (Signifikanztests)

Statistische Tests (Signifikanztests) Statistische Tests (Signifikanztests) [testing statistical hypothesis] Prüfen und Bewerten von Hypothesen (Annahmen, Vermutungen) über die Verteilungen von Merkmalen in einer Grundgesamtheit (Population)

Mehr

Mathem.Grundlagen der Computerlinguistik I, WS 2004/05, H. Leiß 1

Mathem.Grundlagen der Computerlinguistik I, WS 2004/05, H. Leiß 1 Mathem.Grundlagen der Computerlinguistik I, WS 2004/05, H. Leiß 1 1 Vorbemerkungen Mathematische Begriffe und Argumentationsweisen sind in vielen Fällen nötig, wo man über abstrakte Objekte sprechen und

Mehr

Formale Methoden 1. Gerhard Jäger 23. Januar Uni Bielefeld, WS 2007/2008 1/18

Formale Methoden 1. Gerhard Jäger 23. Januar Uni Bielefeld, WS 2007/2008 1/18 1/18 Formale Methoden 1 Gerhard Jäger Gerhard.Jaeger@uni-bielefeld.de Uni Bielefeld, WS 2007/2008 23. Januar 2008 2/18 Das Pumping-Lemma Sein L eine unendliche reguläre Sprache über ein endliches Alphabet

Mehr

Sprachproduktion- und Sprachperzeption. Jonathan Harrington

Sprachproduktion- und Sprachperzeption. Jonathan Harrington Sprachproduktion- und Sprachperzeption Jonathan Harrington Die Variabilität 1. Die Variabilität: warum entsteht Variabilität in der gesprochenen Sprache? 2. Wie entschlüsseln Hörer die intendierten Laute

Mehr

Das Kohorten-Modell zur Worterkennung Marslen-Wilson & Tyler 1980

Das Kohorten-Modell zur Worterkennung Marslen-Wilson & Tyler 1980 Das Kohorten-Modell zur Worterkennung Marslen-Wilson & Tyler 1980 Mögliche Modelle a) Autonomes serielles Modell Semantische Verarbeitung Syntaktische Verarbeitung Wortverarbeitung Phomenverarbeitung Autonome

Mehr

Statistik für Ingenieure Vorlesung 2

Statistik für Ingenieure Vorlesung 2 Statistik für Ingenieure Vorlesung 2 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 24. Oktober 2016 2.4 Bedingte Wahrscheinlichkeiten Häufig ist es nützlich, Bedingungen

Mehr

Puls-Code-Modulation. Thema: PCM. Ziele

Puls-Code-Modulation. Thema: PCM. Ziele Puls-Code-Modulation Ziele Mit diesen rechnerischen und experimentellen Übungen wird die Vorgehensweise zur Abtastung und linearen Quantisierung eines analogen Signals erarbeitet. Bei der Abtastung werden

Mehr

Kapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen

Kapitel ML:IV. IV. Statistische Lernverfahren. Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen Kapitel ML:IV IV. Statistische Lernverfahren Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen ML:IV-1 Statistical Learning c STEIN 2005-2011 Definition 1 (Zufallsexperiment,

Mehr

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal Beispiel 37 Wir werfen eine Münze so lange, bis zum ersten Mal Kopf erscheint. Dies geschehe in jedem Wurf unabhängig mit Wahrscheinlichkeit p. Wir definieren dazu die Zufallsvariable X := Anzahl der Würfe.

Mehr

Hypothesen: Fehler 1. und 2. Art, Power eines statistischen Tests

Hypothesen: Fehler 1. und 2. Art, Power eines statistischen Tests ue biostatistik: hypothesen, fehler 1. und. art, power 1/8 h. lettner / physik Hypothesen: Fehler 1. und. Art, Power eines statistischen Tests Die äußerst wichtige Tabelle über die Zusammenhänge zwischen

Mehr

Sprachanalyse. Fachseminar WS 08/09 Dozent: Prof. Dr. Helmut Weber Referentin: Nadia Douiri

Sprachanalyse. Fachseminar WS 08/09 Dozent: Prof. Dr. Helmut Weber Referentin: Nadia Douiri Sprachanalyse WS 08/09 Dozent: Prof. Dr. Helmut Weber Referentin: Inhalt 1. Formale Sprachen 2. Chomsky-Hierarchie 2 FORMALE SPRACHE 1. WAS IST EINE SPRACHE? 2. WIE BESCHREIBT MAN EINE SPRACHE? 3. WAS

Mehr

Kontrastive Analyse: Finnisch - Deutsch

Kontrastive Analyse: Finnisch - Deutsch Sprachen Eva Meyer Kontrastive Analyse: Finnisch - Deutsch Studienarbeit Inhalt 1. Einleitung... 2 2. Allgemeines zum Finnischen... 3 3. Das Vokalsystem des Finnischen... 4 4. Das Konsonantensystem des

Mehr

1. Gruppen. 1. Gruppen 7

1. Gruppen. 1. Gruppen 7 1. Gruppen 7 1. Gruppen Wie schon in der Einleitung erläutert wollen wir uns in dieser Vorlesung mit Mengen beschäftigen, auf denen algebraische Verknüpfungen mit gewissen Eigenschaften definiert sind.

Mehr

Inhaltsverzeichnis. Vorwort... 11

Inhaltsverzeichnis. Vorwort... 11 Inhaltsverzeichnis Vorwort... 11 1 Einleitung... 13 1.1 Denken und Sprache als Prozesse der Informationsverarbeitung. 14 1.2 Denken und Sprache in Verbindung mit anderen Prozessen... 17 1.3 Auf der Suche

Mehr

Familiäre Prädiktoren bilingualer Sprachkenntnisse

Familiäre Prädiktoren bilingualer Sprachkenntnisse Familiäre Prädiktoren bilingualer Sprachkenntnisse Masterthesis in der AE Entwicklungspsychologie: Jana Baumann Betreuung: Frau Prof. Dr. Leyendecker Überblick 1. 2. 1. Deskriptive Beobachtungen 2. Hypothese

Mehr

Wahrscheinlichkeitsrechnung und Stochastik

Wahrscheinlichkeitsrechnung und Stochastik Wahrscheinlichkeitsrechnung und Stochastik 2-stündige Vorlesung für den Bachelor-Studiengang Angewandte Informatik Vorläufige Version Gerhard Freiling und Hans-Bernd Knoop Inhalt Inhalt..........................................................................

Mehr

Lösungsmenge L I = {x R 3x + 5 = 9} = L II = {x R 3x = 4} = L III = { }

Lösungsmenge L I = {x R 3x + 5 = 9} = L II = {x R 3x = 4} = L III = { } Zur Einleitung: Lineare Gleichungssysteme Wir untersuchen zunächst mit Methoden, die Sie vermutlich aus der Schule kennen, explizit einige kleine lineare Gleichungssysteme. Das Gleichungssystem I wird

Mehr