4. Operante Konditionierung
Operante Konditionierung (OK) Die OK befasst sich mit Modellen, die Lernen anhand von Zusammenhängen des Verhaltens mit positiven oder negativen Konsequenzen zu erklären versuchen Erfolgslernen, Misserfolgslernen OK vermag insbesondere, den Erwerb von absichtsvollem, komplexem, zielgerichtetem Verhalten zu erklären 4. Operante Konditionierung
OK 4. Operante Konditionierung
Edward Thorndike: The Law of Effect (1911) beschäftigte sich als Student mit Intelligenz bei Tieren experimentierte, um Tiere beim Problemlösen zu beobachten bastelte aus alten Obstkisten Käfig mit Hebel zur Öffnung der Türe setzte die Katze rein und den Fisch vor den Käfig 4. Operante Konditionierung 4.1 Frühe Experimente und Theorie
Edward Thorndike: The Law of Effect (1911) 4. Operante Konditionierung 4.1 Frühe Experimente und Theorie
Edward Thorndike: The Law of Effect (1911) Beobachtete 3 Lern-Phasen Katze versuchte «alles», tritt zufällig auf Hebel 2. Katze probierte Verhaltensabfolge aus, bis sie wieder auf Hebel tritt. 3. nach vielen Versuchen tritt Katze direkt auf Hebel 4. Operante Konditionierung 4.1 Frühe Experimente und Theorie
Edward Thorndike: The Law of Effect (1911) The Law of Effect: Verhaltensweisen, auf die eine erfreuliche Konsequenz folgt, werden wiederholt, während dem Verhaltensweisen, auf die keine erfreuliche Konsequenz folgt, nicht mehr gezeigt werden 4. Operante Konditionierung 4.1 Frühe Experimente
Edward Thorndike: The Law of Effect (1911) Thorndike zeigte also erstmals den Zusammenhang zwischen Verhalten und seinen Konsequenzen (R-K). Versuch und Irrtum ( trial and error ) sind entsprechend seiner Sicht die Grundlagen des Lernens Er lieferte eine mechanistische Erklärung des Lernens: Lernen erfolge auf der Grundlage des Erlebens von Assoziationen. 4. Operante Konditionierung 4.1 Frühe Experimente und Theorie
Edward Thorndike: The Law of Effect (1911) Revidiertes Law of Effect : Asymmetrie der Wirkung von Belohnung und Bestrafung: Belohnung ist gegenüber Bestrafung verhaltenswirksamer!
Edward Thorndike: The Law of Exercise Geübte Reaktionen treten mit grösserer Wahrscheinlichkeit wieder auf, wenn eine entsprechende Situation wieder auftritt. Das Gesetz der Übung beinhaltet zwei Aussagen: die Annahme, dass der Gebrauch einer Verknüpfung durch Übung deren Stärke steigert. dass der Nicht-Gebrauch (Unterlassen der Übung) zu einer Schwächung oder einem Vergessen dieser Verbindung führt Revision: dass die Verstärkung nur stattfindet, wenn der Organismus Informationen über die Richtigkeit der Reaktion erhält 4. Operante Konditionierung 4.1 Frühe Experimente und Theorie
Edward Thorndike: Relevanz Der Ansatz von Thorndike kann als Ursprung der behavioristischen Lerntheorie gelten. Die Theorie findet heute aufgrund ihrer mechanistischen Ausprägung nur begrenzt Anerkennung. Nicht alle Erkenntnisse von Thorndike sind in den Humanbereich übertragbar, da verdeckte kognitive Prozesse vernachlässigt wurden. 4. Operante Konditionierung 4.1 Frühe Experimente und Theorie
Burrhus F. Skinner Skinner wollte Lernen systematisch untersuchen. Dazu suchte er nach einem Weg, die Reaktions- Konsequenz- Zusammenhänge seiner Probanden (Mäuse, Tauben) vollständig zu kontrollieren Als Graduate-Student baute er 1930 aus einer alten Eiskiste eine Apparatur mit einem Stimulus-Licht Tasten einem Futterspender und einem Gitterrost-Boden (mittels dem Elektroschocks verabreicht werden konnten). 1904-1990 Dazu baute er einen Automaten, der automatisch das Verhalten aufzeichnete 4. Operante Konditionierung 4.2 Skinner: Frühe Experimente und Theorie
die SKINNER-BOX! 4. Operante Konditionierung 4.2 Skinner: Frühe Experimente und Theorie Kassin, 2004, p.181
Zusammenfassung Operante Konditionierung: Lernen am Erfolg/Misserfolg Wichtige Arbeiten von E. Thorndike: Law of Effect Wichtiges Prinzip: Zusammenhang zwischen Verhalten und Konsequenz Law of Exercise: der Gebrauch einer Verknüpfung durch Übung steigert deren Stärke der Nicht-Gebrauch (Unterlassen der Übung) führt zu einer Schwächung oder einem Vergessen dieser Verbindung B. F. Skinner: Entwickelte Theorie der Operanten Konditionierung
Skinner: Neue Begriffe Skinner führte neue Begriffe ein, um das aktive Lernen vom passiven Lernen, wie es Pavlov konzeptualisierte, zu unterscheiden Er nannte die aktive Form zu Lernen: Operante Konditionierung, da das Verhalten auf die Umwelt einwirkt und dadurch eine (erwünschte) Konsequenz auslöst ( the behavior operates on the environment to produce a desirable outcome ) 4. Operante Konditionierung 4.3 Skinner: Konzepte / Begriffe
Skinner: Neue Begriffe Skinner unterscheidet Stimuli zudem in verschiedene Arten von Verstärkern (Reinforcement) Als guter Behaviorist wollte Skinner Spekulationen über die inneren Vorgänge vermeiden, und war deshalb bemüht, Begriffe wie zufriedenstellend oder Belohnung zu vermeiden Ein Verstärker ist ein Stimulus, der kontingent auf ein bestimmtes Verhalten erfolgt, und der die Auftretenswahrscheinlichkeit dieses konkreten Verhaltens entweder erhöht oder vermindert 4. Operante Konditionierung 4.3 Skinner: Konzepte / Begriffe
Skinner: Verstärker Positive Verstärker sind angenehme Stimuli, die die zukünftige Verhaltenswahrscheinlichkeit erhöhen. Diese können ungelernt (primäre V. ) oder gelernt (sekundäre V.) sein. Negative Verstärker sind aversive, also unangenehme Stimuli, die die zukünftige Verhaltenswahrscheinlichkeit senken. Auch diese können ungelernt (primäre V. ) oder gelernt (sekundäre V.) sein. 4. Operante Konditionierung 4.3 Skinner: Konzepte / Begriffe
Skinner: Verstärkung Verstärkung bezeichnet den Prozess der Darbietung oder Entfernen eines Reizes nach einem bestimmten Verhalten Positive Verstärkung Verhaltenskontingente Darbietung eines positiven Stimulus. Dies führt zu einer Erhöhung der Verhaltenswahrscheinlichkeit Negative Verstärkung Entfernung eines aversiven Stimulus. Führt ebenfalls zu einer Erhöhung der Verhaltenswahrscheinlichkeit 4. Operante Konditionierung 4.3 Skinner: Konzepte / Begriffe
Verstärkungsmatrix (s. Holland & Skinner, 1971) Positiver Stimulus Aversiver Stimulus Darbietung Positive Verstärkung V+ Positive (direkte) Bestrafung V- Entfernung Negative (indirekte) Bestrafung V- Negative Verstärkung V+ 4. Operante Konditionierung 4.3 Skinner: Konzepte / Begriffe
Primäre Verstärker wirken ohne vorangegangene Lernprozesse ihre Wirkung wird meist mit Triebreduktion erklärt es kann unterschieden werden zwischen: positiven primären Verstärkern (Nahrung, Bewegung, usw.) negativen primären Verstärkern (akustische Reize, elektrische Schläge, usw.) 4. Operante Konditionierung 4.3 Skinner: Konzepte / Begriffe
Sekundäre und Generalisierte Verstärker Sekundärer V.: Ein ursprünglich neutraler Reiz der zum Verstärker wird, wenn er mit dem primären Verstärker gepaart wird (konditionierte Verstärker). Generalisierter V.: Ein Verstärker, der gegen mehrere primäre Verstärker eingelöst werden kann (z.b. Geld, Tokens) 4. Operante Konditionierung 4.3 Skinner: Konzepte / Begriffe
Arten der Verstärkung Intrinsische Verstärkung spirituelle, ideologische Verstärkung religiöse oder ideologische Werte und Ziele, theoretische oder symbolische Verstärkung Handlungsverstärker Sport, Tanzen, Spazieren, Entspannung Extrinsische Verstärkung materielle Verstärkung Geld, materielle Belohnungen soziale Verstärkung Lächeln, Lob, Anerkennung, Zuwendung 4. Operante Konditionierung 4.3 Skinner: Konzepte / Begriffe
Arten der Verstärkung Oft erfolgen Verstärkungsprozesse nicht durch externe Verstärkung (Fremdverstärkung), sondern in Form der Selbstverstärkung hierzu gibt es zwei Varianten 1. jemand belohnt sich selbst bewusst 2. die Verstärkung geht aus einer Handlung selbst hervor 4. Operante Konditionierung 4.3 Skinner: Konzepte / Begriffe
Löschung Wenn ein Verhalten über einen längeren Zeitraum nicht mehr verstärkt wird, dann setzt allmählich die Löschung ein Abschwächung Verhalten seltener Löschung Wichtiges Prinzip Verwendung im therapeutischen Kontext Problematisch, wenn Verhalten nicht durch Alternativverhalten ersetzt wird 4. Operante Konditionierung 4.3 Skinner: Konzepte / Begriffe
Wichtige Frage: Wie wird Verhalten ausgebildet? Skinner folgte zunächst Thorndike s Law of Effect Verhalten, auf das eine Verstärkung folgt, wird wiederholt Aber: Was führt zur erstmaligen Ausführung des Verhaltens Exploration (?) Zweite Möglichkeit: Shaping gezielte Verstärkung verändert (formt) Verhalten hin zu einem bestimmten Zielverhalten 4. Operante Konditionierung 4.4 Skinner: Weiterführende Konzepte, Faktoren
Analogie Man kann sich das Prinzip und die konzeptuellen Komponenten der Operanten Konditionierung gut in Analogie zu evolutionsbiologischen Selektionsprozessen vorstellen für den Organismus günstiges Verhalten wird aufrechterhalten für den Organismus ungünstiges Verhalten wird eliminiert Das Verhaltensrepertoire wird durch die OK-Prozesse, inklusive Shaping, stets den Umweltbedingungen entsprechend optmiert
OK: Einflussfaktoren Motivation Motivation ist eine Grundvariable der OK. Die Motivation, ein bestimmtes Verhalten zu zeigen ist dadurch bedingt, dass in früheren Lernerfahrungen eine motivationsrelevante Konsequenz auf das Verhalten erlebt wurde Konsequenzen müssen motivationsadäquat sein, um OK zu ermöglichen 4. Operante Konditionierung 4.4 Skinner: Weiterführende Konzepte, Faktoren
Diskriminative Stimuli Während bei Thorndike ausschliesslich die Konsequenzen verhaltensrelevant sind, geht Skinner davon aus, dass auch Stimuli und Bedingungen, die dem Verhalten vorausgehen, von Bedeutung sind solche Stimuli werden diskriminative Stimuli genannt, da sie Hinweischarakter haben, und dadurch bezüglich einer Konsequenz eine diskriminative Funktion einnehmen S d : Hinweisreiz auf Verstärkung Annäherung S : Hinweis auf Bestrafung Meideverhalten 4. Operante Konditionierung 4.4 Skinner: Weiterführende Konzepte, Faktoren
Kontingenz Wenn die Konsequenz auf das Verhalten mit Verzögerung folgt, dann wird der Lernprozess gehemmt Je unmittelbarer die Verstärkung erfolgt, desto wirkungsvoller ist der Lernprozess kleine, unmittelbare Verstärker wirken besser als grosse Verstärker, die erst mit Verzögerung folgen Vgl. Kontiguität bei der KK (zeitlicher Aspekt) 4. Operante Konditionierung 4.4 Skinner: Weiterführende Konzepte, Faktoren
Verhaltensperformanz Kontingenz Verstärkungslatenz 4. Operante Konditionierung 4.4 Skinner: Weiterführende Konzepte, Faktoren
Neurotisches Paradoxon NP besteht beim Erlernen von Handlungen, die zwar kurzfristig positive Konsequenzen nach sich ziehen, langfristig jedoch (stärkere) negative Konsequenzen (ohne erlebte Kontingenz) nach sich ziehen bei gleichzeitiger Unfähigkeit zum Verstärkeraufschub Beispiele Rauchen Ablenkung Umweltverhalten 4. Operante Konditionierung 4.4 Skinner: Weiterführende Konzepte, Faktoren
Motivationsadäquate Verstärkung & Shaping & Diskrimation 4. Operante Konditionierung 4.4 Skinner: Weiterführende Konzepte, Faktoren Kassin, 2004, p.183
Zusammenfassung Skinner führte den Begriff des Verstärkers ein Stimulus, der als Konsequenz auf ein Verhalten folgt und belohnende oder bestrafende Eigenschaften hat erhöht bzw. reduziert Auftretenswahrscheinlichkeit des Verhaltens Man kann zwischen positiven und negativen Verstärkern, und zwischen positiver und negativer Verstärkung oder Bestrafung unterscheiden Es gibt primäre und sekundäre Verstärker, sowie intrinsische und extrinsische Verstärkung Diskriminative Stimuli werden verhaltensrelevant Die Kontingenz zwischen Verhalten und Konsequenz ist hoch lernrelevant Das neurotische Paradoxon umschreibt den Umstand, dass kurzfristige positive Konsequenzen gegenüber langfristigen starken negativen Konsequenzen in der Verhaltensgenerierung überlegen sind; dies ist bei Unfähigkeit zum Verstärkeraufschub der Fall