Diplomarbeit. im Studiengang Psychologie in der Fakultät Pädagogik, Philosophie, Psychologie an der Otto-Friedrich-Universität Bamberg 2007.

Größe: px
Ab Seite anzeigen:

Download "Diplomarbeit. im Studiengang Psychologie in der Fakultät Pädagogik, Philosophie, Psychologie an der Otto-Friedrich-Universität Bamberg 2007."

Transkript

1 Diplomarbeit im Studiengang Psychologie in der Fakultät Pädagogik, Philosophie, Psychologie an der Otto-Friedrich-Universität Bamberg 2007 Thema: Soviel wie nötig oder soviel wie möglich? Inferenz und Schemageneralisation beim analogen Schließen Angefertigt an: Professur für Angewandte Informatik, Schwerpunkt Kognitive Systeme, Universität Bamberg Verfasser: Korrektoren: Eva Wiese Prof. Dr. Ute Schmid Prof. Dr. Sabine Weinert

2 Danksagung Bei der Planung, Durchführung und Fertigstellung meiner Diplomarbeit haben mich viele Menschen sowohl fachlich als auch persönlich auf großartige Weise unterstützt. Ihnen allen möchte ich auf diesem Wege Danke sagen. Allen voran möchte ich Frau Prof. Dr. Ute Schmid für ihre tatkräftige, freundliche und zeitintensive Betreuung bei der Planung und Durchführung meiner Diplomarbeit danken. Ohne die zahlreichen, oft stundenlangen Diskussionen zu Versuchsdesign und statistischer Auswertung hätte diese Arbeit sicherlich nicht in dieser Form fertig gestellt werden können. Vielen Dank auch an ihren Mann Herrn PD Dr. Uwe Konerding, der mir stets mit Rat und Tat zur Seite stand, wenn es Probleme bei der Auswertung meines nicht ganz einfachen Versuchsdesigns gegeben hat. Danken möchte ich auch Frau Prof. Dr. Sabine Weinert, dass sie freundlicher Weise die Betreuung meiner Diplomarbeit an der Fakultät für Pädagogik, Philosophie und Psychologie übernommen hat. Ein großes Danke schön geht auch an Frau Gaby Bauer für die technische Umsetzung meiner Schaubildskizzen und Animationen für das Versuchsmaterial und an Martin Hoffmann, für das Computerprogramm Gint, mit dem Reaktionszeiten und Lösungshäufigkeiten am PC gemessen werden können. Bedanken möchte ich mich auch bei den 70 Versuchspersonen, weil sie an meinem Versuch teilgenommen und sich zu teilweise unmenschlichen Zeiten bereit erklärt haben, meine Physikaufgaben zu bearbeiten. Zum Schluss möchte ich mich ganz besonders bei meiner Schwester Lisa Wiese und meinem Freund Ulf Berlinger bedanken, weil sie mit mir stundenlang über Versuchsdesign und Auswertungsmethodik diskutiert und während der ganzen Zeit meine Launen ertragen haben. Vielen, vielen Dank, dass ihr mir mit einer großen Portion fachlicher Kompetenz und schwarzem Humor über die Tiefpunkte bei der Bearbeitung dieser Diplomarbeit hinweggeholfen habt.

3 i Inhaltsverzeichnis Einleitung Analogie eine spezielle Form der Ähnlichkeit Begriffsbestimmung Verschiedene Analogieformen Analoges Denken Schlussfolgern mit Analogien Stufen des Analogieprozesses Randbedingungen von Analogieprozessen Problemlösen mit Analogien Lernen mit Analogien Analogiemodelle Symbolische, konnektionistische und hybride Analogiemodelle Soviel wie möglich oder soviel wie nötig eine neue Möglichkeit der Kategorisierung Analogiemodelle im Überblick SME Purpose-directed-Analogy ACME LISA STAR ASTRA Copycat AMBR Analogy via abstraction Einordnung der Analogiemodelle in die neue Kategorisierung Empirische Befunde zum analogen Denken Abruf und Abbildung Inferenz, Transfer und Lernen

4 ii 4 Untersuchungsbereich Analogien in der Physik Die Wasserkreis Stromkreis Analogie Struktur des Untersuchungsmaterials Experimentelle Durchführung Probanden Material Material für die Experimentalgruppen Material für die Kontrollgruppen Geräte Untersuchungsdesign und Hypothesen Zusammenhang zwischen Intelligenz und Lösungszeiten bzw. Lösungshäufigkeiten Fragestellung 1: Soviel wie möglich oder soviel wie nötig? Lösungszeiten Lösungshäufigkeiten Fragestellung 2: Schemainduktion beim analogen Problemlösen Lösungszeiten Lösungshäufigkeiten Durchführung Ergebnisse Beschreibung der Stichprobe Durchschnittliche Lösungszeiten und -häufigkeiten Korrelationen zwischen Intelligenz und Lösungszeiten bzw. Lösungshäufigkeiten Ergebnisse zu Fragestellung Auswertungsmethode Auswertung der Lösungszeiten Auswertung der Lösungshäufigkeiten Ergebnisse zu Fragestellung Auswertungsmethode Auswertung der Lösungszeiten Auswertung der Lösungshäufigkeiten

5 iii 5.7 Interpretation der Ergebnisse Interpretation der Korrelationsmatrix Interpretation der Ergebnisse zu Fragestellung Haupteffekte Interaktionseffekte Interpretation der Ergebnisse zu Fragestellung Bewertung und Ausblick Literaturverzeichnis Anhang A Simulationen A-1 A.1 Simulation des Wasserstromkreises A-1 A.2 Simulation des elektrischen Stromkreises A-16 B Kontrollfragen und Hilfetabellen A-31 B.1 Kontrollfragen und Hilfetabellen zum Wasserstromkreis A-31 B.1.1 Kontrollfragen A-31 B.1.2 Hilfetabellen A-37 B.2 Kontrollfragen und Hilfetabellen zum elektrischen Stromkreis A-38 B.2.1 Kontrollfragen A-38 B.2.2 Hilfetabellen A-44 C Einführung des elektrischen Stromkreises A-46 D Problemlöseaufgaben zum elektrischen Stromkreis A-48 D.1 Typ-1-Fragen: Stromstärke und Spannung A-48 D.2 Typ-2-Fragen: Stromstärke und Widerstand A-52 D.3 Typ-3-Fragen: Stromstärke, Spannung und Widerstand A-56 E Soziodemographischer Fragebogen A-63 F Umrechnung der Koeffizienten A-64 CD F.1 Berechnung der Lösungszeiten A-64 F.2 Berechnung der Lösungshäufigkeiten A-67

6 iv Abbildungsverzeichnis 1.1 Komponenten des analogen Schließens Arbeitsweise des GEL-Algorithmus Darstellung von Propositionen in LISA Agentenverbände in AMBR E-Generalisierung Wasserkreis Stromkreis Analogie Ohmsches Gesetz als Relation höherer Ordnung Beispielschaubild zum Wasserstromkreis Beispielschaubild zum elektrischen Stromkreis Vermutetes Ergebnis für die Lösungszeiten Vermutetes Ergebnis für die Lösungshäufigkeiten Ergebnis für die Lösungszeiten Ergebnis für die Lösungshäufigkeiten Interaktion Art des Tutoriums Testzeitpunkt (Lösungszeiten) Interaktion Art des Tutoriums Testzeitpunkt (Lösungshäufigkeiten) Interaktion Art des Tutoriums Fragentyp (Lösungszeiten) Interaktion Art des Tutoriums Fragentyp (Lösungshäufigkeiten) Interaktion Testzeitpunkt Fragentyp (Lösungszeiten) Interaktion Testzeitpunkt Fragentyp (Lösungshäufigkeiten)

7 v Tabellenverzeichnis 1.1 Bestandteile eines propositionalen Netzwerkes Kategorisierung der Analogiemodelle nach der Architektur Beurteilungsraster für Analogiemodelle Einordnung der Analogiemodelle in die neue Kategorisierung Überblick über die Analogiemodelle (Teil 1) Überblick über die Analogiemodelle (Teil 2) Bauteile im Wasserstromkreis und im elektrischem Stromkreis Gesetzmäßigkeiten für einfache Kreislaufsysteme Gesetze für die Reihenschaltung von Widerständen Typ-1- und Typ-2-Fragen Untersuchungsdesign für Fragestellung Untersuchungsdesign für Fragestellung Überblick über die Typ-3-Fragen Übersicht über den Untersuchungsablauf Lösungszeiten bei den Typ-1-, Typ-2- und Typ-3-Fragen Korrelationsmatrix: Intelligenzleistung (Lösungszeiten, Lösungshäufigkeiten) Lösungszeiten in Abhängigkeit des Testzeitpunktes Ergebnisse der linearen Regressionsanalyse Lösungshäufigkeiten in Abhängigkeit des Testzeitpunktes Ergebnisse der logistischen Regressionsanalyse Lösungszeiten (Typ-3-Fragen) in Abhängigkeit der Untersuchungsbedingung Lösungshäufigkeiten (Typ-3-Fragen) in Abhängigkeit der Untersuchungsbedingung

8 Zusammenfassung Es gibt zwei kontrastierende Ansätze über den Abbildungs- und Transferprozess beim analogen Schlussfolgern. Die soviel wie möglich -Theorien gehen davon aus, dass auf der Basis struktureller Übereinstimmungen soviel kausal zusammenhängende Struktur wie möglich vom Basis- in den Zielbereich übertragen wird. Die soviel wie nötig -Ansätze postulieren dagegen, dass nur solche Informationen transferiert werden, die den Zielen des Anwenders dienen und zur Problemlösung benötigt werden. Bislang fehlen empirische Untersuchungen, die beide Annahmen in einem Experiment gegenüberstellen können. Die vorliegende Arbeit versucht diesen Beitrag zur Forschung zu leisten. Dazu werden zunächst die gängigsten Analogiemodelle (SME, Purpose-directed-Analogy, ACME, LISA, STAR, Copycat, AMBR, analogy by abstraction) in die entsprechende Theoriengruppe eingeordnet und anschließend in einem Experiment aus dem Gegenstandsbereich der Physik empirisch verglichen. Welches Transferprinzip in einem solchen Problemlöseszenario zutrifft, wird dabei anhand von Lösungszeiten und Lösungshäufigkeiten entschieden. Die empirischen Ergebnisse konnten die soviel wie möglich - Theorien stützen. Demnach wird sogar dann soviel kausal zusammenhängende Struktur wie möglich vom Basis- in den Zielbereich transferiert, wenn die Analogiebildung in einem Problemlösekontext und unter Zeitdruck gebildet werden muss. Der zweite Teil der Studie soll die Generalisierung eines abstrakten Schemas beim analogen Problemlösen in einem komplexen Untersuchungsbereich nachweisen. Dabei haben nur die Experimentalgruppen die Möglichkeit, die abstrakte Lösungsstruktur des Problems durch den Vergleich zweier strukturähnlicher Bereiche zu extrahieren. Die Kontrollgruppen lösen die Aufgaben dagegen durch einfache Regelanwendung im Zielbereich. Es wird erwartet, dass sich durch den analogen Vergleichsprozess nach mehreren Problemlösedurchgängen ein zeitlicher Vorteil für die Experimentalgruppen ergeben wird. Dieser Effekt zeigte sich empirisch jedoch nicht. Im Diskussionsteil werden Gründe für dieses Ergebnis besprochen.

9 1 Einleitung Analogien beschreiben eine spezielle Form der Ähnlichkeit zwischen Sachverhalten, Inhaltsbereichen oder Systemen (Weber, 1994). Zwei Sachverhalte werden in diesem Zusammenhang immer dann als analog bezeichnet, wenn sie Übereinstimmungen auf struktureller, aber nicht notwendiger Weise auch auf inhaltlicher Ebene aufweisen (Gentner, 1983). Die Struktur eines Inhaltsbereichs gibt dabei an, welche relationalen Zusammenhänge zwischen den einzelnen Systembausteinen bestehen. Wenn zwei Inhaltsbereiche strukturell ähnlich sind, hat das den Vorteil, dass das Wissen über den einen Inhaltsbereich verwendet werden kann, um sich den anderen, möglicherweise unbekannten Inhaltsbereich zu erklären (Gentner, 1983). Dabei nimmt man an, dass das, was in dem einen Inhaltsbereich gilt, auch im anderen Inhaltsbereich zutreffen muss. Dieses Prinzip bezeichnet man als analoges Schließen oder Inferenz (z.b. Gentner, 1989b; Kurtz, Gentner & Gunn, 1999; Rumelhart & Abrahamson, 1973). Auf diese Weise schafft man es, sich schnell in einem neuen Themengebiet zu Recht zu finden, ohne bereichsspezifisches Wissen besitzen zu müssen. Die Analogie hilft, Hypothesen über die funktionalen Zusammenhänge eines Inhaltsbereichs aufzustellen und ihn anhand dieser Überlegungen zu strukturieren und zu explorieren (Donnelly & McDaniel, 1993). Deswegen werden Analogien auch häufig zur Unterstützung wissenschaftlicher Theoriebildung verwendet. Ein berühmtes Beispiel ist hier die Rutherford-Analogie, die das Bauprinzip von Atomen mit dem Bauprinzip von Sonnensystemen vergleicht. Mit ihrer Hilfe kann man auch ohne atomphysikalisches Wissen schlussfolgern, dass ein Atom aus einem zentralen Element bestehen muss, um das andere, kleinere Elemente wie Planeten um die Sonne kreisen. Wie im Sonnensystem sollten diese Elemente feste Umlaufbahnen haben, die sie auf Grund der Anziehungskraft des Zentralelements nicht verlassen können. Wissen, das durch analoge Vergleichsprozesse erworben wurde, ist dabei zunächst immer hypothetischer Natur (Holyoak, 1984) und muss erst noch auf seine Gültigkeit (z.b. durch Experimente) überprüft werden.

10 2 Analogien können aber nicht nur zum Schlussfolgern, sondern auch zum effizienten Problemlösen eingesetzt werden (vgl. Anderson & Thompson, 1989; Faries & Reiser, 1988; Gick & Holyoak, 1980; Reeves & Weisberg, 1990). Die Idee dabei ist, das Lösungsprinzip eines bekannten Problemfalls auf andere noch ungelöste Probleme zu übertragen. Die Problemfälle müssen dabei nicht aus dem gleichen Inhaltsbereich stammen, sondern nur in ihrer Problemstruktur übereinstimmen. Das heißt, dass die Elemente des einen Problemfalls in gleicher Weise zusammenhängen müssen, wie die Elemente des anderen Problemfalls (vgl. Gentner, 1983). Den Übertrag eines Lösungsprinzips von einem konkreten Problemfall zum anderen bezeichnet man als analogen Transfer (vgl. Gick & Holyoak, 1980, 1983; Keane, 1995; Reeves & Weisberg, 1990). Auf diese Weise kann ein vorliegendes Problem schnell und effizient durch die Anwendung bereits bekannter Strategien gelöst werden. Ein weiterer Vorteil beim analogen Problemlösen ist, dass durch das Suchen nach strukturellen Gemeinsamkeiten automatisch eine Abstraktion über die bereichsspezifischen Informationen der beiden Inhaltsbereiche stattfindet (Schmid, Burghardt & Wagner, 2003). Auf diese Weise ist das Lösungsprinzip nicht mehr nur an einen Inhaltsbereich gebunden, sondern kann als abstraktes Schema bereichsübergreifend verwendet werden. Man sagt deshalb auch, dass mit dem Prozess des analogen Problemlösens eine Schemainduktion verbunden ist (vgl. Chen & Mo, 2004; Gick & Holyoak, 1983) und bezeichnet diesen Prozess als analoges Lernen. Analogien können also als nützliche Hilfen zum Schlussfolgern, Problemlösen und Lernen eingesetzt werden. Ein Ziel wissenschaftlicher Analogieforschung ist es deshalb, plausible Theorien über diese drei Anwendungsbereiche zu bilden und deren Annahmen empirisch zu testen. Ein weiteres Ziel ist es, nach den Vorgaben der Analogietheorien praktische Modelle am Computer zu implementieren, die den menschlichen Umgang mit Analogien simulieren sollen. Die wichtigsten Modelle werden in dieser Arbeit vorgestellt und auf zwei verschiedene Arten klassifiziert. Eine erste Möglichkeit dazu bieten die Systemarchitekturen und Konstruktionsprinzipien der Modellierungen (vgl. Kokinov & French, 2003). Darauf basierende Einteilungen sind aber in mehreren Punkten problematisch. Zum einen überschneiden sich die Kategorien an mehreren Stellen, was eine einheitliche Zuordnung der Modelle schwierig macht 1. Zum anderen ist die Klassifizierung nach der Architektur nicht sehr informativ und erlaubt keinen umfassenden Überblick über die Modelleigenschaften. Deshalb wird in dieser Arbeit zunächst ein geeignetes Beurteilungsraster vorgestellt, mit dem die Güte der Analogiemodelle auf mehreren Ebenen eingeschätzt werden kann (Kapitel 2.3). Außerdem wird eine neue 1 Ein Überblick über die Problematik findet sich bei Weber (1994).

11 3 Klassifizierungsmethode vorgestellt, die die Modelle nach Art und Anzahl der beim analogen Transfer übertragenen Informationen klassifiziert. Die Modelle werden dazu in soviel wie möglich - und soviel wie nötig Theorien unterschieden. Diese Einteilung bildet dann auch die Basis für den empirischen Teil der vorliegenden Arbeit. Für die empirischen Untersuchungen wird analoges Problemlösen in einem physikalischen Bereich eingesetzt. Um einzelne Problemfälle bearbeiten zu können, muss eine Analogie zwischen einem Wasserkreislaufsystem und einem elektrischen Stromkreis hergestellt werden. Dabei sollen zwei Fragestellungen experimentell getestet werden: Als erstes wird überprüft, anhand welcher Kriterien der Transfer der relevanten Problemlösung von einem bekannten auf einen unbekannten Inhaltsbereich erfolgt. Grundsätzlich enthält ein Inhaltsbereich strukturelle, semantische und pragmatische Informationen, die einzeln oder in Kombination den Informationstransfer beeinflussen können (Holyoak & Thagard, 1989a). Man spricht in diesem Zusammenhang auch von Randbedingungen (vgl. Spellman & Holyoak, 1996). Die Forschung ist dominiert von zwei einander gegenüberstehenden theoretischen Annahmen über die Wichtigkeit dieser Randbedingungen: Die eine Theoriengruppe betrachtet nur strukturelle Informationen und postuliert den Übertrag des größten gemeinsamen Subgraphen nach dem Systematizitätsprinzip (Gentner, 1983). Es werden dabei soviel Informationen wie möglich auf einen neuen Problemfall übertragen. Diese Ansätze werden zu den soviel wie möglich Theorien zusammengefasst. Demgegenüber stehen Ansätze, die davon ausgehen, dass der Informationstransfer zusätzlich über pragmatische Komponenten gesteuert wird. Sie nehmen an, dass in einem Problemlöseszenario nur die Informationen transferiert werden, die auch für die Problemlösung nötig sind. Alle Ansätze, die dieses Transferprinzip verfolgen, werden den soviel wie nötig -Theorien zugeordnet. Die entsprechenden theoretischen Annahmen sind in der Multi-Constraint-Theorie (Holyoak & Thagard, 1989a) festgelegt. Empirische Belege finden sich für beide Gruppen (z.b. Clement & Gentner, 1991; Markman & Gentner, 1990; Spellman & Holyoak, 1996; Thagard, 2000). Sie werden im Einzelnen in Kapitel 3 beschrieben. Es gibt allerdings kein Experiment, das die beiden Kategorien in einem Problemlöseszenario direkt gegenüberstellt. Nur so kann aber geklärt werden, welches Transferprinzip tatsächlich den Abbildungs- und Transferprozess dominiert und ob auch in einem Problemlösekontext und unter Zeitdruck soviel Informationen wie möglich übertragen werden können. Diesen Beitrag zur Forschung will die vorliegende Arbeit leisten. Die zweite Fragestellung bezieht sich auf die Abstraktion eines Problemlöseschemas während des analogen Problemlösens. Ein grundlegendes Dilemma in der Analogieforschung besteht

12 4 nämlich darin, dass zwar die meisten Analogietheorien eine Schemainduktion theoretisch annehmen, tatsächlich aber kaum eine Modellimplementierung einen solchen Faktor berücksichtigt (Schmid, Burghart & Wagner, 2003). Bei der Vorstellung der Analogiemodelle ist deshalb eine wesentliche Frage, ob ein Lernmechanismus in der Implementierung vorgesehen ist und auf welche Weise Lernen simuliert wird. Empirisch konnte eine Schemainduktion in zahlreichen Studien nachgewiesen werden (z.b. Carbonell, 1984; Chen & Mo, 2004; Gick & Holyoak, 1983). Detaillierte Forschungsergebnisse werden wieder in Kapitel 3 berichtet. Im zweiten Teil der Studie soll eine solche Schemainduktion in einem komplexen, physikalischen Untersuchungsbereich nachgewiesen werden. Das Ziel des Experiments ist es, die bisherigen empirischen Befunde zu diesem Thema zu replizieren. Eine wichtige Frage ist außerdem, ob ein Schema auch dann induziert werden kann, wenn die Problemlösung unter Zeitdruck stattfinden muss. Die Arbeit beginnt mit einer theoretischen Einführung in das Themenfeld Analogien. Dort wird eine Begriffsbestimmung vorgenommen und der Ablauf von analogem Schlussfolgern, Problemlösen und Lernen beschrieben. Es werden verschiedene Analogieformen und Randbedingungen vorgestellt. Kapitel 2 gibt einen Überblick über gängige Analogiemodelle. Besonders wichtig ist dabei, welche Randbedingungen den Transferprozess steuern und ob die Modelle eine Lernkomponente berücksichtigen. Zuvor werden zwei Klassifizierungsmöglichkeiten für Analogiemodelle vorgestellt. Die Einordnung erfolgt zum einen anhand der Modellarchitektur und zum anderen anhand der beim Transferprozess berücksichtigten Randbedingungen. Für Letzteres werden die Kategorien soviel wie möglich und soviel wie nötig eingeführt. Zusätzlich wird ein Beurteilungsraster vorgestellt, mit dessen Hilfe eine Bewertung der Analogiemodelle auf verschiedenen Dimensionen möglich ist. Kapitel 3 fasst dann die wichtigsten empirischen Befunde auf dem Gebiet der Analogieforschung zusammen. In Kapitel 4 wird der Untersuchungsbereich mit der Wasserkreis-Stromkreis-Analogie vorgestellt, das experimentelle Vorgehen wird in Kapitel 5 beschrieben. Diese Abschnitte erklären das Untersuchungsmaterial und stellen die Hypothesen für die beiden Fragestellungen vor. Dort finden sich ebenfalls Informationen zur Versuchsdurchführung und zur Auswertungsmethodik. In Kapitel 5 werden auch die Ergebnisse präsentiert und in Bezug auf beide Fragestellungen interpretiert. Beendet wird die Arbeit mit der Diskussion der Ergebnisse und einem Ausblick auf mögliche Verbesserungen des Materials und der Methodik.

13 5 Kapitel 1 Analogie eine spezielle Form der Ähnlichkeit Kapitel 1 gibt eine kurze Einführung in den Themenbereich Analogie. Als erstes wird eine Begriffsbestimmung vorgenommen und eine mögliche Formalisierung analoger Zusammenhänge vorgestellt. Als zweites werden verschiedene Analogieformen beschrieben und die Prinzipien von analogem Schließen und Problemlösen erklärt. Abschließend wird verdeutlicht, wie das Vergleichen von zwei Inhaltsbereichen einen Lernprozess initiieren kann. 1.1 Begriffsbestimmung Analog zu denken bedeutet immer, in relationalen Mustern zu denken (Holyoak, Gentner & Kokinov, 2001). Um solche Muster entdecken zu können, muss ein Vergleich zwischen zwei strukturierten Inhaltsbereichen, so genannten Domains hergestellt werden (Gentner, 1983): Die Inhaltsbereiche werden dabei meist als propositionale Netzwerke repräsentiert, die aus Prädikaten und Objekten bestehen. Prädikate können nach der Anzahl ihrer Argumente weiter in Attribute und Relationen unterschieden werden (Tabelle 1.1). Man spricht von Attributen, wenn die Prädikate nur ein Argument haben und von Relationen, wenn sie aus mehr als einem Argument bestehen. Attribute beschreiben dabei die Objekteigenschaften, Relationen informieren über Beziehungen zwischen den einzelnen Netzwerkelementen. Es werden Relationen erster und höherer Ordnung unterschieden. Wenn Relationen Beziehungen zwischen Objekten beschreiben, spricht man von Relationen erster Ordnung. Beschreiben sie Beziehungen zwischen Relationen, spricht man von Relationen höherer Ordnung. Ein kompletter Inhaltsbereich setzt sich letztendlich aus vielen verschiedenen Attributen und Relationen zusammen, die über das Netzwerk verteilt sind. Objekte werden dabei als Knoten und Relationen als Kanten repräsentiert. Auf diese Weise dargestellte Inhaltsbereiche bezeichnet man auch als Relationensysteme oder Graphen.

14 6 Der Vorteil dieser Repräsentationsform ist, dass sie gleichzeitig Inhalt und Struktur eines Inhaltsbereichs wiedergibt. Eine Analogie kann dann zwei auf diese Weise beschriebene Systeme miteinander in Beziehung setzen, indem sie deren Graphen strukturell abgleicht (Gentner, 1983): Durch diesen Prozess werden Informationen eines bekannten Basisbereichs auf einen möglicherweise unbekannten Zielbereich abgebildet. Die Korrespondenzen zwischen beiden Inhaltsbereichen fördern außerdem den Übertrag solcher Informationen, die zwar im Basisaber nicht im Zielbereich enthalten sind. Derartige Wissensbestandteile bezeichnet man als Inferenzen und den Übertragungsprozess als analogen Transfer. Wichtig für Abbildung und Transfer ist dabei nur, dass Beziehungen zwischen Objekten in dem einen Inhaltsbereich auch im anderen Inhaltsbereich gelten. Von konkreten Objekteigenschaften kann dagegen abstrahiert werden, weil für die Analogie ohnehin nur die strukturellen Gemeinsamkeiten zwischen beiden Inhaltsbereichen eine Rolle spielen. Solche Abstraktionen können schließlich als Problemlöseschemata gespeichert und für spätere Problemfälle wieder verwendet werden. Ihre Bildung bezeichnet man auch als analoges Lernen. Tabelle 1.1: Bestandteile eines propositionalen Netzwerkes Objekte Objekte stellen die Grundelemente eines propositionalen Netzwerkes dar. Attribute Relationen Attribute sind Prädikate mit nur einem Argument. Es sind einstellige Relationen über Objekten, die die Objekteigenschaften beschreiben. Relationen können Beziehungen zwischen Objekten (Relationen erster Ordnung) oder Beziehungen zwischen Relationen (Relationen höherer Ordnung) beschreiben. Es sind Prädikate mit mehr als einem Argument 1.2 Verschiedene Analogieformen Der Begriff der Analogie fasst verschiedene Subtypen unter einem einheitlichen Klassennamen zusammen. Indurkhya (1992) unterscheidet zwischen Proportionalanalogien, erklärenden Analogien und analogem Problemlösen. Bei allen drei Analogieformen finden eine strukturerhaltende Abbildung zwischen zwei Inhaltsbereichen und der zusätzliche Übertrag von Inferenzen aus dem Basisbereich statt. Erklärende Analogien und analoges Problemlösen fördern außerdem analoge Lernprozesse (vgl. Schmid, Burghardt & Wagner, 2003). Unterschiede zwischen den Analogieformen bestehen vor allem in der Komplexität der abgebildeten Relationensysteme und in der Repräsentationsweise der Inhaltsbereiche. Proportionalanalogien Proportionalanalogien haben im Allgemeinen die Form A:B::C:D. Man liest A ist zu B, wie C zu D. A und B stellen den Basisbereich, C und D den Zielbereich der Proportionalanalogie dar. Die einzelnen Positionen können mit Letter-Strings, geometri-

15 7 schen Figuren oder Konzepten besetzt sein. Will man eine solche Analogie verstehen, muss lediglich eine relevante Beziehung zwischen A und B im Kontext von C und D gefunden werden. Proportionalanalogien bestehen dabei immer nur aus einer Relation zwischen A und B, während bei den anderen Analogieformen meist Systeme von miteinander in Beziehung stehenden Relationen berücksichtigt werden (Weber, 1994). Dementsprechend wird bei Proportionalanalogien auch immer die komplette Struktur vom Basis- in den Zielbereich übertragen, während bei den anderen beiden Analogieformen nur Subgraphen zwischen Basis und Ziel transferiert werden (Schmid, Wirth & Polkehn, 2003). Erklärende Analogien Bei dieser Analogieform wird ein unbekannter Inhaltsbereich über die Beschreibung von Ähnlichkeiten mit einem bekannten Inhaltsbereich erklärt (Gentner, 1983). Dabei werden strukturelle Übereinstimmungen zwischen beiden Inhaltsbereichen genutzt, um bereits bestehendes Wissen über den Basisbereich in den Zielbereich zu übertragen. Dieser Informationstransfer ist zentral für erklärende Analogien und entspricht inhaltlich dem analogen Schließen. Das Rutherfordsche Atommodell ist ein Beispiel für diesen Analogietyp. Mit seiner Hilfe und unserem Wissen über Sonnensysteme können wir dabei schlussfolgern, dass Elektronen den Atomkern umkreisen müssen, wie Planeten die Sonne. Analoges Problemlösen Beim analogen Problemlösen wird die Lösung eines bekannten Problems benutzt, um ein neues strukturähnliches Problem zu bearbeiten (z.b. Anderson & Thompson, 1989). Diese Analogieform spielt in der vorliegenden Untersuchung eine zentrale Rolle. Ihre Mechanismen ähneln im Prinzip sehr stark denen der erklärenden Analogien. Es ist aber zusätzlich zu dem einfachen strukturellen Informationsübertrag zwischen Basis und Ziel eine Anpassung der bekannten Lösungsstrategie auf das aktuelle Problem nötig (Schmid, Burghardt & Wagner, 2003). Auf diese Weise kann analoges Problemlösen beispielsweise eingesetzt werden, um einen neuen Computerprogramm-Code aus einem schon vorhandenen Programm zu entwickeln (Schmid & Wysotzki, 1997). 1.3 Analoges Denken Analogien sind fundamentale Bestandteile menschlicher Kognitionen (Vosniadou & Ortony, 1989). Sie helfen, strukturelle Ähnlichkeiten zwischen verschiedenen Inhaltsbereichen zu erkennen und komplexe Denkprozesse zu vereinfachen. Dabei kann bereits vorhandenes Wissen über einen Sachverhalt genutzt werden, um Schlussfolgerungen über andere, noch unbekannte Sachverhalte abzuleiten (z.b. Gentner, 1989b; Kurtz, Gentner & Gunn, 1999; Rumelhart & Abrahamson, 1973). Auf diesem Weg können auch Problemlösungen zwischen ver-

16 8 schiedenen Inhaltsbereichen transferiert und abstrakte Lösungsstrategien gebildet werden (Gick & Holyoak, 1980, 1983; Keane, 1995; Reeves & Weisberg, 1990). In Kapitel 1.3 werden die theoretischen Grundlagen für diese Mechanismen vorgestellt. Es erklärt außerdem die einzelnen Teilschritte der Analogiebildung und diskutiert dafür notwendige Randbedingungen. Abschließend wird beschrieben, wie analoges Problemlösen einen Lernprozess fördern kann und welche theoretischen Annahmen damit verbunden sind Schlussfolgern mit Analogien Beim analogen Schließen wird ein vertrauter Basisbereich verwendet, um Aussagen über einen weniger vertrauten oder unbekannten Zielbereich abzuleiten. Dazu werden systematische Verbindungen zwischen beiden Inhaltsbereichen genutzt, um neue Strukturen oder Inferenzen im Zielsystem zu erzeugen (Holyoak, 2005). Eine spezielle Form der Inferenzbildung ist dabei die Induktion (Chen & Mo, 2004; Gick & Holyoak, 1983). Sie benutzt Hintergrundwissen, um aus konkreten Basisbeispielen eine generalisierte Gesetzmäßigkeit für einen bestimmten Zielbereich zu bilden. Für solche induktiven Schlussfolgerungen benötigt ein System immer eine Wissensbasis, die alle verfügbaren Informationen speichert und zusätzlich einen Inferenzmechanismus, der aus diesen Informationen plausible Hypothesen über die Zusammenhänge und Gesetzmäßigkeiten im Zielbereich bildet (Schmid, 2006). So entsteht neues, aber zunächst ungesichertes Wissen, dessen Gültigkeit für den Zielbereich in jedem Fall überprüft werden muss Stufen des Analogieprozesses Der Übertrag der relevanten Informationen aus dem Basis- auf den Zielbereich erfolgt dabei in mehreren Schritten (Abbildung 1.1). Man unterscheidet zwischen Abruf, Abbildung, Transfer und Lernen (Anderson & Thompson, 1989; Clement, 1982, 1988, 1989; Gentner, 1989b; Novick, 1988a; Palmer, 1989; Vosniadou & Ortony, 1989). 1. Phase: Repräsentation und Abruf: In der ersten Phase wird eine potenzielle Basis für die Analogiebildung im Gedächtnis ausgewählt. Dazu müssen Basis- und Zielbereich in geeigneter Weise repräsentiert sein. Je mehr sich deren Repräsentationen ähneln, desto besser können auch die nachfolgenden Analogieschritte ausgeführt werden (Faries & Reiser, 1988; Gentner, 1989b). Ein nützlicher Basisbereich wird hauptsächlich auf Grund seiner semantischen und pragmatischen Übereinstimmungen mit dem Zielbereich abgerufen (Holyoak & Koh, 1987; Holyoak & Thagard, 1989b). Mit zunehmender Expertise werden allerdings verstärkt auch strukturelle Informationen für die Auswahl berücksichtigt (Chi, Feltovich & Glaser, 1981).

17 9 2. Phase: Abbildung: Wenn Basis- und Zielbereich in geeigneter Form vorliegen, werden im Abbildungsschritt mögliche Korrespondenzen zwischen deren relationalen Strukturen hergestellt. Man spricht auch von einem Strukturabgleich oder Mapping (Gentner, 1983). Korrespondenzen zwischen Basis und Ziel werden dabei hauptsächlich anhand der strukturellen Eigenschaften der beteiligten Inhaltsbereiche bestimmt (Falkenhainer, Forbus & Gentner, 1986, 1989; Gentner, 1983; Hofstadter & Mitchell, 1988; Winston, 1980). Thagard (2000) konnte allerdings auch den Einfluss semantischer und pragmatischer Informationen auf den Abbildungsprozess nachweisen. Abruf Ziel Abbildung Basis Inferenzen Transfer Lernen Schema Abbildung 1.1: Komponenten des analogen Schließens (nach Holyoak, 2005). 3. Phase: Inferenzbildung und Lösungstransfer: Wenn eine Analogie zum Problemlösen verwendet werden soll, wird in der Phase der Inferenzbildung das lösungsrelevante Wissen vom Basis- auf das Zielproblem transferiert und dort zu Inferenzen angepasst (Gick & Holyoak, 1980; Schmid, Wirth & Polkehn, 2003). Auf diese Weise kann die Zielstruktur effizient um neue Informationen ergänzt werden. Solcher Wissenstransfer erfolgt meist schon implizit im Zuge des Abbildungsprozesses (Kokinov & French, 2003) und wird von strukturellen, semantischen und pragmatischen Mechanismen gesteuert (Holyoak & Thagard, 1989a; Thagard, 2000). In dieser dritten Phase des Analogieprozesses wird auch die Gültigkeit des durch analogen Transfer erzeugten Wissens evaluiert (Holyoak, 1984). 4. Phase: Lernen und Schemainduktion: Einige Autoren gehen davon aus, dass durch analogen Vergleich zusätzlich ein Lernprozess angestoßen wird (Gentner, 1989b; Gentner & Landers, 1985; Holyoak, 1984; Gick & Holyoak, 1983; Holyoak & Thagard, 1989b, Schmid &

18 10 Wysotzki, 1997). Sie nehmen an, dass die gefundenen Korrespondenzen nach der Analogiebildung nicht verloren gehen, sondern in Form eines generalisierten Schemas gespeichert werden können (Gick & Holyoak, 1980, 1983; Holyoak, 1984, 1985). Ein solches Schema repräsentiert dann nur noch die abstrahierten und domainunabhängigen strukturellen Übereinstimmungen aus Basis- und Zielbereich. In dieser Form kann es für weitere analoge Schlüsse oder Problemlösungen verwendet werden Randbedingungen von Analogieprozessen Ähnlichkeiten zwischen zwei Inhaltsbereichen können in vielerlei Hinsicht bestehen. In der Konsequenz können beim analogen Schließen sehr unterschiedliche Informationen berücksichtigt und übertragen werden. Damit der Analogieprozess dennoch einheitlich ablaufen kann, muss er durch Randbedingungen (constraints) gesteuert werden (z.b. Holyoak & Thagard, 1989a; Spellman & Holyoak, 1996). Sie regeln Abruf, Abbildung, Inferenz und Transfer und müssen so beschaffen sein, dass strukturell mögliche und für die Problemlösung inhaltlich relevante Schlussfolgerungen gezogen werden können. Gleichzeitig müssen sie aber auch psychologisch plausibel sein und analoge Denkprozesse in realistischer Weise ermöglichen. Thagard (1988) unterscheidet in diesem Zusammenhang zwischen struktureller Konsistenz, semantischer Ähnlichkeit und pragmatischer Wichtigkeit. Je nach Subprozess oder Analogiemodell werden nur einzelne dieser Randbedingungen oder Kombinationen von ihnen zur Modellierung verwendet. Dabei sind strukturelle Konsistenzen immer notwendige Voraussetzungen für den Abbildungsprozess, die aber durch pragmatische und semantische Informationen unterstützt werden können (z.b. Spellman & Holyoak, 1996). Kapitel stellt die verschiedenen Randbedingungen inhaltlich vor, Kapitel 2 erklärt ihre Bedeutung für die unterschiedlichen Analogiemodelle. Strukturelle Konsistenzen Strukturelle Konsistenzen sind die Grundlage für die Ausbildung einer Analogie (vgl. Gentner, 1983) und werden deshalb auch in allen Analogiemodellen berücksichtigt. Dort steuern sie besonders den Abbildungsprozess. Dabei sind Basis- und Zielbereich strukturell konsistent, wenn entsprechende Objekte so miteinander übereinstimmen, dass auch die Relationen in beiden Bereichen korrespondieren (Gentner, 1983). Wenn die Abbildung einer Relation verträglich mit ihren Argumenten stattfindet, spricht man auch von einer homomorphen Abbildung. Wenn außerdem die Objekte aus dem Basisbereich eineindeutig auf den Zielbereich abgebildet werden können, bezeichnet man zwei in dieser Art übereinstimmende Systeme als isomorph (vgl. Schmid, 2006). Eine weitere wichtige, struktu-

19 11 relle Randbedingung ist das Systematizitätsprinzip (Gentner, 1983). Es bevorzugt Abbildungen großer, kausal zusammenhängender Relationensysteme im Gegensatz zu isolierten Relationen. Semantische Ähnlichkeit Diese Randbedingung erlaubt nur Vergleiche zwischen Objekten und Prädikaten, die in ihrer Bedeutung ähnlich sind. Sie findet sich besonders in Modellen, die den analogen Abruf aus dem Gedächtnis simulieren. Es konnte nämlich in mehreren Untersuchungen gezeigt werden, dass eine größere semantische Ähnlichkeit zwischen zwei Systemen zu einem leichteren Auffinden eines analogen Zusammenhangs führt (Gentner & Toupin, 1986; Holyoak & Koh, 1987; Keane, 1988; Ross, 1987; Winston, 1980). Nach der Multi-Constraint-Theorie (Holyoak & Thagard, 1989a) unterstützen semantische Ähnlichkeiten aber auch den Abbildungs- und Transferprozess. Pragmatische Wichtigkeit In vielen Analogiemodellen werden auch pragmatische Informationen - wie der Problemkontext oder die Ziele des Schlussfolgernden - verwendet, um die Analogiebildung zu steuern (Holyoak, 1985; Kokinov, 1990). Solche Randbedingungen werden vor allem im Kontext von Problemlöseszenarien benutzt. Man nimmt dabei an, dass durch die Problemfokussierung nur solche Aspekte des Basisbereichs berücksichtigt werden, die für eine effiziente Lösung notwendig sind. Wichtig ist dafür das Entdecken kausaler oder funktionaler Zusammenhänge (Anderson & Thompson, 1989; Carbonell, 1984, 1986; Hesse, 1966; Keane, 1988; Kedar-Cabelli, 1985; Seifert, 1988; Winston, 1980). Was die Bedeutung pragmatischer Randbedingungen in Analogiemodellen betrifft, gehen die theoretischen Annahmen stark auseinander. Während Holyoak und Thagard (1989a) annehmen, dass pragmatische Randbedingungen den Abbildungsprozess beeinflussen, vermutet Gentner (1989b), dass höhere Pläne und Ziele eher für die Auswahl oder die Anwendung einer geeigneten Analogie eine Rolle spielen, als für die eigentliche analoge Abbildung Problemlösen mit Analogien Ein Problem entsteht immer dann, wenn ein Individuum ein bestimmtes Ziel erreichen möchte, ihm aber entweder die geeigneten Mittel fehlen oder es nicht weiß, wie es die gegebenen Mittel zum Erreichen des Ziels miteinander kombinieren soll (Schmid, 2006): Formal wird es durch einen Anfangszustand, ein Problemlöseziel und eine Menge von Problemlöseoperatoren beschrieben. Operatoren repräsentieren dabei die Handlungsmöglichkeiten eines Problemlösers in allgemeiner oder schematischer Form. Für einen konkreten Problemfall werden dann Instanzen von diesen Operatoren gebildet, die für die Problemlösung auf geeignete Weise

20 12 miteinander kombiniert werden müssen. Die Schwierigkeit besteht darin, dass in einem bestimmten Problemzustand immer nur eine bestimmte Teilmenge von Operatoren angewendet werden kann. Ein Problemlöser gelangt also nur dann erfolgreich vom Anfangszustand in einen gewünschten Zielzustand, wenn er die richtigen Operatoren zur richtigen Zeit auswählt und in geeigneter Weise aneinander reiht. Dafür braucht er zum einen Informationen über konkrete, inhaltliche Problemdetails und zum anderen abstrakte Informationen über das zu Grunde liegende Lösungsprinzip. Es gibt grundsätzlich zwei Möglichkeiten, wie solche Informationen aus konkreten Problemfällen abgeleitet werden können (vgl. Schmid, 2006): Man unterscheidet zwischen Problemlösen durch Suche im Problemraum (Newell & Simon, 1972) und analogem Problemlösen (z.b. Gick & Holyoak, 1980; Reeves & Weisberg, 1990). Beim Problemlösen durch Suche im Problemraum kann der Problemlöser auf Allgemeinwissen zurückgreifen und Heuristiken benutzen, mit deren Hilfe er den Problemlöseprozess in Richtung des Zielzustandes lenken kann. Ein Überblick über mögliche Heuristiken für die Suche im Problemraum findet sich bei Schmid (2006). So werden in einem bestimmten Problemzustand aus einer Menge möglicher Operatoren die strategisch günstigsten ausgewählt (Schmid, 2006): Sie entscheiden, ob ein Problem gelöst werden kann, ob der Problemlöser die optimale Lösung findet und wie schnell er sie findet. Auf diese Weise kann es passieren, dass die Suche nach einer geeigneten Problemlösung nur über Umwege zum Ziel gelangt und somit ineffizient ist (Schmid, 2006). Wenn ein Problem allerdings strukturelle Ähnlichkeiten mit bereits gelösten Problemfällen aufweist, kann eine aufwändige Suche im Problemraum umgangen und stattdessen analoges Problemlösen eingesetzt werden (Schmid, 2006): Bei dieser Lösungsstrategie werden zunächst der zu bearbeitende Problemfall mit bereits gelösten Problemepisoden im Gedächtnis strukturell abgeglichen und auf der Basis der ermittelten strukturellen Korrespondenzen relevante Informationen auf das noch ungelöste Zielproblem übertragen (Carbonell, 1986). Durch die Verwendung von Analogien können so zum einen schnell und effizient Probleme im Zielbereich gelöst und zum anderen spezielles Wissen über einen zuvor unbekannten Inhaltsbereich erworben werden. Welche Informationen im Einzelnen transferiert werden, wird je nach Modell über die Verwendung von strukturellen, pragmatischen oder semantischen Randbedingungen gesteuert. Der Mechanismus des analogen Problemlösens ähnelt dabei sehr stark dem analogen Schließen und läuft in den gleichen vier Teilschritten ab (vgl. Kapitel ). Der einzige Unterschied besteht darin, dass beim analogen Problemlösen die Informationen nicht nur übertragen, sondern in einem weiteren Schritt noch an den neuen Inhaltsbereich angepasst werden müssen (Schmid, Burghardt & Wagner, 2003).

21 Lernen mit Analogien Beim analogen Problemlösen werden konkrete Informationen für die aktuelle Problemlösung aus einem bekannten Basisbereich abgeleitet und an einen neuen, strukturell ähnlichen Zielbereich angepasst (Schmid, Burghardt & Wagner, 2003). Auf diese Weise kann nicht nur eine schnelle und effiziente Problemlösung erreicht, sondern auch noch ein Lernprozess gefördert werden. Der Begriff des analogen Lernens bezeichnet dabei die Erweiterung der allgemeinen Problemlösefähigkeiten eines Individuums auf der Basis struktureller Vergleiche. Dabei gibt es zwei unterschiedliche theoretische Annahmen darüber, wie ein solcher Lerneffekt zustande kommen kann. Schematheorien gehen davon aus, dass beim analogen Vergleich konkreter Beispielfälle (Catrambone & Holyoak, 1989) oder beim analogen Problemlösen (Holyoak, 1984, 1985; Holyoak & Thagard, 1989b) lediglich die strukturellen Korrespondenzen zwischen zwei Inhaltsbereichen erhalten bleiben, während über konkrete Objekteigenschaften generalisiert wird (Novick & Holyoak, 1991; Reeves & Weisberg, 1994; Ross & Kennedy, 1990). Dadurch entstehen abstrakte Schemata, die nur noch Informationen über das gemeinsame Lösungsprinzip der verglichenen Problemfälle enthalten und im Gedächtnis gespeichert werden können (Novick & Holyoak, 1991; Reeves & Weisberg, 1994; Ross & Kennedy, 1990). Für die Lösung weiterer, strukturähnlicher Probleme muss dann bloß ein entsprechendes Schema instantiiert und dessen Lösungsprinzip auf den konkreten Problemfall übertragen werden (z.b. Anderson & Thompson, 1989; Gick & Holyoak, 1983; Ross & Kennedy, 1990). Diese Form der Problemlösung bezeichnet man deshalb auch als schemabasiertes Schließen (reasoning by a schema; Holyoak, 1984; Winston, 1980). Ihr Vorteil besteht vor allem darin, dass auf diese Weise erworbenes Wissen immer wieder unabhängig vom Kontext zur Lösung verschiedenster Problemfälle gleichen Typs verwendet werden kann. Beim fallbasierten Schließen (case-based-reasoning; Kolodner, 1993) geht man dagegen davon aus, dass Analogieschlüsse immer wieder von Neuem direkt aus dem Basisbereich in den Zielbereich (Reed, 1989) erfolgen, ohne dass ein Schema induziert wird. In diesem Fall profitiert der Problemlöser dadurch, dass er einzelne, bereits gelöste Problemepisoden in konkreter Form im Gedächtnis speichern und an neue Problemfälle anpassen kann. Dabei ist das Lösungsprinzip aber nicht explizit repräsentiert, sondern muss bei jeder Problemlösung erneut aus konkreten Problemfällen abgeleitet werden. Deshalb spricht man hier auch von analogiebasiertem Schließen (reasoning by an analog, Holyoak, 1984; Winston, 1980).

22 14 Beim schemabasierten Schließen werden letztlich abstrakte Schemata mit konkreten Beispielen abgeglichen, während beim analogiebasierten Schließen zwei konkrete Beispiele miteinander in Beziehung gesetzt werden. Dadurch ist schemabasiertes Schlussfolgern insgesamt wesentlich einfacher und effizienter als analogiebasiertes Schlussfolgern (Gick & Holyoak, 1983). Beim Vergleich konkreter Beispielfälle müssen stets aufs Neue korrespondierende Strukturen zwischen Basis- und Zielproblem identifiziert und daraus Problemlösungen abgeleitet werden. Die erworbenen strukturellen Informationen finden aber nach der Problembearbeitung keine Berücksichtigung mehr. In einem Schema wird die aus früheren Problemlöseepisoden abstrahierte Lösungsstrategie dagegen in expliziter Form repräsentiert und gespeichert. Sie muss für die Problemlösung nur noch auf das Zielproblem angewendet werden (Holyoak, 2005). Ein immer wieder aufs Neue stattfindender Generalisierungsprozess erübrigt sich somit. Die Speicherung abstrakter Schemata ist auch aus kognitionspsychologischer Perspektive wesentlich plausibler. Um mit der Umwelt dynamisch interagieren zu können, muss sich das menschliche Gedächtnis nämlich immer wieder schnell und flexibel an die unterschiedlichsten Situationen und Kontexte anpassen. Das geht aber nur dann, wenn Wissen in abstrahierter und nicht in konkreter, inhaltlich gebundener Form im Gedächtnis hinterlegt ist (Bartlett, 1932). In der Konsequenz sind nur die theoretischen Annahmen psychologisch glaubwürdig, die einen Lernprozess im Sinne einer Schemainduktion oder Strukturabstraktion vorsehen. Wenn in Zukunft also die Rede von analogem Lernen sein wird, ist damit immer die Bildung abstrakter Problemlöseschemata aus konkreten Problemfällen und deren Speicherung im Gedächtnis zu assoziieren.

23 15 Kapitel 2 Analogiemodelle Analogiemodelle werden hauptsächlich verwendet, um theoretische Annahmen über analoges Schließen, Problemlösen und Lernen empirisch testen und deren psychologische Plausibilität prüfen zu können. Vor dem eigentlichen Untersuchungsbeginn werden dazu auf der Basis der Analogietheorien Computersimulationen entworfen, die einzelne Subkomponenten oder den gesamten Analogieprozess in verschiedenen Problemlöseszenarien modellieren können. Dieselben Problemstellungen werden dann auch von Versuchspersonen bearbeitet, so dass letztlich ein Vergleich der Lösungsprozesse und Ergebnisse der Simulation mit denen der Versuchspersonen möglich ist. Wenn ein Analogiemodell die Problemszenarien in gleicher Weise bearbeiten kann wie die Versuchspersonen, ist es psychologisch plausibel. In der Fachliteratur wird dabei eine Vielzahl unterschiedlicher Analogiemodelle beschrieben, die auf einem Kontinuum von abstrakt bis konkret angeordnet werden können 2. Sie unterscheiden sich hauptsächlich in der Repräsentationsweise der zu vergleichenden Inhaltsbereiche und im Abstraktionsgrad der verwendeten Strukturen (Reeves & Weisberg, 1994). Für die vorliegende Arbeit sind dabei nur die abstrakten Analogieansätze interessant. Diese betonen die Bedeutung struktureller oder schematischer Informationen beim analogen Transfer und lassen inhaltliche oder oberflächliche Gemeinsamkeiten weitgehend außer Acht. Einzig der Problemkontext und die mit der Analogiebildung verbundenen Ziele spielen in einigen Ansätzen eine Rolle. Kapitel 2 bietet einen Überblick über gängige Analogiemodelle und ihre theoretischen Grundlagen. Im Vorfeld wird dabei geklärt, welche Klassifikationssysteme sich für solche Modellierungen eignen und wo deren Grenzen liegen. Eine Möglichkeit ist z.b. eine Kategorisierung anhand der Architekturen oder Konstruktionsprinzipien der Analogiemodelle (Kapitel 2.1). Es 2 Ein zusammenfassender Überblick findet sich bei Kokinov und French (2003).

24 16 ist aber auch denkbar, sie nach Art und Anzahl der während des Transferprozesses übertragenen Informationen zu systematisieren. Dazu werden in Kapitel 2.2 die Kategorien soviel wie möglich und soviel wie nötig theoretisch eingeführt. Zusätzlich zu den Klassifikationsinstrumenten stellt Kapitel 2 außerdem ein Beurteilungssystem vor, mit dessen Hilfe die psychologische Plausibilität von Analogiemodellen auf verschiedenen Dimensionen beurteilt werden kann. Nach diesem Bewertungssystem werden die Analogiemodelle in Kapitel 2.3 im Einzelnen vorgestellt. In Kapitel 2.4 werden sie dann in die soviel wie möglich - und soviel wie nötig Kategorien eingeordnet. 2.1 Symbolische, konnektionistische und hybride Analogiemodelle Will man Analogiemodelle auf Grund ihrer Architekturen klassifizieren, muss man grundsätzlich drei Gruppen unterscheiden: symbolische, konnektionistische und hybride Analogiemodelle (vgl. Kokinov & French, 2003; Weber, 1994). Die wesentlichen Klassenunterschiede werden dabei im Folgenden kurz dargestellt und einige Vertreter der einzelnen Gruppen genannt. Tabelle 2.1 bietet dann einen zusammenfassenden Überblick über die Kategorisierung der Analogiemodelle nach den zu Grunde liegenden Architekturen. In symbolischen Analogiemodellen werden Wissensstrukturen explizit durch lokale, symbolische Repräsentationen beschrieben (Vosniadou & Ortony, 1989) und im Prädikatenkalkül dargestellt. Dabei sind Basis- und Zielbereich als Graphen konstruiert, die aus Objekten, Attributen und Relationen (vgl. Tabelle 1.1) bestehen. Der Vorteil symbolischer Analogiemodelle liegt dabei darin, dass komplexe syntaktische Strukturen nicht über komplizierte Algorithmen, sondern direkt über partiellen Graphenabgleich miteinander verglichen werden können (Gentner, 1983). Je nach Modell steuern strukturelle, semantische und pragmatische Randbedingungen diesen Abbildungsvorgang. Problematisch ist dabei allerdings, nach welchen Regeln Informationen aus der Alltagssprache in Prädikatenlogik übersetzt werden sollen und wie Relationen berücksichtigt werden können, die ein hohes Maß an Ähnlichkeit in Basis und Ziel aufweisen, aber nicht völlig identisch sind (Kokinov & French, 2003). Ein klassisches symbolisches Analogiemodell ist beispielsweise der Structure Mapping Engine SME (Falkenhainer et al., 1986, 1989). Auch die Purpose-directed-Analogy (Kedar-Cabelli, 1985, 1988a, 1988b) und die Analogy via abstraction (Schmid, Burghardt & Wagner, 2003; Weller & Schmid, 2006) lassen sich in diese Kategorie einordnen.

25 17 Konnektionistische Ansätze gehen im Gegenzug davon aus, dass Repräsentationen nicht lokalisiert sind und auch nicht symbolisch modelliert werden können. Objekte, Relationen und Episoden werden hier als überlappende Aktivierungsmuster in neuronalen Netzen dargestellt, die sich aus einer großen Anzahl sehr simpler, neuronenartiger Elemente oder Knoten zusammensetzen (Weber, 1994). Solche verteilten Repräsentationen können strukturelle, semantische und pragmatische Ähnlichkeiten psychologisch plausibel messen und gleichzeitig auch Relationen berücksichtigen, die nicht völlig identisch in Basis und Ziel sein müssen (Kokinov & French, 2003). Grundsätzlich gibt es zwei Möglichkeiten, wie in einem solchen Netzwerk strukturelle Ähnlichkeiten zwischen Basis- und Zielbereich identifiziert werden können. Die meisten Analogiemodelle verwenden dazu das Prinzip der synchronen Oszillierung (Hummel & Holyoak, 1997, 2003; Shastri & Ajjanagadde, 1993). Es zeigt die Ähnlichkeit von zwei Propositionen durch eine synchrone Feuerungsrate der sie kodierenden Netzwerkknoten an. Eine zweite Möglichkeit, relationales Wissen in konnektionistischen Netzen zu repräsentieren, stellen Tensorprodukte (Smolensky, 1990) dar. Hier wird jedes Argument und jede Relation durch einen Vektor beschrieben. Darauf aufbauend können relationale Verbindung zwischen zwei oder mehreren Argumenten durch das Tensorprodukt zwischen ihren Vektoren repräsentiert werden. Kokinov & French (2003) ordnen die Modelle ACME (Holyoak & Thagard, 1989b), LISA (Hummel & Holyoak, 1997, 2003) und STAR (Halford et al., 1994; Wilson et al., 2001) in die Kategorie der konnektionistischen Analogiemodelle ein. Diese Einteilung ist allerdings nicht unproblematisch, wie später in Kapitel 2.3 deutlich wird 3. Bei den meisten konnektionistischen Modellen erfolgen die Eingaben nämlich zunächst in symbolischer Form und werden erst dann in eine konnektionistische Netzwerkarchitektur umgewandelt. Dies widerspricht zum einen der anfänglichen Annahme, dass Repräsentationen nicht symbolisch modelliert werden können. Zum anderen wird eine klare Abgrenzung zur dritten Architekturklasse der hybriden Modelle schwierig, die ebenfalls symbolische und konnektionistische Mechanismen kombiniert. In hybriden Analogiemodellen kommen kognitive Prozesse durch die Interaktion einer Vielzahl von simplen Netzwerkeinheiten (Agenten) zustande, die über lokale Verbindungen miteinander kommunizieren können. Solche Modelle werden häufig auch als Multiagentensysteme bezeichnet. Analoge Abbildungen werden dabei durch einen Constraint-Satisfaction- Algorithmus (Rumelhart, Smolensky, McClelland & Hinton, 1986) gesteuert, der im ersten 3 Einen Überblick über die Problematik bietet Weber (1994). Die Schwierigkeit ist, dass die Begrifflichkeiten nicht einheitlich verwendet werden und die meisten als konnektionistisch bezeichneten Analogiemodelle tatsächlich hybrid sind, da sie symbolische Strukturen als Eingabeparameter benötigen.

26 18 Schritt wieder symbolische Eingabeparameter in ein konnektionistisches Abbildungsnetzwerk umwandelt. In einem solchen System kodiert jeder Knoten eine spezifische Hypothese über mögliche Elementabbildungen zwischen Basis und Ziel. Im zweiten Schritt berechnet der Algorithmus anhand der Aktivierungsmuster dieser Hypothesenknoten, welche Korrespondenzen eine optimale Abbildung ermöglichen. Es werden die Hypothesen ausgewählt, deren Knoten die größte Aktivierung erfahren. Im dritten Schritt können über die so ermittelten strukturellen Übereinstimmungen Inferenzen gebildet und Informationen übertragen werden. Tabelle 2.1: Kategorisierung der Analogiemodelle nach der Architektur Symbolische Analogiemodelle Konnektionistische Analogiemodelle Hybride Analogiemodelle SME (ACME) Copycat Purpose-directed-analogy (LISA) AMBR Analogy via Abstraction (STAR) ASTRA ACME LISA STAR Kokinov & French (2003) zählen Copycat (Hofstadter & Mitchell, 1994), AMBR (Kokinov, 1988, 1994a) und ASTRA (Eskridge, 1994) zu den hybriden Analogiemodellen. Weil aber auch ACME (Holyoak & Thagard, 1989b), LISA (Hummel & Holyoak, 1997, 2003) und STAR (Halford et al., 1994; Wilson, Halford, Gray & Phillips, 2001) nicht nur konnektionistische Mechanismen realisieren, sondern auch symbolische Elemente enthalten, sollten auch sie dieser Gruppe zugeordnet werden. 2.2 Soviel wie möglich oder soviel wie nötig eine neue Möglichkeit der Kategorisierung Kapitel 2.2 stellt eine neue Form der Klassifizierung vor, wonach die Analogiemodelle in soviel wie möglich - oder soviel wie nötig - Kategorien einordnet werden. Als Klassifizierungskriterium dienen dabei Art und Anzahl, der beim Abbildungs- und Transferprozess berücksichtigten Informationen und die dazu verwendeten Randbedingungen. Eine solche Einteilung ist vor allem deshalb sinnvoll, weil die theoretischen Annahmen über die Einflussfaktoren auf analoge Abbildungs- und Transferprozesse weit auseinander gehen und sich darauf basierende Analogiemodelle in der Konsequenz sehr stark in den umgesetzten Transferprinzipien unterscheiden. Während einige Wissenschaftler dabei einen strengen strukturellen Standpunkt vertreten (z.b. Gentner, 1983), betonen andere eine zusätzliche Beteiligung semantischer oder pragmatischer Komponenten (Holyoak & Thagard, 1989a; Kedar-Cabelli, 1988a, 1988b; Eskridge, 1989a, 1989b, Hofstadter & Mitchell, 1994; Kokinov, 1994a). In der Theorie struktureller Vergleichsprozesse (Gentner, 1983) werden Informationen beispielswei-

27 19 se nur anhand der gemeinsamen Struktur vom Basis- in den Zielbereich übertragen. Die zentrale Steuerung des Abbildungsprozesses übernimmt dabei das Systematizitätsprinzip. Es sorgt dafür, dass soviel kausal zusammenhängende Struktur wie möglich transferiert wird. Nach einem ganz ähnlichen Prinzip funktioniert auch der Abbildungsprozess im analogen Abstraktionsmodell (Schmid, Burghardt & Wagner, 2003; Weller & Schmid, 2006). Auch hier wird der größte gemeinsame Subgraph (Jain & Wysotzki, 2002) zwischen Basis und Ziel nur anhand struktureller Übereinstimmungen ermittelt. Theorien, die nur die Struktur der Inhaltsbereiche berücksichtigen, würden also annehmen, dass sogar in einem Problemlösekontext stets so viele Informationen wie möglich ins Ziel übertragen werden und dass nicht aus pragmatischen Gründen nur die für die Problemlösung notwendigen Strukturen transferiert werden. Solche Modelle werden deshalb den soviel wie möglich - Theorien zugeordnet. In Multi-Constraint-Ansätzen (Holyoak & Thagard, 1989a) wird der Abbildungsprozess dagegen durch eine Interaktion aus syntaktischen, semantischen und pragmatischen Randbedingungen gesteuert. Holyoak (1985) betont, dass nicht nur die Ähnlichkeit der Elemente und eine korrespondierende Struktur wichtig für die Analogiebildung sind, sondern dass auch die Ziele dessen, der die Analogie ausbildet einen zentralen Einfluss auf die Abbildung haben. Kedar-Cabelli (1985, 1988a, 1988b) unterscheidet außerdem zwischen verschiedenen Kontexten, innerhalb derer eine Analogiebildung stattfinden kann. Wird die Analogie zur Unterstützung eines Lernprozesses benutzt, wird versucht, soviel Information wie möglich zu transferieren. Soll die Analogie dagegen Problemlöseprozesse unterstützen, so wird nur der Inhalt transferiert, der auch tatsächlich für die Problemlösung notwendig ist. Modelle, die in einem Problemlösekontext eine solche pragmatische Komponente berücksichtigen, werden deshalb in die soviel wie nötig - Gruppe eingeordnet. Empirische Belege gibt es dabei sowohl für die soviel wie möglich - Kategorie (z.b. Clement & Gentner, 1991; Markman & Gentner, 1990; Ratterman & Gentner, 1987) als auch für die soviel wie nötig -Kategorie (z.b. Gick & Holyoak, 1980; Spellman & Holyoak, 1996; Thagard, 2000). Das Ziel analoger Simulationsversuche sollte aber die Realisierung eines einheitlichen Abbildungs- und Transferprinzips in allen Analogiemodellen sein. Welche der beiden Annahmen dabei letztlich plausibler ist, kann nur entschieden werden, wenn beide Theorien in einem Problemlöseszenario direkt experimentell gegenübergestellt werden. Diesen Beitrag zur Forschung versucht die vorliegende Arbeit zu leisten.

28 Analogiemodelle im Überblick Mit Analogiemodellen sollten analoge Denkprozesse beim Menschen möglichst vollständig und realistisch simuliert werden können (Kokinov, 1998; Kokinov & Petrov, 2001). Will man dieser Forderung nachkommen, macht es Sinn, sich bei der Konstruktion der Modelle an der menschlichen Gedächtnisarchitektur zu orientieren (vgl. Atkinson & Shiffrin, 1968). Daraus kann man ableiten, welche Komponenten in einem voll funktionsfähigen Modell enthalten sein müssen, wie sie repräsentiert sein sollten und in welcher Weise sie zusammenarbeiten. Um mit der Umwelt interagieren und Informationen aufnehmen und repräsentieren zu können, besitzt das menschliche Gehirn rezeptive Strukturen, die eine Schnittstelle zwischen Gedächtnis und Umgebung darstellen. Ein realistisches Analogiemodell muss demnach in der Lage sein, Basis- und Zielbereich selbständig enkodieren und wiedergeben zu können. Entsprechende Informationen sollten nicht von Seiten des Programmierers eingegeben werden müssen. Damit ein System Analogien bilden kann, braucht es außerdem eine zentrale Verarbeitungsinstanz, die die Funktion des menschlichen Arbeitsgedächtnisses übernehmen kann. Sie regelt den Abruf geeigneter Basisanaloga, führt strukturerhaltende Abbildungen zwischen Basis und Ziel aus und bildet Inferenzen. Ein realitätsnahes Analogiemodell muss dabei auch die Kapazitätsbeschränkung des menschlichen Arbeitsgedächtnisses berücksichtigen können. Das bedeutet, dass der zentrale Prozessor des Systems nicht mehr als 5 bis 9 Einheiten (chunks) gleichzeitig verarbeiten sollte (Miller, 1956). Zuletzt benötigt das Modell noch eine dem Langzeitgedächtnis äquivalente Speicherinstanz, in der die Ergebnisse von kognitiven Verarbeitungsprozessen und das Faktenwissen des Systems abgelegt werden können. Auf diese Struktur muss ein flexibler Zugriff möglich sein, damit geeignetes Basiswissen für die Problemlösung jeder Zeit abgerufen werden kann. Dabei sollte auch berücksichtigt werden, dass das menschliche Gedächtnis als Schemagedächtnis zu verstehen ist (Bartlett, 1932). Es speichert Problemepisoden nicht in konkreter Form, sondern generalisiert über einzelne Problemfälle und bildet so abstrakte Lösungsschemata. Damit auch ein Analogiemodell solche Gedächtnisinhalte erzeugen kann, muss es einen Lernmechanismus besitzen, der Abstraktionen aus analogen Abbildungen konstruieren kann. Dabei ist anzunehmen, dass solche Generalisierungsprozesse als Seiteneffekte automatisch während der Problembearbeitung stattfinden, weshalb ihre Modellierung auch mit dem Abbildungsmechanismus kombiniert sein sollte (Weller & Schmid, 2006). Kokinov und Petrov (2001) fordern von einem realistischen Analogiemodell außerdem eine integrative und vollständige Modellierung aller vier analogen Teilschritte (Abruf, Abbildung,

29 21 Transfer und Lernen). Man unterscheidet in diesem Zusammenhang zwischen seriellen und parallelen Architekturen (vgl. Kokinov, 1998). In seriellen Modellen werden die einzelnen Subprozesse der Reihe nach abgearbeitet und nehmen keinen Einfluss aufeinander. Ein solcher Mechanismus überlastet zwar die Kapazitäten des zentralen Prozessors nicht, er ist aber psychologisch unplausibel, da das menschliche Gedächtnis Informationen stets parallel verarbeitet (Hummel & Holyoak, 1997). In parallelen Modellarchitekturen wird deshalb versucht, die Interaktion zwischen den einzelnen Teilschritten zu berücksichtigen. Darauf basierende Simulationen lassen die Analogiesubprozesse nicht nacheinander ablaufen, sondern gleichzeitig. Hier werden allerdings spezielle Mechanismen benötigt, die dafür sorgen, dass die Kapazität des zentralen Prozessors nicht überlastet wird. Tabelle 2.2: Beurteilungsraster für Analogiemodelle Kategorisierung mögliche Realisierung Analogietyp Subprozesse Architektur Abbildung und Transfer Lernen Psychologische Plausibilität Ergänzungen Konstruktionsprinzip Bearbeitung der Subprozesse Steuerung Randbedingungen Transferprinzip Berücksichtigung von Lernen Speicherung Zeitpunkt Kapazitätsbeschränkungen Eingabe von Basis- und Zielbereich sonstiges Proportionalanalogien, erklärende Analogien, analoges Problemlösen Abruf, Abbildung, Transfer, Lernen symbolisch, konnektionistisch, hybrid seriell, parallel Heuristiken, probabilistische Mechanismen, Aktivierungsstärke strukturell, pragmatisch, semantisch soviel wie möglich, soviel wie nötig ja, nein konkret, abstrakt als Seiteneffekt des analogen Problemlösens, im Anschluss an den Abbildungsprozess berücksichtigt, nicht berücksichtigt von extern eingegeben, flexible Konstruktion und Re-Repräsentation Besonderheiten des Modells Zusatzmodelle, um fehlende Subprozesse modellieren zu können Auf der Basis dieser Überlegungen kann nun die Güte, Vollständigkeit und psychologische Plausibilität von Analogiemodellen beurteilt werden. Tabelle 2.2 stellt dazu die einzelnen Bewertungspunkte und mögliche Realisierungen davon in Analogiemodellen dar. Zusätzlich wird hier noch berücksichtigt, welche Randbedingungen den Abbildungsprozess steuern, welche architektonischen Konstruktionsprinzipien verwendet werden und welche Analogieformen mit dem jeweiligen Modell simuliert werden können. Außerdem werden verschiedene Steuerungsmechanismen für den Abbildungsprozess genannt. Nach diesem Beurteilungssystem wird im Folgenden jedes Analogiemodell beschrieben. Alle vorgestellten Modellierungen

30 22 werden dann zum Abschluss von Kapitel 2 in den Tabellen 2.4 und 2.5 zusammengefasst. Bei der Beschreibung der Analogiemodelle liegt der Fokus auf der architektonischen Umsetzung der Simulationen und den theoretischen Annahmen über Abbildungs-, Transfer- und Lernprozess. Einzelne Implementierungsdetails oder die Modellierung des Abrufprozesses werden nicht dargestellt, da sie für die Zielsetzungen der vorliegenden Arbeit irrelevant sind SME Dem SME (Structure-Mapping-Engine, Falkenhainer et al., 1986, 1989) liegt die strukturelle Vergleichstheorie SMT (Structure-Mapping-Theory, Gentner, 1983) zu Grunde. Er kann erklärende Analogien und analoges Problemlösen simulieren. Die Teilschritte Abruf, Abbildung, Transfer und Lernen werden zwar in der SMT theoretisch beschrieben, SME selbst implementiert aber nur Abbildung und Transfer. Architektur Der SME gehört zu den symbolischen Analogiemodellen. Basis- und Zielbereich werden dabei als propositionale Netzwerke repräsentiert, die aus Relationen und den dazugehörigen Argumenten aufgebaut sind (vgl. Kapitel 1.1). Jedes Argument wird dazu durch einen Knoten im Netzwerk symbolisiert, während die relationalen Verbindungen zwischen ihnen als Kanten dargestellt werden. Auf diese Weise entstehen Relationensysteme oder Graphen, die einen Inhaltsbereich inhaltlich und strukturell wiedergeben. Auf der Basis dieser Repräsentationen arbeitet der SME dann die analogen Teilprozesse Abbildung und Transfer nacheinander ab. Abbildung und Transfer Grundlegend für die Theorie des Strukturvergleichs ist die Annahme, dass während des Analogieprozesses eine Strukturabbildung aus einem bekannten Basisbereich auf einen unbekannten Zielbereich erfolgt. Dabei wird davon ausgegangen, dass Beziehungen zwischen Objekten in der Basis auch im Zielbereich gelten, wohingegen von Objekteigenschaften abstrahiert wird. Der Abbildungsprozess selbst wird beim SME nur von strukturellen Heuristiken gesteuert und als partielles Abgleichen der Basis- und Zielgraphen realisiert. Semantische und pragmatische Randbedingungen werden für das Auffinden von Korrespondenzen nicht berücksichtigt. Das für die vorliegende Untersuchung wichtigste strukturelle Kriterium ist dabei das Systematizitätsprinzip 4. Demnach werden solche Informationen bei der Abbildung bevorzugt, die über Relationen höherer Ordnung miteinander verbunden sind, so dass große relationale Gefüge eher als isolierte Relationen übertragen werden. 4 Ein Überblick über weitere strukturelle Randbedingungen findet sich bei Weber (1994).

31 23 Der Transfer relevanter Informationen aus dem Basis- auf den Zielbereich erfolgt dann im Anschluss an den Abbildungsprozess anhand der ermittelten strukturellen Korrespondenzen. Beim SME können neben den direkt strukturell abgeglichen Relationen über das Systematizitätsprinzip auch noch solche Informationen transferiert werden, die zwar im Basisbereich vorhanden sind, aber im Zielbereich bislang fehlen. Es wird angenommen, dass auch sie im Zielbereich vorhanden sein müssen, wenn sie strukturell mit bereits abgebildeten Relationen höherer Ordnung verbunden sind. Solche über das Systematizitätsprinzip übertragenen Relationen bezeichnet man als Kandidateninferenzen. Mit ihrer Hilfe können also auch Informationen in den Zielbereich transferiert werden, die nicht direkt während des Abbildungsprozesses angesprochen wurden. Auf diese Weise kann soviel strukturelle Information wie möglich beim Transferprozess berücksichtigt werden. Der SME muss deshalb in die soviel wie möglich -Kategorie eingeordnet werden. Lernen In der SMT wird Lernen als Subkomponente des Analogieprozesses theoretisch angenommen. Es wird dabei nicht als Seiteneffekt beim analogen Problemlösen realisiert, sondern findet als eigenständiger Prozess erst im Anschluss an den Problemlösevorgang statt. Lernen bedeutet hier die Abstraktion eines gemeinsamen Lösungsprinzips. Gentner (1989b) spricht in dem Zusammenhang auch von der Extrahierung der Tiefenstruktur eines Problems: Dabei wird über spezielle Objektattribute und isolierte Relationen abstrahiert. Das generalisierte Schema wird dann in abstrakter Form im Langzeitgedächtnis gespeichert und steht für spätere Problemlösungen zur Verfügung. Eine solche Lernkomponente wird aber nur theoretisch angenommen und im SME nicht implementiert (Reeves & Weisberg, 1994). Psychologische Plausibilität Der SME ist als Analogiemodell in mehreren Punkten psychologisch unplausibel. Zum einen kann er geeignete Basisanaloga aus dem Gedächtnis nicht selbständig abrufen. Die zu bearbeitenden Inhaltsbereiche müssen dem System also stets explizit in Form von Prädikaten und Objekten eingegeben werden. Zum anderen werden die einzelnen analogen Teilprozesse seriell abgearbeitet, so dass sie sich nicht gegenseitig beeinflussen können. Eine Berücksichtigung der begrenzten Gedächtniskapazitäten ist aufgrund des seriellen Algorithmus nicht nötig. Ergänzungen des SME Der SME kann nur den analogen Abbildungs- und Transferprozess modellieren, aber keine für die Analogiebildung geeigneten Basisbereiche abrufen. Die Forschergruppe um Gentner entwickelte deshalb ein weiteres Modell, das ähnlichkeitsbasierte Abrufprozesse aus dem Langzeitgedächtnis simulieren und mit dem SME kombinieren kann:

32 24 MAC/FAC ( Many Are Called but Few Are Chosen, Forbus, Gentner & Law, 1995). Dieses Modell berücksichtigt, dass der Abruf relevanter Analoga aus dem Gedächtnis hauptsächlich von semantischen Informationen gesteuert wird. Frühere Episoden werden sowohl als detaillierte Repräsentationen im Prädikatenkalkül, als auch als abstrakte Inhaltsvektoren im Langzeitgedächtnis gespeichert (Kokinov & French, 2003). Für die Auswahl geeigneter Fälle benötigt MAC/FAC einen zweistufigen Prozess: Mit einem einfach berechenbaren Filtermechanismus (MAC-Stufe) wird zunächst eine Teilmenge möglicher Kandidaten aus den vektoriellen Repräsentationen ausgewählt. Um abzuschätzen, wie gut zwei Strukturen zusammenpassen, wird dazu das Skalarprodukt ihrer Inhaltsvektoren berechnet. Es werden dann die Fälle mit dem größten Skalarprodukt als potenzielle Kandidaten vorgemerkt und deren Repräsentationen im Prädikatenkalkül in einem zweiten komplexeren Schritt für einen weiteren Strukturabgleich herangezogen (FAC-Stufe). In diesem SME-basierten Vergleichsschritt wird letztlich die Episode ausgewählt, die die größte strukturelle Übereinstimmung mit dem Zielbereich zeigt. Abbildung 2.1: Arbeitsweise des GEL-Algorithmus (aus Kuehne, Forbus, Gentner, & Quinn, 2000) Der SME konnte außerdem durch das SEQL-Modell (Skorstad, Gentner, & Medin, 1988) ergänzt werden, das kategoriales Lernen durch strukturelle Vergleiche zwischen Beispielfällen beschreiben kann. Die Umsetzung erfolgt dabei durch den GEL-Algorithmus (Generalization and Exemplar Learning). Er basiert auf dem SME und kann aus strukturierten Beschreibungen einzelner Beispiele Kategorien durch Abstraktion struktureller Gemeinsamkeiten bilden (Abbildung 2.1). Kategorien bestehen dabei immer aus einer Liste abstrakter Generalisierungen und einer Liste konkreter Beispiele. Zu Beginn des Abstraktionsprozesses sind allerdings noch keine Elemente in der Generalisierungsliste vorhanden, so dass neue Beispiele immer zuerst direkt mit schon vorhandenen Einträgen aus der Beispielliste strukturell abgeglichen werden müssen. Bei diesem Abgleich werden nur die Gemeinsamkeiten in der Struktur erhalten, während über den Rest generalisiert wird. So entstehen erste abstrakte Beschrei-

33 25 bungen, die in der Generalisierungsliste abgelegt werden können. Kommen nun weitere strukturähnliche Beispiele hinzu, so werden sie nicht mehr direkt mit den konkreten Beispielen, sondern mit den generalisierten Strukturen abgeglichen. Auch in diesem Schritt werden wieder nur die Gemeinsamkeiten herausgefiltert, so dass die Einträge in der Generalisierungsliste schrittweise immer weiter abstrahiert werden. Eine detaillierte Beschreibung des GEL- Algorithmus findet sich bei Kuehne et al. (2000). Der Vorteil des SEQL-Modells ist, dass es Lernen auf der Basis des SME simuliert und somit das Abbildungsmodell um eine Lernkomponente ergänzen kann. Der Nachteil von SEQL ist allerdings, dass es keinen Mechanismus besitzt, der den Grad der Abstraktion kontrolliert. So ist es möglich, dass Kategorien gebildet werden, die so abstrakt sind, dass aus ihnen keine sinnvollen Schlüsse mehr gezogen werden können. Eine weitere Ergänzung des SME nimmt Falkenhainer (1987, 1990) mit dem PHINEAS- Modell vor. Es kann qualitative Theorien über physikalische Inhaltsbereiche bilden und deren Validität überprüfen. Dieser Prozess ist immer dann nötig, wenn PHINEAS ein Problem bearbeiten will, das es auf der Basis bereits vorhandener Theorien im Speicher nicht lösen kann. Um das Problem trotzdem bearbeiten zu können, wählt PHINEAS stattdessen eine ähnliche, für den Inhaltsbereich relevante Theorie aus, deren Gesetzmäßigkeiten bekannt sind. Mit Hilfe des SME nutzt PHINEAS dann schon vorhandenes theoretisches Wissen, um durch analogen Abgleich das neue Problem zu lösen. Auf diese Weise kann ein vorläufiges Modell über einen unbekannten Problembereich gebildet werden. Die Gültigkeit der Modellannahmen für das vorliegende Problem wird mit Hilfe von Experimenten überprüft, die durch einen Planer mit qualitativem Physikwissen konstruiert werden können. Wenn ein sinnvoller analoger Zusammenhang erkannt werden konnte, überprüft PHINEAS in einem letzten Schritt, ob die Analogie auch für andere Problemfälle eingesetzt werden kann. Eine ausführliche Beschreibung des PHINEAS-Algorithmus findet sich bei Falkenhainer (1987, 1990) Purpose-directed-Analogy Die Purpose-directed-Analogy (Kedar-Cabelli, 1985, 1988a, 1988b) eignet sich für die Modellierung erklärender Analogien und für die Simulation von analogem Problemlösen. Sie berücksichtigt Abruf, Abbildung und Transfer und ist in PROLOG implementiert. Architektur Die Purpose-directed-Analogy gehört zu den symbolischen Analogiemodellen. Die einzelnen Inhaltsbereiche sind wie beim SME als propositionale Netzwerke dargestellt. Jedes Element eines Netzwerkes repräsentiert ein Konzept. Ein Konzept ist wiederum

34 26 aus mehreren Einheiten aufgebaut. Es gibt hinreichende und notwendige Bedingungen, die eine bestimmte Einheit erfüllen muss, um zu einem ganz bestimmten Konzept zu gehören. Durch die Angabe dieser Bedingungen wird ein Konzept definiert. Ein einzelnes Element aus der Konzeptmenge wird dabei als Beispiel bezeichnet. Indem man angibt, auf welche Weise ein Beispiel die Bedingungen für ein Konzept erfüllt, kann man beweisen, dass das Beispiel ein Element der jeweiligen Konzeptmenge ist. Man sagt auch, man liefert eine Erklärung dafür. Eine solche Erklärung muss dabei mit Hilfe von Bereichstheorien abgeleitet werden. Diese beschreiben das Wissen des Systems in Form von Regeln und Operatoren. Auf der Basis dieser Elemente und Strukturen führt die Purpose-directed-Analogy analoges Schließen und Problemlösen in einem seriellen Mechanismus aus. Abbildung und Transfer In der Purpose-directed-Analogy steuern strukturelle und pragmatische Randbedingungen in Form von Heuristiken den Abbildungsprozess. Im Gegensatz zum SME werden hier also der Problemlösekontext und die Ziele der Analogieanwendung berücksichtigt, so dass die Purpose-directed-Analogy zu den soviel wie nötig -Ansätzen gezählt werden muss. Der Abbildungsprozess selbst funktioniert nach dem Prinzip der erklärungsbasierten Generalisierung (Mitchell, Keller & Kedar-Cabelli, 1986). Nach dieser theoretischen Annahme reicht bereits ein Beispiel aus, um die für den Erwerb eines Konzepts relevanten Informationen zu sammeln. Es muss dafür nur erläutert werden, wie ein gegebenes Beispiel das jeweils angestrebte Ziel erfüllen kann. In diesem Punkt unterscheidet sich die Purpose-Directed-Analogy grundlegend von anderen Analogiemodellen, die einen Vergleich zwischen zwei Konzepten annehmen oder den Übertrag einer Problemlösung aus dem Basisauf den Zielbereich fokussieren (Weber, 1994). Für die Analogiebildung muss das System das Zielkonzept kennen und wissen, für welchen Zweck es eingesetzt werden kann. Die Analogie wird dann verwendet, um ein vorliegendes Zielbeispiel mit dem entsprechenden Zielkonzept abzugleichen. Dazu muss das System zunächst ein bekanntes Basisbeispiel abrufen und mit Hilfe einer Bereichstheorie erklären, warum es das Zielkonzept erfüllt. Im nächsten Schritt muss erschlossen werden, warum das Zielbeispiel ein Vertreter des Zielkonzeptes ist. Diese Erklärung leitet die Purpose-directed- Analogy aus der Erklärung für das Basisbeispiel durch analogen Vergleich ab. Die beiden Beispiele werden dann als analog betrachtet, wenn sie denselben Zweck erfüllen 5. In einem abschließenden Schritt wird die Erklärung für das Zielbeispiel verifiziert. Den Zweck eines 5 Eine beispielhafte Modellierung mit der Purpose-directed-Analogy findet sich bei Weber (1994). Dort wird mit Hilfe von Analogien die Funktionsweise eines HOT-CUP (Gefäß für heiße Getränke) beschrieben.

35 27 Konzeptes bestimmen in der Purpose-directed-Analogy pragmatische Randbedingungen. Sie geben an, welche Informationen für den aktuellen Problemfall nützlich sind und somit im Transferprozess berücksichtigt werden müssen. Lernen Eine Lernkomponente wird weder theoretisch angenommen, noch in der Purposedirected-Analogy implementiert. Psychologische Plausibilität Psychologisch unplausibel ist die serielle Modellierung, die keine Integration von Abruf, Abbildung und Transfer ermöglicht. Da die Subprozesse der Reihe nach abgearbeitet werden, ist kein Mechanismus nötig, der die Kapazitätsbeschränkungen des zentralen Prozessors berücksichtigt. Die Purpose-directed-Analogy spezifiziert nicht, wie der Abruf eines relevanten Basisbeispiels vonstatten geht und wie aufgrund der Bereichstheorien Erklärungen über den Zweck eines Konzeptes abgeleitet werden können. Die Notwendigkeit von Bereichstheorien schränkt die Anwendbarkeit des Modells außerdem auf Problemlöseprozesse bei Experten ein. Novizen können nicht über derartiges Wissen verfügen, weil sie noch keine Erfahrungen mit dem Inhaltsbereich machen konnten (Weber, 1994) ACME ACME (Analogical Constraint Mapping Engine, Holyoak & Thagard, 1989b) basiert auf dem Multi-Constraint-Ansatz von Holyoak und Thagard (1989a). Dieser beschreibt die theoretischen Grundlagen der analogen Subprozesse Abruf, Abbildung, Transfer und Lernen. In ACME selbst wird aber nur der Abbildungs- und Transfermechanismus implementiert und erklärende Analogien oder analoges Problemlösen simuliert. Architektur ACME ist ein hybrides Analogiemodell, dem Informationen in Form von Propositionen (Hund(Bonzo), liebt(adam, Eva)) eingegeben werden müssen. Diese setzen sich wiederum aus Prädikaten (liebt, Hund, ) mit einem oder mehreren Argumenten (Adam, Eva, Bonzo, ) zusammen. Abbildung und Transfer werden in diesem Modell durch einen parallelen Mechanismus simuliert. Unter Berücksichtigung struktureller, pragmatischer und semantischer Randbedingungen konstruiert ACME dazu aus den symbolischen Eingabewerten ein Hypothesennetzwerk, das konnektionistisch bearbeitet werden kann. Die Knoten eines solchen Netzwerkes repräsentieren dabei Hypothesen über verschiedene Abbildungsmöglichkeiten zwischen zwei analogen Inhaltsbereichen. Wie plausibel eine solche Abbildungshypothese im Vergleich zu anderen Alternativen ist, wird über das Aktivierungsniveau des entsprechenden Netzwerkknotens angegeben. Sie ist dabei umso plausibler, je stärker der sie kodierende Knoten aktiviert ist. Auf diese Weise angeregte Knoten beeinflussen dann wiederum die Ak-

36 28 tivierung der benachbarten Netzwerkelemente. Über exzitatorische Verbindungen werden dabei die Knoten aktiviert, die die eigene Abbildungshypothese unterstützen. Hypothesenknoten, die gegenteilige Aussagen kodieren, werden durch inhibitorische Verbindungen in ihrer Erregung gehemmt. Ein solches Netzwerk besitzt zusätzlich spezielle pragmatische und semantische Netzwerkknoten, die über exzitatorische Verbindungen zu solchen Hypothesenknoten aktiviert werden, die für das aktuelle Problem besonders relevant sind. Abbildung und Transfer Der Abbildungsprozess wird in ACME vollständig über die Aktivierungsstärke struktureller, semantischer und pragmatischer Netzwerkknoten gesteuert. Die beste Abbildung identifiziert dabei ein paralleler Constraint-Satisfaction-Algorithmus (Rumelhart et al., 1986). Im ersten Schritt werden dazu einheitliche Anfangserregungen und feste Erregungsgewichte zwischen den einzelnen Knoten festgelegt. Die semantischen und pragmatischen Einheiten werden auf einen maximalen Wert gesetzt. Im zweiten Schritt berechnet der Algorithmus in mehreren Abbildungsdurchgängen die Aktivitäten der Hypothesenknoten solange neu, bis ein asymptotischer Wert erreicht ist. Alle Knoten mit positiven Abbildungsgewichten kennzeichnen dann mögliche Abbildungen zwischen zwei analogen Inhaltsbereichen. Im dritten Schritt wird letztlich diejenige Abbildung ausgewählt, die im Vergleich zu anderen Alternativen den höchsten Aktivierungswert besitzt. Wenn auf Grund der strukturellen Übereinstimmungen unterschiedliche Abbildungen möglich sind oder keine eindeutige Lösung gefunden werden konnte, regeln der Kontext der Problemstellung und die Ziele des Problemlösers, welche Strukturen aufeinander abgebildet und welche Informationen in den Zielbereich transferiert werden (Holyoak, 2005). Für den Transfer kommen dabei nur solche Informationen in Frage, die auch tatsächlich für die Problemlösung benötigt werden, weswegen ACME in die Kategorie der soviel wie nötig - Modelle eingeordnet werden muss. Lernen Lernen ist in der Multi-Constraint-Theorie als Induktion pragmatischer Schemata vorgesehen. Im Anschluss an den Abbildungsprozess wird dazu über die gemeinsame Problemstruktur von Basis- und Zielbereich generalisiert. Ein auf diese Weise entstandenes Lösungsschema kann in abstrakter Form im Langzeitgedächtnis abgelegt werden und steht für spätere Problemlösungen zur Verfügung. Dieser Lernprozess wird aber nur theoretisch angenommen. In ACME selbst gibt es keinen Mechanismus, der in der Lage ist, neue Abstraktionen aus analogen Abbildungen zu induzieren.

37 29 Psychologische Plausibilität ACME ist in einigen Punkten psychologisch unplausibel. Zum einen wird die Kapazitätsbeschränkung des menschlichen Arbeitsgedächtnisses nicht berücksichtigt. Zum anderen ermöglicht das Modell keine einheitliche Simulation des gesamten analogen Denkprozesses. Simuliert wird nur der Abbildungs- und Transfermechanismus. Basis- und Zielbereich müssen dem System außerdem extern vorgegeben werden und können sich nicht flexibel rekonstruieren. Ergänzungen zu ACME ACME wurde noch um ein Modell ergänzt, das den analogen Abruf geeigneter Basisfälle aus dem Gedächtnis simulieren und dabei besonders semantische Informationen berücksichtigen kann: ARCS (Analogical Retrieval by Constraint Satisfaction, Thagard, Holyoak, Nelson & Gochfeld, 1990). Dazu wird für jede Struktur, die im Gedächtnis für den Abruf überprüft wurde, ein neuer Knoten im Hypothesennetzwerk erzeugt. Zu jedem Prädikat aus der Struktur des Zielbereichs werden dadurch alle semantisch verwandten Prädikate gesammelt und mit den ursprünglichen Prädikaten zu einer erweiterten Prädikatliste zusammengefügt. Sie bildet die Basis für die Hypothesengenerierung im Rahmen des Abbildungsprozesses. Es kommen dabei nur solche Prädikate für die Abbildung in Frage, die zwischen Prädikatliste und Zielproblem übereinstimmen. So können mit der Kombination aus ACME und ARCS Abruf, Abbildung und Transfer integriert werden. Ein Modell für die Simulation von Lernen gibt es in diesem Ansatz bislang nicht LISA Die Implementierung von LISA (Learning and Inference with Schemas and Analogies, Hummel & Holyoak, 1997, 2003) basiert ebenfalls auf der Multi-Constraint-Theorie von Holyoak und Thagard (1989a). Das Modell ist eine Weiterentwicklung von ACME, das erklärende Analogien und analoges Problemlösen simuliert und die Komponenten Abruf, Abbildung, Transfer und Lernen psychologisch und biologisch plausibel integrieren soll. Architektur Wie ACME gehört auch LISA zu den hybriden Analogiemodellen. Der symbolische Teil des Systems ist dabei für die Wissensrepräsentation zuständig. Relevante Informationen müssen dem Modell dafür in Form von Propositionen vorgegeben werden, die sich wie in ACME aus Argumenten und Prädikaten zusammensetzen. Die einzelnen Wissensbestandteile sind dezentralisiert über mehrere Netzwerkeinheiten verteilt und können über konnektionistische Strukturen miteinander kommunizieren. Die Besonderheit von LISA liegt dabei darin, dass Relationen unabhängig von ihren Argumenten repräsentiert werden und somit Inhalt und Struktur einer Proposition separat dargestellt werden können. Eine Proposition ist

38 30 dazu in LISA hierarchisch aus semantischen und strukturellen Einheiten aufgebaut, die im Langzeitgedächtnis des Systems enkodiert sind (Abbildung 2.2). Auf der untersten Hierarchiestufe befinden sich die Semantikknoten (z.b. actor, positive1, strong1), auf die alle im Netzwerk repräsentierten Propositionen zugreifen können. Eine Stufe darüber liegen auf der ersten strukturellen Ebene die Prädikat- und Objektknoten. Prädikatknoten repräsentieren die semantischen Eigenschaften einer Relation (z.b. loves-1, loves-2), indem sie über bidirektionale erregende Kanten Kontakt zu passenden semantischen Einheiten in der Basis aufnehmen und dort spezifische Aktivierungsmuster erzeugen. Objektknoten kodieren in gleicher Weise die Eigenschaften der Argumente (z.b. John, Mary). Eine Hierarchiestufe darüber befinden sich die Subpropositionsknoten, die relevante Verbindungen zwischen den Relationen und den dazugehörigen Argumenten herstellen (z.b. John-loves-1, Mary-loves-2). Dieser Prozess findet im Arbeitsgedächtnis des Systems statt und wird über den Abgleich von Aktivierungsmustern gesteuert. LISA verknüpft dabei solche Relationen und Argumente miteinander, deren semantische Einheiten synchron aktiviert sind. Subpropositionen eines Sachverhaltes sind dabei über hemmende Kanten miteinander und über bidirektionale erregende Kanten mit den entsprechenden Prädikat- und Objektknoten der darunter liegenden Hierarchiestufe verbunden. Mehrere Subpropositionen können schließlich auf der obersten strukturellen Ebene durch Propositionsknoten zusammengefasst werden (John loves Mary). Diese sind über bidirektionale erregende Kanten mit den entsprechenden Subpropositionen verknüpft und schließen die Repräsentation eines Sachverhaltes ab. Abbildung 2.2: Darstellung von Propositionen in LISA (nach Hummel & Holyoak, 1997; aus Mühlpfordt, 1999) Für den Abbildungs- und Transferprozess sind in der Architektur von LISA spezielle Verknüpfungen, so genannte Mappingconnections vorgesehen. Sie kommen auf allen strukturellen Ebenen vor und verbinden dort analoge Struktureinheiten zwischen verschiedenen Propositionen. Der für die Abbildung benötigte Basisbereich wird dabei durch einen seriellen Mechanismus ausgewählt, um die Kapazität des Prozessors nicht zu überlasten. Basis- und Zielbereich können dann in Gruppen von bis zu drei Propositionen parallel strukturell abglichen werden.

39 31 Abbildung und Transfer Der analoge Abbildungsprozess ist in LISA ebenfalls über den Abgleich von Aktivierungsmustern in den Semantikknoten realisiert und wird im Arbeitsgedächtnis des Systems ausgeführt. Ein aktivierter Propositionsknoten kann dabei über erregende Verbindungen zu Subpropositions- bzw. Prädikat- und Objektknoten entsprechende Semantikknoten in der Basis anstoßen und dort ein für ihn spezifisches Erregungsmuster erzeugen. Auf diese semantischen Einheiten greifen aber gleichzeitig auch wieder andere Propositionen im Netzwerk zu, die dadurch ebenfalls aktiviert werden. Solche synchronen Erregungsmuster zeigen mögliche Kandidaten für einen strukturellen Abgleich an. Durch die gemeinsame Aktivierung werden die Mappingconnections zwischen diesen Strukturknoten verstärkt angesprochen und somit ihre Gewichtungen erhöht. Die Gewichtung einer solchen Verbindung ist dabei umso größer, je mehr durch sie verknüpfte Einheiten gleichzeitig aktiv sind. Ein Algorithmus entscheidet dann anhand dieser Gewichtungsfaktoren, welche Strukturen aus Basis- und Zielbereich aufeinander abgebildet werden. Korrespondierende Einheiten sind dabei durch stark positiv gewichtete Mappingconnections gekennzeichnet. Die Steuerung des Abbildungsprozesses wird dabei durch eine Kombination aus pragmatischen, strukturellen und semantischen Randbedingungen übernommen. Netzwerkeinheiten, die mit der Problemlösung in Verbindung stehen, werden häufiger benutzt als irrelevante Strukturen und haben dementsprechend höhere Aktivierungswerte. Auf diese Weise kann LISA den Problemlösekontext für den Abbildungsprozess berücksichtigen und muss deshalb in die Gruppe der soviel wie nötig - Modelle eingeordnet werden. Nach den theoretischen Annahmen von Hummel und Holyoak (1997, 2003) kann LISA auch Inferenzen bilden. Sie postulieren, dass anhand der ermittelten Korrespondenzen aus dem Abbildungsprozess neue Struktureinheiten im Zielbereich erzeugt werden, wenn für relevante Einheiten des Basisproblems keine Entsprechung im Zielbereich gefunden werden kann. Wie dieser Prozess implementiert ist, wird von Hummel und Holyoak (1997, 2003) aber nicht ausreichend spezifiziert. Kokinov und French (2003) gehen deshalb sogar davon aus, dass LISA gar keinen Inferenz- und Transfermechanismus besitzt. Lernen Lernen ist in LISA als Generalisierung über die gemeinsame Lösungsstruktur von Basis und Ziel vorgesehen. Ein Lernalgorithmus soll im Anschluss an den Abbildungsprozess die Gemeinsamkeiten aus Basis und Ziel anhand hoher Aktivierungswerte identifizieren und eine dritte Repräsentation erzeugen, die die abstrahierten Informationen aus beiden Sachverhalten enthält. Wie dieser Algorithmus im Einzelnen arbeitet, wird aber wieder nicht von Hummel und Holyoak (1997, 2003) dargestellt.

40 32 Psychologische Plausibilität LISA kann bis zu drei Propositionen parallel verarbeiten und überschreitet so nicht die Kapazitätsbeschränkung des menschlichen Arbeitsgedächtnisses. In diesem Modell wird außerdem unterschieden zwischen einem Langzeitgedächtnis, das die strukturellen und semantischen Informationen einer Proposition speichert und einem Arbeitsgedächtnis, in dem die analogen Abbildungsprozesse realisiert werden. Die Beteiligung des Arbeitsgedächtnisses am Analogieprozess ist dabei psychologisch plausibel (Markman & Gentner, 1993). Empirische Studien konnten nämlich zeigen, dass bei strukturellen Vergleichsprozessen beim Menschen die Hirnregionen besonders aktiv sind, in den das Arbeitsgedächtnis lokalisiert ist (Benson, 1993; Grafman, Holyoak, & Boller, 1995; Shallice, & Burgess, 1991). Der Nachteil von LISA ist allerdings, dass Basis- und Zielbereich nicht flexibel repräsentiert werden und dem System extern eingegeben werden müssen STAR Das STAR-Modell (Structured Tensor Analogical Reasoning, Halford et al., 1994) war ursprünglich für die Modellierung von Proportionalanalogien gedacht. Seine neuere Version (Wilson et al., 2001) kann allerdings auch komplexere strukturelle Analogien simulieren. STAR eignet sich aber nicht zum analogen Problemlösen, da bislang keine Transferkomponente implementiert wurde. Es kann nur den Abruf von Inhaltsbereichen und den Abbildungsprozess beschreiben (Kokinov & French, 2003). Architektur STAR zählt zu den hybriden Analogiemodellen. Die Inhaltsbereiche sind wieder aus einer oder mehreren Propositionen aufgebaut, die aus einem Relationensymbol und einem oder mehreren Argumenten bestehen. Argumente und relationale Symbole werden dabei als Vektoren dargestellt. Eine relationale Verbindung zwischen mindestens zwei Argumenten kann dann als Tensorprodukt zwischen deren Vektoren repräsentiert werden (Smolensky, 1990). Durch einen Punkt-Operator ( ) kann die Information, die ein solches Tensorprodukt enthält, abgerufen werden. Für die Verarbeitung einer Analogie werden wie in LISA zunächst die symbolischen Eingabegrößen in eine Netzwerkarchitektur umgewandelt, die dann konnektionistisch bearbeitet werden kann. Die neuere Version von STAR (Wilson et al., 2001) modelliert dabei komplexe Analogien durch eine Kombination aus serieller und paralleler Verarbeitung. So können viele Informationen gleichzeitig berücksichtigt werden, ohne dabei die Kapazität des Prozessors zu überlasten. Dazu werden umfangreiche Relationen durch Segmentierung oder Chunking vereinfacht. Bei der Segmentierung werden komplexe Aufgaben in einzelne Teilschritte zerlegt, von denen jeder einzelne bei serieller Bearbeitung die Prozessorkapazität nicht überlastet. Das Chunking fasst dagegen zusammenhängende Pro-

41 33 positionen sinnvoll zu einer neuen Proposition zusammen. Argumente in einem solchen Netzwerk sind demnach entweder einfache Basisobjekte oder gechunkte Propositionen. Modelltechnisch wird das Chunking wird durch eine hierarchische Repräsentation der einzelnen Propositionen erreicht. Je höher eine Proposition in einer solchen Hierarchie eingeordnet ist, desto mehr gechunkte Struktur enthält sie demnach. Für die Analogiebildung wird die Hierarchie dann von oben nach unten abgearbeitet. STAR kann dazu auf vier verschiedene Strukturen zurückgreifen. Informationsspeicherstrukturen werden benutzt, um die Bereiche, die aufeinander abgebildet werden sollen zu repräsentieren. Sie speichern Informationen über die Ähnlichkeit von Items, über die Itemtypen und die Verbindung der Informationen zu Chunks. Auswahlnetzwerke erledigen die serielle Auswahl eines geeigneten Propositionenpaars aus Basis und Ziel, während Argumentabbildungsnetzwerke in einem parallelen Algorithmus die Relationen und Argumente dieses Propositionenpaars strukturell abgleichen. Die gefundenen Abbildungen werden schließlich in Abbildungsspeichernetzwerken aufbewahrt. Abbildung und Transfer Der analoge Abbildungsprozess wird in STAR von strukturellen und semantischen Heuristiken gesteuert und in einem zweistufigen Algorithmus umgesetzt. Im ersten Schritt wählt das Auswahlnetzwerk ein erstes Propositionenpaar aus, zwischen dem eine Analogie gebildet werden soll. Im zweiten Schritt werden dann die ausgewählten Propositionen im Argumentabbildungsnetzwerk über Tensorprodukte aufeinander abgebildet 6. STAR wiederholt diesen Prozess solange, bis alle möglichen Abbildungen zwischen zwei Inhaltsbereichen gefunden worden sind. Der Algorithmus terminiert erst dann, wenn entweder das Auswahlnetzwerk ein Propositionenpaar auswählt, das bereits in früheren Stufen ausgewählt wurde oder wenn das Abbildungsnetzwerk zu viele Abbildungen konstruiert, die nicht interpretiert werden können. Alle Korrespondenzen, die der Algorithmus identifizieren konnte, werden nach dem Abbildungsprozess im Abbildungsspeichernetzwerk abgelegt. Von dort können sie jederzeit wieder abgerufen werden. STAR hat leider keinen Mechanismus, der analogen Informationstransfer simulieren könnte. Es kann also keine Entscheidung über mögliche Transferprinzipien gefällt werden, so dass STAR weder in die soviel wie möglich - noch in die soviel wie nötig - Kategorie eingeordnet werden kann. 6 Bei einer Proportionalanalogie der Form A:B::C:D werden für die Eingabeparameter A und B alle Relationensymbole bestimmt, deren Propositionen A als erstes und B als zweites Argument haben. Diese Menge von Relationensymbolen wird über ein Tensorprodukt mit C verbunden. Als Ergebnis erhält man eine Linearkombination aus den möglichen Ergebnisvektoren für D. Der Vektor, der das größte Gewicht besitzt, wird als der ähnlichste ausgewählt.

42 34 Lernen Da keine Transferkomponente modelliert wird, kann STAR auch kein Lernen im Sinne einer Strukturgeneralisierung realisieren. Es kann nur Ergebnisse aus dem Abbildungsprozess passiv in Speicherstrukturen verwalten. Dazu gehören z.b. Informationen über die Ähnlichkeit zweier Einheiten in Basis- und Zielbereich oder über die Menge an gechunktem Material. Solche Informationen sind dann in konkreter und nicht in abstrakter Form hinterlegt. Psychologische Plausibilität Das STAR-Modell kann die Kapazitätsbeschränkungen eines zentralen Prozessors psychologisch plausibel durch Chunking oder Segmentierung berücksichtigen. Außerdem wird der Analogieprozess durch eine Kombination aus serieller und paralleler Verarbeitung modelliert. Unplausibel ist, dass Basis- und Zielbereich von extern eingegeben werden müssen und dass Informationen in konkreter und nicht in abstrakter Form gespeichert werden können. Ein weiterer Nachteil dieses Modells ist, dass es keine Transferkomponente berücksichtigt und somit nicht zum analogen Problemlösen geeignet ist ASTRA Die Implementierung von ASTRA (Eskridge, 1994) basiert auf der CAR-Theorie (Continuous Analogical Reasoning, Eskridge, 1989a, 1989b), die eine Erweiterung des Multi-Constraint-Ansatzes darstellt. Dieses Modell kann erklärende Analogien bearbeiten und analoges Problemlösen simulieren. Dabei werden Abruf, Abbildung und Transfer modelliert. Architektur ASTRA gehört zu den hybriden Analogiemodellen. Auch hier werden die notwendigen Informationen wieder in symbolischer Form eingegeben und zur Analogiebildung in eine konnektionistische Netzwerkarchitektur umgewandelt. So kann das Wissen des Systems in Form von Konzepten dargestellt und als Netzwerkknoten symbolisiert werden. Das Netzwerk selbst verbindet zusammengehörige Konzepte über gewichtete Kanten und ist hierarchisch aufgebaut. Im Gegensatz zu anderen konnektionistischen Netzwerken kann ASTRA aber auf die Kanten explizit zugreifen und sie dynamisch neu erzeugen. Es besitzt außerdem spezielle Datenstrukturen in denen die Ergebnisse der Analogiebildung gespeichert werden können. Die einzelnen Teilschritte des Analogieprozesses bearbeitet ASTRA dabei in einem parallelen Algorithmus. Abbildung und Transfer In ASTRA interagieren Abruf-, Abbildungs- und Transferprozess miteinander, um eine geeignete Analogie auszubilden. Die dazu notwendigen Informationen werden durch Aktivierungsübertragung zwischen den einzelnen Netzwerkeinheiten transportiert. Die Auswahl geeigneter Basisanaloga aus dem Gedächtnis erfolgt wie in LISA

43 35 anhand von Aktivierungsstärken und wird durch semantische, pragmatische und strukturelle Randbedingungen gesteuert. ASTRA baut schon in dieser Phase Korrespondenzen zwischen Objekten und Relationen in Basis und Ziel auf, die dann in der Abbildungsphase nur noch ergänzt werden müssen. Strukturell ähnliche Konzepte werden dabei durch Brückenkanten miteinander verbunden. Über sie werden auch Informationen ins Ziel transferiert, die bislang nur im Basis-, aber nicht im Zielbereich vorhanden waren. Dort können sie dann als Vermutungen vorgemerkt werden. Der Abbildungs- und Transferprozess selbst wird dabei durch den symbolischen Teil des Systems ausgeführt und ebenfalls von strukturellen, semantischen und pragmatischen Randbedingungen gesteuert. Die Ziele des Systems berücksichtigt ASTRA, indem es die Aktivierung derjenigen Konzeptknoten erhöht, die in direktem Zusammenhang mit ihnen stehen. Auf diese Weise können pragmatische Informationen in die Analogiebildung einbezogen werden, weswegen ASTRA in die soviel wie nötig - Theoriengruppe eingeordnet werden muss. Lernen ASTRA kann keinen Lernprozess im Sinne einer Strukturgeneralisierung oder einer Abstraktion der gemeinsamen Lösungsstruktur modellieren. Die Ergebnisse von Abruf-, Abbildungs- oder Transferprozessen werden aber in konkreter Form in speziellen Datenstrukturen abgelegt. Psychologische Plausibilität Durch seine parallele Architektur kann ASTRA Abruf, Abbildung und Transfer integriert modellieren. Problematisch ist allerdings, dass kein Mechanismus überprüft, ob bei der parallelen Verarbeitung auch die begrenzten Kapazitäten des menschlichen Arbeitsgedächtnisses berücksichtigt werden. Außerdem müssen Basis und Ziel extern eingegeben werden und können sich nicht flexibel rekonstruieren. Aus dem Analogieprozess entstandene Datenstrukturen werden hier auch nicht in abstrahierter Form gespeichert Copycat Copycat (Hofstadter & Mitchell, 1994) kann den analogen Abbildungs- und Transferprozess simulieren und flexibel Wissensrepräsentationen konstruieren. Es ist für die Bearbeitung von Proportionalanalogien geeignet und in Common Lisp implementiert. Architektur Copycat ist ein hybrides Multiagenten-System. Die Wissensbereiche, die für die Analogiebildung benötigt werden, sind in Form von Konzeptnetzwerken, so genannten Slipnets dargestellt. Durch diese Strukturen kann sowohl das aktuelle Problemverständnis als auch ein entsprechender Lösungsvorschlag repräsentiert werden. Innerhalb eines Slipnets be-

44 36 steht jedes Konzept aus einem Zentralknoten, der von möglichen Assoziationen und Verbindungen zu anderen Konzepten umgeben ist. Die Aktivierung eines Knotens gibt seine Relevanz für das aktuelle Problem an. Innerhalb eines Slipnets kann sich die Aktivierung zu konzeptuell ähnlichen Nachbarknoten ausbreiten. Die einzelnen Komponenten einer Analogie und dazugehörige Informationen werden dabei in einem Arbeitsspeicher repräsentiert. Er stellt den zentralen Prozessor des Systems dar, in dem alle Verarbeitungsschritte stattfinden. Für die Lösung einer Proportionalanalogie startet das System immer vom selben Ausgangspunkt und besitzt dieselben Anfangskonzepte. Der Vorteil von Copycat ist die flexible Konstruktion und Repräsentation der zu vergleichenden Inhaltsbereiche. Dazu werden die Anfangskonzepte an den aktuellen Problemkontext angepasst und so eine entsprechende Situationsrepräsentation für das vorliegende Problem konstruiert. Anschließend werden durch einen parallelen, probabilistischen Mechanismus verschiedenste Assoziationen dazu ausgebildet, die zu einem besseren Problemverständnis beitragen. Im nächsten Schritt führen Mikroagenten, so genannte Codelets, eine Wahrscheinlichkeitsabschätzung für den Aufbau so genannter Pfadstrukturen aus, entlang derer nach geeigneten Abbildungsmöglichkeiten gesucht werden kann. Dabei treten Teams von ihnen in Wettstreit um die für die Konstruktion benötigten Ressourcen. Ein Team bekommt dabei umso mehr Ressourcen für den Bau zugewiesen, je besser die Aussicht auf die tatsächliche Instantiierung der von ihm überwachten Struktur ist. Die einzelnen Arbeitsschritte von Copycat werden dabei stets von einem zentralen Agenten überwacht, der die Temperatur des Systems kontrolliert. Die Temperatur misst die perzeptuelle Organisation des Systems und den Grad der Zufälligkeit, mit dem die Codelets Entscheidungen treffen. Das Ziel muss sein, ein System zu konzipieren, das ein hohes Maß an Organisation und ein niedriges Maß an Zufälligkeit besitzt. Das ist dann der Fall, wenn die Temperatur des Systems niedrig ist. Zu Beginn des Problemlösungsprozesses ist die Temperatur aber zunächst sehr hoch, da die Codelets kaum Informationen über die Relevanz bestimmter Strukturen haben. Sie treffen ihre Entscheidungen probabilistisch. Je vertrauter sie mit dem Problembereich sind, desto mehr sinkt die Temperatur des Systems. Die Entscheidungen der Codelets werden dann deterministisch getroffen. Abbildung und Transfer Der Abbildungsprozess wird in Copycat durch probabilistische Mechanismen gesteuert. Das System kann so Proportionalanalogien der Form A:B::C:? lösen. Für die Simulation werden meist Letter-Strings vom Typ abc : abd :: kjjiii :? verwendet. Um solche Probleme bearbeiten zu können, muss zunächst eine strukturelle Beschreibung für die Buchstabenfolgen gefunden und im Anschluss eine Transformationsregel konstruiert werden,

45 37 die einen Übergang von A zu B ermöglicht. Danach muss eine Abbildung zwischen den strukturellen Beschreibungen von A und C ausgebildet werden. Im letzten Schritt wird die zwischen A und B gefundene Transformationsregel auf C angewendet und die Lösung der Analogie abgeleitet. Während dieses Prozesses zeigt ein Thermometer die Temperatur des Systems an. Zu Beginn des Prozesses wird sie auf einen maximalen Wert gesetzt. Wenn die Codelets in dieser Situation zu arbeiten beginnen, folgen sie zunächst zufällig irgendwelchen Pfaden und suchen parallel nach passenden Strukturen. Es bilden sich auf diese Weise vorläufige Pfadstrukturen aus. Die Pfadauswahl kann von Vorschlägen anderer Codelets geleitet werden. Eine auf diese Weise vorgeschlagene Struktur wird dann immer stärker, je mehr Codelets auf sie aufmerksam werden und sie für wichtig erachten. Erreicht der Stärkegrad einen bestimmten Grenzwert, beschließt das System, diesen Pfad in die Struktur einzubauen. Die Geschwindigkeit, mit der solche Strukturen erzeugt werden, hängt von der Einschätzung der Codelets ab, ob der Bau erfolgsversprechend ist oder nicht. Plausible, mit dem Ziel in Verbindung stehende Strukturen werden wesentlich schneller beachtet, als unplausible. Da Copycat solche pragmatischen Plausibilitätsabschätzungen in den Analogieprozess einbezieht, muss es in die Gruppe der soviel wie nötig - Theorien eingeordnet werden 7. Mit der Zeit werden die gebildeten Konzepte immer besser, wodurch die Temperatur des Systems fällt. Die Codelets sind jetzt auch in der Lage, ihre Entscheidungen deterministisch zu treffen. In dieser Phase exploriert das System auch nicht mehr parallel, sondern entlang der gefundenen Pfade seriell. Lernen Eine Lernkomponente wird in Copycat bislang nicht explizit berücksichtigt. Es gibt aber spezielle regelbildende Codelets, die nach abstrakten Ersetzungen für die während des Abbildungsprozesses gefundenen Strukturen suchen. In welcher Weise diese Abstraktionen in die Architektur integriert werden und wie sie späteres Problemlösen beeinflussen können, wird aber nicht spezifiziert. Psychologische Plausibilität Der Vorteil von Copycat ist, dass es die Repräsentationen von Basis- und Zielbereich selbst erzeugen kann und keine separaten Eingaben von Seiten des Programmierers benötigt (Kokinov & French, 2003). Durch einen parallelen Mechanismus können außerdem Repräsentations-, Abbildungs- und Transferprozesse integriert werden. Leider gibt es dabei keinen Kontrollmechanismus, der die Gedächtniskapazität des zentralen Prozessors überwacht. Ein weiterer Nachteil von Copycat liegt in der Zentralisierung der Ge- 7 Ein Übertrag des größten gemeinsamen Subgraphen nach dem Systematizitätsprinzip ist bei Copycat ohnehin nicht möglich, da nur Proportionalanalogien simuliert werden. Diese beinhalten in der Regel nur eine Relation zwischen Basis und Ziel und verbinden keine größeren relationalen Systeme (vgl. Kapitel 1.2).

46 38 dächtnisstruktur. Das Modell evaluiert nämlich den stattfindenden Strukturbau über einen zentralen Agenten. Er überwacht die Temperatur des Systems und kommuniziert sie an alle übrigen Agenten. Eine solche zentrale Kontrollinstanz ist aber psychologisch unplausibel (vgl. Minsky, 1983) AMBR Die Implementierung von AMBR (Associative Memory-Based Reasoning, Kokinov, 1994a; Kokinov, 1998; Kokinov, Nikolov & Petrov, 1996; Petrov, 1998; Petrov & Kokinov, 1998, 1999; Kokinov & Petrov, 2001) basiert auf DUAL (Kokinov, 1994b, 1994c), einer parallelen kognitiven Architektur. AMBR kann Abruf, Abbildung und Transfer modellieren und eignet sich für erklärende Analogien und analoges Problemlösen. Abbildung 2.3: Agentenverbände in AMBR. Unterschiedliche Agentengruppen sind aktiv und arbeiten so an verschiedenen Kontextinformationen. Je dunkler der Agent markiert ist, desto stärker ist er am aktuellen Prozess beteiligt (aus Kokinov & Petrov, 2001). Architektur Inhaltsbereiche werden in AMBR durch Koalitionen aus hybriden Mikroagenten dargestellt, wobei jeder Agent immer nur einen kleinen Ausschnitt des Sachverhalts repräsentiert. Der symbolische Teil kodiert dabei das deklarative oder prozedurale Wissen und führt den Schlussfolgerungsprozess aus. Der konnektionistische Teil bestimmt die Aktivationslevel der Agenten und gibt ihre Relevanz für den aktuellen Problemkontext an. Agentenkoalitionen in AMBR sind aber keine festen Verbände, sondern werden in Abhängigkeit vom Kontext dynamisch über kommunikative Verbindungen hergestellt. Somit kann es auch vorkommen, dass je nach Kontext unterschiedliche Agentenverbände an ein- und demselben Problem arbeiten und auf einem globalen Level unterschiedliche Ergebnisse erzeugen (Abbildung 2.3). Die konnektionistischen und symbolischen Anteile kooperieren dabei auf dualistische Weise miteinander, ohne von einer zentralen Instanz überwacht zu werden. Das ist eine deutliche Verbesserung gegenüber der Implementierung von Copycat, bei der ein zentraler

47 39 Agent die Temperatur des Systems kontrolliert. Die modellierten Abruf-, Abbildungs- und Transferprozesse werden in AMBR mit einem parallelen Mechanismus bearbeitet und integriert. Abbildung und Transfer Der Abbildungsvorgang wird wieder durch einen konnektionistischen Constraint-Satisfaction-Algorithmus realisiert (Rumelhart et al., 1986). Die dafür relevanten Agenten müssen im Arbeitsgedächtnis von AMBR aktiviert werden. Sie sind normalerweise im Langzeitgedächtnis lokalisiert und gelangen nur dann ins Arbeitsgedächtnis, wenn sie einen bestimmten Aktivierungswert überschreiten. Welchen Grad an Aktivierung ein Agent erreicht, wird durch seinen konnektionistischen Anteil kodiert. Er gibt die Relevanz des Agenten für die aktuelle Problembearbeitung wieder. Das Aktivierungsniveau der Agenten beeinflusst dabei die Geschwindigkeit des symbolischen Prozessors, der den Schlussfolgerungsprozess ausführt. Je stärker ein Agent aktiviert ist, desto schneller arbeitet sein symbolischer Prozessor und desto schneller wird dann auch seine Abbildungshypothese berücksichtigt. Die Aktivierung kann dann auch an benachbarte Agenten weitergeleitet werden. Zwischen den meisten Agenten bestehen dabei stabile Verbindungen, die durch die vergangenen Erfahrungen des Systems geknüpft wurden. AMBR kann aber auch temporäre neue Verbindungen zwischen den Agenten erzeugen und sich somit flexibel an die aktuelle Problemstellung anpassen. Auf diese Weise werden in AMBR nur die Agenten im Arbeitsgedächtnis aktiv, die für die Problemlösung nötig sind. Das bedeutet auch wiederum, dass nur die für die Problembearbeitung relevanten Informationen transferiert werden können. AMBR gehört also zu den soviel wie nötig - Modellen. Lernen AMBR kann bislang keinen Lernprozess simulieren. Psychologische Plausibilität Ein Vorteil der aktuellen Version von AMBR liegt in der Dezentralisierung der Gedächtnisorganisation. Außerdem lassen sich einzelne Teile der Agentenkoalition flexibel und unabhängig voneinander aktivieren. Zusätzlich können in AMBR mehrere Basisbereiche zur Analogiebildung herangezogen werden, wenn der Zielbereich Strukturen enthält, die keine Entsprechung im ursprünglich ausgewählten Basisbereich haben. Problematisch ist bei AMBR allerdings die Konstruktion der Agenten. Im Gegensatz zu Copycat können sich ihre Repräsentationen nicht selbst bilden, sondern müssen vorab vom Programmierer vorgegeben werden. Die Kapazitätsbeschränkung des menschlichen Arbeitsgedächtnisses wird trotz paralleler Arbeitsweise nicht berücksichtigt.

48 Analogy via abstraction Das analoge Abstraktionsmodell (analogy via abstraction, Schmid, Burghardt & Wagner, 2003; Weller & Schmid, 2006) stammt aus dem Bereich der künstlichen Intelligenzforschung. Es ist geeignet, um Proportionalanalogien, erklärende Analogien und analoges Problemlösen zu simulieren und berücksichtigt die Subprozesse Abbildung, Transfer und Lernen. Architektur Die analogy via abstraction gehört zu den symbolischen Analogiemodellen. Allerdings werden hier Basis- und Zielbereich nicht wie gewöhnlich als propositionale Netzwerke, sondern als Baumgrammatiken 8 dargestellt. Der Vorteil ist, dass inhaltlich identische, aber verschiedenartig repräsentierte Terme nicht mehr separat simuliert werden müssen, sondern zu Äquivalenzklassen zusammengefasst werden können 9. Auf diese Weise ist es auch möglich, alle strukturell zulässigen Lösungen einer Analogie in nur einem Schritt zu erzeugen und wiederzugeben. Die einzelnen Analogiesubprozesse werden dabei durch einen parallelen Algorithmus abgearbeitet. Abbildung und Transfer Das analoge Abstraktionsmodell gehört zu den soviel wie möglich -Theorien. Es benutzt nur strukturelle Randbedingungen für die Steuerung des Abbildungsprozesses und vernachlässigt pragmatische und semantische Informationen. Die Analogiebildung wird über die Identifizierung des größten gemeinsamen Subgraphen aus Basis und Ziel (Jain & Wysotzki, 2002) gesteuert. Auf diese Weise können soviel strukturelle Informationen wie möglich über eine Relation höherer Ordnung abgebildet und transferiert werden. Dieses Transferprinzip gleicht inhaltlich dem Systematizitätsprinzip aus dem SME. Im Unterschied dazu wird der Abbildungsprozess im Abstraktionsmodell aber nicht als herkömmlicher Strukturvergleich (mapping) realisiert, sondern als Strukturvergleich über die gemeinsame abstrakte Struktur aus Basis- und Zielbereich (mapping via abstraction): Beim herkömmlichen Mapping werden dabei strukturelle Korrespondenzen zwischen Basis- und Zielbereich benutzt, um Objekte direkt aufeinander abzubilden. Der Nachteil ist, dass jede Abbildung im Anschluss auf ihre Gültigkeit überprüft werden muss, was unter Umständen sehr aufwändig sein kann. Beim Abstraktionsmodell werden dagegen nicht die Objekte selbst, sondern deren Rollen in den vorliegenden Strukturen miteinander verglichen. Dazu werden im ersten Schritt 8 Baumgrammatiken gehören zu einer Sprachenklasse, die in der Chomsky-Hierarchie zwischen regulären und kontextfreien Sprachen lokalisiert ist (vgl. Weller & Schmid, 2006). 9 Die Terme 5*9+17, 9*5+17, 17+5*9 und 17+9*5 sind äquivalent. Sie haben inhaltlich die gleiche Aussage und liefern auch das gleiche Ergebnis. Ihre Repräsentationen sind aber strukturell unterschiedlich. Die verschiedenen Möglichkeiten sind durch Vertauschung nach dem Kommutativgesetz entstanden (Weller & Schmid, 2006).

49 41 strukturelle Gemeinsamkeiten zwischen Basis und Ziel identifiziert und abstrahiert. Auf diese Weise bleiben nur noch die rollenspezifischen Informationen erhalten, während über oberflächliche Objektinformationen generalisiert wird. Im zweiten Schritt werden dann über diese Generalisierungen Objekte aus dem Basis- auf den Zielbereich abgebildet und Informationen transferiert. Der Vorteil dieser Form der Analogiebildung ist, dass im Gegensatz zum direkten Mapping nicht erst verschiedene Abbildungsmöglichkeiten ausprobiert und auf ihre Gültigkeit überprüft werden müssen. Die generalisierte Struktur lenkt den Abbildungsprozess automatisch in die richtige Richtung und kann somit die Analogie auf effiziente Weise lösen (Schmid, Burghardt, & Wagner, 2003). Praktisch werden Abbildungs- und Transferprozesse im analogen Abstraktionsmodell über das Prinzip der Anti-Unifikation 10 ausgeführt. Durch diesen Mechanismus kann aus zwei konkreten Termen ein abstrakter Ausdruck gebildet werden, in dem nur die Gemeinsamkeiten der beiden Termstrukturen erhalten bleiben, während über die Unterschiede generalisiert wird. Dieses Prinzip ist aber nur für den Umgang mit einfachen Termstrukturen geeignet. Um zusätzlich Hintergrundwissen in die Analogiebildung einfließen lassen zu können, muss das Konzept der Anti-Unifikation zur E-Generalisierung (Heinz, 1996; Burghardt, 2005) erweitert werden. Das hat den Vorteil, dass anstelle einfacher Terme reguläre Baumgrammatiken anti-unifiziert werden können. Bereichsspezifisches Wissen wird dabei dem System in Form von equationalen Theorien (Schmid, Burghardt & Wagner, 2003) eingegeben. Sie beschreiben bestehende Zusammenhänge in den Inhaltsbereichen z.b. in Form von algebraischen Gleichungen. Das Ergebnis der E-Generalisierung ist dann wieder eine Baumgrammatik, die alle Lösungen der Analogie in einem Schritt angibt. Abbildung 2.4 zeigt, wie beispielsweise eine Proportionalanalogie der Form A:B::C:D durch E-Generalisierung gelöst werden kann. Lernen Im Gegensatz zu anderen Analogiemodellen kann im analogen Abstraktionsmodell Lernen als Seiteneffekt des analogen Problemlösens simuliert werden. Während des strukturellen Abgleichs zwischen Basis und Ziel entstehen abstrakte Informationen, die in expliziter Form repräsentiert werden. Sie bleiben auch nach dem Abbildungsprozess bestehen und können als Schemata der gelösten Episoden gespeichert werden. Solche Schemata sind domainunabhängig und enthalten nur Informationen über das Lösungsprinzip ähnlicher Problemfälle. 10 Bei der Anti-Unifikation wird die speziellste Generalisierung aus zwei oder mehr Termen gebildet (Reynolds, 1970). Das Ergebnis der Anti-Unifikation der Ausdrücke E 1, E 2,, E n ist dabei ein Ausdruck E und eine Menge von Substitutionen τ 1, τ 2,, τ n. Sie müssen die Gleichung E τ i = E i (für alle i = 1,, n) erfüllen. Der Term E heißt dabei Anti-Instanz einer Menge von Termen E i, wenn E alle E i zu einem Term subsumieren kann. Anti-Instanzen sind dabei als strukturelle Beschreibungen der zugrunde liegenden Terme zu verstehen, die durch Generalisierungen entstanden sind. Sie erlauben zusammen mit den Substitutionen τ i eine Rekonstruktion der ursprünglichen Terme (vgl. Schmid, Burghardt & Wagner, 2003).

50 42 Psychologische Plausibilität Das Abstraktionsmodell ist eines der wenigen Analogiemodelle, das Lernen im Zuge des analogen Problemlösens psychologisch plausibel simulieren kann (Schmid, Burghardt & Wagner, 2003). Durch die syntaktische Anti-Unifikation findet Lernen als Seiteneffekt beim Problemlösen statt und muss nicht als separate Komponente im Anschluss an den Abbildungsprozess realisiert werden. Ein weiterer Vorteil dieses Verfahrens ist, dass weder stochastische Elemente wie in Copycat, noch der Einsatz von Heuristiken für Realisierung der Analogiebildung nötig sind (Weller & Schmid, 2006). Außerdem ist der Mechanismus effizienter als die Algorithmen in anderen Analogiemodellen, da nicht erst verschiedene Abbildungen ausprobiert werden müssen, sondern die Gemeinsamkeiten in der Struktur explizit repräsentiert sind (Schmid, Burghardt & Wagner, 2003). Die auf diese Weise abstrahierten Lösungsprinzipien können dann auf weitere Probleme übertragen werden und erleichtern so künftige Problemlösungen. Problematisch ist allerdings, dass der Analogieprozess nicht vollständig modelliert wird und kein Mechanismus realisiert ist, der die begrenzten Kapazitäten des Prozessors überwacht. Außerdem müssen die Wissensbereiche von extern eingegeben werden. Abbildung 2.4: E-Generalisierung (aus Weller & Schmid, 2006). Die Terme A, B und C werden zu regulären Baumgrammatiken [A] E, [B] E und [C] E umgewandelt. Im ersten Schritt wird der E-Generalisierungs- Algorithmus (Burghardt, 2005) auf die Baumgrammatiken [A] E und [C] E angewendet. Dadurch entstehen eine Baumgrammatik G AC, die die gemeinsame Struktur aus [A] E und [C] E enthält, sowie die Substitutionen τ 1 und τ 2 der Baumgrammatiken [A] E und [C] E. Wendet man die Inverse von τ 1 auf [B] E an, entsteht eine Baumgrammatik Q, die die gemeinsame Struktur von B und D beschreibt. Durch die Anwendung von τ 2 auf Q entsteht im letzten Schritt eine reguläre Baumgrammatik [D] E, die alle möglichen Lösungen für die Proportionalanalogie enthält. Erweiterungen der E-Generalisierung HDTP (Heuristic-Driven Theory Projection, Gust, Kühnberger, & Schmid, 2006) kann anstelle von Termstrukturen ganze Theorien antiunifizieren und somit das Prinzip der E-Generalisierung erweitern: Die zu vergleichenden Inhaltsbereiche sind dabei auf die gleiche Weise wie im SME beschrieben. Damit HDTP Theorien anti-unifizieren kann, ist es zusätzlich mit dem Konzept der Theorieprojektion ausgestattet. Dabei wird das Anti-Unifikationsprinzip rekursiv von Termen auf atomare Formeln und anschließend auf Formeln angewendet. Dieser Prozess wird durch strukturelle Heuristi-

51 43 ken geleitet. Dabei wird über gemeinsame Strukturen generalisiert und so der Transfer von Fakten und Gesetzen ermöglicht (Gust, Kühnberger, & Schmid, 2006). Geeignete Kandidaten für die Generalisierung werden dabei mit dem in PROLOG implementierten HDTP-A- Algorithmus (Gust, Kühnberger & Schmid, 2006) gefunden. Die Gültigkeit solcher Generalisierungen wird anschließend durch Experimente im Zielbereich überprüft. Eine detaillierte Beschreibung der einzelnen syntaktischen, algorithmischen und semantischen Mechanismen findet sich bei Gust, Kühnberger und Schmid (2006). 2.4 Einordnung der Analogiemodelle in die neue Kategorisierung Die Grundlage für die Einteilung der vorgestellten Analogiemodelle in die soviel wie möglich - und soviel wie nötig -Kategorien bilden Art und Anzahl der beim analogen Abbildungs- und Transferprozess berücksichtigten Informationen. Alle Modelle, die den Übertrag des größten gemeinsamen Subgraphen vorsehen, gehören in die soviel wie möglich - Kategorie. Es werden alle jene Informationen transferiert, die über Relationen höherer Ordnung miteinander verbunden sind. Deshalb finden sich im Zielbereich eventuell auch Strukturen, die für die aktuelle Problemlösung nicht relevant sind. Sowohl der SME (Falkenhainer et al., 1986, 1989) als auch das analoge Abstraktionsmodell (Weller & Schmid, 2006) erfüllen diese Bedingungen. Sie bilden den ersten Theorienblock. Tabelle 2.3: Einordnung der Analogiemodelle in die neue Kategorisierung soviel wie möglich soviel wie nötig SME Purpose-directed-Analogy Analogy via abstraction ACME LISA ASTRA Copycat AMBR In allen anderen Modellen beeinflussen neben der Struktur auch der Kontext und die Ziele des Problemlösers den Abbildungsprozess. Es werden dabei nur solche Informationen auf den Zielbereich abgebildet, die auch tatsächlich für die Problemlösung notwendig sind. Zu dieser soviel wie nötig - Kategorie gehören die Purpose-directed-Analogy, ACME, LISA, ASTRA, Copycat und AMBR. STAR berücksichtigt überhaupt keine Transferkomponente und kann nicht in die Kategorisierung eingeteilt werden. Tabelle 2.3 bildet die Grundlage für die empirische Gegenüberstellung der beiden Theoriegruppen im Experiment. Auf den nächsten beiden Seiten finden sich die Tabellen 2.4 und 2.5, die die vorgestellten Analogiemodelle in das Beurteilungsraster aus Tabelle 2.2 einordnen.

52 44 Tabelle 2.4: Überblick über die Analogiemodelle (Teil 1) SME Purpose-directed- Analogy Analogietyp erklärende Analogien, erklärende Analo- analoges gien, analoges Problemlösen Problemlösen ACME erklärende Analogien, analoges Problemlösen LISA erklärende Analogien, analoges Problemlösen Subprozesse Abbildung, Transfer Abruf, Abbildung, Transfer Abbildung, Transfer Abruf, Abbildung, Transfer, Lernen Architektur Abbildung und Transfer Konstruktionsprinzip Symbolisch symbolisch hybrid hybrid Bearbeitung der Seriell seriell parallel seriell, parallel Subprozesse Steuerung Heuristiken Heuristiken Aktivierungsstärke Aktivierungsstärke Randbedingungen Strukturell strukturell, pragmatisch strukturell, pragmatisch, semantisch strukturell, pragmatisch, semantisch Lernen Transferprinzip Berücksichtigung von Lernen soviel wie möglich nur theoretisch angenommen, keine Implementierung in SME soviel wie nötig soviel wie nötig soviel wie nötig nein nur theoretisch angenommen, keine Implementierung in ACME nur theoretisch angenommen, keine Implementierung in LISA Speicherung theoretisch in abstrahierter Form angenommen - theoretisch in abstrahierter Form angenommen theoretisch in abstrahierter Form angenommen Zeitpunkt Abstraktion im Anschluss an den Abbildungsprozess vorgesehen - Abstraktion im Anschluss an den Abbildungsprozess vorgesehen. Abstraktion im Anschluss an den Abbildungsprozess realisiert. Keine Spezifikation des Algorithmus. Psycholog. Plausibilität Kapazitätsbeschränkungen nicht berücksichtigt nicht berücksichtigt nicht berücksichtigt berücksichtigt Eingabe von Basis- und Zielbereich Basis- und Zielbereich müssen von extern eingeben werden Basis- und Zielbereich müssen von extern eingegeben werden Basis- und Zielbereich müssen von extern eingegeben werden Basis- und Zielbereich müssen von extern eingegeben werden sonstiges Berücksichtigung der neuronalen Grundlagen von Wahrnehmung und Kognition. Verknüpfung der Analogiemodellierung mit kortikalen Funktionen. ABER: Keine Spezifikation der einzelnen Annahmen. Ergänzungen MAC/FAC (Abruf) SEQL (kategoriales Lernen) PHINEAS (Theorielernen) - ARCS (Abruf) -

53 45 Tabelle 2.5: Überblick über die Analogiemodelle (Teil 2) STAR ASTRA Copycat AMBR Analogy via abstraction Analogietyp Proportionalanalogien, erklärende Analogien erklärende Analogien, analoges Problemlösen Proportionalanalogien erklärende Analogien, analoges Problemlösen Proportionalanalogien, erklärende Analogien, analoges Problemlösen Modellierte Subprozesse Abruf, Abbildung Abruf, Abbildung, Transfer Repräsentation, Abbildung, Transfer Abruf, Abbildung, Transfer Abbildung, Transfer, Lernen Architektur Konstruktionsprinzip hybrid hybrid hybrid, Multiagentensystem hybrid, Multiagentensystem symbolisch Abbildung und Transfer Subprozesse seriell, parallel parallel parallel parallel parallel Steuerung Heuristiken Aktivierungsstärke probabilistische Mechanismen Aktivierungsstärke Abbildung via Abstraktion, keine Heuristiken nötig. Randbedingungen strukturell, semantisch strukturell, pragmatisch, semantisch pragmatisch (Plausibilitätsüberlegungen) strukturell, pragmatisch, semantisch strukturell Transferprinzip - soviel wie nötig soviel wie nötig soviel wie nötig soviel wie möglich Lernen Berücksichtigung von Lernen nein nein nein nein ja Speicherung Verwalten von konkreten Informationen in speziellen Speicherstrukturen. Ablegen von konkreten Informationen in Datenstrukturen möglich. - - Abstrakte Lösungsstruktur wird explizit repräsentiert und steuert den Abbildungsprozess. Kein Lernen Kein Lernen Zeitpunkt Speicherung im Anschluss an den Abbildungsprozess Speicherung im Anschluss an den Abbildungsprozess - - Abstraktion als Seiteneffekt beim analogen Problemlösen. Psycholog. Plausibilität Kapazitätsbeschränkungen Berücksichtigung durch Chunking und Segmentierung keine Berücksichtigung keine Berücksichtigung keine Berücksichtigung keine Berücksichtigung Eingabe von Basis- und Zielbereich Basis- und Zielbereich müssen von extern eingeben werden Basis- und Zielbereich müssen von extern eingeben werden Repräsentationen werden selbst erzeugt und flexibel rekonstruiert. Basis- und Zielbereich müssen von extern eingegeben werden Basis- und Zielbereich müssen von extern eingegeben werden. sonstiges Nachteil durch Zentralisierung der Gedächtnisstruktur. Dezentralisierung der Gedächtnisstruktur. Modellierung des Abbildungsprozesses mittels syntaktischer Anti-Unifikation. Ergänzungen HDTP

54 46 Kapitel 3 Empirische Befunde zum analogen Denken Kapitel 3 stellt die wichtigsten empirischen Ergebnisse über den analogen Denkprozess dar. Besonderes gut sind der Abruf- und Abbildungsprozess untersucht. Aber auch in Zusammenhang mit Inferenz- und Transferbildung liegen verlässliche Daten vor. Lernen wurde vor allem hinsichtlich einer möglichen Schemainduktion beim analogen Problemlösen betrachtet. 3.1 Abruf und Abbildung Damit die Abbildung beim analogen Problemlösen erfolgreich ablaufen kann, ist es zunächst notwendig, einen geeigneten Basisbereich zu identifizieren. Dazu werden bekannte Problemlöseepisoden aus dem Gedächtnis auf ihre Nützlichkeit geprüft. Eine Gedächtnisepisode ist dann für die Abbildung geeignet, wenn sie strukturell mit dem Zielbereich übereinstimmt. Solche strukturellen Korrespondenzen sind aber meistens schwierig zu entdecken, weshalb sich die Frage stellt, anhand welcher Kriterien ein geeigneter Basisfall am besten identifiziert werden kann. Grundsätzlich wird der Abrufprozess von semantischen, pragmatischen und strukturellen Randbedingungen gesteuert. In empirischen Untersuchungen zeigte sich aber, dass besonders die semantischen, oberflächlichen Übereinstimmungen zwischen Gedächtnisepisode und vorliegendem Problemfall eine Rolle für die Auswahl spielen (Brown, 1989; Gentner & Landers, 1985; Gentner & Toupin, 1986; Gilovich, 1981; Ratterman & Gentner, 1987; Ross, 1984, 1987, 1989a; Spencer & Weisberg, 1986; Vosniadou, 1987). Eine für die Analogiebildung geeignete Basis wird demnach umso leichter ausgewählt, wenn die zu vergleichenden Inhaltsbereiche ähnliche Attribute besitzen oder aus dem gleichen Wissensgebiet stammen (Keane, 1987). Semantische Übereinstimmungen zwischen Basis und Ziel führen aber nur dann zur Auswahl eines geeigneten Basisbereichs, wenn sie tatsächlich ein Indikator für strukturelle Korrespondenzen zwischen den beiden Inhaltsbereichen sind. Ansonsten kann

55 47 anhand oberflächlicher Gemeinsamkeiten kein für die Problemlösung geeigneter Inhaltsbereich ausgewählt werden. Eine zusätzliche Berücksichtigung pragmatischer Informationen ist deshalb häufig sinnvoll (Holyoak & Thagard, 1989b; Holyoak & Koh, 1987; Palmer, 1989; Schank, 1982; Spiro et al., 1989; Vosniadou, 1989), obwohl sie empirisch gesehen bislang eher eine untergeordnete Rolle spielen (Wharton et al., 1994; Wharton, Holyoak, & Lange, 1996). Welche Randbedingung den Abrufprozess schließlich dominiert, wird entscheidend durch die Expertise des Problemlösers determiniert. Experten sind bei der Problemlösung viel besser in der Lage, strukturelle Korrespondenzen zwischen einem gegebenen Zielbereich und einem möglichen Basisbereich im Gedächtnis zu identifizieren als Novizen. Demzufolge wird bei ihnen der Abruf auch hauptsächlich von relationalen Übereinstimmungen zwischen Basis und Ziel gesteuert. Sie lassen sich viel weniger von oberflächlichen Ähnlichkeiten irreführen als Novizen (Chi, Feltovich & Glaser, 1981; Novick, 1988b). Das wiederum steigert die Wahrscheinlichkeit, beim Abruf eine Basis auszuwählen, die auch tatsächlich für die Problemlösung verwendet werden kann, da sie hinsichtlich der Problemlösestruktur und nicht nur in Bezug auf oberflächliche Eigenschaften mit dem Zielbereich übereinstimmt. Letztendlich ist für einen erfolgreichen Abruf auch entscheidend, ob Basis und Ziel in geeigneter Weise enkodiert sind (Faries & Reiser, 1988). Je besser die Enkodierungen von Basis und Ziel übereinstimmen, desto größer ist auch die Wahrscheinlichkeit für einen korrekten Abruf (Gentner, 1989b). Während es relativ problematisch zu sein scheint, geeignete Fälle aus dem Gedächtnis abzurufen, bereitet der anschließende strukturelle Abgleich zwischen Basis und Ziel nur selten Schwierigkeiten (Gick & Holyoak, 1980). Zu diesem Problem gibt es verschiedene Untersuchungen, die den Abruf analoger Fälle aus dem Gedächtnis und den Abbildungsprozess unter variierenden Ähnlichkeitsbedingungen betrachten (Gick & Holyoak, 1980, 1983; Holyoak & Koh, 1987; Ratterman & Gentner, 1987). Sie kommen zu dem Ergebnis, dass Individuen häufig die Nützlichkeit von Beispielen oder früheren Problemlösungen nicht erkennen, wenn sie keinen Hinweis erhalten. Schon unspezifische Hinweise über die Verwendung von Beispielen führen allerdings zu einem deutlichen Leistungsanstieg beim analogen Problemlösen. Wenn die Probanden die Nützlichkeit des Basisanalogons erst einmal erkannt haben, können sie die strukturelle Abbildung ohne Probleme ausführen und die nötigen Inferenzen zur Problemlösung ziehen. Diese Beobachtung von Gick und Holyoak (1980) konnte in zahlreichen Folgeuntersuchungen, sowohl mit Erwachsenen (Gentner et al., 1993; Holyoak & Koh, 1987; Keane, 1987; Spencer & Weisberg, 1986), als auch mit Kindern (Chen, 1996; Holyoak, Junn, & Billman, 1984; Tunteler & Resing, 2002) repliziert werden.

56 48 Notwendige Voraussetzungen für den Abbildungsprozess sind dabei strukturelle Übereinstimmungen zwischen den beiden zu vergleichenden Inhaltsbereichen. Sie helfen, geeignete Korrespondenzen für den Problemlöseprozess zu identifizieren (Gentner & Landers, 1985; Gentner et al., 1993; Holyoak & Koh, 1987; Ratterman & Gentner, 1987; Ross, 1987, 1989a). Holyoak und Koh (1987) belegen, dass solche strukturellen Übereinstimmungen zwischen Basis und Ziel einen signifikanten Einfluss auf die Qualität der Problemlösung haben. Um solche strukturellen Zusammenhänge erkennen zu können, ist ein intaktes Arbeitsgedächtnis nötig. Es hilft, die strukturellen Rollen der einzelnen Elemente zu repräsentieren und zu manipulieren (Hummel & Holyoak, 1997, 2003). Die dafür zuständigen neuroanatomischen Korrelate sind im Frontallappen lokalisiert. Neurologische und neuropsychologische Studien fanden, dass diese Areale dann besonders stark aktiviert sind, wenn die strukturellen Einheiten eines vorliegenden Problems bearbeitet werden (Morrison et al., 2004). Die Beteiligung struktureller Informationen am Abbildungsprozess wird in allen Analogiemodellen vorausgesetzt. Uneinigkeit besteht jedoch darüber, ob zusätzlich semantische oder pragmatische Randbedingungen einen Einfluss haben. Man unterscheidet zwischen Theorien die auf dem Systematizitätsprinzip (Gentner, 1983) beruhen und Theorien, die den pragmatischen Ansatz (Holyoak & Thagard, 1989a) unterstützen. Alle Theorien, die auf dem Systematizitätsprinzip beruhen, gehen davon aus, dass allein die strukturellen Konsistenzen für eine Analogiebildung ausreichen. Demzufolge wird soviel kausal zusammenhängende Struktur wie möglich über eine Relation höherer Ordnung übertragen ( soviel wie möglich ). Die theoretischen Annahmen, die dem pragmatischen oder Multi-Constraint-Ansatz (Holyoak & Thagard, 1989a) folgen, beziehen zusätzlich inhaltliche Übereinstimmungen, sowie den Problemlösekontext und das Ziel der Analogiebildung ein. Hier wird nur soviel Struktur übertragen, wie für die Problemlösung nötig ist ( soviel wie nötig ). Für die Gültigkeit der soviel wie möglich -Ansätze gibt es zahlreiche empirische Belege. Psychologische Untersuchungen konnten beispielsweise zeigen, dass bei der Interpretation von Analogien eher die zu Grunde liegenden Relationen und weniger die übereinstimmenden Attribute herangezogen werden. Die Beurteilung der Angemessenheit einer Analogie korreliert dabei in hohem Maße mit dem Grad zu Grunde liegender Systematizität (Gentner & Landers, 1985; Ratterman & Gentner, 1987). Empirische Untersuchungen weisen auch nach, dass solche Struktursysteme bevorzugt beachtet werden, die sich zu bedeutungsvollen Kausalstrukturen kombinieren lassen (Clement & Gentner, 1991; Gentner & Clement, 1988; Gentner & Landers, 1985; Goldstone, Medin & Gentner, 1991; Markman & Gentner, 1990; Ratterman &

57 49 Gentner, 1987). Dabei regelt das Systematizitätsprinzip, welche Informationen in die Analogiebildung eingeschlossen werden (Clement & Gentner, 1991). Es gibt aber auch Untersuchungen, die für die Gültigkeit der soviel wie nötig -Theorien sprechen. Sie können die zusätzliche Beteiligung semantischer und pragmatischer Randbedingungen am Abbildungsprozess belegen. Demnach entscheiden persönliche Motive und die aktuellen Ziele des Problemlösers, ob ein Mappingprozess überhaupt initiiert wird und welche Teilinformationen von Basis und Ziel dann aufeinander abgebildet werden (z.b. Anderson & Thompson, 1989; Gick & Holyoak, 1980; Kedar-Kabelli, 1985). In Fällen, in denen mehrere potenzielle Vergleichsmöglichkeiten zwischen Basis und Ziel bestehen, regelt das Ziel des Problemlösers, welche Abbildung tatsächlich gebildet wird (Spellman & Holyoak, 1996). Hummel und Holyoak (1997) führen dies darauf zurück, dass pragmatisch zentrale Propositionen eben früher bemerkt werden und deshalb den Abbildungsprozess dominieren können. In einer neueren Untersuchung konnte Thagard (2000) schließlich zeigen, dass beim Abbildungsprozess strukturelle, semantische und pragmatische Randbedingungen miteinander interagieren, um die Menge optimaler Korrespondenzen zu ermitteln. Die empirischen Befunde können bislang nicht entscheiden, welche der beiden Theoriegruppen wahrscheinlicher zutrifft. Sicher ist nur die Beteiligung struktureller Randbedingungen am Abbildungsprozess. Eindeutige Klarheit über eine zusätzliche Berücksichtigung von semantischen und pragmatischen Informationen kann nur gewonnen werden, wenn die beiden Ansätze in einem Experiment direkt gegenübergestellt werden. Es muss so aufgebaut sein, dass unterschiedliche Abbildungen zwischen Basis- und Zielbereich möglich sind, je nachdem, ob das Systematizitätsprinzip oder die pragmatischen Informationen berücksichtigt werden. Ein geeignetes Experiment wird im methodischen Teil vorgestellt. 3.2 Inferenz, Transfer und Lernen Der Abbildungsprozess dient dazu, Korrespondenzen zwischen Basis- und Zielbereich hervorzuheben. Die so gefundenen Übereinstimmungen bilden den Input für einen Inferenzmechanismus, der im Ziel neue Propositionen generiert. Auch die Inferenzbildung muss von zusätzlichen Randbedingungen gesteuert werden, da sonst jede nicht abgebildete Basisproposition eine Inferenz im Ziel bilden würde (Clement & Gentner, 1991; Holyoak, Novick, & Melz, 1994; Markman, 1997). Das führt dann zu Fehlern, wenn Basis- und Zielbereich nicht isomorph sind. Ein Inferenzmechanismus ohne zusätzliche Randbedingungen wäre also nicht geeignet, um komplexe Probleme zu bearbeiten. Empirische Untersuchungen konnten dabei

58 50 einen Einfluss struktureller, semantischer und pragmatischer Randbedingungen auf die Inferenzbildung nachweisen (Lassaline, 1996; Spellman & Holyoak, 1996). Es wurde auch gezeigt, dass Inferenzen automatisch erzeugt werden, wenn eine Person versucht, einen unbekannten Zielbereich mit Hilfe eines bekannten Basisbereichs zu verstehen (Blanchette & Dunbar, 2002). Die gebildeten Inferenzen werden dabei in das ursprüngliche Wissen über den Zielbereich integriert (Blanchette & Dunbar, 2002). Die für die Inferenzbildung nötigen Informationen werden im Transferschritt vom Basis- auf den Zielbereich übertragen. Auch dieser Teilschritt basiert auf strukturellen Korrespondenzen zwischen den verglichenen Inhaltsbereichen und wird durch Randbedingungen kontrolliert. Neben den strukturellen Informationen werden dabei oberflächliche Übereinstimmungen zwischen den beiden Inhaltsbereichen für den Transferprozess herangezogen. So konnte beispielsweise gezeigt werden, dass Transfer auch dann selten stattfindet, wenn der Proband zwar über die Relevanz des Basisproblems informiert wurde, aber oberflächliche Ähnlichkeiten zwischen Basis und Ziel fehlen (Gick & Holyoak, 1980, 1983; Reed, Ernst & Banerji, 1974). Bestehen dagegen Ähnlichkeiten in Struktur und Inhalt, so kann spontaner Transfer beobachtet werden (Holyoak & Koh, 1987; Hayes & Simon, 1974; Reed et al., 1974). Eine rein oberflächliche Übereinstimmung zwischen Basis- und Zielbereich reicht - bei fehlender Strukturgleichheit dagegen nicht aus, um einen Transfer zu ermöglichen (Novick, 1988b; Ross, 1989a). Zusätzlich zu Struktur und Inhalt konnte auch beim Transferprozess eine pragmatische Komponente nachgewiesen werden. Sowohl die Ziele des Problemlösers, als auch der Problemkontext beeinflussen die Entscheidung, welche Informationen von der Basis auf das Ziel transferiert werden sollen (Carbonell, 1986; Kedar-Cabelli, 1985, 1988b; Kokinov, 1990). Die Verwendung von Analogien ist auch eng verknüpft mit Lernprozessen (Gentner, Holyoak & Kokinov, 2001; Gregan-Paxton & John, 1997; Halpern, 1998; Isenberg, 1986). Empirische Studien zeigen beispielsweise, dass der strukturelle Vergleich zwischen zwei Bereichen zur Extraktion abstrakter, relationaler Schemata führt (Gick & Holyoak, 1983; Ratterman & Gentner, 1998; Sandhofer & Smith, 2001; Yamauchi & Markman, 2000). Diese Schemata enthalten dann nur noch die Gemeinsamkeiten zwischen den verglichenen Situationen. Die Unterschiede werden vernachlässigt (Ross, 1989b). Der gleiche Effekt entsteht auch, wenn ein bekanntes Problem verwendet wird, um ein anderes, strukturähnliches Problem zu lösen (Medin & Ross, 1989; Novick & Holyoak, 1991; Ross & Kennedy, 1990). Die gefundenen Gemeinsamkeiten können dann unabhängig vom Problemkontext gespeichert werden. Eine

59 51 solche Schemainduktion kann aus dem Vergleich mehrerer strukturähnlicher Analoga erfolgen (Catrambone & Holyoak, 1989; Loewenstein, Thompson & Gentner, 1999; Ross & Kennedy, 1990) oder aber auch schon beim Vergleich von nur zwei analogen Fällen entstehen (Gick & Holyoak, 1983). Die Bildung von Schemata aus mehreren analogen Fällen wird schon bei Kleinkindern beobachtet (Brown, Kane & Echols, 1986; Chen & Daehler, 1989; Holyoak, Novick, & Melz, 1994; Kotovsky & Gentner, 1996) und scheint somit ein basaler Prozess des analogen Problemlösens zu sein. Der gleiche Effekt wird aber auch dann beobachtet, wenn zwei nur teilweise bekannte Situationen oder ungelöste Probleme miteinander verglichen werden. Ein solcher Vergleich hilft, die Probleme in geeigneter Weise zu enkodieren und fördert deren Re-Repräsentation (Gentner, Loewenstein & Thompson, 2004; Kurtz & Loewenstein, 2004). Weitgehend Uneinigkeit besteht darüber, zu welchem Zeitpunkt eine solche abstrakte Schemabildung stattfindet. Einige Ansätze sehen die Schemainduktion als Seiteneffekt der Anwendung eines gelösten Basisproblems auf ein ungelöstes Zielproblem (Ross & Kennedy, 1990; Schmid, Burghardt & Wagner, 2003; Weller & Schmid, 2006). Sie behaupten, dass eine Generalisierung automatisch während der Problemlösung stattfindet. Andere Ansätze verstehen die Schemainduktion als Konsequenz des Abbildungsprozesses und nehmen dabei an, dass eine Generalisierung über die Gemeinsamkeiten zwischen zwei Problemfällen erst nach Abschluss des Abbildungsprozesses erfolgt (Gentner & Medina, 1999; Gentner & Wolff, 2000; Kurtz, Gentner & Gunn, 1999). Bislang gibt es noch keine gesicherten Daten, die eine der beiden Vermutungen stützen würden. Ein Schema, das durch analogen Vergleich oder analoges Problemlösen entstanden ist, begünstigt den Transfer der gewonnenen Informationen auf weitere strukturähnliche Probleme (Catrambone & Holyoak, 1989; Cummins, 1992; Gentner & Namy, 1999; Gick & Holyoak, 1983; Holyoak, 1984, 1985; Loewenstein, Thompson & Gentner, 1999; Schwartz & Bransford, 1998; Thompson, Gentner & Loewenstein, 2000; Vanderstoep & Seifert, 1993). Wenn nur Erfahrung mit einem Problembereich gesammelt wird und somit keine Möglichkeit zur Abstraktion der Problemlösestruktur durch Vergleich besteht, kann kein Transfer auf neue Problemfälle festgestellt werden (Doumas & Hummel, 2004). Chen und Mo (2004) argumentieren, dass durch das Lösen analoger Probleme in verschiedenen Kontexten die strukturellen Zusammenhänge schneller erkannt werden, weil die Individuen lernen, dass eine Problemlösung mit den unterschiedlichsten Inhalten verknüpft sein kann. Sie können dann, wenn sie mit einem neuen analogen Problem konfrontiert werden, das generelle Lösungsprinzip flexibler

60 52 an den Problemlösekontext adaptieren und für die Problemlösung nutzen. Loewenstein, Thompson und Gentner (2003) konnten beispielsweise in Zusammenhang mit dem Erwerb von Verhandlungsstrategien feststellen, dass Teams die Beispielfälle verglichen, die relevante Verhandlungsstrategie deutlich besser auf neue Situationen transferieren konnten als Teams, die beide Fälle separat lösen mussten. Letztere hatten keinen oder nur einen geringen Vorteil gegenüber solchen Teams, die überhaupt keine Beispielfälle zum Üben erhalten hatten. Positive Effekte analogen Vergleichs konnten auch auf dem Bereich der Mathematik und der Physik nachgewiesen werden (Catrambone & Holyoak, 1989; Glynn & Takahashi, 1998; Kurtz, Miao & Gentner, 2001; Novick & Holyoak, 1991; Ross & Kennedy, 1990). Der Nachweis einer erfolgreichen Schemainduktion ist allerdings mit methodischen Problemen verbunden. Es stellt sich die Frage, wie die Entstehung eines Schemas beim Problemlösen beobachtet oder erfasst werden kann und mit welchen Variablen sie operationalisiert werden soll. In empirischen Untersuchungen wird meist die Schemaqualität als Prädiktor für eine erfolgreiche Generalisierung der Lösungsstruktur herangezogen (z.b. Bassok & Holyoak, 1989; Catrambone & Holyoak, 1989; Gick & Holyoak, 1983; Novick & Holyoak, 1991; Reed, 1989; Ross & Kennedy, 1990). Sie kann direkt oder indirekt erfasst werden. Die Idee bei der indirekten Beobachtung ist, das Vorhandensein eines abstrakten Lösungsschemas aus einer erfolgreichen Problembearbeitung im Zielbereich abzuleiten (Catrambone & Holyoak, 1989; Chen & Mo, 2004; Chi; Bassok, Lewis, Reimann & Glaser, 1989; Crisafi & Brown, 1986; Donnelly & McDaniel, 1993; Gick & Holyoak, 1983; Holyoak & Koh, 1987; Keane, 1995; Kurtz, Miao & Gentner, 2001; Loewenstein, Thompson & Gentner, 2003; Nokes & Ohlsson, 2001; Reeves & Weisberg, 1990; Spencer & Weisberg, 1986). Eine Möglichkeit zur Erfassung der Schemaqualität ist dabei, die Lösungszeiten bei der Bearbeitung des Zielproblems zu messen. Wenn kein Schema vorhanden ist, muss ein vorliegendes Problem durch analoges Problemlösen bearbeitet werden. Dabei muss die gemeinsame Lösungsstruktur beider Fälle erst im Abbildungsschritt expliziert werden, bevor sie für die Problemlösung verwendet werden kann. In einem Schema liegt die Lösungsstrategie dagegen schon in abstrakter, expliziter Form vor und muss nur angewendet werden. In der Konsequenz dauert eine Problemlösung auf der Basis eines Schemas weniger lang, als das Problemlösen auf der Basis eines konkreten Beispiels. Zusätzlich kann auch die Lösungshäufigkeit bei einem Problemfall als Prädiktor für die Schemaqualität verwendet werden. Für sie gilt die gleiche Argumentation wie für die Lösungszeiten: Abstrakte Informationen über das Lösungsprinzip erleichtern das Problemlösen und führen deshalb zu höheren Lösungshäufigkeiten. In der vorliegenden Un-

61 53 tersuchung werden sowohl die Lösungshäufigkeiten, als auch die Lösungszeiten für den Nachweis einer Schemainduktion verwendet. Direkt kann die Schemainduktion aufgezeichnet werden, indem man die Probanden bei der Enkodierung des Basisproblems beobachtet (Bassok & Holyoak, 1989; Novick & Holyoak, 1991). Das funktioniert am besten, indem man den Probanden bittet, den Basisbereich inhaltlich zusammenzufassen (Novick & Holyoak, 1991). Die so entstandenen Aufzeichnungen werden dann hinsichtlich ihrer Qualität von unterschiedlichen Ratern nach bestimmten Gesichtspunkten beurteilt. Zusätzlich können die Zusammenfassungen der Probanden auf typische Fehler analysiert werden (Novick & Holyoak, 1991). Die Inhaltsprotokolle und Fehleranalysen werden schließlich verwendet, um die Transferleistung der Probanden zu beurteilen. Eine weitere Möglichkeit, eine Schemainduktion auf direktem Wege messen zu können, sind thinking-aloud -Protokolle. Bei dieser Methode müssen die Probanden jeden ihrer Problemlöseschritte laut kommentieren. Die dabei aufgezeichneten Protokolle können dann anhand eines Kategoriensystems ausgewertet werden und zur Beurteilung der Schemaqualität dienen (Bassok & Holyoak, 1989). Sie stellen im Prinzip die einzige Möglichkeit dar, den Prozess der Schemainduktion eins-zu-eins zu verfolgen. Aus pragmatischen Gründen werden allerdings häufig indirekte Messmethoden verwendet.

62 54 Kapitel 4 Untersuchungsbereich Kapitel 4 stellt die Bedeutung von Analogien für physikalische Inhaltsbereiche dar und führt die Wasserkreis-Stromkreis-Analogie ein. Es wird die besondere Struktur dieser Analogie erklärt und begründet, warum sie sich für die vorliegende Studie eignet. 4.1 Analogien in der Physik Für die vorliegende Studie wird der Bereich der qualitativen und quantitativen Physik ausgewählt. Qualitatives Physikwissen bezieht sich immer auf die Konzepte, die einem Inhaltsbereich zu Grunde liegen. Sie beschreiben z.b. welche Kräfte auf einen Körper wirken oder in welche Richtung Elektronen in einem elektrischen Stromkreis fließen. Quantitatives Wissen wird dagegen in Form von algebraischen Gleichungen repräsentiert. Es beschreibt die numerischen Zusammenhänge und Gesetzmäßigkeiten in einem Inhaltsbereich. Physikalische Fragestellungen werden auf Grund ihrer hohen Strukturiertheit gerne zur Untersuchung analoger Denkprozesse herangezogen (Clement, 1988, 1989; Gentner & Gentner, 1983; Klenk & Forbus, 2006; Novick, 1988b, 1991). Es besteht ein enger Zusammenhang zwischen der Verwendung von Analogien und wissenschaftlichem Arbeiten in der Physik. Dort unterstützen analoge Prozesse häufig die kreative Beantwortung wissenschaftlicher Hypothesen und Fragestellungen (Campbell, 1957; Dreistadt, 1968; Duncker, 1935; Gordon, 1961; Hesse, 1966; Koestler, 1964; Nagel, 1961; Novick, 1988b, 1991; Rumelhart & Abrahamson, 1973; Sternberg, 1977). Rutherfords Analogie zwischen Sonnensystem und Atomaufbau ist ein Beispiel dafür. Die Physik ist außerdem ein sehr formalisierter Bereich, der einen hohen Grad an Strukturiertheit aufweist. Die Schwierigkeit, die diese Disziplin mit sich bringt, liegt vor allem darin, dass qualitative Alltagskonzepte

63 55 über das Funktionieren der Welt in strukturierte Formalismen umgewandelt werden müssen (Klenk & Forbus, 2006). Dieser Vorgang ist nötig, um die zu Grunde liegenden Gesetzmäßigkeiten auf die unterschiedlichsten Fragestellungen flexibel anwenden zu können. Analogien unterstützen diesen Prozess auf zwei Arten. Zum einen sind sie geeignet, um abstrakte Repräsentationen eines Problembereichs zu erzeugen. Durch ihre Verwendung kann die Lösungsstruktur verwandter Probleme extrahiert und gleichzeitig von irrelevanten, oberflächlichen Details abstrahiert werden (z.b. Chen & Mo, 2004; Gick & Holyoak, 1983). Weitere strukturähnliche Probleme können dann durch diese generalisierten Regeln gelöst werden, die für den einzelnen Problemfall wieder instantiiert werden (z.b. Catrambone & Holyoak, 1989; Gick & Holyoak, 1983). Gleichzeitig bilden sich abstrakte Problemkategorien, die es dem Problemlöser erleichtern, den Typ eines vorliegenden Problems zu identifizieren. Untersuchungen konnten in diesem Zusammenhang zeigen, dass Physikexperten physikalische Problemstellungen eher nach der zu Grunde liegenden Struktur kategorisieren, während sich Novizen von möglicherweise irreführenden, oberflächlichen Merkmalen leiten lassen (Chi, Feltovich, & Glaser, 1981). Den Kategorien der Experten ist somit die Lösungsstruktur der verglichenen Fälle gemeinsam, was eine schnelle und effiziente Problemlösung aller Beispiele dieser Klasse ermöglicht. Die Kategorien der Novizen enthalten dagegen Probleme, die zwar oberflächlich ähnlich sind, aber auf unterschiedlichsten Problemlösestrategien basieren. Aus diesem Grund können Novizen wesentlich schlechter von ihrer Kategorisierung für nachfolgende Problemlösungen profitieren. Zum anderen sind physikalische Probleme häufig alltagsfremd und machen eine anschauliche Problemrepräsentation eher schwierig (Schwedes & Dudeck, 1993). Man kann sich aber stellvertretend für den physikalischen Bereich ein strukturähnliches Modell aus einem alltagsnahen Kontext erzeugen und daran die Vermutungen für das physikalische Problem überprüfen. Dazu wird Wissen aus anderen Inhaltsbereichen genutzt, um mit Hilfe von Analogien vereinfachte mentale Modelle für den physikalischen Bereich aufzubauen (Schwedes & Dudeck, 1993): Unter mentalen Modellen versteht man dabei innere Gegenstände, die es mit Hilfe einer Analogie erlauben, Aufgaben und Probleme zu lösen. Solche Modelle lassen sich je nach Situation und Kontext neu konstruieren und sind nicht als starre Muster im Gedächtnis angelegt. Sie erlauben, bestimmte Prozessabläufe zu repräsentieren, Vorhersagen über einen Problembereich zu machen und Schlussfolgerungen zu ziehen. An solchen Modellen können dann die physikalischen Denkprozesse stellvertretend ausgeführt und Hypothesen getestet werden, wodurch ein erster Zugang in einen völlig neuen Inhaltsbereich möglich ist.

64 56 Alltagsvorstellungen können die Erschließung eines neuen Problembereichs aber auch stören, wenn sie unangemessen sind (Maichle, 1985; v. Rhöneck, 1986; Shipstone et al., 1988). Die Bildung solcher Misskonzepte wird häufig im schulischen Kontext beobachtet (Schwedes & Dudeck, 1993). Werden beispielsweise physikalische Theorien auf diese Weise gestützt, besteht das Problem, dass einzelne unzutreffende Konzepte nicht isoliert nebeneinander stehen, sondern über das Alltagskonzept integriert sind. Eine Vielzahl falscher Vorstellungen stützt sich somit gegenseitig und wird sehr resistent gegenüber Veränderungen (disessa 1993; Carey, 1991; Chi, 1992; Chi, Slotta, & de Leeuw, 1994). In diesem Fall macht es wenig Sinn, nur einzelne Konzepte in Frage zu stellen und ihre Fehlerhaftigkeit zu beweisen. Die Schüler würden eher versuchen, die neuen Erkenntnisse in das fehlerhafte Alltagsmodell zu integrieren, als eine Revision des Modells vorzunehmen (Schwedes & Dudeck, 1993). An dieser Stelle können Analogien aber sehr effektive Verständnishilfen darstellen. Sie sind in der Lage, nicht nur einzelne Komponenten zu hinterfragen, sondern das gesamte fehlerhafte Alltagskonzept zu modifizieren. Man greift hier allerdings nicht auf bestehendes Wissen zurück, sondern führt systematisch einen geeigneten Basisbereich mit seinen Problemen und den dazugehörigen Lösungen ein. Dabei muss man einen solchen Bereich auswählen, der keine Relevanz im Alltag besitzt und nicht von falschen Vorstellungen überlagert ist. Durch analogen Schluss kann dann die korrekte Problemlösung auf den eigentlich interessierenden Bereich übertragen werden (Holyoak, Junn, & Billman, 1988). Dieses Vorgehen ist allerdings nur dann erfolgreich, wenn die Basisanaloga sorgfältig ausgesucht werden und der Problemlöser informiert wird, an welcher Stelle die verwendete Analogie nicht mehr gültig ist (Dagher, 1995; Glynn, Duit, & Thiele, 1995). Wie analoge Prozesse auf diese Weise effektiv im Unterricht eingesetzt werden können, zeigen Lehr- und Lernprozessstudien (Clement, 1987; Clement, 1993; Haeberlen, 1999; Paatz, Ryder & Schwedes, 2004). Clement (1987) konnte außerdem nachweisen, dass Klassen, die mit Analogien unterrichtet wurden, mehr vom Unterricht profitieren konnten, als Klassen, in denen herkömmlich unterrichtet wurde. 4.2 Die Wasserkreis-Stromkreis-Analogie Eine der bekanntesten Analogien aus dem physikalischen Bereich ist die Wasserkreis-Stromkreis-Analogie. Sie wird deshalb so häufig benutzt, weil der Inhaltsbereich der Elektrizitätslehre stark belastet ist, von unzutreffenden Alltagsvorstellungen über die gültigen physikalischen Gesetzmäßigkeiten (Maichle, 1985; v. Rhöneck, 1986; Shipstone et al., 1988). Um solche Misskonzepte revidieren zu können, bedient man sich im Physikunterricht häufig des Wasserkreislaufs, weil dort die betreffenden physikalischen Zusammenhänge leichter verdeut-

65 57 licht werden können. Ein weiterer Vorteil besteht darin, dass der Wasserkreislauf den Schülern aus dem Alltag kaum geläufig ist, so dass im Vorfeld keine falschen Konzepte gebildet werden (Schwedes & Schilling, 1983; Schwedes, 1985). Wenn der Wasserkreislauf sorgfältig eingeführt wird, können die Schüler die dort erworbenen Regeln auf den Stromkreis übertragen und dadurch falsche Annahmen korrigieren. Abbildung 4.1: Wasserkreis-Stromkreis-Analogie In der vorliegenden Untersuchung wird die Wasserkreis-Stromkreis-Analogie verwendet, um den analogen Transferprozess und die Mechanismen der Schemainduktion zu untersuchen. Das Untersuchungsmaterial ist dabei in Anlehnung an das Wassermodell von Schwedes und Dudeck (Schwedes & Dudeck, 1993) konstruiert. Im Folgenden werden kurz sein Aufbau und die enthaltenen analogen Zusammenhänge zwischen Wasser- und Stromkreis dargestellt (Abbildung 4.1). Ein Überblick über die Bauteile und ihre Funktionsweisen findet sich in Tabelle 4.1. Ein besonderer Vorteil dieses Wassermodells ist die Verwendung einer Doppelwassersäule (DWS) als Analogon für eine konstante Stromquelle. In ihren zwei nebeneinander angebrachten Wassersäulen kann das Wasser, das sich im Kreislauf befindet, unterschiedlich hoch steigen. Man spricht von unterschiedlichen Pegelständen oder einer Pegeldifferenz. Je höher das Wasser in einer Säule steigt, desto mehr Druck übt es auf den Wasserkreis aus. Durch verschiedene Pegel in den Säulen der Doppelwassersäule, wird so eine Druckdifferenz p im Wasserkreis erzeugt. Diese Druckdifferenz setzt einen Wasserfluss in Gang, weshalb die Doppelwassersäule auch als Antrieb des Wassersystems bezeichnet werden kann. Dabei fließt das Wasser von der Säule mit dem höheren Pegelstand zur Säule mit dem niedrigeren Pegel-

66 58 stand. Durch eine Pumpe, die im Inneren der Doppelwassersäule angebracht ist, wird die Druckdifferenz immer konstant gehalten, so dass ein kontinuierlicher Wasserstrom gemessen werden kann. Der DWS entspricht im elektrischen Stromkreis eine Batterie (BAT), an der eine konstante Quellspannung herrscht. Dort sorgt eine Ladungsdifferenz zwischen den beiden Polen der Batterie für den Stromfluss. Man spricht im elektrischen Stromkreis anstelle von Ladungsdifferenzen auch von Spannung oder elektrischem Potenzial. Neben der Doppelwassersäule befindet sich auch ein Kreisel K im Wassersystem. Er behindert den Wasserfluss an der Stelle, an der er in den Kreislauf eingebaut wird und hat einen internen Widerstand R W. Kreisel haben die Eigenschaft, dass sie sich unterschiedlich schnell drehen können. Die Drehgeschwindigkeit hängt dabei von der Wasserstromstärke I W ab. Sie meint die Menge an Wasser V, die pro Zeiteinheit einen bestimmten Punkt im Wasserkreis passiert (I W = V/t). Je größer die Wasserstromstärke ist, desto schneller dreht sich der Kreisel. Auf diese Weise kann also die Größe der Wasserstromstärke gemessen werden. Verschiedene Kreisel erzeugen aber immer auch unterschiedliche Widerstände im Kreislauf. Im Versuchsmaterial werden sie durch unterschiedliche Kreiselgrößen dargestellt. Je größer ein Kreisel ist, desto größer ist sein Widerstand. Im Stromkreis entspricht dem Kreisel eine Glühbirne L. Auch sie kann unterschiedlich große Widerstände haben und wird deshalb im Versuchsmaterial wieder in verschiedenen Größen verwendet. Sie dient als Messgerät für die Stromstärke. Die Stromstärke ist dabei die Größe der Elektronenladung Q, die pro Zeiteinheit an einem Punkt im Kreislauf gemessen werden kann (I = Q/t). Wenn die Stromstärke groß ist, leuchtet die Birne sehr stark, wenn wenig Strom fließt, leuchtet sie nur schwach. Ist die Stromstärke 0, so leuchtet die Birne überhaupt nicht. Kreisel behindern dort den Wasserfluss im Kreislaufsystem, wo sie angebracht werden. Das kommt daher, dass nun nicht mehr die gleiche Menge an Wasser einen bestimmten Messpunkt passieren kann. Druckdifferenzen am Kreisel sorgen aber dafür, dass die Wasserstromstärke trotzdem im gesamten Kreislauf konstant bleibt. Für die Messung solcher Druckdifferenzen wird ein Druckdifferenzmesser verwendet. Er besteht aus zwei Säulen, aus deren Pegeldifferenzen sich die Druckdifferenz über den Kreisel ableiten lässt. Diese Druckdifferenz ist umso größer, je größer der Widerstand des Kreisels ist. Im Stromkreis kann analog dazu eine Spannung an der Glühbirne gemessen werden. Der Druckdifferenzmesser wird dazu im elektrischen Stromkreis durch einen gebräuchlichen Spannungsmesser mit zwei Prüfspitzen ersetzt, zwischen denen die Differenz der Ladungskonzentrationen gemessen werden kann. Je größer der Widerstand der Glühbirne ist, desto größer ist auch die gemessene Spannung.

67 59 Tabelle 4.1: Bauteile im Wasserstromkreis und im elektrischen Stromkreis Wasserstromkreis Elektrischer Stromkreis Doppelwassersäule: Batterie: Eine Doppelwassersäule kann eine Druckdifferenz erzeugen. Die Druckdifferenz ergibt sich aus der Differenz der Ladungsdifferenz ergibt sich eine elektrische Spannung. Die An einer Batterie liegt eine Ladungsdifferenz an. Aus dieser beiden Pegelstände in der Doppelwassersäule. Durch die Ladungsdifferenz berechnet sich aus der Differenz der Elektronenkonzentrationen am Plus- und Minuspol der Batterie. anliegende Druckdifferenz kann die Doppelwassersäule einen Wasserfluss im Wasserstromkreis erzeugen. Ein- und dieselbe Batterie erzeugt immer die gleiche Ladungsdifferenz bzw. Spannung Kreisel: Der Kreisel zeigt im Wasserstromkreis einen Wasserfluss an. Er erschwert das Durchfließen des Wassers. Der Kreisel erzeugt eine Druckdifferenz im Wasserstromkreis Druckdifferenzmesser: Der Druckdifferenzmesser besteht aus zwei separaten Säulen, in denen der Wasserdruck angezeigt wird. Mit dem Druckdifferenzmesser kann die Druckdifferenz an jeder Stelle des Wasserstromkreises gemessen werden. Die Druckdifferenz ergibt sich aus der Differenz der Pegelstände. Glühbirne: Die Glühbirne zeigt im Stromkreis den Stromfluss an. Sie erschwert das Durchfließen des Stroms. Die Glühbirne erzeugt eine Ladungsdifferenz im Stromkreis. Spannungsmesser: Der Spannungsmesser besteht aus zwei Prüfspitzen, an denen die Ladungskonzentration gemessen werden kann. Mit dem Spannungsmesser kann eine Ladungsdifferenz an jeder Stelle des Stromkreises gemessen werden. Er ist also eine Art Messgerät. Die Ladungsdifferenz ergibt sich aus der Differenz der beiden gemessenen Ladungskonzentrationen 4.3 Struktur des Untersuchungsmaterials Mit Hilfe der Wasserkreis-Stromkreis-Analogie werden Untersuchungen zum Abbildungsund Transferprozess und zur Schemainduktion durchgeführt. Im ersten Teil sollen die soviel wie möglich - und soviel wie nötig -Kategorien einander empirisch gegenübergestellt werden. Sie postulieren unterschiedliche Ergebnisse für den Transferprozess, je nachdem, ob eine pragmatische Komponente eine Rolle spielt oder nicht. Geeignetes Untersuchungsmaterial muss also so konstruiert sein, dass es in Abhängigkeit des angewendeten Transferprinzips unterschiedliche Abbildungsprozesse möglich macht. Wenn der Problemlösekontext eine Rolle spielt, dann sollte nur die Struktur übertragen werden, die auch für die Problemlösung benötigt wird. Das Untersuchungsmaterial ist aber so konzipiert, dass bei Gültigkeit des Systematizitätsprinzips auch zusätzliche Informationen über eine Relation höherer Ordnung übertragen werden können. Im zweiten Teil des Experiments soll dann getestet werden, ob analoges Problemlösen tatsächlich zur Induktion eines Problemlöseschemas führt. Das Untersuchungsmaterial muss dafür so beschaffen sein, dass es die Anwendung eines abstrakten Schemas zur Problemlösung von analogem Problemlösen anhand eines konkreten Beispiels unterscheiden kann. Als abhängige Variable werden dazu die Lösungszeiten und häufigkeiten bei der Problembearbeitung gemessen. Für beide Fragestellungen werden die strukturellen Gemeinsamkeiten der Wasserkreis- Stromkreis-Analogie ausgenutzt. Die Problemstruktur wird in diesem Fall durch die physikalischen Gesetzmäßigkeiten, die beiden Bereichen gemeinsam sind, repräsentiert. Es bestehen

68 60 dabei im Wasserkreislaufsystem folgende Zusammenhänge zwischen Wasserstromstärke I W, Druckdifferenz p und Kreiselwiderstand R W : Wasserstromstärke I W und Druckdifferenz p sind direkt proportional, d.h. wenn die Druckdifferenz p an der Doppelwassersäule zunimmt, dann nimmt auch die Wasserstromstärke I W im Wasserkreislaufsystem zu, wenn sich ansonsten nichts verändert. Kreiselwiderstand R W und Wasserstromstärke I W sind dagegen indirekt proportional, d.h. dass die Wasserstromstärke I W im System umso kleiner ist, je größer der Widerstand R W des Systems ist. Kreiselwiderstand R W und Druckdifferenz p sind dagegen wieder direkt proportional. Die Druckdifferenz p, die man über einem Kreisel messen kann, ist dabei umso größer, je größer der Kreiselwiderstand R W ist. Zusätzlich gilt, dass man Druckdifferenzen nur über Kreiseln messen kann. Bringt man einen Druckdifferenzmesser an zwei Punkten an, zwischen denen kein Kreisel liegt, so zeigt er eine Druckdifferenz von p = 0 an. Tabelle 4.2: Gesetzmäßigkeiten für einfache Kreislaufsysteme Wasserstromkreis Elektrischer Stromkreis Druckdifferenz p: Spannung U: Je größer der Widerstand R W des Kreisels ist, desto größer Je größer der Widerstand R der Glühbirnen ist, desto ist die Druckdifferenz, die über diesem Kreisel gemessen größer ist die Spannung, die über dieser Glühbirne gemessen werden kann: U ~ werden kann: p~ R W R Kreiselwiderstand R W : Je größer der Gesamtwiderstand R W des Systems ist, desto kleiner ist die Wasserstromstärke I W (bei gleicher Druckdifferenz p der Doppelwassersäule): I W ~ 1/R W Wasserstromstärke I W : Je größer die Druckdifferenz p an der Doppelwassersäule ist, desto größer ist auch die Wasserstromstärke I W des Systems: p ~ I W Elektrischer Widerstand R: Je größer der Gesamtwiderstand R des Systems ist, desto kleiner ist die elektrische Stromstärke I (bei gleicher Quellspannung U der Batterie): I ~ 1/R Elektrische Stromstärke I: Je größer die Spannung U der Batterie ist, desto größer ist auch die elektrische Stromstärke I des Systems: U ~ I Beim elektrischen Stromkreis verhält es sich analog. Je größer die Spannung U an der Batterie ist, desto größer ist auch die Stromstärke I im elektrischen Stromkreis, wenn ansonsten alles unverändert bleibt. Widerstand R und Stromstärke I sind indirekt proportional. Je größer der Widerstand R im System ist, desto kleiner ist die Stromstärke I. Zwischen Spannung U und Widerstand R besteht ein direktes Proportionalitätsverhältnis. Die Spannung U, die man an einem Widerstand R messen kann, ist umso größer, je größer der Widerstand ist. Spannungen können wieder nur über Widerständen gemessen werden. Den Zusammenhang zwischen Spannung U, Stromstärke I und Widerstand R gibt dabei das Gesetz von OHM in Form einer mathematischen Relation wieder: U = R*I. Tabelle 4.2 stellt die Gesetzmäßigkeiten im Wasserstromkreis und die analogen Entsprechungen im elektrischen Stromkreis zusammenfassend dar.

69 61 Für das Versuchsmaterial werden zusätzlich die Kirchhoffschen Gesetze für eine Reihenschaltung von Widerständen verwendet: Wenn man zwei oder mehr Kreisel hintereinander in einen Wasserkreislauf einfügt, dann addieren sie sich in ihrer Widerstandswirkung (R W = R W1 + +R Wn ). Ebenso summieren sich auch die Teildruckdifferenzen p i, die man an den einzelnen Kreiseln messen kann zur Gesamtdruckdifferenz p auf, die an der Doppelwassersäule herrscht ( p = p p n ). Man kann also sagen, dass alle Teildruckdifferenzen p i zusammen genauso groß sind, wie die Druckdifferenz an der Doppelwassersäule. Die Wasserstromstärke bleibt dabei überall im Wasserstromkreis gleich (I W = const.). Sie ergibt sich aus dem Quotienten aus Gesamtdruckdifferenz p und der Summe der Kreiselwiderstände R W. Tabelle 4.3: Gesetze für die Reihenschaltung von Widerständen Wasserstromkreis Elektrischer Stromkreis Widerstand im Wasserstromkreis: Widerstand im elektrischen Stromkreis: Die Widerstände der einzelnen seriell geschalteten Kreisel Die Widerstände der einzelnen seriell geschalteten Glühbirnen R i addieren sich zum Gesamtwiderstand R des Systems: R Wi addieren sich zum Gesamtwiderstand des Systems: R W = R W1 + R W2 + + R Wn R = R 1 + R R n Druckdifferenz im Wasserstromkreis: Die Teildruckdifferenzen über seriell geschalteten Kreiseln p i addieren sich zur Gesamtdruckdifferenz p der Doppelwassersäule: p = p 1 + p p n Wasserstromstärke im Wasserstromkreis: Die Wasserstromstärke I W ist in einem Wasserstromkreis mit seriell angebrachten Kreiseln überall gleich groß: I W = const. Spannung im elektrischen Stromkreis: Die Teilspannungen über seriell geschalteten Glühbirnen U i addieren sich zur Quellspannung U der Batterie: U = U 1 + U U n Stromstärke im elektrischen Stromkreis: Die Stromstärke I ist in einem elektrischen Stromkreis mit seriell angebrachten Glühbirnen überall gleich groß: I = const. Analog gelten die gleichen Gesetzmäßigkeiten auch im elektrischen Stromkreis. Die Teilwiderstände R i von in Reihe angebrachten Glühbirnen addieren sich zum Gesamtwiderstand des Systems (R = R 1 + +R n ). Alle Teilspannungen U i an den einzelnen Glühbirnen zusammen ergeben die Quellspannung der Batterie (U = U U n ). Die Stromstärke ist in einem Stromkreis mit in Reihe angebrachten Widerständen überall gleich groß (I = const.). Ihr Betrag ergibt sich aus dem Quotienten aus Spannung U und Widerstand R. Einen Überblick über die Gesetze im Wasserstromkreis und im elektrischen Stromkreis bietet Tabelle 4.3. Das Gesetz von OHM und die Gesetze für die Reihenschaltung sollen in der vorliegenden Untersuchung mit Hilfe des Wasserstromkreises gelernt werden. Wasserstromkreis und elektrischer Stromkreis erlauben dabei eine Überprüfung der soviel wie möglich - und soviel wie nötig -Kategorien aufgrund ihrer besonderen Problemstruktur. Die Regeln für die Reihenschaltung sind nämlich Relationen erster Ordnung und betreffen jeweils nur eine einzelne physikalische Größe. Alle Reihenschaltungsgesetze sind aber durch das Gesetz von Ohm als Relation höherer Ordnung miteinander verbunden (Abbildung 4.2). Es regelt den Zusammen-

70 62 hang zwischen Stromstärke I, Spannung U und Widerstand R. Andere Regeln für den elektrischen Stromkreis integriert diese Gesetzmäßigkeit allerdings nicht. U = R * I (Ohmsches Gesetz für elektrische Stromkreise) U =U 1 +U 2 + +U n I = const. R = R 1 +R R n Abbildung 4.2: Ohmsches Gesetz als Relation höherer Ordnung Mit Hilfe des Ohmschen Gesetzes können nun beispielsweise alle Teilspannungen U i berechnet werden, wenn Informationen über die Stromstärke I und die Einzelwiderstände R i gegeben sind. Das bedeutet aber auch, dass immer nur die Gesetzmäßigkeiten für je zwei Größen bekannt sein müssen und dass mit dem Ohmschen Gesetz die Regel für die dritte Größe implizit abgeleitet werden kann 11. Letztlich kann man also zwei Aufgabentypen bilden, die ausreichen, um in Kombination mit dem Ohmschen Gesetz alle Regeln über eine Reihenschaltung von Widerständen zu lernen (Tabelle 4.4). Tabelle 4.4: Typ-1- und Typ-2-Fragen Typ-1-Fragen (Spannung U und Stromstärke I) Typ-2-Fragen (Widerstand R und Stromstärke I) Vorgegeben werden nur Informationen über die Stromstärke I des Systems, die Teilspannungen U i der Glühbirnen und die Quellspannung U der Batterie Es sollen Fragen zur Spannung in Reihenschaltungen beantwortet und dabei die Regel U = U 1 + +U n gelernt werden. Mit dem Ohmschen Gesetz R i = U i /I könnte aus dieser Formel die Regel für den Widerstand (R = R 1 + +R n ) abgeleitet und somit implizit erworben werden. Vorgegeben werden nur Informationen über die Stromstärke I des Systems, die Einzelwiderstände R i der Glühbirnen und den Gesamtwiderstand der Batterie. Es sollen Fragen zum Widerstand in Reihenschaltungen beantwortet und dabei die Regel R = R 1 + +R n gelernt werden. Mit dem Ohmschen Gesetz U i = R i *I könnte aus dieser Formel die Regel für die Spannung (U = U 1 + +U n ) abgeleitet und somit implizit erworben werden. Typ-1-Fragen behandeln die Gesetzmäßigkeiten zur Spannung, Typ-2-Fragen prüfen die Gesetze für den Widerstand in elektrischen Schaltungen. In beiden Fragentypen werden die gleichen Informationen über die Stromstärke vorgegeben. Die Typ-1- und Typ-2-Fragen wer- 11 Man kann so aus dem Gesetz R = R 1 + +R n das Gesetz U = U 1 + +U n ableiten. Das Ohmsche Gesetz besagt z.b., dass Spannung U und Widerstand R proportional zueinander sind. Das bedeutet wiederum, dass über dem größten Widerstand die größte Spannung gemessen werden kann. Nach den Regeln für die Reihenschaltung ist aber die Stromstärke überall im seriellen Stromkreis gleich groß (I=const.). Demnach lassen sich die Teilspannungen U i mit der Formel U i = R i *I berechnen, wenn Informationen über die Einzelwiderstände R i vorhanden sind.

71 63 den im ersten Teil der Studie verwendet, um den analogen Abbildungs- und Transferprozess zu untersuchen. Alle Fragen sind dabei so konzipiert, dass immer nur zwei der drei physikalischen Größen gleichzeitig berücksichtigt werden müssen, um die richtige Problemlösung abzuleiten. Wenn also pragmatische Überlegungen den Transfer steuern, sollten in einem Problemlösedurchgang folglich auch nur die Regeln für je zwei physikalische Größen erworben werden. Das Systematizitätsprinzip würde dagegen annehmen, dass auch in nur einem Problemlöseschritt die Gesetze für alle drei physikalischen Größen übertragen werden können. Die dritte Gesetzmäßigkeit würde dabei über das Ohmsche Gesetz als Relation höherer Ordnung implizit während des Übertrags der beiden anderen Gesetze in den Zielbereich transferiert. Im zweiten Teil der Studie werden Untersuchungen zur Schemainduktion vorgestellt. An einem dritten Fragentyp (Typ-3-Fragen) wird dabei getestet, ob die Bearbeitung der Typ-1- und Typ-2-Fragen zu einer abstrakten Repräsentation der elektrischen Gesetze geführt hat. Dieser dritte Fragentyp behandelt Probleme, bei denen alle drei Größen (Spannung U, Stromstärke I und Widerstand R) miteinander kombiniert werden müssen, um die korrekte Problemlösung abzuleiten. Wenn in vorausgegangenen Problemlöseprozessen bereits ein abstraktes Schema für Spannung, Stromstärke und Widerstand in seriellen Schaltungen erworben werden konnte, dann sollte das zu niedrigen Lösungszeiten führen. Um diese Vermutung zu testen, werden im Experiment Probanden, die ein Problemlöseschema durch Analogiebildung erwerben konnten mit Probanden verglichen, deren experimentelle Bedingungen keine Schemainduktion möglich machten. Letztere werden dazu stets nur mit einem Inhaltsbereich konfrontiert, so dass sie keine Möglichkeit zum Vergleich haben und somit auch kein abstraktes Schema erwerben können. Die verwendeten Typ-1-, Typ-2- und Typ-3-Fragen finden sich in Anhang D. Das experimentelle Vorgehen wird im nachfolgenden methodischen Teil ausführlich erläutert.

72 64 Kapitel 5 Experimentelle Durchführung Die Untersuchung fand im Dezember 2006, sowie Januar bis März 2007 an der Universität Bamberg statt. Sie setzt sich aus zwei Fragestellungen zusammen, die an der Wasserkreis- Stromkreis-Analogie getestet werden. Für die erste Fragestellung soll eine direkte Gegenüberstellung der neu eingeführten soviel wie möglich - und soviel wie nötig -Kategorien anhand von Lösungszeiten und -häufigkeiten erfolgen. Für die zweite Fragestellung wird ebenfalls anhand von Lösungszeiten und -häufigkeiten untersucht, ob mit dem Prozess des analogen Problemlösens eine Generalisierung der Lösungsstruktur verbunden ist. Zusätzlich wird der Einfluss der Intelligenz auf die Lösungszeiten und häufigkeiten mittels Korrelationsrechnung erfasst. 5.1 Probanden An der Untersuchung nahmen insgesamt 70 Personen teil. Sieben Personen mussten ausgeschlossen werden, weil es zu Unterbrechungen der Versuchsablaufs kam oder weil die Regeln, die erschlossen werden sollten, bereits bekannt waren. Das Durchschnittsalter betrug 23 Jahre (Range: 19 bis 35 Jahre). 44 Personen waren weiblich und 19 Personen männlich. 5.2 Material Das Versuchsmaterial wird am PC präsentiert. Es setzt sich aus Bild- und Audiomaterial zusammen und wird in Form eines interaktiven Tutoriums mit Lern- und Testsequenzen dargeboten. Für Experimental- und Kontrollgruppen wurden unterschiedliche Tutorien entworfen. Die Experimentalgruppen lernen die Gesetzmäßigkeiten für den elektrischen Stromkreis zunächst am Wasserstromkreis und müssen dann Aufgaben am elektrischen Stromkreis durch

73 65 analoges Problemlösen bearbeiten. Die Lernsequenzen für die Kontrollgruppen finden direkt in der Stromdomain statt. Die Probanden müssen die entsprechenden Fragen dann durch direkte Anwendung der im Tutorium gelernten Regeln lösen. Es gibt zwei Experimentalgruppen E1 und E2 und zwei Kontrollgruppen K1 und K Material für die Experimentalgruppen Der experimentelle Ablauf in den Experimentalgruppen besteht aus vier Teilschritten. Dafür wird folgendes Material benötigt: 1. Einführung des Wasserstromkreises: Den ersten Teil des Experiments bildet eine simulierte Unterrichtseinheit, die von einem virtuellen Tutor geleitet wird. Der Proband erhält eine ausführliche Erklärung des Wasserstromkreises mit seinen Bauteilen und Gesetzmäßigkeiten. Für diesen Zweck wurden elf Schaubilder konstruiert, die sich wiederum aus verschiedenen Einzelbildern zusammensetzen. Einige Abbildungen wurden zur besseren Verständlichkeit auch animiert. Durch einen Wiederholungs- Knopf können die Tutoriumssequenzen nochmals abgespielt werden, falls Teile nicht verstanden wurden. Die Probanden werden aufgefordert, sich die Gesetzmäßigkeiten so gut es geht einzuprägen, da sie später Fragen dazu beantworten sollen. Wenn ein Schaubild ausreichend verstanden ist, kann über einen OK-Knopf das nächste Schaubild aufgerufen werden. Nach einem größeren Theorieblock wird immer eine Zusammenfassung der wichtigsten Regeln in Tabellenform gegeben. Das Untersuchungsmaterial zur Einführung des Wasserstromkreises findet sich in Anhang A1. Die komplette Tutoriumssequenz dauert durchschnittlich 20 Minuten, je nachdem, wie häufig einzelne Schaubilder wiederholt werden. Abbildung 5.1 zeigt exemplarisch ein Schaubild aus dem Tutorium für den Wasserstromkreis. 2. Kontrollfragen zum Wasserstromkreis: Um sicher zu gehen, dass alle Informationen über das Wasserkreislaufsystem verstanden und behalten werden können, muss im Anschluss an den Theorieteil eine Fragensequenz aus elf Fragen zum Wasserstromkreis (Anhang B1) beantwortet werden. Die einzelnen Fragen wurden als HTML- Dateien in das Computerprogramm integriert. Bei drei Fragen muss die richtige Antwort dabei in ein Textfeld eingetragen werden, die restlichen acht Fragen werden als Multiple-Choice mit vier Auswahlmöglichkeiten realisiert. Weiß der Proband die richtige Antwort nicht sofort, hat er die Möglichkeit über einen Fragezeichen-Knopf Hilfe zu bekommen. Die Antworthilfe ist dabei als Textfeld realisiert, das dem Probanden

74 66 Hinweise für die richtige Lösung gibt (Anhang B1). Nachdem er sich für eine Antwortmöglichkeit entschieden hat, muss die Antwort über den OK-Knopf bestätigt werden. Im Anschluss erhält der Proband in einem neuen Textfeld Rückmeldung, ob er die Frage richtig beantworten konnte oder nicht. In jedem Fall wird ihm die Musterlösung im Antwortfeld mitgeteilt. Die Fragen, die der Proband nicht richtig beantworten konnte oder die Fragen, bei denen er den Fragezeichen-Knopf verwenden musste, werden am Ende des Fragenblocks solange wiederholt, bis der Proband die korrekte Lösung findet. Auf diese Weise soll sichergestellt werden, dass der Wasserstromkreis vollständig verstanden und enkodiert werden konnte. Abbildung 5.1: Beispielschaubild zum Wasserstromkreis 3. Einführung des Stromkreises: Vor den eigentlichen Problemlöseaufgaben wird der neue Inhaltsbereich des elektrischen Stromkreises eingeführt (Anhang C). Dabei werden dem Probanden die Objektabbildungen zwischen Wasserstromkreis und elektrischem Stromkreis vorgegeben (Tabelle 4.1). Auf diese Weise können sich die Probanden schon vor der Zeitmessung an den Problembereich gewöhnen. Die Zeitmessung selbst erfasst dann nur die Zeit, die auch tatsächlich für die Herleitung der Regeln für den elektrischen Stromkreis benötigt wird. Zusätzlich werden die Probanden darauf aufmerksam gemacht, dass ihnen der Wasserstromkreis bei der Fragenbeantwortung im elektrischen Stromkreis helfen kann. Dies soll sicherstellen, dass der Nutzen des Basisbereichs erkannt wird und der Abbildungsprozess ungestört stattfinden kann. 4. Problemlöseaufgaben zum Stromkreis: Die Probanden sollen nun in drei Problemlösedurchgängen Aufgaben zum Stromkreis (Anhang D) bearbeiten. Dabei wird die von ihnen benötige Lösungszeit durch das Computerprogramm aufgezeichnet. Die

75 67 Fragen sind aus einem Angabentext und vier Antwortmöglichkeiten aufgebaut. Zusätzlich werden Schaubilder verwendet, um eine bessere Verständlichkeit der Fragen zu ermöglichen. Die Problemlöseaufgaben für den Stromkreis sind aus drei aufeinander folgenden Sequenzen aufgebaut: 1. Problemlöseschritt (Lernaufgaben): Die Lernaufgaben sollen dazu dienen, die Regeln aus dem Wasserstromkreis auf den elektrischen Stromkreis zu transferieren. Die Übertragung erfolgt dabei anhand der Typ-1- bzw. Typ-2-Fragen. E1 erhält Typ-1-Fragen. Sie behandeln nur die Größen Stromstärke und Spannung. E2 muss Typ-2-Fragen beantworten. Diese Aufgaben prüfen die Gesetze zu Stromstärke und Widerstand ab. Es sollten zumindest die Regeln für die abgefragten Größen in die Stromdomain übertragen werden können. 2. Problemlöseschritt (Testaufgaben): Die Testaufgaben dienen dazu, zu kontrollieren, welche Regeln im ersten Problemlöseschritt erworben werden konnten. E1 erhält jetzt Typ-2-Fragen, E2 Typ-1-Fragen. Wenn im ersten Problemlöseschritt bereits die Regeln für alle drei physikalischen Größen (Spannung, Stromstärke, Widerstand) erworben werden konnten, so sollte sich das im zweiten Problemlöseschritt durch eine Verkürzung der Lösungszeiten zeigen. 3. Problemlöseschritt (Schemaqualität): Die Aufgaben zur Schemaqualität (Typ- 3-Fragen) bilden den dritten Problemlöseschritt. Dabei sollten spätestens nach den Lern- und Testaufgaben in den Experimentalgruppen die Regeln für alle drei physikalischen Größen (Spannung, Stromstärke und Widerstand) transferiert worden sein. Die Probanden mussten ja in den ersten beiden Problemlöseschritten Typ-1- und Typ-2-Fragen beantworten und müssten dabei alle Gesetze über serielle elektrische Stromkreise aus dem Wasserkreislaufsystem abgeleitet haben. Die Probanden sollten jetzt also in der Lage sein, die Typ-3-Fragen zu beantworten, die alle drei Größen miteinander kombinieren. Diese Aufgaben werden verwendet, um den Prozess der Schemainduktion beim analogen Problemlösen zu untersuchen. In Anhang D finden sich die Typ-1-, Typ-2- und Typ-3-Fragen. Bei den Typ-1- und Typ-2- Fragen betreffen die jeweils ersten beiden Problemstellungen nur die Stromstärke. Die Lösungszeiten dieser Aufgaben werden dabei nicht in die Analyse einbezogen, da sie nur der Gewöhnung an den elektrischen Stromkreis dienen sollen. Von Interesse für die Untersuchung sind lediglich die Fragen, die sich zusätzlich auf Spannung oder Widerstand beziehen.

76 Material für die Kontrollgruppen Das Material für die Kontrollgruppen weicht in Reihenfolge und Inhalt der Erläuterungen nicht oder nur sehr wenig von den entsprechenden Abschnitten zum Wasserstromkreis ab. Es ist in drei Sequenzen aufgeteilt. Die Einführung einer neuen Domain (3.) entfällt in den Kontrollgruppen. 1. Einführung des Stromkreises: Auch in den Kontrollgruppen startet das Experiment mit einer simulierten Unterrichtseinheit. Der virtuelle Tutor erklärt den Versuchspersonen die einzelnen Bauteile des Stromkreises und ihre Funktionsweisen. Diese Erläuterungen werden wieder durch elf Schaubilder unterstützt. Jedes Schaubild hat unterschiedliche Einzelbilder und wird mit Hilfe von Audiomaterial erläutert. Die einzelnen Schaubilder und die dazugehörigen Textdateien finden sich in Anhang A2. Auch die Kontrollgruppen haben die Möglichkeit, durch den Wiederholungs-Knopf einzelne Sequenzen der Unterrichtseinheit erneut abzuspielen. Über den OK-Knopf kann zum nächsten Schaubild gewechselt werden. Nach jedem größeren Block wird wieder eine Zusammenfassung der wichtigsten Gesetzmäßigkeiten gegeben. Die komplette Tutoriumssequenz dauert durchschnittlich 20 Minuten. Abbildung 5.2 zeigt exemplarisch ein Schaubild aus dem Tutorium für den Stromkreis. Abbildung 5.2: Beispielschaubild zum elektrischen Stromkreis 2. Kontrollfragen zum Stromkreis: Wie die Experimentalgruppen, bekommen auch die Kontrollgruppen elf Kontrollfragen zum Themenbereich Strom gestellt (Anhang B2). Sie behandeln die gleichen Gesetzmäßigkeiten wie die Kontrollfragen zum Wasserstromkreis, sind aber in der Terminologie des Stromkreises formuliert. Die einzelnen Fragen wurden als HTML-Dateien in das Computerprogramm integriert. Bei drei Fragen muss die richtige Antwort in ein Textfeld eingetragen werden, die restlichen acht

77 69 Fragen werden als Multiple-Choice-Aufgaben mit vier Auswahlmöglichkeiten umgesetzt. Auch in den Kontrollgruppen haben die Probanden die Möglichkeit, über den Fragezeichen-Knopf Hinweise auf die richtige Fragenbeantwortung zu finden. Die Fragen, die falsch oder nur mit dem Fragezeichen-Knopf beantwortet werden konnten, werden am Ende des Fragenblocks solange wiederholt, bis alle Aufgaben richtig gelöst worden sind. 3. Problemlöseaufgaben zum Stromkreis: Die Problemlöseaufgaben für die Kontrollgruppen decken sich mit den Aufgaben für die Experimentalgruppen (Anhang D). Der gesamte Fragenblock wird daher einfach übernommen. K1 erhält die Typ-1- und Typ- 2-Fragen in der Reihenfolge von E1. K2 entspricht bei der Aufeinanderfolge der Problemlöseaufgaben E2. Die Kontrollgruppen unterscheiden sich auch wieder nur in der Reihenfolge der Typ-1- und Typ-2-Fragen. Im dritten Problemlöseschritt erhalten die Kontrollgruppen die gleichen Typ-3-Fragen wie die beiden Experimentalgruppen. 5.3 Geräte Für die Versuchsdurchführung wurde ein PC unter Windows XP verwendet. Die Darbietung erfolgte über einen 20-Zoll-Monitor (Auflösung 1600 x 1200 Pixel). Der PC konnte über eine Zwei-Tasten-Standardmaus und eine herkömmliche Tastatur bedient werden. Für die Versuchssteuerung wurde das Programm Gint verwendet 12. Die Textdateien wurden mit HTML programmiert, die Schaubilder und Animationen mit AdobePhotoShop 13 konstruiert und die Audio-Dateien im wav-format aufgezeichnet. 5.4 Untersuchungsdesign und Hypothesen Für die experimentelle Untersuchung sind drei Fragestellungen interessant: Im Vorfeld des eigentlichen Experiments soll durch Korrelationsrechnung geklärt werden, ob ein Zusammenhang zwischen den Lösungszeiten und Lösungshäufigkeiten eines Probanden im Test und seiner generellen Intelligenzleistung besteht. In Fragestellung 1 werden dann die soviel wie möglich - und soviel wie nötig - Kategorien einander empirisch gegenübergestellt. Fragestellung 2 untersucht abschließend den Prozess der Schemainduktion und versucht eine Beurteilung der Schemaqualität. 12 Das Versuchsmaterial wurde mit einem JAVA-basierten Computerprogramm präsentiert, das in der Lage ist, Reaktionszeiten zu messen. Das Programm wurde von Martin Hoffmann entworfen. Die nötigen Dateien zur Installation befinden sich auf der beigefügten CD. 13 Die Schaubilder wurden von Gaby Bauer für die Darbietung am PC mit AdobePhotoShop konstruiert und animiert.

78 Zusammenhang zwischen Intelligenz und Lösungszeiten bzw. Lösungshäufigkeiten Bei 43 Probanden wurde zusätzlich zu den Analogieaufgaben ein Intelligenztest (Unterkategorien verbale Analogien, Rechenaufgaben und Matrizen) durchgeführt. Seine Ergebnisse werden mit den durchschnittlichen Lösungszeiten und -häufigkeiten der Probanden korreliert. Die Frage ist, ob sich eine bestimmte Intelligenzform besonders gut eignet, um das Abschneiden der Versuchsperson in den Problemlöseaufgaben vorherzusagen. Bei den Lösungszeiten müssten dafür negative Korrelationen gefunden werden. Probanden mit einem hohen Intelligenzwert sollten also besonders schnell bei der Problembearbeitung sein. Bei den Lösungshäufigkeiten verhält es sich umgekehrt. Je besser die Leistung im Intelligenztest ist, desto größer müsste auch die relative Lösungswahrscheinlichkeit des Probanden sein Fragestellung 1: Soviel wie möglich oder soviel wie nötig? Alle vier Untersuchungsgruppen durchlaufen zunächst die Schritte 1 und 2 des Untersuchungsmaterials. Nach der vollständigen Erklärung des Inhaltsbereiches (1.) und der richtigen Beantwortung der Kontrollfragen (2.), wird in den Experimentalgruppen der Stromkreis mit seinen Bauteilen eingeführt (3.). Dieser Schritt entfällt in den Kontrollgruppen. Als abhängige Variable werden Lösungszeiten und häufigkeiten gemessen. Untersuchungsdesign E1 und E2 unterscheiden sich nur in der Reihenfolge der Problemlöseaufgaben für den elektrischen Stromkreis. Das Gleiche gilt für die beiden Kontrollgruppen K1 und K2: E1 und K1 erhalten im ersten Problemlöseschritt die Typ-1-Fragen (Stromstärke und Spannung) und im zweiten Problemlöseschritt die Typ-2-Fragen (Stromstärke und Widerstand). E2 und K2 lösen im ersten Durchgang die Typ-2-Fragen und anschließend erst die Typ-1-Fragen. Alle vier Untersuchungsgruppen erhalten dann an dritter Stelle die Typ-3- Fragen, die erst für die zweite Fragestellung eine Rolle spielen. Für die erste Fragestellung werden die Lösungszeiten und -häufigkeiten der Typ-1-Aufgaben bzw. die Lösungszeiten und -häufigkeiten der Typ-2-Aufgaben in beiden Experimentalgruppen und beiden Kontrollgruppen über Kreuz miteinander verglichen (Tabelle 5.1). Der Kreuzvergleich ist deshalb nötig, weil nur so die Bearbeitung eines Fragentyps zu unterschiedlichen Testzeitpunkten erfasst werden kann. Systematische Verzerrungen durch den Vergleich zwischen zwei verschiedenen Untersuchungsgruppen sollen durch eine randomisierte Aufteilung der Versuchspersonen ausgeschlossen werden.

79 71 Tabelle 5.1: Untersuchungsdesign für Fragestellung 1 Experimentalgruppe 1 (E1) Kontrollgruppe 1 (K1) 1. Problemlöseschritt Lernaufgabe Typ-1-Fragen (Stromstärke und Spannung) Experimentalgruppe 2 (E2) Kontrollgruppe 2 (K2) Typ-2-Fragen (Stromstärke und Widerstand) 2. Problemlöseschritt Testaufgabe 3. Problemlöseschritt Schemaqualität Typ-2-Fragen (Stromstärke und Widerstand) Typ-3-Fragen (Stromstärke, Spannung, Widerstand) Typ-1-Fragen (Stromstärke und Spannung) Typ-3-Fragen (Stromstärke, Spannung, Widerstand) Der Schwerpunkt der Untersuchung liegt dabei auf der Analyse der Lösungszeiten. Die Lösungshäufigkeiten gehen als binäre Variable (Antwort: richtig/falsch) in die Auswertung ein und haben somit statistisch gesehen einen geringeren Informationswert als die Lösungszeiten. Sie werden daher nur zur Kontrolle des Effekts der Zeitmessung verwendet. Die Ergebnisse der Zeitmessung sind dann eindeutig interpretierbar, wenn sich in den Lösungshäufigkeiten keine dazu gegensätzlichen Tendenzen entdecken lassen. Eine Abnahme der Lösungszeiten darf dabei nicht mit einer signifikanten Abnahme der Lösungshäufigkeiten verbunden sein. In diesem Fall wäre eine Reduktion der Lösungszeiten nicht mehr eindeutig auf das experimentelle Treatment, sondern möglicherweise auch auf eine verminderte Lösungsgenauigkeit zurückzuführen Lösungszeiten Ziel der Untersuchung ist die empirische Gegenüberstellung der soviel wie möglich - und soviel wie nötig -Kategorien. Dabei ist die interessierende Frage, welche und wie viele Informationen bei der analogen Problemlösung vom Basis- in den Zielbereich übertragen werden. Die Theorien der ersten Kategorie postulieren den Übertrag des größten gemeinsamen Subgraphen oder den Übertrag aller Strukturen, die durch eine kausale Relation höherer Ordnung miteinander verbunden sind (Systematizitätsprinzip). Die zweite Theoriengruppe behauptet dagegen, dass nur die Informationen übertragen werden, die auch für die Problemlösung tatsächlich erforderlich sind (Multi-Constraint-Theorie). Mit dem vorliegenden Experiment können beide Vermutungen in einem Problemlösekontext empirisch gegenübergestellt werden. Auf diese Weise kann dann das dominierende Transferprinzip bestimmt werden. Hypothesen Die erste variierte Größe ist dabei der Zeitpunkt, zu dem der jeweilige Aufgabentyp bearbeitet werden soll. Diese Variable wird im Folgenden als Testzeitpunkt bezeichnet. Einen weiteren Einfluss auf die Lösungszeiten hat die Art des Tutoriums. Diese Variable gibt an, ob die Probanden die Regeln am Wasserstromkreis oder am elektrischen Stromkreis ge-

80 72 lernt haben. Die Probanden können so in Experimental- und Kontrollbedingung unterschieden werden. Der letzte Einflussfaktor auf die Lösungszeiten ist der Fragentyp. Es ist möglich, dass sich die Typ-1- und Typ-2-Fragen unterschiedlich gut eignen, um ein umfassendes Konzept für den elektrischen Stromkreis zu erwerben oder im Schweregrad verschieden sind. Beides hätte einen Einfluss auf die Lösungszeiten. Deshalb muss auch diese Variable kontrolliert werden. Analoges Problemlösen ist nur in den Experimentalgruppen nötig. Um die Aufgaben bearbeiten zu können, müssen die Probanden die Regeln aus dem Wasserstromkreis auf den elektrischen Stromkreis anwenden. Wenn in den Experimentalgruppen die soviel wie möglich - Vermutung zutrifft, dann sollten schon im ersten Problemlöseschritt (Testzeitpunkt 1) die Regeln für alle drei physikalischen Größen (Stromstärke, Spannung und Widerstand) erworben werden können, da sie über das Ohmsche Gesetz als Relation höherer Ordnung miteinander verbunden sind. Im zweiten Problemlöseschritt (Testzeitpunkt 2) müssten die bereits übertragenen Regeln dann nur noch angewendet werden, was weniger Zeit kostet, als die Regeln aus dem Basisbereich zu übertragen und sie anschließend anzuwenden. Bei Gültigkeit der soviel wie möglich -Theorien sollte sich also bei dem gleichen Fragentyp eine signifikante Abnahme der Lösungszeiten zwischen Testzeitpunkt 1 und 2 ergeben. Wenn aber die Vertreter der soviel wie nötig - Theorien Recht haben, werden im ersten Schritt nur die Regeln erworben, die für die aktuelle Problemlösung nötig sind. In E1 werden also nur die Regeln für Stromstärke und Spannung (Typ-1-Fragen) und in E2 nur die Regeln für Stromstärke und Widerstand (Typ-2-Fragen) gelernt. Wenn zum zweiten Testzeitpunkt Fragen zur dritten physikalischen Größe (Widerstand (E1) bzw. Spannung (E2)) hinzukommen, so müssten diese Gesetze durch einen erneuten Abbildungsprozess aus dem Wasserstromkreis hergeleitet werden. Das sollte wesentlich länger dauern, als die schon erworbenen Regeln einfach anzuwenden. In diesem Fall sollten sich keine signifikanten Unterschiede in den Lösungszeiten zwischen den beiden Testzeitpunkten ergeben. In den Kontrollgruppen werden die Gesetzmäßigkeiten direkt in der Stromdomain gelernt und durch die Kontrollfragen abgeprüft. Die Problemlöseaufgaben können also durch direkte Regelanwendung gelöst werden. Dabei werden in den einzelnen Problemlöseschritten keine neuen Informationen hinzugewonnen. Es sollte also keinen Unterschied machen, zu welchem Testzeitpunkt der jeweilige Fragentyp abgeprüft wird. Bei Untersuchungen zum Problemlösen sind aber immer auch Ermüdungs- und Gewöhnungseffekte in der Zeitmessung durch vorangegangene Problemlöseprozesse zu berücksichtigen. Ein Ermüdungseffekt bedeutet dabei eine Zunahme der Lösungszeiten, ein Gewöhnungseffekt

81 73 eine Abnahme der Lösungszeiten von Testzeitpunkt 1 zu Testzeitpunkt 2. Diese beiden Effekte können den durch die Tutorien zustande kommenden Testzeitpunkteffekt verstärken oder schwächen und müssen deshalb bei der Auswertung kontrolliert werden. Würde eine solche Kontrolle der Einflussgrößen nicht stattfinden, könnte eine Veränderung der Lösungszeiten zwischen den beiden Testzeitpunkten nicht eindeutig auf Ermüdung, Gewöhnung oder Testzeitpunkteffekt zurückgeführt werden. Für die statistische Auswertung genügt es also nicht, einfach nur die zeitliche Differenz zwischen Testzeitpunkt 1 und 2 in den Experimentalgruppen auf Signifikanz zu testen (= Haupteffekt Testzeitpunkteffekt). Um die zeitlichen Unterschiede zwischen Testzeitpunkt 1 und 2 ohne Gewöhnungs- und Ermüdungseffekte auswerten zu können, müssen die Veränderung der Lösungszeiten zwischen Experimental- und Kontrollbedingung miteinander verglichen werden. Dazu wird die Interaktion zwischen Testzeitpunkt und Art des Tutoriums auf Signifikanz getestet, wodurch die Veränderungsmuster in Experimental- und Kontrollgruppen abgeglichen werden können. Es wird dabei angenommen, dass sich auf Grund der Parallelität der Untersuchungsbedingungen gleichermaßen starke Ermüdungs- und Gewöhnungseffekte in Experimental- und Kontrollgruppen zeigen. Wenn die Experimentalgruppen aber tatsächlich schon im ersten Problemlöseschritt implizit die notwendigen Regeln für den zweiten Problemlöseschritt erwerben, müsste sich dort eine zusätzliche Beschleunigung im Vergleich zu den Kontrollgruppen ergeben. Ein solches Ergebnis würde dann das soviel wie möglich - Prinzip stützen. Da in der vorliegenden Untersuchung aber auch unterschiedliche Fragentypen zu verschiedenen Testzeitpunkten verwendet werden, muss zusätzlich noch untersucht werden, ob sich in Abhängigkeit des Fragentyps unterschiedliche Beschleunigungseffekte ergeben. 30 Experimentalbedingung Kontrollbedingung Testzeitpunkt 1 Testzeitpunkt 2 Testzeitpunkt 1 Testzeitpunkt 2 Typ-1-Fragen Typ-2-Fragen Abbildung 5.3: Vermutetes Ergebnis für die Lösungszeiten [in s]

82 74 Die stochastische Alternativhypothese (H A ) für Fragestellung 1 lautet: Die Abnahme der durchschnittlichen Lösungszeit vom ersten zum zweiten Testzeitpunkt ist beim gleichen Fragentyp in den Experimentalgruppen signifikant größer als in den Kontrollgruppen. Daraus leitet sich die zu überprüfende Nullhypothese (H 0 ) ab: Die durchschnittliche Lösungszeit der Typ-1- bzw. Typ-2-Fragen nimmt beim gleichen Fragentyp in den Experimentalgruppen vom ersten zum zweiten Testzeitpunkt signifikant mehr zu als in den Kontrollgruppen oder verändert sich gar nicht. Abbildung 5.3 zeigt das vermutete Ergebnis für die Lösungszeiten Lösungshäufigkeiten Die theoretischen Überlegungen zu den Lösungshäufigkeiten lassen sich analog formulieren. Als unabhängige Variable werden wieder Testzeitpunkt, Art des Tutoriums und Fragentyp in die Analyse einbezogen. Die Lösungshäufigkeiten unterstützen dann die Überlegungen zu den Lösungszeiten, wenn sie von Testzeitpunkt 1 zu Testzeitpunkt 2 in den Experimentalgruppen zunehmen oder zumindest gleich bleiben und sich in den Kontrollgruppen nicht oder nur marginal erhöhen. Experimentalbedingung Kontrollbedingung 1,0 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0,0 Testzeitpunkt 1 Testzeitpunkt 2 Testzeitpunkt 1 Testzeitpunkt 2 Typ-1-Fragen Typ-2-Fragen Abbildung 5.4: Vermutetes Ergebnis für die Lösungshäufigkeiten Hypothesen In den Experimentalgruppen sollte sich idealerweise eine Zunahme der Lösungswahrscheinlichkeit von Testzeitpunkt 1 zu Testzeitpunkt 2 ergeben. Die Probanden profitieren durch die analoge Problemlösung im ersten Problemlöseschritt und erreichen somit im zweiten Problemlöseschritt beim gleichen Fragentyp höhere Lösungswahrscheinlichkeiten. In 14 Die Effekte, die für den Fragentyp angenommen werden, können auch in umgekehrter Weise auftreten oder ganz fehlen.

83 75 den Kontrollgruppen dürfte sich kein Unterschied in den Lösungshäufigkeiten zwischen den beiden Testzeitpunkten ergeben. Die Probanden haben die Regeln direkt am Stromkreis gelernt und müssen sie nur zur Problemlösung anwenden. Sie sollten keine oder nur zufällige Vorteile aus der Fragenbeantwortung zum ersten Testzeitpunkt haben. Statistisch wird dementsprechend getestet, ob die Zunahme der Lösungshäufigkeiten in den Experimentalgruppen signifikant größer ist als in den Kontrollgruppen (Abbildung 5.4). Die stochastische Alternativhypothese (H A ) lautet: Die Lösungshäufigkeiten nehmen in den Experimentalgruppen beim gleichen Fragentyp von Testzeitpunkt 1 zu Testzeitpunkt 2 signifikant mehr zu, als in den Kontrollgruppen. Entsprechend gilt für die Nullhypothese (H 0 ): Die Zunahme der Lösungshäufigkeiten ist beim gleichen Fragentyp in den Experimentalgruppen von Testzeitpunkt 1 zu Testzeitpunkt 2 signifikant kleiner oder gleich der Zunahme der Lösungshäufigkeiten in den Kontrollgruppen. Die Lösungszeiten lassen sich aber auch dann noch sinnvoll interpretieren, wenn in den Experimentalgruppen zumindest keine signifikante Abnahme in den Lösungshäufigkeiten zwischen den Testzeitpunkten zu verzeichnen ist. Ansonsten könnte eine Reduktion der Lösungszeiten auch auf eine Minderung der Lösungsgenauigkeit zurückzuführen sein, wodurch die Ergebnisse nicht mehr eindeutig im Sinne der Hypothesenformulierung interpretierbar wären Fragestellung 2: Schemainduktion beim analogen Problemlösen Im zweiten Teil wird untersucht, ob durch analoges Problemlösen ein abstraktes Schema für den Problembereich induziert werden konnte. Die Schemainduktion wird dabei indirekt über die Messung der Schemaqualität bei der Bearbeitung der Typ-3-Fragen in einem dritten Problemlöseschritt erfasst. Tabelle 5.2: Untersuchungsdesign für Fragestellung 2 Experimentalbedingung Kontrollbedingung Problemlöseschritt 1 Typ-1-Fragen Typ-1-Fragen Problemlöseschritt 2 Typ-2-Fragen Typ-2-Fragen Problemlöseschritt 3 Typ-3-Fragen Typ-3-Fragen Untersuchungsdesign Wenn die Wasserkreis-Stromkreis-Analogie eine Generalisierung der Problemstruktur fördert, sollten sich in den Experimentalgruppen niedrige Lösungszeiten und hohe Lösungshäufigkeiten im Vergleich zu den Kontrollgruppen ergeben. Um diese Vermutung zu prüfen, werden die Lösungszeiten und Lösungshäufigkeiten der Experimental-

84 76 gruppen mit den Lösungszeiten und Lösungshäufigkeiten der Kontrollgruppen verglichen (Tabelle 5.2). Weil für diese Fragestellung der Darbietungszeitpunkt der Typ-1- und Typ-2- Fragen unwichtig ist, werden E1 und E2 bzw. K1 und K2 für die Analyse zusammengefasst. Die Teilaufgaben 1, 3 und 5 der Typ-3-Fragen müssen gesondert ausgewertet werden. Sie prüfen, unter welcher Bedingung Spannung im Stromkreis gemessen werden kann. Diese Gesetzmäßigkeit wurde im Tutorium zum Wasserstromkreis erklärt, aber in den ersten beiden Problemlöseschritten nicht abgeprüft. Zum Testzeitpunkt 3 kann diese Regel also nicht Bestandteil eines induzierten Problemschemas sein und muss durch analoges Problemlösen bearbeitet werden. Analoges Problemlösen sollte im Vergleich zu schemabasiertem Problemlösen zu höheren Lösungszeiten führen, weil die Lösungsstrategie erst wieder durch strukturellen Abgleich zwischen Wasser- und Stromkreis abgeleitet werden muss. Einen Überblick über die in den Typ-3-Fragen abgeprüften Inhalte bietet Tabelle Lösungszeiten Zur Beurteilung der Schemaqualität werden zunächst die Lösungszeiten betrachtet. Schemata enthalten nur Informationen über die abstrakte Problemstruktur und vernachlässigen unwichtige Detailinformationen, so dass die richtige Problemlösung direkt aus ihnen abgelesen werden kann (z.b. Chen & Mo, 2004; Gick & Holyoak, 1983). Wenn also ein geeignetes Schema zur Problemlösung verwendet wird, sollte sich das in niedrigen Lösungszeiten manifestieren. Die Anwendung eines konkreten Beispiels zum Problemlösen dauert dagegen länger. Hier sind noch oberflächliche Informationen enthalten, die einen schnellen Zugriff auf die Lösungsstruktur stören. Hypothesen Wenn in den Experimentalgruppen eine Schemainduktion in den ersten beiden Problemlöseschritten durch analoges Problemlösen stattgefunden hat, so sollte im dritten Problemlöseschritt nur die abstrakte Problemlösungsstruktur anwendet werden, um die Fragen zu Stromstärke, Spannung und Widerstand zu beantworten. Unwichtige oberflächliche Ähnlichkeiten werden dann nicht mehr berücksichtigt, was zu einer Verringerung der durchschnittlichen Lösungszeiten führt. Die Kontrollgruppen hatten dagegen nicht die Möglichkeit, durch analogen Vergleich die abstrakte Problemstruktur zu extrahieren. Ihr Verständnis für den elektrischen Stromkreis beinhaltet Informationen über das Lösungsprinzip und zusätzlich noch Informationen über unwichtige oberflächliche Details. Diese erschweren die eigentliche Problemlösung und führen zu einer längeren Lösungszeit. Die stochastische Alternativhypothese (H A ) lautet also: Die Lösungszeiten für die Typ-3-Fragen sind in den Experimentalgruppen signifikant niedriger als in den Kontrollgruppen. Daraus leitet sich die zu überprü-

85 77 fende Nullhypothese (H 0 ) ab: Die Lösungszeiten für die Typ-3-Fragen sind in den Experimentalgruppen signifikant größer oder gleich den Lösungszeiten in den Kontrollgruppen. Tabelle 5.3: Überblick über die Typ-3-Fragen Fragennummer Informationen und Gesetze Frage 1, Frage 3, Frage 5 Spannung kann nur über Widerständen gemessen werden Frage 2, Frage 11 Frage 10 Frage 6, Frage 7, Frage 8 Frage 4, Frage 12 Frage 13 Ohmsches Gesetz: Je geringer die Spannung, desto geringer die Stromstärke Je größer der Widerstand, desto geringer die Stromstärke Je größer der Widerstand, desto größer der Spannungsabfall an diesem Widerstand In einem seriellen Stromkreis ist die Stromstärke konstant Gesetze für die Reihenschaltung: In Reihenschaltungen addieren sich die Teilspannungen zur Gesamtspannung der Batterie Die Teilwiderstände addieren sich in ihrer Wirkung zum Gesamtwiderstand des Systems auf Die Teilwiderstände addieren sich zum Gesamtwiderstand des Systems auf und Je größer der Widerstand, desto kleiner ist die Stromstärke und Je heller das Lämpchen leuchtet, desto größer ist die Stromstärke Die Stromstärke ist in Reihenschaltungen überall gleich groß und Je größer der Widerstand, desto größer der Spannungsabfall über diesem Widerstand und Die Teilspannungen addieren sich zur Gesamtspannung Diese Vermutungen gelten nicht für die Fragen 1, 3 und 5. Sie betreffen einen Sachverhalt, der in den ersten beiden Problemlöseschritten nicht abgeprüft wurde und deshalb nicht in ein Problemlöseschema integriert sein kann. Das bedeutet, dass nur die Fragen 1, 3 und 5 durch analoges Problemlösen bearbeitet werden müssen, während alle anderen Typ-3-Fragen auf der Basis eines Schemas gelöst werden können. Bei den Fragen 1, 3 und 5 sollten also die Experimentalgruppen langsamer sein als die Kontrollgruppen, weil sie die Aufgaben durch einen Umweg über den Wasserkreislauf lösen müssen. Bei allen anderen Typ-3-Fragen sollten die Experimentalgruppen schneller sein als die Kontrollgruppen, weil sie direkt auf die abstrahierte Lösungsstruktur zugreifen können. Die stochastische Alternativhypothese (H A ) lautet also: Die Lösungszeiten für die Fragen 1, 3 und 5 sind in den Experimentalgruppen signifikant höher als in den Kontrollgruppen. Für die zu überprüfende Nullhypothese (H 0 ) gilt: Die Lösungszeiten bei den Fragen 1, 3 und 5 sind in der Experimentalbedingung signifikant kleiner oder gleich den Lösungszeiten in der Kontrollbedingung.

86 Lösungshäufigkeiten Die Lösungshäufigkeiten geben ebenfalls Aufschluss über die Güte des Lösungsschemas. Je besser ein induziertes Schema zur Problembearbeitung geeignet ist, desto höher sollten die Lösungshäufigkeiten sein. Sie dienen außerdem zur Validierung der Ergebnisse der Zeitmessung. Diese sind dann eindeutig interpretierbar, wenn niedrigere Lösungszeiten in den Experimentalgruppen nicht auch mit signifikant niedrigeren Lösungshäufigkeiten verbunden sind. Hypothesen Für die Lösungshäufigkeiten sind die gleichen Überlegungen wie für die Lösungszeiten nötig. Durch den analogen Vergleich zwischen zwei strukturell ähnlichen Inhaltsbereichen sollte ein tieferes Verständnis für die Problemstruktur entstehen, als durch bloße Instruktion an einem Inhaltsbereich. Folglich sollten die Probanden der Experimentalgruppen besser in der Lage sein, Fragen zum Stromkreis zu beantworten als die Teilnehmer der Kontrollgruppen. Die stochastische Alternativhypothese (H A ) lautet also folgendermaßen: Die relativen Lösungshäufigkeiten bei den Typ-3-Fragen sind in den Experimentalgruppen signifikant größer als in den Kontrollgruppen. Daraus leitet sich die zu überprüfende Nullhypothese (H 0 ) ab: Die relativen Lösungshäufigkeiten bei den Typ-3-Fragen sind in den Experimentalgruppen kleiner oder gleich den relativen Lösungshäufigkeiten in den Kontrollgruppen. Diese Vermutung gilt wieder nicht für die Fragen 1, 3 und 5. Die Probanden in den Experimentalgruppen können für diese Aufgaben noch kein Problemlöseschema gebildet haben, da in den ersten beiden Problemlöseschritten keine Möglichkeit zum analogen Transfer bestand. Die Bearbeitung der Aufgaben ist also nur durch analoges Problemlösen möglich. Diese Lösungsmethode ist auf Grund des Umwegs über einen anderen Inhaltsbereich fehleranfälliger als eine direkte Regelanwendung. In der Konsequenz sollten sich in den Experimentalgruppen niedrige Lösungswahrscheinlichkeiten ergeben. Die stochastische Alternativhypothese (H A ) lautet also: Die Lösungshäufigkeiten für die Fragen 1, 3 und 5 sind in der Experimentalbedingung signifikant kleiner als in der Kontrollbedingung. Für die zu überprüfende Nullhypothese (H 0 ) gilt: Die Lösungshäufigkeiten bei den Fragen 1, 3 und 5 sind in der Experimentalbedingung signifikant größer oder gleich den Lösungshäufigkeiten in der Kontrollbedingung. 5.5 Durchführung Die Durchführung erfolgte in einem Computerraum an der Universität Bamberg. In allen 70 Einzelversuchen war die Autorin dieser Studie die Versuchsleiterin. Die Untersuchung fand stets am gleichen PC statt. Tabelle 5.4 zeigt den Versuchsablauf in der Übersicht.

87 79 Instruktion Nach einer kurzen Begrüßung werden alle Probanden über den Ablauf der Untersuchung, sowie über den Zeitplan aufgeklärt. Anschließend werden sie über den Zweck der Studie informiert und können sich mit dem Computerprogramm vertraut machen. Die Versuchleiterin erklärt dazu die korrekte Bedienung des Programms anhand der ersten drei Texttafeln. Zusätzlich wird jeder einzelne Schritt des Vorgehens durch den virtuellen Tutor mit Text- und Audiomaterial ergänzt. Die Versuchsleiterin weißt die Teilnehmer auf die sachgemäße Bedienung von OK-Knopf, Wiederholungs-Knopf und Fragezeichen-Knopf hin. Wenn es nach den Instruktionen keine Fragen mehr von Seiten des Probanden gibt, zieht sich die Versuchsleiterin zurück. Die weiteren Instruktionen erhält der Versuchsteilnehmer dann über den virtuellen Tutor (vgl. Info-Dateien in Anhang A-D). Tabelle 5.4: Übersicht über den Untersuchungsablauf Instruktion durch den Versuchsleiter Begrüßung Aufklärung über Ziele des Versuchs und Versuchsabfolge Erläuterung des Computerprogramms Tutorium: (Wasser-)stromkreis Schaubild 1-3: Bauteile des (Wasser-)stromkreises, Übersichtstabelle Schaubild 4-6: Ohmsches Gesetz, Übersichtstabelle Schaubild 7-11: Gesetze der Reihenschaltung Kontrollfragen Einführung des Stromkreises 11 Fragen zum (Wasser-)stromkreis Erläuterung der Bauteile Batterie, Glühbirne und Spannungsmesser 1. Problemlöseaufgabe E1/K1: Typ-1-Fragen: Stromstärke und Spannung 2. Problemlöseaufgabe E1/K1: Typ-2-Fragen: Stromstärke und Widerstand 3. Problemlöseaufgabe E1/K1: Typ-3-Fragen: Stromstärke, Spannung und Widerstand E2/K2: Typ-2-Fragen: Stromstärke und Widerstand E2/K2: Typ-1-Fragen: Stromstärke und Spannung E2/K2: Typ-3-Fragen: Stromstärke, Spannung und Widerstand Intelligenztest Subtests Analogie, Rechnen und Matrizen Soziodemographischer Fragebogen Verabschiedung 2 Versuchspersonenstunden oder 15 Euro Tutorium Das Experiment beginnt in den Experimentalgruppen mit der Vorstellung der drei Bauteile des Wasserstromkreises. In den Kontrollgruppen werden analog die Bauteile des Stromkreises eingeführt. Dazu erklärt der Tutor Funktionsweise und Verwendungszweck von Doppelwassersäule (Batterie), Kreisel (Glühbirne) und Druckdifferenzmesser (Spannungsmesser) an drei Schaubildern. Ein Überblick über alle Schaubilder und die dazugehörigen Textdateien findet sich in Anhang A1 und A2. Im Anschluss an die Vorstellung der einzelnen

88 80 Bauteile wird dem Versuchsteilnehmer eine Übersichtstabelle über die Bauteile, ihre Funktionsweisen und ihren Verwendungszweck gegeben. Schaubild 4 bis 6 stellen die Gesetze von Ohm vor. Das geschieht in den Experimentalgruppen in den Termini des Wasserstromkreises. Dabei wird der Zusammenhang zwischen je zwei Größen auch immer noch in einem separaten Textfenster zusammengefasst. Außerdem erhält der Teilnehmer im Anschluss an Schaubild 6 wieder eine komplette Zusammenfassung der bisher erläuterten Gesetzmäßigkeiten. Die Schaubilder 7 bis 11 stellen dann die Regeln für die Reihenschaltung von Kreiseln (Glühbirnen) vor. Der Proband lernt, wie sich Wasserstromstärke (Stromstärke), Druckdifferenz (Spannung) und Kreiselwiderstand (Widerstand) in seriellen Systemen verhalten und wie sie sich gegenseitig beeinflussen. Insgesamt sollen die Regeln aus Tabelle 4.2 verstanden und behalten werden. Damit ist die Erklärung des Kreislaufsystems beendet. Kontrollfragen Es folgen elf Fragen zum (Wasser-)stromkreis, die als Bildschirmtext präsentiert werden. Der Proband muss entweder die richtige Antwort über die Tastatur eingeben oder Multiple-Choice-Fragen beantworten. Er erhält in jedem Fall Rückmeldung, ob die Frage richtig oder falsch gelöst wurde, und was die richtige Lösung der Frage ist. Wenn eine Frage nicht sofort beantwortet werden kann, kann der Proband mit dem Fragezeichen-Knopf Hinweise für die Lösung erhalten. Alle Fragen, die falsch oder nur mit Hilfe beantwortet werden konnten, werden am Ende des Fragenblocks noch einmal gestellt. Dieser Prozess wird wiederholt, bis alle Fragen richtig gelöst werden konnten. Einführung des Stromkreises Im Anschluss an die Fragenbeantwortung wird in den Experimentalgruppen der Stromkreis mit seinen Bauteilen durch den Tutor eingeführt. Der Proband wird darüber informiert, dass er nun Aufgaben aus dem Bereich der Elektrizitätslehre bearbeiten muss und dass ihm die Gesetze des Wasserkreislaufs dabei helfen können. Die Teilnehmer der Kontrollgruppen erhalten nur den Hinweis jetzt Fragen zum Stromkreis beantworten zu müssen. Alle Teilnehmer werden darauf hingewiesen, dass sie die Fragen so gut es geht und so schnell wie möglich lösen müssen. Problemlöseaufgaben Es folgen dann die drei Multiple-Choice-Fragenblöcke (Typ-1, Typ- 2 und Typ-3) zum elektrischen Stromkreis. Die Fragen werden im Text- und Audioformat präsentiert und zusätzlich durch Schaubilder unterstützt. Die ersten beiden Aufgaben der Typ- 1- und Typ-2-Fragen sind jeweils Fragen zur Stromstärke, sie dienen nur der besseren Gewöhnung an den neuen Inhaltsbereich und werden bei der Zeitmessung nicht berücksichtigt. Die folgenden Fragen sind zu Spannung (Typ-1) bzw. Widerstand (Typ-2). Mit ihrer Hilfe

89 81 sollen die Regeln aus dem Wasserkreislauf übertragen werden. Im Anschluss folgen dann die Fragen des jeweils anderen Aufgabentyps (Typ-2 bzw. Typ-1). Sie sollen testen, welche Regeln im ersten Problemlöseschritt in den Zielbereich transferiert werden konnten. Den Abschluss des Experiments bilden 13 Fragen zur Schemaqualität, die Spannung, Stromstärke und Widerstand gleichzeitig berücksichtigen. Sie spielen nur für die zweite Fragestellung eine Rolle. Danach ist die Untersuchung am Computer vorbei. Der Proband informiert den Versuchsleiter über das Ende des Computerprogramms. Intelligenztest Im Anschluss an die Problemlösung am Computer wurde bei 43 Probanden ein Intelligenztest durchgeführt, um ihre generellen Problemlösefähigkeiten zu testen. Dazu werden aus dem IST-2000-R (Amthauer, Brocke, Liepmann & Beauducel, 2000) die Untertests 2 (verbale Analogien), 4 (Rechenaufgaben) und 9 (Matrizen) ausgewählt und nach den Handbuchanweisungen durchgeführt. Die Testung dauerte ungefähr 30 Minuten. Die Ergebnisse können mit einer beigelegten Auswertungsschablone ermittelt werden. Fragebogen und Verabschiedung Alle Probanden füllen am Ende der Untersuchung noch einen kurzen soziodemographischen Fragebogen (vgl. Anhang E) aus. Im Durchschnitt dauerte die Untersuchung mit Intelligenztest 90 bis 100 Minuten und ohne Intelligenztest 60 Minuten. Die Teilnehmer erhielten 7,50 Euro pro Stunde oder Versuchspersonenstunden. 5.6 Ergebnisse Bei allen vier Untersuchungsgruppen stehen als abhängige Variable die Lösungszeiten und Lösungshäufigkeiten in drei Problemlösedurchgängen zur Verfügung. Die Ergebnisse des IST-2000-R werden mit den Lösungszeiten und häufigkeiten in einer Korrelationsmatrix dargestellt. Für die Beschreibung der Stichprobe werden die Daten des soziodemographischen Fragebogens ausgewertet Beschreibung der Stichprobe Die 70 Versuchspersonen verteilten sich auf zwei Experimentalgruppen (E1 und E2) und zwei Kontrollgruppen (K1 und K2). Sieben Versuchspersonen mussten ausgeschlossen werden. E1 bestand aus 15 Versuchspersonen (8 weiblich, 7 männlich), E2 aus 16 Personen (10 weiblich, 6 männlich). In K1 befanden sich 16 Probanden (14 weiblich, 2 männlich), genauso wie in K2 (12 weiblich, 4 männlich). Die Versuchspersonen wurden zufällig auf die einzelnen Bedingungen aufgeteilt. Alle Probanden waren Studenten der Universität Bamberg. Sieben Proban-

90 82 den studierten Wirtschaftswissenschaften, neun Sozialwissenschaften, zehn Lehramt und 35 Psychologie oder Pädagogik. Drei Studenten stammten aus anderen Fachrichtungen. Bei 43 Probanden wurden Subtests des IST-2000-R durchgeführt. Es wurde der mittlere Intelligenzquotient in den Unterkategorien verbale Analogien (M= 109; SD= 14,7), Rechnen (M= 103; SD= 16,0) und Matrizen (M= 102; SD= 15,3) des IST-2000-R ermittelt. Die durchschnittliche Physiknote der Probanden lag bei 3,0. Diese Note bezieht sich auf die letzte Zeugnisnote im Fach Physik. 87 Prozent der Probanden hatten sich schon fünf Jahre und länger nicht mehr mit dem Fach Physik beschäftigt. Es wurden nur Probanden in die Untersuchung aufgenommen, die keine Kenntnis mehr von den Regeln für den Stromkreis hatten Durchschnittliche Lösungszeiten und häufigkeiten Die Lösungszeiten und Lösungshäufigkeiten werden in der vorliegenden Untersuchung als abhängige Variable verwendet. Tabelle 5.5 zeigt ihre durchschnittlichen Werte für die Experimental- und Kontrollgruppen 15. Tabelle 5.5: Lösungszeiten [in s] bei den Typ-1-, Typ-2- und Typ-3-Fragen Fragentyp Lösungszeiten Lösungshäufigkeiten E1 E2 K1 K2 gesamt E1 E2 K1 K2 gesamt Typ-1 Frage1* 22,789 29,229 27,510 19,689 24,729 0,47 0,38 0,88 0,63 0,59 Frage2* 30,703 21,719 28,722 27,800 27,266 0,33 0,30 0,88 0,56 0,57 Frage3 19,642 23,645 16,559 21,965 20,429 0,93 1,00 1,00 0,81 0,94 Frage4 18,244 18,589 17,014 18,295 17,975 0,80 0,75 1,00 1,00 0,89 Frage5 18,666 16,357 12,700 14,250 15,205 0,73 0,94 1,00 1,00 0,92 Frage6 16,339 16,508 13,543 15,507 15,475 0,93 0,94 0,81 1,00 0,92 Typ-2 Frage1* 21,288 32,428 22,179 26,722 25,308 0,40 0,25 0,63 0,88 0,54 Frage2* 30,018 28,899 24,487 24,973 27,122 0,40 0,69 0,44 0,56 0,52 Frage3 21,086 23,519 18,866 18,922 20,575 0,93 0,75 0,88 0,81 0,84 Frage4 27,042 21,181 30,248 27,223 26,634 0,47 0,56 0,63 0,69 0,59 Frage5 28,159 30,881 30,530 33,519 30,826 0,73 0,94 0,81 0,88 0,84 Frage6 21,734 21,010 22,976 25,229 22,933 0,40 0,44 0,56 0,38 0,44 Frage7 24,937 33,158 26,243 22,512 26,741 0,80 0,94 0,81 0,63 0,80 Typ-3 Frage1** 14,660 14,114 20,309 17,497 17,296 0,27 0,19 0,81 0,63 0,48 Frage2 12,331 13,045 13,024 14,493 13,282 0,73 0,94 1,00 0,94 0,90 Frage3** 10,399 7,031 9,953 8,157 8,734 0,27 0,25 0,63 0,75 0,48 Frage4 16,009 16,357 15,809 14,279 15,576 0,73 1,00 0,94 1,00 0,92 Frage5** 23,151 13,861 15,955 13,017 15,147 0,20 0,25 0,75 0,69 0,47 Frage6 13,368 11,267 12,036 11,991 12,148 0,93 0,94 0,94 0,88 0,92 Frage7 8,148 8,064 7,554 8,182 7,983 0,87 1,00 0,94 0,94 0,94 Frage8 11,258 12,995 10,307 10,946 11,306 0,87 0,75 0,94 0,81 0,84 Frage9* ,06 0,19 0,13 0,31 0,17 Frage10 21,562 25,258 24,484 22,000 23,198 0,47 0,44 0,44 0,63 0,49 Frage11 24,121 20,753 20,699 19,378 20,921 0,53 0,50 0,75 0,81 0,65 Frage12 13,892 12,595 11,331 9,473 11,569 0,60 1,00 1,00 1,00 0,90 Frage13 25,836 29,388 29,796 27,836 28,496 0,53 1,00 0,81 0,94 0,82 15 Die Fragen, die nicht in die Analyse einbezogen werden, sind mit einem Sternchen markiert. Sie dienen der Gewöhnung an die neue Domain oder haben zu geringe Lösungshäufigkeiten, so dass kein sinnvoller Mittelwert berechnet werden kann. Die mit zwei Sternchen markierten Fragen prüfen, unter welcher Bedingung Spannung im Stromkreis gemessen werden kann. Diese Gesetzmäßigkeit wurde im Tutorium zum Wasserstromkreis erklärt, aber in den ersten beiden Problemlösedurchgängen zum Stromkreis nicht abgefragt. Sie müssen gesondert ausgewertet werden.

91 Korrelationen zwischen Intelligenz und Lösungszeiten bzw. Lösungshäufigkeiten Tabelle 5.6 gibt den Zusammenhang zwischen den Subskalen des IST-2000-R (verbale Analogien, Rechenaufgaben und Matrizen) und den Lösungszeiten bzw. Lösungshäufigkeiten wieder. Dabei werden die Größe des Korrelationskoeffizienten und der zugehörige Signifikanzwert angegeben. Signifikante Ergebnisse (p<,05) sind mit einem Sternchen, hochsignifikante Ergebnisse (p<,01) mit zwei Sternchen gekennzeichnet. Auf diese Weise markierte Zusammenhänge sind also besonders stark ausgeprägt. Die entsprechenden IQ-Subskalen eignen sich demnach besonders gut als Prädiktoren für möglichen Problemlöseerfolg. Tabelle 5.6: Korrelationsmatrix: Intelligenzleistung (Lösungszeiten, Lösungshäufigkeiten) Verbale Analogien Rechenaufgaben Matrizen r Sign. r Sign. r Sign. Lösungszeiten E1-0,090 0,806-0,047 0,897-0,613 0,059 E2-0,594 0,054 0,111 0,744-0,775 **0,005 K1-0,345 0,299-0,498 0,119-0,210 0,536 K2-0,375 0,256-0,614 *0,044-0,672 *0,024 Lösungshäufigkeiten E1 0,278 0,436-0,316 0,374-0,473 0,167 E2 0,775 **0,005 0,166 0,625 0,398 0,225 K1 0,138 0,686 0,268 0,425-0,054 0,875 K2-0,420 0,199 0,606 *0,048 0,211 0, Ergebnisse zu Fragestellung 1 Zur empirischen Gegenüberstellung der soviel wie möglich - und soviel wie nötig - Kategorien werden die Lösungszeiten und -häufigkeiten bei den Typ-1- und Typ-2-Fragen zwischen Experimental- und Kontrollbedingung über zwei Testzeitpunkte miteinander verglichen Auswertungsmethode Entsprechend des varianzanalytischen Versuchsplans könnten die ermittelten Lösungszeiten durch eine dreifaktorielle Varianzanalyse mit Messwiederholung ausgewertet werden. Als unabhängige Variable müssten dazu der Testzeitpunkt, die Art des Tutoriums und der Fragentyp in die Analyse einbezogen und der IQ als Kovariate verwendet werden. Voraussetzung für die Anwendung eines solchen Verfahrens sind aber einheitliche Stichprobengrößen für jeden berücksichtigten Faktor. Diese Forderung ist in der vorliegenden Untersuchung jedoch nicht erfüllt. Hier können die Lösungszeiten der falsch beantworteten Fragen nicht in die Auswertung aufgenommen werden, da sie nicht sinnvoll interpretierbar sind. In der Konsequenz ergeben sich je nach Aufgabenschwierigkeit unterschiedlich große Stichprobenumfänge. Man

92 84 spricht in einem solchen Fall von einem varianzanalytischen Design mit ungleichen Stichproben (Bortz, 1999). Ein Problem bei dieser Form der Varianzanalyse besteht darin, dass die Orthogonalität von Haupt- und Interaktionseffekten nicht mehr gewährleistet ist. Bei Bortz (1999) finden sich Auswertungsalternativen für dieses Problem. Eine gängige Möglichkeit wäre dabei eine Varianzanalyse mit Messwiederholung und Schätzung der fehlenden Werte. Diese werden durch den jeweiligen Stichprobenmittelwert bzw. den Mittelwert der jeweiligen Faktorkombinationen ersetzt (Bortz, 1999). Diese Technik ist allerdings sehr sparsam einzusetzen, da sie Auswirkungen auf die Gültigkeit des F-Tests der Varianzanalyse hat. Durch die Verwendung von Mittelwerten wird die Fehlervarianz in den Daten reduziert, wodurch der F- Test eher progressiv entscheidet (Bortz, 1999). Diese Verzerrungseffekte sind dabei umso stärker, je größer der Anteil der fehlenden Werte ist. In der vorliegenden Untersuchung liegt er bei etwa 20 Prozent und ist somit für eine varianzanalytische Auswertung deutlich zu groß. Anstelle der Varianzanalyse kann aber auch eine lineare Regressionsanalyse verwendet werden, um den Einfluss der unabhängigen Variablen auf die Lösungszeiten zu untersuchen. Beide Analyseverfahren beruhen auf dem allgemeinen linearen Modell. Der Vorteil der Regressionsanalyse ist, dass sie den isolierten oder kombinierten Einfluss einer oder mehrerer unabhängiger Variablen auf mindestens eine abhängige Variable testen kann, ohne dass dabei die fehlenden Werte ersetzt werden müssen. Die Messwiederholung wird durch die Kontrolle der Versuchspersonenvarianz erreicht. Dafür müssen die Versuchspersonen als zusätzliche Variable in die Regressionsanalyse einbezogen werden. Auf diese Weise berücksichtigt man die individuelle Leistungsfähigkeit der Testpersonen und kann auf zusätzliche Kovariaten wie bei der Varianzanalyse verzichten. Der Einfluss die Intelligenz auf die Lösungszeiten und Lösungshäufigkeiten kann der Korrelationsmatrix (Tabelle 5.6) entnommen werden. Andere Variable sind für die Untersuchung nicht interessant. Um unterschiedliche Schwierigkeitsgrade in der Fragestellung berücksichtigen zu können, muss auch die Varianz über die einzelnen Teilfragen kontrolliert werden. Damit unerwünschte Interaktionen der verschiedenen Variablen ausgeschlossen werden können, werden die Versuchspersonen und die einzelnen Teilfragen effektkodiert. So wird gewährleistet, dass die Ergebnisse invariant gegenüber der Auswahl der Referenzpersonen und Referenzfragen sind. Eine Anleitung zur Durchführung der Effektkodierung im Rahmen einer Regressionsanalyse findet sich bei Bortz (1999). Die Lösungshäufigkeiten sind als binäre Variable (Antwort: richtig/falsch) im Datensatz kodiert und müssen entsprechend durch eine logistische Regressionsanalyse ausgewertet werden.

93 Auswertung der Lösungszeiten Tabelle 5.7 gibt die durchschnittlichen Lösungszeiten für die Typ-1- und Typ-2- Fragen in Abhängigkeit des Testzeitpunktes wieder. Wenn die Vermutungen der soviel wie möglich - Theorien zutreffen, dann sollte sich in den Experimentalgruppen eine Abnahme der Lösungszeiten zwischen Testzeitpunkt 1 und 2 ergeben, die signifikant größer ist als in den Kontrollgruppen. Statistisch würde sich dieser Effekt in einer signifikanten Interaktion zwischen Testzeitpunkt und Art des Tutoriums zeigen. Tabelle 5.7: Lösungszeiten in Abhängigkeit des Testzeitpunktes Art der Frage Testzeitpunkt 1 Testzeitpunkt 2 Typ-1-Fragen Experimentalbedingung 18,338 19,250 Kontrollbedingung 14,868 17,220 Typ-2-Fragen Experimentalbedingung 27,576 24,216 Kontrollbedingung 25,506 25,826 Der vermutete Einfluss des Tutoriums auf den Testzeitpunkteffekt lässt sich an den empirischen Daten bestätigen. Die Interaktion zwischen Testzeitpunkt und Art des Tutoriums ist signifikant im Sinne der statistischen Alternativhypothese (p=,041). Bei den Haupteffekten werden nur die Art des Tutoriums (p=,019) und der Fragentyp (p=,000) signifikant. Der Testzeitpunkt bleibt dagegen insignifikant (p=,929). Es ergeben sich signifikante Interaktionen zwischen Fragentyp und Art des Tutoriums (p=,045) und zwischen Testzeitpunkt und Fragentyp (p=,013). Die Interaktion zwischen Art des Tutoriums, Testzeitpunkt und Fragentyp bleibt insignifikant (p=,374). Tabelle 5.8: Ergebnisse der linearen Regressionsanalyse Modell Nicht-standardisierte Koeffizienten B Standardfehler T Signifikanz Konstante 21,600 0,321 67,355 0,000 Art des Tutoriums 0,745 0,315 2,364 0,019 Testzeitpunkt 0,028 0,313 0,090 0,929 Fragentyp -4,181 0,319-13,116 0,000 Tutorium*Testzeitpunkt -0,640 0,313-2,048 0,041 Tutorium*Fragentyp 0,630 0,313 2,012 0,045 Testzeitpunkt*Fragentyp 0,788 0,315 2,505 0,013 Testzeitpunkt*Tutorium*Fragentyp 0,280 0,314 0,889 0,374 In Tabelle 5.8 sind die Ergebnisse der linearen Regressionsanalyse zusammengefasst. Auf eine Darstellung der Ergebnisse für die Versuchspersonenvariablen und die einzelnen Teilfragen wird zugunsten der Übersichtlichkeit verzichtet. Diese Faktoren sind für die Fragestellungen der vorliegenden Arbeit ohnehin nicht relevant. Abbildung 5.5 zeigt den gemeinsamen Einfluss des Tutoriums, des Testzeitpunktes und des Fragentyps auf die Lösungszeiten. Die inhaltliche Interpretation der Haupt- und Interaktionseffekte findet sich dann in Kapitel 5.7.

94 86 Wegen der größeren Anschaulichkeit und zur graphischen Darstellung der Ergebnisse werden die Koeffizienten der Regressionsanalyse in geschätzte Lösungszeiten umgerechnet. Eine Beschreibung der Methodik und die Ergebnisse der Berechnung finden sich in Anhang F. 30 Experimentalbedingung Kontrollbedingung Testzeitpunkt 1 Testzeitpunkt 2 Testzeitpunkt 1 Testzeitpunkt 2 Typ-1-Fragen Typ-2-Fragen Abbildung 5.5: Ergebnis für die Lösungszeiten [in s] Auswertung der Lösungshäufigkeiten Tabelle 5.9 zeigt die durchschnittlichen Lösungshäufigkeiten bei den Typ-1- und Typ-2- Fragen. Sie werden mit Hilfe einer multiplen logistischen Regressionsanalyse ausgewertet. Die Ergebnisse finden sich in Tabelle Tabelle 5.9: Lösungshäufigkeiten in Abhängigkeit des Testzeitpunktes Art der Frage Testzeitpunkt 1 Testzeitpunkt 2 Typ-1-Fragen Experimentalbedingung 0,87 0,91 Kontrollbedingung 0,97 0,96 Typ-2-Fragen Experimentalbedingung 0,83 0,71 Kontrollbedingung 0,80 0,80 Untersucht wird wieder der Einfluss des Tutoriums, des Testzeitpunktes und des Fragentyps auf die Lösungshäufigkeiten. Es wird vermutet, dass mit einer Abnahme der Lösungszeiten in den Experimentalgruppen idealerweise eine signifikante Zunahme in den Lösungshäufigkeiten verbunden ist. Es wäre aber auch möglich, dass sich auf Grund des geringen Informationsgehalts binärer Daten und dem vergleichsweise geringen Stichprobenumfang dieser Effekt nicht zeigt. Um die Lösungszeiten dennoch sinnvoll interpretieren zu können, sollte sich in den Lösungshäufigkeiten aber zumindest kein Trend zeigen, der den Ergebnissen der Zeitmessung widerspricht. Das bedeutet, dass mit der Abnahme der Lösungszeiten nicht auch eine signifikante Abnahme der Lösungshäufigkeiten verbunden sein darf. Inferenzstatistisch wäre

95 87 das nur dann der Fall, wenn die Interaktion zwischen Testzeitpunkt und Art des Tutoriums signifikant von der Behauptung der Alternativhypothese abweichen würde. Tabelle 5.10: Ergebnisse der logistischen Regressionsanalyse Regressionskoeff. Standardfehler Wald df Signifikanz Konstante 2,010 0, , ,000 Art des Tutoriums -0,344 0,155 4, ,026 Testzeitpunkt -0,077 0,155 0, ,926 Fragentyp 0,687 0,164 17, ,000 Tutorium*Testzeitpunkt 0,008 0,155 0, ,959 Tutorium*Fragentyp -0,237 0,155 2, ,125 Testzeitpunkt*Fragentyp 0,072 0,155 0, ,643 Testzeitpunkt*Tutorium*Fragentyp 0,198 0,155 1, ,200 Die Analyse der empirischen Daten zeigt zwei Haupteinflussfaktoren auf die Lösungshäufigkeiten. Die Art des Tutoriums (p=,026) und der Fragentyp (p=,000) werden als Haupteffekte signifikant. Sowohl die zweifachen Interaktionsterme als auch die Dreifachinteraktion aus Testzeitpunkt, Art des Tutoriums und Fragentyp sind dagegen insignifikant. Das bedeutet auch, dass die Ergebnisse in den Lösungszeiten eindeutig im Sinne der untersuchten Hypothese interpretiert werden können 16. Abbildung 5.6 zeigt den gemeinsamen Einfluss der drei unabhängigen Variablen auf die Lösungshäufigkeiten. Die inhaltliche Interpretation der Hauptund Interaktionseffekte findet sich wieder in Kapitel 5.7. Die Berechnung der Lösungshäufigkeiten aus den Koeffizienten der logistischen Regression wird in Anhang F beschrieben. Experimentalbedingung Kontrollbedingung 1,0 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0,0 Testzeitpunkt 1 Testzeitpunkt 2 Testzeitpunkt 1 Testzeitpunkt 2 Typ-1-Fragen Typ-2-Fragen Abbildung 5.6: Ergebnis für die Lösungshäufigkeiten 16 Es empfiehlt sich aber, dieses Ergebnis in einer Folgeuntersuchung anhand eines größeren Stichprobenumfangs zu verifizieren. Die Lösungshäufigkeiten werden im Datenmaterial ja als binäre Variable berücksichtigt. Binäre Einflussgrößen haben statistisch gesehen immer einen geringen Informationsgehalt, weswegen ihr Einfluss nur an großen Fallzahlen sicher überprüft werden kann.

96 Ergebnisse zu Fragestellung 2 Im zweiten Teil der Studie soll eine Schemainduktion als Folge des analogen Problemlösens nachgewiesen werden. Sie wird indirekt über die Messung der Schemaqualität anhand von Lösungszeiten und Lösungshäufigkeiten erfasst Auswertungsmethode Um überprüfen zu können, ob sich die Schemaqualität zwischen Experimental- und Kontrollbedingung unterscheidet, müssen die Lösungszeiten und Lösungshäufigkeiten der Typ-3- Fragen miteinander verglichen werden. Da verschiedene Testzeitpunkte dabei keine Rolle spielen, sondern nur ein möglicher Effekt durch die unterschiedlichen Tutorien interessiert, werden E1 und E2 bzw. K1 und K2 für die Auswertung zusammengefasst. Die im Versuch ermittelten Lösungszeiten sind metrische Variable und müssen deshalb durch einen t-test für unabhängige Stichproben ausgewertet werden. Die Lösungshäufigkeiten werden im Datensatz dagegen als binäre Variable (Antwort: richtig / falsch) aufgezeichnet und deshalb durch einen χ 2 -Test miteinander verglichen Auswertung der Lösungszeiten Wenn analoges Problemlösen eine Schemainduktion begünstigt, sollten sich signifikant kürzere Lösungszeiten für die Typ-3-Fragen unter der Experimentalbedingung ergeben. Ein generalisiertes Lösungsschema enthält dabei nur noch für die Problemlösung relevante Informationen, während von unwichtigen, oberflächlichen Details durch den analogen Vergleich abstrahiert wird. Die Möglichkeit dazu bestand nur für die Experimentalgruppen. Eine Schemainduktion kann also nur bei diesen Probanden stattgefunden haben. Tabelle 5.11 zeigt die durchschnittlichen Lösungszeiten für die Experimental- und Kontrollbedingung. Die Vermutung, dass sich in den Experimentalgruppen auf Grund der Schemainduktion signifikant kürzere Lösungszeiten ergeben, lässt sich anhand der empirischen Ergebnisse nicht bestätigen. Der t-test für unabhängige Stichproben ist insignifikant (t= -,638, df= 464, 2-seitig, p=,524). Die Kontrollgruppen benötigen im Durchschnitt 15,165 (SD= 8,358) Sekunden und die Experimentalgruppen 15,674 (SD= 8,848) Sekunden zur Lösung der Aufgaben. Die Fragen 1, 3 und 5 wurden separat ausgewertet. Sie müssten unter der Experimentalbedingung wieder durch analoges Problemlösen bearbeitet worden sein, da die für die Beantwortung notwendige Gesetzmäßigkeit in den ersten beiden Problemlöseschritten nicht abgeprüft wurde. Sie kann also zum dritten Testzeitpunkt nicht Teil eines Problemlöseschemas sein. Die

97 89 Kontrollgruppen müssen für die Fragenbeantwortung wieder nur die Regel anwenden, die sie explizit im Tutorium zum elektrischen Stromkreis gelernt haben. Dadurch sollte die Problemlösung in den Kontrollgruppen weniger lang dauern als in den Experimentalgruppen. Um diese Vermutung zu testen, wurden die entsprechenden Lösungszeiten mit einem t-test für unabhängige Stichproben über die beiden Untersuchungsbedingungen verglichen: Die Experimentalgruppen benötigen durchschnittlich 12,774 (SD= 7,526) Sekunden zur Fragenbeantwortung, die Kontrollgruppen sogar 13,588 (SD= 6,495) Sekunden. Dieser Unterschied ist aber nicht signifikant (t=,522, df= 87, 2-seitig, p=,603). Tabelle 5.11: Lösungszeiten (Typ-3-Fragen) in Abhängigkeit der Untersuchungsbedingung Experimentalbedingung Kontrollbedingung Typ-3-Fragen Frage 1** 14,387 18,903 Frage 2 12,688 13,759 Frage 3** 8,715 9,055 Frage 4 16,183 15,044 Frage 5** 18,506 14,486 Frage 6 12,317 12,014 Frage 7 8,106 7,868 Frage 8 12,126 10,627 Frage 10 23,410 23,242 Frage 11 22,437 20,039 Frage 12 13,244 10,402 Frage 13 27,612 28, Auswertung der Lösungshäufigkeiten Die Lösungshäufigkeiten der Typ-3-Fragen werden zwischen Experimental- und Kontrollgruppen durch einen χ 2 -Test miteinander verglichen. Tabelle 5.12 zeigt die durchschnittlichen Lösungshäufigkeiten für die Experimental- und Kontrollbedingung. Wenn analoges Problemlösen zu einer besseren Schemaqualität führt, dann sollten die Probanden in den Experimentalgruppen höhere Lösungshäufigkeiten bei den Typ-3-Fragen erreichen können als die Probanden aus den Kontrollgruppen. Tabelle 5.12: Lösungshäufigkeiten (Typ-3-Fragen) in Abhängigkeit der Untersuchungsbedingung Experimentalbedingung Kontrollbedingung Typ-3-Fragen Frage 1* 0,23 0,72 Frage 2 0,84 0,97 Frage 3* 0,26 0,69 Frage 4 0,87 0,97 Frage 5* 0,23 0,72 Frage 6 0,94 0,91 Frage 7 0,94 0,94 Frage 8 0,81 0,88 Frage 10 0,46 0,54 Frage 11 0,52 0,78 Frage 12 0,80 1,00 Frage 13 0,77 0,88

98 90 Der χ 2 -Test kann aber keinen Vorteil für die Experimentalgruppen feststellen. Die Probanden in den Experimentalgruppen können 76,7 Prozent der Fragen richtig beantworten, die Kontrollgruppen sogar 87,5 Prozent. Es ergibt sich also eine signifikant höhere Lösungswahrscheinlichkeit für die Kontrollgruppen (χ 2 = 11,285, df=1, p=,001). Ein signifikanter Effekt zeigt sich auch bei den Fragen 1, 3 und 5 (χ 2 = 21,194, df=1, p=,000). Dort fällt er noch stärker aus als bei den übrigen Typ-3-Fragen. Die Experimentalgruppen lösen nur 30,1 Prozent der Aufgaben richtig, während die Kontrollgruppen 63,5 Prozent korrekt beantworten können. 5.7 Interpretation der Ergebnisse In Kapitel 5.7 werden die Korrelationsmatrix und die Ergebnisse zu Fragestellung 1 und 2 interpretiert: Es bestätigt sich dabei, dass die Lösungszeiten im Durchschnitt negativ mit der Intelligenz der Probanden korrelieren. Zwischen Lösungshäufigkeit und Intelligenz besteht dagegen ein positiver Zusammenhang. Die Untersuchungen zu Fragestellung 1 stützen die soviel wie möglich -Theorien. In den Experimentalgruppen zeigt sich im Durchschnitt die erwartete Abnahme der Lösungszeiten vom ersten zum zweiten Testzeitpunkt. In den Kontrollgruppen ergibt sich sogar eine Zunahme der Lösungszeiten. Eine Schemainduktion konnte anhand der Lösungszeiten und Lösungshäufigkeiten nicht nachgewiesen werden. Gründe dafür werden in Kapitel 6 diskutiert Interpretation der Korrelationsmatrix Wie erwartet, ergeben sich meist negative Korrelationen zwischen den IQ-Subskalen und den Lösungszeiten. Die Werte liegen zwischen 0,047 und 0,744. Das bedeutet, dass hohen Scores im Intelligenztest in der Regel niedrige Lösungszeiten im Experiment entsprechen. Ein Proband ist also umso schneller bei der Aufgabenbearbeitung, je höher seine Leistung in den Intelligenztestaufgaben ist. Besonders gute Prädiktoren für die Schnelligkeit der Aufgabenbearbeitung scheinen die Rechen- und Matrizenaufgaben zu sein. Dort ergeben sich in einigen Untersuchungsgruppen signifikante Korrelationen mit den Lösungszeiten. Bei den Lösungshäufigkeiten zeigt sich ein ähnliches Bild. Hier sind die Ergebnisse allerdings weniger einheitlich als bei den Lösungszeiten. Die IQ-Werte korrelieren überwiegend positiv mit den Lösungshäufigkeiten. Die Werte der Korrelationskoeffizienten liegen zwischen 0,138 und 0,775. Einem hohen IQ-Wert entsprechen also im Durchschnitt hohe Lösungshäufigkeiten bei den Problemlöseaufgaben. Besonders gute Prädiktoren scheinen hier die Rechenleistung und die Fähigkeit zum Lösen von verbalen Analogien zu sein. Insgesamt bestätigt sich die Vermutung, dass hohe Werte im Intelligenztest mit niedrigen Lösungszeiten und hohen Lösungshäu-

99 91 figkeiten zusammenhängen. Es scheint allerdings wenig Unterschied zu machen, welche der drei Subskalen man als Prädiktor für die Problemlösefähigkeiten heranzieht. Es findet sich kein eindeutiges Ergebnis zu Gunsten einer der abgeprüften Intelligenzsubkategorien Interpretation der Ergebnisse zu Fragestellung 1 Bei Fragestellung 1 zeigen sich die gewünschten Effekte in den Lösungszeiten. Die Interaktion aus Testzeitpunkt und Art des Tutoriums ist signifikant im Sinne der statistischen Alternativhypothese. Die Lösungszeiten nehmen im Durchschnitt in den Experimentalgruppen ab und in den Kontrollgruppen zu. Das Experiment kann somit die soviel wie möglich -Theorien bestätigen. Die Ergebnisse in den Lösungshäufigkeiten sind mit den Befunden in den Lösungszeiten vereinbar Haupteffekte Die Art des Tutoriums hat einen signifikanten Einfluss auf die Lösungszeiten. Die Experimentalgruppen benötigen im Mittel 1,5 Sekunden länger zur Beantwortung der Fragen als die Kontrollgruppen. Dieser Effekt entsteht durch die unterschiedlichen Problemlösemethoden in Experimental- und Kontrollbedingung. Die Experimentalgruppen haben die Regeln für den elektrischen Stromkreis am Wasserkreislaufsystem gelernt. Sie können Fragen zum Stromkreis nur durch analoges Problemlösen beantworten. Dafür müssen Korrespondenzen zwischen den beiden Bereichen ausgebildet und die entsprechenden Regeln transferiert werden. Die Kontrollgruppen haben die physikalischen Gesetze dagegen gleich am elektrischen Stromkreis gelernt. Sie müssen die Regeln zur Problemlösung nur auf den vorliegenden Fall anwenden. Der Unterschied von 1,5 Sekunden ist dabei als die Zeit zu interpretieren, die in den Experimentalgruppen durchschnittlich für den Analogiebildungsprozess benötigt wird. Die Lösungshäufigkeiten unterstützen den in den Lösungszeiten gefundenen Effekt. Auch sie unterscheiden sich deutlich zwischen Experimental- und Kontrollbedingung. Die Versuchspersonen, die das Tutorium zum Wasserstromkreis durchlaufen haben, konnten im Durchschnitt 84 Prozent aller Fragen im ersten und zweiten Problemlösedurchgang richtig beantworten. Die Lösungsquote in den Kontrollgruppen liegt dagegen bei 91 Prozent. Dieses Ergebnis passt zu den theoretischen Überlegungen. Analoges Problemlösen ist ein komplexerer und anspruchsvollerer Prozess als einfache Regelanwendung bei dem zuerst Korrespondenzen gebildet werden müssen, bevor die richtige Problemlösung aus dem Basisbereich abgeleitet werden kann. Dieser Prozess dauert länger und ist fehleranfälliger als die direkte Regelanwendung.

100 92 Es konnte dagegen kein entscheidender Einfluss des Testzeitpunktes auf die Lösungszeiten festgestellt werden. Die durchschnittliche Differenz in den Lösungszeiten beträgt zwischen beiden Testzeitpunkten nur etwa 5,6 Millisekunden. Über alle Untersuchungsgruppen und alle Fragentypen scheint es also keinen Unterschied zu machen, zu welchem Zeitpunkt eine bestimmte Frage präsentiert wird. Es ergeben sich im Mittel auch keine signifikanten Gewöhnungs- oder Ermüdungseffekte. Dieser Befund ist aber insofern nicht erstaunlich, wenn man bedenkt, dass in den Kontrollgruppen ohnehin kein Testzeitpunkteffekt vermutet wurde. Der betrachtete Haupteffekt macht schließlich nur Aussagen über den durchschnittlichen Testzeitpunkteffekt über alle Untersuchungsgruppen. Es kann also sein, dass sich tatsächlich keine Veränderungen in den Lösungszeiten von Testzeitpunkt 1 zu Testzeitpunkt 2 zeigen. Möglicherweise besteht aber auch ein gegenläufiger Testzeitpunkteffekt in den Experimental- und Kontrollgruppen, der sich im Mittel über alle Untersuchungsgruppen ausgleicht. Für eine eindeutige Interpretation ist es deshalb nötig, zusätzlich die Interaktion zwischen Testzeitpunkt und Art des Tutoriums zu untersuchen. In den Lösungshäufigkeiten findet sich ebenfalls kein Effekt durch den Testzeitpunkt. Sie betragen zum ersten Testzeitpunkt im Durchschnitt 89 Prozent und zum zweiten Testzeitpunkt 87 Prozent. Es ergeben sich aber auch hier die gleichen Interpretationsprobleme wie bei den Lösungszeiten. Eine zusätzliche Betrachtung der Interaktion zwischen Testzeitpunkt und Art des Tutoriums ist auch hier nötig. Zwischen den beiden Fragentypen zeigen sich dagegen sehr starke Unterschiede. Die Versuchspersonen benötigen im Durchschnitt 8,4 Sekunden länger zur Beantwortung der Typ-2- Fragen als zur Beantwortung der Typ-1-Fragen. Ein vergleichbarer Effekt zeigt sich in den Lösungshäufigkeiten. Die Typ-1-Fragen werden zu 94 Prozent richtig beantwortet, die Typ-2- Fragen nur zu 79 Prozent. Die signifikante Differenz in den Lösungszeiten lässt sich unter Berücksichtigung der Lösungshäufigkeiten eindeutig auf den Schweregrad der Aufgabenstellung zurückführen. Bei schweren Fragen sind die Lösungshäufigkeiten in der Regel niedrig und die Lösungszeiten hoch. Warum die Probanden größere Probleme mit den Fragen zum Widerstand haben, kann die vorliegende Untersuchung dabei nicht eindeutig beantworten. Der Effekt sollte jedenfalls nicht auf die Anschaulichkeit des Untersuchungsmaterials zurückzuführen sein. Die Informationen über Spannung und Widerstand sind direkt aus den Schaubildern ablesbar. Die Größe der Spannung wird durch den Ausschlag des Spannungsmessers angezeigt, die Größe des Widerstandes lässt sich aus der Größe der Glühbirnen ableiten. Die Komplexität der verwendeten Gesetzmäßigkeit unterscheidet sich ebenfalls nicht. Die Fragen prüfen auf verschiedene Arten immer das gleiche Gesetz: Die Teilspannungen addieren sich zur Gesamtspannung, bzw. Die Teilwiderstände addieren sich zum Gesamtwiderstand.

101 Interaktionseffekte Der für die Fragestellung interessierende Effekt zeigt sich in der Interaktion von Testzeitpunkt und Art des Tutoriums. Diese ist signifikant im Sinne der experimentellen Hypothese. Im Durchschnitt ergibt sich in den Experimentalgruppen eine Abnahme der Lösungszeiten um 1,224 Sekunden vom ersten zum zweiten Testzeitpunkt, wohingegen in den Kontrollgruppen sogar eine Zunahme um 1,336 Sekunden gemessen wird. 23,5 23,0 22,5 22,0 21,5 21,0 20,5 20,0 19,5 19,0 18,5 Testzeitpunkt 1 Testzeitpunkt 2 Experimentalbedingung Kontrollbedingung Abbildung 5.7: Interaktion Art des Tutoriums Testzeitpunkt (Lösungszeiten [in s] ) In Abbildung 5.7 erkennt man deutlich den Haupteffekt des Tutoriums. Die Experimentalgruppen benötigen im Durchschnitt stets mehr Zeit zur Bearbeitung der Aufgaben als die Kontrollgruppen. Analoges Problemlösen ist demnach aufwändiger als direkte Regelanwendung. Man erkennt aber auch, dass dieser Unterschied zum ersten Testzeitpunkt viel stärker ausgeprägt ist als zum zweiten Testzeitpunkt. Zu Testzeitpunkt 2 sind kaum noch Unterschiede zwischen den beiden Untersuchungsbedingungen zu erkennen. Die Abbildung zeigt auch, dass sich in Abhängigkeit des Tutoriums unterschiedliche Testzeitpunkteffekte ergeben. Wie erwartet, nehmen die Lösungszeiten in den Experimentalgruppen ab. In den Kontrollgruppen nehmen sie dagegen sogar zu. Die gegenläufigen Testzeitpunkteffekte erklären auch, warum der Testzeitpunkt als Haupteffekt nicht signifikant werden kann. Das Ergebnis ist im Sinne der theoretischen Überlegungen ein Beleg für die Gültigkeit der soviel wie möglich - Theorien. Die Zunahme der Lösungszeiten in den Kontrollgruppen kommt vermutlich in Folge der Ermüdung durch die Fragenbeantwortung zustande. In den Experimentalgruppen sollte durch das analoge Problemlösen ein mindestens genauso großer Ermüdungseffekt wie in den Kontrollgruppen auftreten. Dass sich aber tatsächlich eine Abnahme der Lösungszeiten zeigt, ist

102 94 nur darauf zurückzuführen, dass bereits im ersten Problemlöseschritt die Regeln für alle drei physikalischen Größen aus dem Wasserstromkreis auf den elektrischen Stromkreis übertragen werden konnten. Diese Interpretation wird durch die Beobachtung gestützt, dass sich die Lösungszeiten zwischen Experimental- und Kontrollbedingung zum zweiten Testzeitpunkt auch kaum noch unterscheiden. Das bedeutet, dass die Aufgaben in beiden Untersuchungsgruppen durch ähnliche Lösungsmethoden bearbeitet worden sein müssen. In der Konsequenz heißt das, dass die Experimentalgruppen die Fragen wohl nicht mehr mit Hilfe von Analogien beantworten, sondern die richtige Regel direkt anwenden. Das ist aber nur dann möglich, wenn zum ersten Testzeitpunkt alle für den zweiten Testzeitpunkt notwendigen Gesetze bereits in die Stromdomain transferiert wurden. Die Ergebnisse unterstützen also die Vermutung, dass Informationen aus dem Wasserkreis auf den Stromkreis nach dem Systematizitätsprinzip transferiert werden und somit schon im ersten Problemlöseschritt implizites Wissen für den zweiten Problemlöseschritt erworben werden konnte. Dieser Effekt zeigt sich sogar, obwohl die Fragen in ein Problemlöseszenario eingebettet waren und die Probanden informiert wurden, dass sie die Aufgaben so schnell wie möglich lösen sollten. 1,0 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0,0 Testzeitpunkt 1 Testzeitpunkt 2 Experimentalbedingung Kontrollbedingung Abbildung 5.8: Interaktion Art des Tutoriums Testzeitpunkt (Lösungshäufigkeiten) Die vermutete Zunahme der Lösungshäufigkeiten zeigt sich dagegen nicht. Sie nehmen zwischen den Testzeitpunkten sogar leicht ab. In den Experimentalgruppen sinken sie im Durchschnitt um zwei Prozent zwischen den Testzeitpunkten, in den Kontrollgruppen um ein Prozent (Abbildung 5.8). Da eine Abnahme der Lösungshäufigkeiten auch in den Kontrollgruppen auftritt, kann man davon ausgehen, dass es sich um einen generellen Testzeitpunkteffekt handelt, der unabhängig von der Art des Tutoriums ist. Außerdem ist dieser Effekt vernach-

103 95 lässigbar klein. Es ist in jedem Falle nicht so, dass die Abnahme der Lösungszeiten in den Experimentalgruppen auf eine signifikante Abnahme der Lösungsgenauigkeit zurückgeführt werden kann. Insofern sind die Ergebnisse der Lösungshäufigkeiten konsistent mit den Ergebnissen der Lösungszeiten. Die Lösungszeiten können also eindeutig im Sinne der statistischen Alternativhypothese interpretiert werden. Es ergibt sich in den Lösungszeiten auch eine signifikante Interaktion zwischen Art des Tutoriums und Fragentyp. Bei den Typ-1-Fragen unterscheiden sich Experimental- und Kontrollbedingung deutlich in der durchschnittlichen Lösungszeit. Die Experimentalgruppen brauchen durchschnittlich 2,75 Sekunden mehr zur Problemlösung als die Kontrollgruppen. Bei den Typ-2-Fragen ergeben sich mit 0,32 Sekunden vernachlässigbar kleine Unterschiede (Abbildung 5.9). Dieser Befund kann nur auf die Anschaulichkeit der im Tutorium verwendeten Analogien zurückgeführt werden. Das Konzept der Spannung wird im Tutorium zum Wasserstromkreis durch die Druckdifferenz an einem Druckdifferenzmesser dargestellt. Im elektrischen Stromkreis wird anstelle eines Druckdifferenzmessers ein gebräuchlicher Spannungsmesser verwendet, der durch seinen Zeigerausschlag die Größe der Spannung anzeigen kann. Das Konzept des Widerstandes wird in beiden Domains als eine Art Behinderung des Flusses veranschaulicht. Im Wasserstromkreis wird der Wasserfluss behindert, im elektrischen Stromkreis der Fluss von elektrischen Ladungen. Die Konzeptualisierung des Widerstandsbegriffs liegt also in beiden Inhaltsbereichen näher zusammen, als die Konzeptualisierung des Spannungsbegriffs. Dadurch scheint die Analogie zwischen Druckdifferenz und Spannung schwerer nachvollziehbar zu sein, als die Analogie zwischen der Behinderung des Wasserflusses und dem elektrischen Widerstand Typ-1-Fragen Typ-2-Fragen Experimentalbedingung Kontrollbedingung Abbildung 5.9: Interaktion Art des Tutoriums Fragentyp (Lösungszeiten [in s] )

104 96 In der Konsequenz brauchen die Experimentalgruppen bei den Typ-1-Fragen länger um die Problemlösung aus dem Wasserstromkreis abzuleiten. Sie unterscheiden sich deutlich von den Kontrollgruppen, die die entsprechende Regel direkt anwenden können. Das Konzept des Widerstandes ist dagegen zwischen Wasserstromkreis und elektrischem Stromkreis so ähnlich, dass sich der zeitliche Nachteil durch das analoge Problemlösen nur sehr wenig auswirkt. Experimental- und Kontrollgruppen unterscheiden sich deshalb kaum in den Lösungszeiten. Die Abbildung macht auch wieder den Haupteffekt Fragentyp sichtbar. Die Beantwortung der Typ-2-Fragen benötigt im Durchschnitt mehr Zeit als die Beantwortung der Typ-1-Fragen. 1,0 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0,0 Typ-1-Fragen Experimentalbedingung Typ-2-Fragen Kontrollbedingung Abbildung 5.10: Interaktion Art des Tutoriums Fragentyp (Lösungshäufigkeiten) In den Lösungshäufigkeiten ergibt sich dagegen keine signifikante Interaktion zwischen der Art des Tutoriums und dem Fragentyp (Abbildung 5.10). Die Ergebnisse sind aber konsistent mit den Lösungszeiten. Bei den Typ-1-Fragen lösen die Experimentalgruppen im Durchschnitt 89 Prozent richtig. Die Kontrollgruppen erreichen sogar eine Lösungsquote von 96 Prozent. Die Fragen zur Spannung sind für die Experimentalgruppen also schwieriger zu beantworten als für die Kontrollgruppen. Die niedrigeren Lösungshäufigkeiten in den Experimentalgruppen passen zu den höheren Lösungszeiten. Schwere Fragen werden weniger häufig richtig beantwortet als leichte Fragen. Gleichzeitig benötigt der Problemlöser aber mehr Zeit, um überhaupt eine richtige Antwort zu finden. Bei den Typ-2-Fragen liegt die Lösungswahrscheinlichkeit in den Experimentalgruppen bei 77 Prozent, in den Kontrollgruppen bei 80 Prozent. Wie die Lösungszeiten, unterscheiden sich auch die Lösungshäufigkeiten bei den Typ-2-Fragen weniger stark zwischen den Tutorien als bei den Typ-1-Fragen. Beides spricht dafür, dass die Typ-2-Fragen sich in Experimental- und Kontrollgruppen im Schwierigkeits-

105 97 grad ähneln. Das bedeutet wieder, dass die Konzeptualisierungen des Widerstandsbegriffs in Wasser- und Stromdomain sehr eng beieinander liegen, so dass die zugrunde liegende Analogie sofort erkannt wird. Der Übertrag des Spannungskonzeptes aus dem Wasserstromkreis scheint dagegen schwerer zu sein. Dementsprechend entstehen bei der Analogiebildung Fehler, die zu niedrigeren Lösungshäufigkeiten in den Experimentalgruppen führen Testzeitpunkt 1 Testzeitpunkt 2 Typ-1-Fragen Typ-2-Fragen Abbildung 5.11: Interaktion Testzeitpunkt Fragentyp (Lösungszeiten [in s] ) Eine problematische Interaktion besteht zwischen Testzeitpunkt und Fragentyp. Bei den Typ- 1-Fragen ist im Durchschnitt eine Zunahme der Lösungszeiten von Testzeitpunkt 1 zu Testzeitpunkt 2 um 1,6 Sekunden festzustellen. Bei den Typ-2-Fragen zeigt sich hingegen eine Abnahme der Lösungszeiten um 1,5 Sekunden (Abbildung 5.11). Je nach Fragentyp ergibt sich der Testzeitpunkteffekt also in unterschiedliche Richtungen. Die Ergebnisse zu den Lösungshäufigkeiten sind dabei konsistent mit den Lösungszeiten (Abbildung 5.12). Bei den Typ-1-Fragen zeigt sich keine Veränderung der Lösungswahrscheinlichkeit zwischen den beiden Testzeitpunkten. Die Probanden benötigen zwar zum zweiten Testzeitpunkt mehr Zeit für die Beantwortung der Fragen, ihre Lösungsgenauigkeit nimmt aber nicht zu. In der Konsequenz muss der Anstieg der Lösungszeiten als Ermüdungseffekt gedeutet werden. Die Lösungshäufigkeiten der Typ-2-Fragen nehmen allerdings von Testzeitpunkt 1 zu Testzeitpunkt 2 von 81 Prozent auf 77 Prozent ab. Das heißt, dass die Probanden zwar zum zweiten Testzeitpunkt schneller bei der Beantwortung des gleichen Fragentyps sind, aber gleichzeitig auch mehr Fehler als die Probanden zum ersten Testzeitpunkt machen. Dieser Effekt ist aber nicht signifikant, so dass die Lösungszeiten eindeutig interpretiert werden können.

106 98 1,0 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0,0 Testzeitpunkt 1 Testzeitpunkt 2 Typ-1-Fragen Typ-2-Fragen Abbildung 5.12: Interaktion Testzeitpunkt Fragentyp (Lösungshäufigkeiten) Die gegenläufigen Testzeitpunkteffekte in den Lösungszeiten können auf zwei Arten zustande kommen. Dabei gilt grundsätzlich, dass sich Testzeitpunkteeffekte immer aus einem Ermüdungseffekt und einem Lern- oder Gewöhnungseffekt zusammensetzen. Eine mögliche Erklärung für gegenläufige Testzeitpunkteffekte könnte also sein, dass auf Grund des unterschiedlichen Schwierigkeitsgrades der beiden Fragentypen, unterschiedlich starke Ermüdungseffekte bei der Fragenbeantwortung auftreten. Die Typ-2-Fragen sind im Durchschnitt schwieriger zu beantworten als die Typ-1-Fragen. Das hat die Analyse des Haupteffektes Fragentyp ergeben. Die Beantwortung der Typ-2-Fragen dauert durchschnittlich 8,4 Sekunden pro Teilfrage länger als die Beantwortung der Typ-1-Fragen. Die Lösungswahrscheinlichkeit liegt auch nur bei 79 Prozent, während die Typ-1-Fragen zu 94 Prozent richtig beantwortet werden können. Probanden, die zum Testzeitpunkt 2 die Typ-1-Fragen beantworten müssen, haben also zum Testzeitpunkt 1 die schwierigeren und zeitintensiveren Typ-2-Fragen bearbeitet. Infolge dessen zeigt sich bei den Typ-1-Fragen eine Zunahme der Lösungszeiten vom ersten zum zweiten Testzeitpunkt. Das entspricht einem Ermüdungseffekt, der eventuell vorhandene Lerneffekte aus dem ersten Problemlöseschritt überdecken kann. Umgekehrt haben natürlich Probanden, die im zweiten Problemlöseschritt Typ-2-Fragen bearbeiten mussten, im ersten Problemlöseschritt die einfacheren Typ-1-Fragen beantwortet. Entsprechend ergibt sich eine Abnahme der Lösungszeiten bei den Typ-2-Fragen. Das bedeutet, dass hier der Lerneffekt aus dem ersten Problemlöseschritt größer ist als der entsprechende Ermüdungseffekt. In der Konsequenz ist also denkbar, dass bei beiden Fragentypen ein Lerneffekt entsteht, der sich aber auf Grund der unterschiedlich starken Ermüdungseffekte nur bei den Typ-2-Fragen experimentell messen lässt.

107 99 Zum anderen wäre es aber auch möglich, dass tatsächlich nur bei einem Fragentyp Lerneffekte zu verzeichnen sind und beim anderen nicht. Wenn das tatsächlich der Fall wäre, würde jeder Fragentyp ein anderes Transferprinzip in den Experimentalgruppen bestätigen. Das würde dann bedeuten, dass sich die beiden Fragentypen unterschiedlich gut eignen, um möglichst viele Informationen in nur einem Problemlöseschritt zu übertragen. Durch die Bearbeitung der Typ-1-Fragen kann der Problemlöser implizit auch Wissen über die Typ-2-Fragen erwerben. Dementsprechend nehmen die Lösungszeiten bei den Typ-2-Fragen vom ersten zum zweiten Testzeitpunkt ab. Das entspricht dem soviel wie möglich - Prinzip. Umgekehrt eignen sich die Typ-2-Fragen weniger gut, um implizit etwas über die Typ-1-Fragen zu lernen. Es zeigt sich bei den Typ-1-Fragen also kein Zeitgewinn zwischen den Testzeitpunkten. Das stützt das soviel wie nötig Prinzip. Ob der Fragentyp tatsächlich einen entscheidenden Einfluss auf das Prinzip des Informationstransfers hat, muss anhand der Dreifachinteraktion aus Testzeitpunkt, Art des Tutoriums und Fragentyp entschieden werden. Über beide Fragentypen zusammen hat sich die Gültigkeit des soviel wie möglich - Prinzips gezeigt. Diese Information kann am Interaktionsterm aus Testzeitpunkt und Art des Tutoriums abgelesen werden. Wie zu erwarten war, zeigte sich dort in den Experimentalgruppen eine signifikante Abnahme der Lösungszeiten zwischen den beiden Testzeitpunkten und in den Kontrollgruppen eine signifikante Zunahme. Wenn das Transferprinzip durch den Fragentyp entscheidend beeinflusst werden würde, müsste die Interaktion aus Testzeitpunkt und Art des Tutoriums zusätzlich noch signifikant mit dem Fragentyp interagieren. Das würde bedeuten, dass die Dreifachinteraktion aus allen drei unabhängigen Variablen signifikant werden müsste. Ein solches Ergebnis findet sich aber weder für die Lösungszeiten noch für die Lösungshäufigkeiten. Es ist also nicht anzunehmen, dass sich je nach Fragentyp unterschiedliche Transferprinzipien bestätigen lassen. Wahrscheinlicher ist die Erklärung, dass auf Grund des unterschiedlichen Schwierigkeitsgrades der beiden Fragentypen unterschiedlich starke Ermüdungseffekte auftreten. Bei den Typ-1-Fragen ist der Ermüdungseffekt größer als der Lerneffekt, der aus der analogen Problemlösung zum ersten Testzeitpunkt entstanden ist. Bei den Typ-2-Fragen ist der Ermüdungseffekt dagegen klein genug, dass sich der Lerneffekt aus dem ersten Problemlöseschritt in den Ergebnissen zeigen kann Interpretation der Ergebnisse zu Fragestellung 2 Die empirischen Ergebnisse können eine Schemainduktion beim analogen Problemlösen nicht nachweisen. Das Vorhandensein eines abstrakten Lösungsschemas müsste dazu führen, dass die Probanden der Experimentalgruppen kürzere Lösungszeiten für die Beantwortung der

108 100 Typ-3-Fragen benötigen, gleichzeitig aber höhere Lösungshäufigkeiten erreichen. Ein für die Lösungszeiten durchgeführter t-test für unabhängige Stichproben bleibt allerdings insignifikant. Er kommt zu dem Ergebnis, dass die Probanden in den Experimentalgruppen sogar leicht langsamer sind als die Probanden in den Kontrollgruppen. Sie benötigen im Durchschnitt 15,674 Sekunden für jede Fragenbeantwortung, die Probanden in den Kontrollgruppen dagegen nur 15,165 Sekunden. Das entspricht einem Unterschied von 0,509 Sekunden. Diese Differenz ist aber zumindest deutlich kleiner als sie noch in den ersten beiden Problemlöseschritten war. Dort hat sich im Mittel ein signifikanter Unterschied von 1,5 Sekunden zwischen Experimental- und Kontrollbedingung ergeben. Die Experimentalgruppen nähern sich also zum dritten Testzeitpunkt im Bearbeitungstempo an die Kontrollgruppen an. Wie dieser Effekt zustande kommen kann, erklären die Lösungshäufigkeiten. Der durchgeführte χ 2 -Test findet nämlich signifikant höhere Lösungshäufigkeiten in den Kontrollgruppen als in den Experimentalgruppen. Während die Probanden in den Experimentalgruppen nur 76,7 Prozent der Typ-3-Fragen richtig beantworten können, liegt die Lösungswahrscheinlichkeit in den Kontrollgruppen dagegen bei 87,5 Prozent. Auf Grund dieses Unterschieds muss man davon ausgehen, dass ein Annähern der Lösungszeiten zwischen den beiden Untersuchungsgruppen auf eine niedrigere Lösungsgenauigkeit in den Experimentalgruppen zurückzuführen ist. Auch die Auswertung der Fragen 1, 3 und 5 (Typ-3-Fragen) zeigt nicht das erwartete Ergebnis. Es wurde vermutet, dass die Experimentalgruppen bei diesen Fragen deutlich langsamer sein müssten, als die Kontrollgruppen. Die für die Beantwortung notwendige Gesetzmäßigkeit wurde in den ersten beiden Problemlöseschritten nicht abgeprüft und kann somit nicht Bestandteil eines Problemlöseschemas zum dritten Testzeitpunkt sein. Die Aufgaben müssten eigentlich durch analoges Problemlösen beantwortet werden, was mehr Zeit brauchen sollte, als die Anwendung einer explizit gelernten Regel in den Kontrollgruppen. Der t-test kann diese Vermutung allerdings nicht bestätigen: Die Experimentalgruppen benötigen im Durchschnitt 12,774 Sekunden zur Beantwortung der Fragen, die Kontrollgruppen sogar durchschnittlich 13,588 Sekunden. Die Kontrollgruppen sind bei den Fragen 1, 3 und 5 also sogar etwas langsamer als die Experimentalgruppen. Der Unterschied ist aber nicht signifikant. Das bedeutet aber auch wieder, dass sich die beiden Untersuchungsgruppen nicht in den verwendeten Problemlösemethoden unterscheiden können. Ansonsten müssten sich deutliche Unterschiede in den Lösungszeiten zeigen. Wenn die Experimentalgruppen die Fragen 1, 3 und 5 in gleicher Weise wie die Kontrollgruppen lösen wollten, müssten sie die notwendige Gesetzmäßigkeit aber in den ersten beiden Problemlöseschritten implizit erworben und in die Stromdomain übertragen haben. Ein expliziter Transfer aus dem Wasser- auf den Stromkreis war ja

109 101 auf Grund der Aufgabenstellung nicht möglich. Ein impliziter Übertrag dürfte aber auch nicht stattgefunden haben, da es sich bei der Frage, an welcher Stelle im Stromkreis Spannungen gemessen werden können, um eine Relation erster Ordnung handelt. Diese ist nicht über das Ohmsche Gesetz als Relation höherer Ordnung integriert und kann somit nicht implizit transferiert worden sein. Gegen diese Vermutung spricht auch, dass die Lösungshäufigkeiten bei den Fragen 1, 3 und 5 in den Kontrollgruppen höher sind, als in den Experimentalgruppen. Das hat der χ 2 -Test ergeben: In den Kontrollgruppen werden 63,5 Prozent der Aufgaben richtig gelöst, in den Experimentalgruppen nur 30,1 Prozent. Dieser Unterschied ist signifikant. Wenn die Probanden in den Experimentalgruppen tatsächlich über die richtige Regel verfügen würden, dürften sich keine signifikanten Unterschiede in der Lösungsgenauigkeit ergeben. Die kürzeren Lösungszeiten in den Experimentalgruppen müssen also auf eine niedrigere Lösungsgenauigkeit bei diesen Fragen zurückgeführt werden.

110 102 Kapitel 6 Bewertung und Ausblick Für die vorliegende Arbeit waren zwei Fragestellungen interessant: In Fragestellung 1 wurde der Abbildungs- und Transferprozess bezüglich der gültigen Randbedingungen untersucht. In Fragestellung 2 sollte eine Schemainduktion beim analogen Problemlösen nachgewiesen werden und die Schemaqualität in Experimental- und Kontrollbedingung beurteilt werden. Die Ergebnisse zu diesen beiden Fragestellungen werden in Kapitel 6 bewertet. Außerdem wird diskutiert, welche Fragen durch das Experiment nicht geklärt werden konnten und welche Folgeuntersuchungen deshalb sinnvoll wären. Zusätzlich wird ein Ausblick auf mögliche Veränderungen des Untersuchungsmaterials und designs gegeben, die geeignet wären, um eine Schemainduktion doch noch nachweisen zu können. Fragestellung 1 Zur Untersuchung des Abbildungs- und Transferprozesses wurden die gängigen Analogiemodelle in die soviel wie möglich - und soviel wie nötig -Kategorien aufgeteilt. Die Theorien der ersten Gruppe gehen davon aus, dass bei der Analogiebildung soviel kausal zusammenhängende Struktur wie möglich vom Basis- auf den Zielbereich übertragen wird. Sie berücksichtigen nur strukturelle Informationen für den Abbildungsprozess. Die Vertreter der zweiten Gruppe behaupten dagegen, dass nur die für die Problemlösung benötigten Informationen abgebildet werden. Je nach Theorie steuern hier zusätzlich pragmatische und semantische Randbedingungen den Abbildungsprozess. In einem physikalischen Problemlöseszenario wurden diese beiden Ansätze mit Hilfe von Lösungszeiten und Lösungshäufigkeiten einander gegenübergestellt. Die Ergebnisse der Untersuchung stützen die Vermutung der soviel wie möglich -Theorien. Dazu gehören der SME (Falkenhainer et al., 1986, 1989) und die analogy via abstraction (Schmid, Burghardt & Wagner, 2003; Weller & Schmid, 2006). Sogar in einem Problemlösekontext und unter Zeitdruck werden soviel struk-

111 103 turelle Informationen wie möglich von der Basisdomain in die Zieldomain übertragen. Der Transfer erfolgt dabei entweder über eine kausale Relation höherer Ordnung (SME) oder in Form des größten gemeinsamen Subgraphen (Analogy via abstraction). Die Ergebnisse zu Fragestellung 1 sind entsprechend der statistischen Auswertung eindeutig interpretierbar. In einer Folgeuntersuchung müsste aber ihre Generalisierbarkeit in folgenden Punkten überprüft und bestätigt werden: 1. Ein Problem ist die eindeutige Interpretierbarkeit der Lösungszeiten. Sie können immer nur dann im Sinne der experimentellen Hypothese gedeutet werden, wenn sich in den Lösungshäufigkeiten keine gegenteiligen Effekte zeigen. Für Fragestellung 1 muss also sichergestellt werden, dass eine Abnahme der Lösungszeiten nicht mit einer signifikanten Abnahme der Lösungsgenauigkeit einhergeht. In der vorliegenden Untersuchung zeigte sich kein derartiger Zusammenhang. Allerdings wurde die Untersuchung auch nur an einer relativ kleinen Fallzahl von 63 Probanden durchgeführt. Das Problem dabei ist, dass die Lösungshäufigkeiten als binäre Variable (Antwort: richtig/falsch) in die Analyse eingehen und deshalb statistisch gesehen nur einen geringen Informationswert besitzen. Um aus solchen Variablen sichere inhaltliche Erkenntnisse ziehen zu können, muss ein ausreichend großer Stichprobenumfang realisiert werden. Die Effekte der Lösungshäufigkeiten müssten demnach in Folgeuntersuchungen mit ausreichend großen Stichprobenumfängen repliziert werden. 2. Zum anderen stellt sich anhand der empirischen Ergebnisse die Frage, wie der Einfluss des Fragentyps auf den Testzeitpunkteffekt inhaltlich interpretiert werden soll. In den Lösungszeiten ergibt sich eine signifikante Interaktion zwischen Fragentyp und Testzeitpunkt. Bei den Typ-1-Fragen nehmen die Lösungszeiten vom ersten zum zweiten Testzeitpunkt zu, bei den Typ-2-Fragen ergibt sich ein entgegen gesetzter Effekt. Dieses Ergebnis kann durch unterschiedlich starke Ermüdungseffekte zustande gekommen sein oder für verschiedene Transferprinzipien in Abhängigkeit des Fragentyps sprechen. Die letzte Interpretation ist allerdings unwahrscheinlich, da die Dreifachinteraktion aus Tutorium, Testzeitpunkt und Fragentyp insignifikant wird. Wahrscheinlicher sind unterschiedliche Ermüdungseffekte. Zur Absicherung dieser Interpretation müsste geprüft werden, ob sich die Bereichstheorien, die aufgrund der analogen Problembearbeitung über den elektrischen Stromkreis gebildet werden, nicht doch qualitativ oder strukturell zwischen den beiden Fragentypen unterscheiden.

112 104 Eine letzte sinnvolle Ergänzung zu Fragestellung 1 wäre hinsichtlich der Einteilung der Modelle in die soviel wie möglich - und soviel wie nötig -Kategorien denkbar. Die Klassifizierung erfolgte auf der Basis der theoretischen Grundannahmen der einzelnen Modelle. Um die Aufteilung auch empirisch rechtfertigen zu können, wäre es sinnvoll, die Wasserkreis- Stromkreis-Analogie mit diesen Modellen zu simulieren und zu überprüfen, welche und wie viele Informationen tatsächlich im ersten Problemlöseschritt übertragen werden können. Fragestellung 2 Im zweiten Teil der Studie sollte eine mögliche Schemainduktion nachgewiesen werden und die Schemaqualität in Abhängigkeit der Untersuchungsbedingung beurteilt werden. Als abhängige Variable wurden wieder Lösungszeiten und Lösungshäufigkeiten gemessen. Es wurde vermutet, dass in den Experimentalgruppen durch das analoge Problemlösen ein abstraktes Problemlöseschema induziert wird, welches den Probanden die Bearbeitung der Typ-3-Fragen erleichtern sollte. Der Vorteil der Analogiebildung besteht nämlich darin, dass anhand der strukturellen Übereinstimmungen zwischen Basis- und Zielbereich das gemeinsame Lösungsprinzip extrahiert und damit von den oberflächlichen Details abstrahiert werden kann. Ein solches Schema kann dann effizienter zur Problemlösung eingesetzt werden als ein konkreter Beispielfall, da es nur noch die für die Lösung relevanten Informationen enthält. Anhand von Lösungszeiten und Lösungshäufigkeiten konnte in der vorliegenden Untersuchung allerdings keine Schemainduktion in Folge des analogen Problemlösens nachgewiesen werden. Dieses Ergebnis spricht aber nicht zwangläufig gegen das Vorhandensein eines abstrakten Schemas. Es ist auch möglich, dass die Untersuchungsbedingungen nicht optimal geeignet sind, um den Vorteil der Experimentalgruppen durch die Analogieanwendung sichtbar zu machen. Im Folgenden werden einige Erklärungen für das Ausbleiben des erwarteten Effekts diskutiert und entsprechende Modifikationen des Tutoriums vorgeschlagen. Ein möglicher Einflussfaktor ist in jedem Fall die Komplexität der Untersuchungsdomain. Die Probanden müssen die später abgeprüften Gesetzmäßigkeiten trotz des komplexen Inhaltsbereichs in einem nur 20-minütigen Tutorium erwerben. Sie haben keine Möglichkeit, die Gesetze zu notieren, sondern müssen sie im Gedächtnis behalten. Insgesamt müssen drei Fragenblöcke zum elektrischen Stromkreis bearbeitet werden. Es ist plausibel anzunehmen, dass analoges Problemlösen auf die Dauer anstrengender ist, als die eins-zu-eins-anwendung einer gelernten Regel. Folglich wäre es nicht verwunderlich, wenn sich in den Experimentalgruppen im dritten Problemlöseschritt ein größerer Ermüdungseffekt zeigen würde als in den Kontrollgruppen. Dieser könnte dann die Vorteile durch die Analogiebildung wieder ausgleichen.

113 105 Ein solcher Ermüdungseffekt hätte natürlich auch negative Auswirkungen auf die Lösungshäufigkeiten. Eine Möglichkeit einen solchen Ermüdungseffekt zu reduzieren, wäre die Aufteilung der zu lernenden Gesetzmäßigkeiten auf einzelne Blöcke, die in einem größeren Zeitfenster gelernt werden müssten. Auf diese Weise wurde die Wasserkreis-Stromkreis-Analogie in Lehr- und Lernprozessstudien eingesetzt. Sie konnten den positiven Effekt der Analogieanwendung auf das Verständnis des elektrischen Stromkreises nachweisen (Paatz, Ryder & Schwedes, 2004). Clement (1987) konnte außerdem den generellen Vorteil eines analogiebasierten Unterrichts gegenüber herkömmlichen Unterrichtsmethoden bestätigen. Eine weitere Erklärung leitet sich aus empirischen Lehr- und Lernprozessstudien ab, die die Wasserkreis-Stromkreis-Analogie praxisnah im schulischen Kontext einsetzen. Die entsprechenden Lerneinheiten werden dabei nicht am PC präsentiert, sondern in Form von Experimenten, an denen die Schüler aktiv beteiligt sind. In einer solchen Lernumgebung konnte der Vorteil eines Analogieeinsatzes für das bereichsspezifische Verständnis nachgewiesen werden (Haeberlen, 1999). Durch das Experimentieren mit dem anschaulichen Wasserkreislaufsystem konnten so Effekte sichtbar gemacht werden, die im elektrischen Stromkreis nicht unmittelbar nachvollzogen werden konnten. Durch die Präsentation und Simulation der einzelnen Experimente am PC geht von dieser Anschaulichkeit ein Großteil verloren. Eine weitere Modifikation am Tutorium könnte den Vorteil der Experimentalgruppen durch analoges Problemlösen doch noch empirisch nachweisen. Die Erläuterungen zum elektrischen Stromkreis sind bislang relativ abstrakt und auf Grund der Komplexität der zu lernenden Gesetzmäßigkeiten auf das Nötigste reduziert. Dadurch wird den Kontrollgruppen die Lösungsstruktur fast schon explizit vorgegeben. Das Problem könnte also sein, dass das Tutorium zu wenige oberflächliche und unwichtige Informationen enthält. So fällt es den Kontrollgruppen auch ohne Vergleichsmöglichkeit nicht schwer, die wichtigen von den unwichtigen Inhalten zu unterscheiden. Durch die Kontrollfragen und die ersten beiden Problemlösedurchgänge können sie sogar ihr schematisches Wissen prüfen und durch Üben verfestigen. Es kann also sein, dass die Experimentalgruppen tatsächlich ein abstraktes Lösungsschema erworben haben, sich ihr Vorteil aber nicht zeigt, da die Kontrollgruppen schon viel zu erfahren am elektrischen Stromkreis sind. Wenn in den Tutorien aber deutlich mehr unwichtige, oberflächliche Informationen enthalten wären, wäre es auch für die Kontrollgruppen schwerer, die tatsächlich wichtigen Gesetzmäßigkeiten zu extrahieren. Dadurch, dass sie immer in der gleichen Domain arbeiten, hätten sie nicht die Möglichkeit, über solche unwichtigen Details zu abstrahieren. Durch das analoge Problemlösen in den Experimentalgruppen kann dagegen gut die

114 106 gemeinsame Problemstruktur hervorgehoben und über oberflächliche, für die Problemlösung irrelevante Details generalisiert werden. In dem Zusammenhang ist auch zu vermuten, dass die Experimentalgruppen dann besser bei der Problemlösung wären, wenn zusätzlich zu den beiden verwendeten Inhaltsbereichen Probleme an einem dritten strukturähnlichen Bereich bearbeitet werden müssten. Chen und Mo (2004) betonen, dass durch analoges Problemlösen in verschiedenen Kontexten die Problemstruktur schneller erkannt wird und losgelöst von Kontextinformationen gespeichert werden kann. Individuen lernen auf diese Weise, dass Lösungsstrategien unabhängig vom Kontext sind und dass die Problemlösung dadurch mit verschiedenen Inhalten verknüpft sein kann. In der Konsequenz können sie generelle Lösungsprinzipien flexibler an immer wieder neue Problemlösekontexte adaptieren. Die Experimentalgruppen sollten also in einem dritten Untersuchungsbereich bessere Problemlöseergebnisse zeigen als die Kontrollgruppen. Für diese Untersuchung müsste das Untersuchungsdesign nur geringfügig verändert werden: Das notwendige Grundwissen erwerben die Experimentalgruppen wieder am Wasserstromkreis, die Kontrollgruppen am elektrischen Stromkreis. Wenn nur der Prozess der Schemainduktion untersucht werden soll, genügt es auch, nach dem Tutorium nur einen Problemlöseschritt zum Stromkreis einzuführen. Das senkt die Wahrscheinlichkeit, dass Ermüdungseffekte auftreten. In diesem ersten Schritt könnten die Probanden aus den Experimentalgruppen durch analogen Vergleich die Gemeinsamkeiten aus Wasser- und Stromkreis extrahieren. Die Kontrollgruppen würden hier die Aufgaben wie bisher auch durch einfache Regelanwendung lösen. Im zweiten Problemlöseschritt müssten dann Fragen zu einem dritten Bereich bearbeitet werden. Wenn in den Experimentalgruppen ein abstraktes Lösungsschema durch den ersten Problemlöseschritt induziert werden konnte, so sollten diese Versuchspersonen jetzt deutliche Vorteile gegenüber den Kontrollgruppen haben, die die abstrakte Lösungsstruktur nicht durch Vergleich extrahieren konnten. Der Effekt sollte dann noch stärker zu Gunsten der Experimentalgruppen ausfallen, wenn die Tutorien oberflächliche Informationen enthalten, die für die Problemlösung unbrauchbar oder sogar hinderlich sind. Ob eine derartige Veränderung am Material und am Versuchsdesign den Prozess der Schemainduktion letztlich nachweisen kann, müssen Nachfolgeuntersuchungen zeigen.

115 107 Literaturverzeichnis Amthauer, R., Brocke, B., Liepmann, D., & Beauducel, A. (2001). IST-2000-R. Göttingen, Germany: Hogrefe Verlag. Anderson, J.R., & Thompson, R. (1989). Use of analogy in a production system architecture. In J.R. Anderson, & R. Thompson (Eds.), Similarity and analogical reasoning (pp ). New York, NY: Cambridge University Press. Atkinson, R.C., & Shiffrin, R.M. (1968). Human memory: A proposed system an its control processes. In K.W. Spence (Ed.), The psychology of learning and motivation: Advances in research and theory, (Vol.2, pp ). New York, NY: Academic Press. Bartlett, F.C. (1932). Remembering: An experimental and social study. Cambridge, MA: Cambridge University Press. Bassok, M., & Holyoak, K.J. (1989). Interdomain transfer between isomorphic topics in algebra and physics. Journal of Experimental Psychology: Learning, Memory, & Cognition, 15, Benson, D.F. (1993). Prefrontal abilities. Behavioral Neurology, 6, Blanchette, I., & Dunbar, K. (2002). Representational change and analogy: How analogical inferences alter target representations. Journal of Experimental Psychology: Learning, Memory, & Cognition, 28, Bortz, J. (1999). Statistik für Sozialwissenschaftler. Berlin, Germany: Springer Verlag.

116 108 Brown, A.L. (1989). Analogical learning and transfer: What develops? In S. Vosniadou, & A. Ortony (Eds.), Similarity and analogical reasoning (pp ). Cambridge, MA: Cambridge University Press. Brown, A.L., Kane, M.J., & Echols, C.H. (1986). Young children s mental models determine analogical transfer across problems with a common goal structure. Cognitive Development, 1, Burghardt, J. (2005). E-generalization using grammars. Artificial Intelligence Journal, 165, Campbell, N.R. (1957). Foundations of science. New York, NY: Dover. Carbonell, J.G. (1984). Learning by analogy: Formulating and generalizing plans from past experience. In R.S. Michalski, J.G. Carbonell, & T.M. Mitchell (Eds.), Machine learning: An intelligence approach (pp ). Berlin, Germany: Springer. Carbonell, J.G. (1986). Derivational analogy: A theory of reconstructive problem solving and expertise acquisition. In R.S. Michalski, J.G. Carbonell, & T.M. Mitchell (Eds.), Machine learning: An intelligence approach (Vol. 2, pp ). Los Altos, CA: Morgan Kaufmann. Carey, S. (1991). Knowledge acquisition: Enrichment or conceptual change?. In S. Carey, & R. Gelman (Eds.), The epigenisis of mind: Essays on biology and cognition (pp ). Hillsdale, NJ: Lawrence Erlbaum. Catrambone, R., & Holyoak, K.J. (1989). Overcoming contextual limitations on problem solving transfer. Journal of Experimental Psychology: Learning, Memory, & Cognition, 15, Chen, Z., & Daehler, M.W. (1989). Positive and negative transfer in analogical problem solving by 6-year-old children. Cognitive Development, 4, Chen, Z., & Mo, L. (2004). Schema induction in problem solving: A multidimensional analysis. Journal of Experimental Psychology: Learning, Memory, & Cognition, 30,

117 109 Chi, M.T.H. (1992). Conceptual change within and across ontological categories: Examples from learning and discovery in science. In R. Giere (Ed.), Cognitive models of science: Minnesota studies in the philosophy of science (pp ). Minneapolis, MIN: University of Minnesota Press. Chi, M.T.H., Bassok, M., Lewis, M.W., Reimann, P., & Glaser, R. (1989). Self-explanations: How students study and use examples in learning to solve problems. Cognitive Psychology, 13, Chi, M.T.H., Feltovich, P.J., & Glaser, R. (1981). Categorization and representation of physics problems by experts and novices. Cognitive Science, 5, Chi, M.T.H., Slotta, J.D., & deleeuw, N. (1994). From things to processes: A theory of conceptual change for learning science concepts. Learning and Instruction - The Journal of the European Association for Research on Learning and Instruction, 4, Clement, J. (1982). Analogical reasoning patterns in expert problem solving. In N.N (Ed.), Proceedings of the 4th Annual Conference of the Cognitive Science Society (pp ). Ann Arbor, MI: University of Michigan. Clement, J. (1987), [with the assistance of Brown, D., Camp, C., Kudukey, J., Minstrell, J., Palmer, D., Schultz, K., Shimobukuro, J., Steinberg, M., & Veneman, V.]. Overcoming students misconceptions in physics: The role of anchoring intuitions and analogical validity. In J.D. Novak (Ed.), Proceedings of the 2 nd International Seminar, Misconceptions and Educational Strategies in Science and Mathematics (Vol. 3, pp ). Ithaca, NY: Cornell University Press. Clement, J. (1988). Observed methods for generating analogies in scientific problem solving. Cognitive Science, 12, Clement, J. (1989). Learning via model construction and criticism. In G. Glover, R. Ronning, & C. Reynolds (Eds.), Handbook of Creativity: Assessment, Theory and Research (pp ). New York, NY: Plenum. Clement, J. (1993). Using bridging analogies and anchoring intuitions to deal with students preconceptions in physics. Journal of Research in Science Teaching, 30, Clement, C.A., & Gentner, D. (1991). Systematicity as a selection constraint in analogical mapping. Cognitive Science, 15,

118 110 Crisafi, M.A., & Brown, A.L. (1986). Analogical transfer in very young children: Combining two separately learned solutions to reach a goal. Child Development, 57, Cummins, D.D. (1992). Role of analogical reasoning in the induction of problem categories. Journal of Experimental Psychology: Learning, Memory, & Cognition, 18, Dagher, Z.R. (1995). Analysis of analogies used by science teachers. Journal of Research in Science Teaching, 32, DiSessa, A.A. (1993). Toward an epistemology of physics. Cognition and Instruction, 10, Donnelly, C.M., & McDaniel, M.A. (1993). Use of analogy in learning scientific concepts. Journal of Experimental Psychology: Learning, Memory, & Cognition, 19, Doumas, L.A.A, & Hummel, J.E. (2004). Structure mapping and the predication of novel higher-order relations. In K. Forbus, D.Gentner, & T. Regier (Eds.), Proceedings of the 22 nd Annual Conference of the Cognitive Science Society (pp ). Mahwah, NJ: Lawrence Erlbaum. Dreistadt, R. (1968). An analysis of the use of analogies and metaphors in science. The Journal of Psychology, 68, Duncker, K. (1935). Zur Psychologie des produktiven Denkens. Berlin, Germany: Springer. Eskridge, T.C. (1989a). Principles of continuous analogical reasoning. Journal of Experimental & Theoretical Artificial Intelligence, 1, Eskridge, T.C. (1989b). Continuous analogical reasoning: A summary of current research. In K.J. Hammond (Ed.), Proceedings of the DARPA Case-Based Reasoning Workshop (pp ). Los Altos, CA: Morgan Kaufmann. Eskridge, T.C. (1994). A hybrid model of continuous analogical reasoning. In J.A. Branden, & K.J. Holyoak (Eds.), Advances in Connectionist and Neural Computation Theory (Vol. 2, pp ). Norwood, NJ: Ablex.

119 111 Falkenhainer, B. (1987). An examination of the third stage in the analogy process: Verification-based analogical learning. In J. McDermott (Ed.), Proceedings of the IJCAI-87 (pp ). Los Altos, CA: Morgan Kaufmann. Falkenhainer, B. (1990). A unified approach to explanation and theory formation. In J. Sharger, & P. Langley (Eds.), Computational Models of Scientific Discovery and Theory Formation (pp ). San Mateo, CA: Morgan Kaufmann. Falkenhainer, B., Forbus, K.D., & Gentner, D. (1986). The structure-mapping engine. In M. Coen (Ed.), Proceedings of the American Association for Artificial Intelligence (pp ). San Mateo, CA: Morgan Kaufmann. Falkenhainer, B., Forbus, K.D., & Gentner, D. (1989). The structure-mapping engine: Algorithm and examples. Artificial Intelligence, 41, Faries, J.M., & Reiser, B.J. (1988). Access and use of previous solutions in a problem-solving situation. In N.N. (Ed.), Proceedings of the 10 th Annual Conference of the Cognitive Science Society (pp ). Hillsdale, NJ: Lawrence Erlbaum. Forbus, K.D., Gentner, D., & Law, K. (1995). MAC/FAC: A model of similarity-based retrieval. Cognitive Science, 19, Gentner, D. (1983). Structure-mapping: A theoretical framework for analogy. Cognitive Science, 7, Gentner, D. (1989b). The mechanisms of analogical learning. In S. Vosniadou, & A. Ortony (Eds.), Similarity and analogical reasoning (pp. l99-241). New York, NY: Cambridge University Press. Gentner, D., & Clement, C.A. (1988). Evidence for relational selectivity in the interpretation of analogy and metaphor. In G.H. Bower (Ed.), The psychology of learning and motivation (Vol. 22, pp ). New York, NY: Academic Press. Gentner, D., & Gentner, D. R. (1983). Flowing waters or teeming crowds: Mental models of electricity. In D. Gentner, & A.L. Stevens (Eds.), Mental models (pp ). Hillsdale, NJ: Lawrence Erlbaum.

120 112 Gentner, D., Holyoak, K.J., & Kokinov, B. (2001). The analogical mind: Perspectives from Cognitive Science. Cambridge, MA: MIT Press. Gentner, D., & Landers, R. (1985). Analogical reminding: A good match is hard to find. In N.N. (Ed.), Proceedings of the International Conference on Systems, Man and Cybernetics (pp ). Tucson, AZ: IEEE Press. Gentner, D., Loewenstein, J., & Thompson, L. (2004). Analogical encoding: Facilitating knowledge transfer and integration. In K. Forbus, D. Gentner, & T. Regier (Eds.), Proceedings of the 26 th Annual Conference of the Cognitive Science Society (pp ). Mahwah, NJ: Lawrence Erlbaum. Gentner, D., & Medina, J. (1998). Similarity and the development of rules. Cognition, 65, Gentner, D., & Namy, L.L. (1999). Comparison in the development of categories. Cognitive Development, 14, Gentner, D., Ratterman, M., & Forbus, K. (1993). The roles of similarity in transfer: Separating retrievability from inferential soundness. Cognitive Psychology, 25, Gentner, D., & Toupin, C. (1986). Systematicity and surface similarity in the development of analogy. Cognitive Science, 10, Gentner, D., & Wolff, P. (2000). Metaphor and knowledge change. In E. Dietrich, & A.B. Markman (Eds.), Cognitive dynamics: Conceptual and representational change in humans and machines (pp ). Mahwah, NJ: Lawrence Erlbaum. Gick, M.L., & Holyoak, K.J. (1980). Analogical problem solving. Cognitive Psychology, 12, Gick, M.L., & Holyoak, K.J. (1983). Schema induction and analogical transfer. Cognitive Psychology, 15, Gilovich, T. (1981). Seeing the past in the present: The effect of associations to familiar events on judgments and decisions. Journal of Personality & Social Psychology, 40,

121 113 Glynn, S.M., Duit, R., & Thiele, R. (1995). Teaching science with analogies: A strategy for constructing knowledge. In S.M. Glynn, & R. Duit (Eds.), Learning science in the schools (pp ). Mahwah, NJ: Lawrence Erlbaum. Glynn, S.M., & Takahashi, T. (1998). Learning from analogy-enhanced science text. Journal of Research in Science Teaching, 35, Gordon. W.J.J. (1961). Synetics: The development of creative capacity. New York, NY: Harper & Row. Goldstone, R.L., Medin, D.L., & Gentner, D. (1991). Relational similarity and the nonindependence of features in similarity judgements. Cognitive Psychology, 23, Grafman, J., Holyoak, K.J., & Boller, E. (1995). Structure and functions of the human prefrontal cortex. New York, NY: New York Academy Sciences. Gregan-Paxton, J., & John, D.R. (1997). Consumer learning by analogy: A model of internal knowledge transfer. Journal of Consumer Research, 24, Gust, H., Kühnberger, K.-U., & Schmid, U. (2006). Metaphors and heuristic-driven theory projection (HDTP). Theoretical Computer Science, 354, Haeberlen, S. (1999). Lernprozesse im Unterricht mit Wasserstromkreisen- eine Fallstudie in der Sekundarstufe I. In H. Niedderer, & H. Fischler (Eds.), Studien zum Physiklernen, Band 4. Berlin, Germany: Logos Verlag. Halford, G.S., Wilson, W.H., Guo, J., Gayler, R.W., Wiles, J., & Stewart, J.E.M. (1994). Connectionist implications for processing capacity limitations in analogies. In K.J. Holyoak, & J.A. Barnden (Eds.), Advances in connectionist and neural computation theory, (Vol. 2, pp ). Norwood, NJ: Ablex. Halpern, D.F. (1998). Teaching critical thinking for transfer across domains: Disposition, skills, structure training, and metacognitive monitoring. American Psychologist, 53,

122 114 Hayes, J.R., & Simon, H.A. (1974). Understanding written problem instructions. In L.W. Gregg (Ed.), Knowledge and Cognition (pp ). Potomac, MA: Lawrence Erlbaum. Heinz, B. (1996). Anti-Unifikation modulo Gleichungstheorie und deren Anwendung zur Lemmagenerierung. GMD-Bericht Nr.261. München, Germany: R. Oldenburg Verlag. Hesse, M. (1966). Models and analogies in science. Notre Dame, IN: Notre Dame University Press. Hofstadter, D.R., & Mitchell, M. (1988). Conceptual slippage and mapping: A report of the Copycat project. In N.N. (Ed.), Proceedings of the 10 th Annual Conference of the Cognitive Science Society (pp ). Hillsdale, NJ: Lawrence Erlbaum. Hofstadter, D.R., & Mitchell, M. (1994). The Copycat Project: A model of mental fluidity and analogy-making. In K.J. Holyoak & J.A. Barnden (Eds.), Advances in connectionist and neural computation theory (Vol. 2, pp ). Norwood, NJ: Ablex. Holyoak, K.J. (1984). Analogical thinking and human intelligence. In R. Sternberg (Ed.), Advances in the psychology of human intelligence (Vol.2, pp ). Hillsdale, NJ: Lawrence Erlbaum. Holyoak, K.J. (1985). The pragmatics of analogical transfer. In G.H. Bower (Ed.), The psychology of learning and motivation (Vol. 19, pp ). San Diego, CA: Academic Press. Holyoak, K.J. (2005). Analogy. In K.J. Holyoak, & R.G. Morrison (Eds.), The Cambridge handbook of thinking and reasoning (pp ), Cambridge, MA: Cambridge University Press. Holyoak, K.J., Gentner, D., & Kokinov, N.K. (2001). Introduction: The place of analogy in cognition. In K.J. Holyoak, D. Gentner, & N.K. Kokinov (Eds.), The analogical mind: Perspectives from cognitive science (pp. 1-19). Cambridge, MA: MIT Press. Holyoak, K.J., Junn, E.N., & Billman, D.O. (1984). Development of analogical problem solving skill. Child Development, 55,

123 115 Holyoak, K.J., & Koh, K. (1987). Surface and structural similarity in analogical transfer. Memory & Cognition, 15, Holyoak, K.J., Novick, L.R., & Melz, E.R. (1994). Component processes in analogical transfer: Mapping, pattern completion, and adaptation. In K.J. Holyoak, & J.A. Barnden (Eds.), Advances in connectionist and neural computation theory (Vol. 2, pp ). Norwood, NJ: Ablex. Holyoak, K.J., & Thagard, P.R. (1989a). Analogical mapping by constraint satisfaction. Cognitive Science, 13, Holyoak, K.J., & Thagard, P.R. (1989b). A computational model of analogical problem solving. In S. Vosniadou, & A. Ortony (Eds.), Similarity and analogical reasoning (pp ). London, UK: Cambridge University Press. Hummel, J.E., & Holyoak, K.J. (1997). Distributed representations of structure: A theory of analogical access and mapping. Psychological Review, 104, Hummel, J.E., & Holyoak, K.J. (2003). A symbolic-connectionist theory of relational inference and generalization. Psychological Review, 110, Indurkhya, B. (1992). Metaphor and Cognition. Dordrecht, The Netherlands: Kluwer. Isenberg, D.J. (1986). Thinking and managing: A verbal protocol analysis of managerial problem solving. Academy of Management Journal, 29, Jain B.J., & Wysotzki, F. (2002). Self-organizing recognition and classification in relational structures. In N.N. (Ed.), Proceedings of the 24 th Annual Conference of the Cognitive Science Society (pp ). Mahwah, NJ: Lawrence Erlbaum. Keane, M.T. (1987). On retrieving analogues when solving problems. Quarterly Journal of Experimental Psychology, 39A, Keane, M.T. (1988). Analogical mechanisms. Artificial Intelligence Review, 2, Keane, M.T. (1995). Transfer between analogies: How solving one analogy problem helps to solve another[ ].

124 116 Kedar-Cabelli, S. (1985). Purpose-directed analogy. In N.N. (Ed.), Proceedings of the 7th Annual Conference of the Cognitive Science Society (pp ). Mahwah, NJ: Lawrence Erlbaum. Kedar-Cabelli, S. (1988a). Analogy - from a unified perspective. In D.H. Helman (Ed.), Analogical reasoning: Perspectives from artificial intelligence, cognitive science and philosophy (pp ). Dordrecht, The Netherlands: Kluwer. Kedar-Cabelli, S. (1988b). Toward a computational model of purpose-directed analogy. In A. Prieditis (Ed.), Analogica (pp ). London, UK: Pitman. Klenk, M., & Forbus, K. (2006). Analogical model formulation for AP physics problems[ ]. Koestler, A. (1964). The art of creation. London, UK: Picador. Kokinov, B. (1988). Associative memory-based reasoning: How to represent and retrieve cases. In T. O Shea, & V. Sgurev (Eds.), Artificial intelligence III: Methodology, systems, applications (pp ). Amsterdam, The Netherlands: Elsevier. Kokinov, B. (1990). Associative memory-based reasoning: Some experimental results. In K. Forbus, & D. Oblinger (Eds.), Proceedings of the 12 th Annual Conference of the Cognitive Science Society (pp ). Hillsdale, NJ: Lawrence Erlbaum. Kokinov, B. (1994a). A hybrid model of reasoning by analogy. In K.J. Holyoak, & J.A. Barnden (Eds.), Advances in connectionist and neural computation theory (Vol.2, pp ). Norwood, NJ: Ablex. Kokinov, B. (1994b). The DUAL cognitive architecture. A hybrid multi-agent approach. In N.N. (Ed.), Proceedings of the 11 th European Conference of Artificial Intelligence (pp ). London, UK: John Wiley & Sons, Ltd. Kokinov, B. (1994c). The context-sensitive cognitive architecture DUAL. In A. Ram, & K. Eiselt (Eds.), Proceedings of the 16 th Annual Conference of the Cognitive Science Society (pp ). Hillsdale, NJ: Lawrence Erlbaum.

125 117 Kokinov, B. (1998). Analogy is like cognition: Dynamic, emergent, and context-sensitive. In K.J.Holyoak, D. Gentner, & B. Kokinov (Eds.), Advances in analogy research: Integration of theory and data from the cognitive, computational, and neural sciences (pp ). Sofia, Bulgaria: NBU Press. Kokinov, B., & French, R.M. (2003). Computational models of analogy-making. In L. Nadel (Ed.), Encyclopedia of Cognitive Science (Vol.1, pp ). London, UK: Nature Publishing Group. Kokinov, B., Nikolov, V., & Petrov, A.A. (1996). Dynamics of emergent computation in DUAL. In A. Ramsay (Ed.), Artificial intelligence: Methodology, systems, applications (pp ). Amsterdam, The Netherlands: IOS Press. Kokinov, B.N., & Petrov A.A. (2001). Integration of memory and reasoning in analogy making: The AMBR model. In D. Gentner, K.J. Holyoak, & B.N. Kokinov (Eds.), The analogical mind: Perspectives from cognitive science (pp ). Cambridge, MA: MIT Press. Kolodner, J.L. (1993). Case-based reasoning. San Mateo, CA: Morgan Kaufmann. Kotovsky, L., & Gentner, D. (1996). Comparison and categorization in the development of relational similarity. Child Development, 67, Kuehne, S.E., Forbus, K., Gentner, D., & Quinn, B. (2000). SEQL: Category learning as progressive abstraction using structure mapping. In N.N. (Ed.), Proceedings of the 22 nd Annual Conference of the Cognitive Science Society (pp ). Mahwah, NJ: Lawrence Erlbaum. Kurtz, K.J., Gentner, D., & Gunn, V. (1999). Reasoning. In B.M. Bly, & D.E. Rumelhart (Eds.), Handbook of perception and cognition: Cognitive science (pp ). San Diego, CA: Academic. Kurtz, K.J., & Loewenstein, J. (2004). Converging on a new role for analogy in problem solving and retrieval. In K. Forbus, D. Gentner, & T. Regier (Eds.), Proceedings of the 26th Conference of the Cognitive Science Society (pp ). Chicago. August

126 118 Kurtz, K.J., Miao, C.-H., & Gentner, D. (2001). Learning by analogical bootstrapping. The Journal of the Learning Sciences, 10, Lassaline, M.E. (1996). Structural alignment in induction and similarity. Journal of Experimental Psychology: Learning, Memory, & Cognition, 22, Loewenstein, J., Thompson, L., & Gentner, D. (1999). Analogical encoding facilitates knowledge transfer in negotiation. Psychonomic Bulletin and Review, 6, Loewenstein, J., Thompson, L., & Gentner, D. (2003). Analogical learning in negotiation teams: comparing cases promotes learning and transfer. Academy of Management Learning and Education, 2, Maichle, U. (1985). Wissen, Verstehen und Problemlösen im Bereich der Physik. Frankfurt a. M., Germany: Lang. Markman, A.B. (1997). Constraints on analogical inference. Cognitive Science, 21, Markman, A.G., & Gentner, D. (1990). Analogical mapping during similarity judgements. In K. Forbus, & D. Oblinger (Eds.), Proceedings of the 12 th Annual Conference of the Cognitive Science Society (pp ). Hillsdale, NJ: Lawrence Erlbaum. Markman, A.G., & Gentner, D. (1993). Structural alignment during similarity comparisons. Cognitive Psychology, 23, Marr, D., & Poggio, T. (1976). Cooperative computation of stereo disparity. Science, 194, Medin, D.L., & Ross, B.H. (1989). The specific character of abstract thought: Categorization, problem solving, and induction. In R.J. Steinberg (Ed.), Advances in the psychology of human intelligence (Vol. 5, pp ). Hillsdale, NJ: Lawrence Erlbaum. Miller, G.A. (1956). The magical number seven, plus or minus two: Some limits on our capacity for processing information, Psychological Review, 63, Minsky, N.H. (1983). Locality in Software Systems. In N.N. (Ed.), Proceedings of the ACM Symposium on Principles of Programming Languages,

127 119 Mitchell, T., Keller, R., & Kedar-Cabelli, S. (1986). Explanation-based generalization: A unifying view. Machine Learning 1, Morrison, R.G., Krawczyk, D.C., Holyoak, K.J., Hummel, J.E., Chow, T.W., Miller, B.L., & Knowlton, B.J. (2004). A neurocomputational model of analogical reasoning and its breakdown in frontotemporal lobar degeneration. Journal of Cognitive Neuroscience, 16, Mühlpfordt, M. (1999). Repräsentations-Prozesse beim analogen Schließen[ ]. Nagel, E. (1961). The structure of science: Problems in the logic of scientific explanations. New York, NY: Harcourt, Brace, and Jovanovich. Newell, A., & Simon, H. (1972). Human problem solving. Englewood Cliffs, NJ: Prentice Hall. Nokes, T.J., & Ohlsson, S. (2001). How is abstract, generative knowledge acquired? A comparison of three learning scenarios. In J. Moore, & K. Stenning (Eds.), Proceedings of the 23 rd Annual Conference of the Cognitive Science Society (p ). Mahwah, NJ: Lawrence Erlbaum. Novick, L.R. (1988a). Analogical transfer: Processes and individual differences. In D.H. Helman (Ed.), Analogical reasoning: Perspectives of artificial intelligence, cognitive science, and philosophy (pp ). Dordrecht, The Netherlands: Kluwer. Novick, L.R. (1988b). Analogical transfer, problem similarity, and expertise. Journal of Experimental Psychology: Learning, Memory, & Cognition, 14, Novick, L.R., & Holyoak, K.J. (1991). Mathematical problem solving by analogy. Journal of Experimental Psychology: Learning, Memory, & Cognition, 17, Paatz, R., Ryder, J., & Schwedes, H. (2004). A case study analysing the process of analogybased learning in a teaching unit about simple electric circuits. International Journal of Science Education, 26,

128 120 Palmer, S.E. (1989). Levels of description in information processing theories of analogy. In J.R. Anderson & R. Thompson (Eds.), Similarity and analogical reasoning (pp ). New York, NY: Cambridge University Press. Petrov, A.A. (1998). A dynamic emergent computational model of analogy-making based on decentralized representations. Unpublished doctoral dissertation, New Bulgarian University, Sofia, Bulgaria. Petrov, A.A., & Kokinov, B. (1998). Mapping and access in analogy making: Independent or interactive? A simulation experiment with AMBR. In K. Holyoak, D. Gentner, & B. Kokinov (Eds.), Advances in analogy research: Integration of theory and data from the cognitive, computational, and neural sciences (pp ). Sofia, Bulgaria: NBU Press. Petrov, A.A., & Kokinov, B. (1999). Processing symbols at variable speed in DUAL: Connectionist activation as power supply. In T. Dean (Ed.), Proceedings of the 16 th International Joint Conference on Artificial Intelligence, (pp ). San Francisco, CA: Morgan Kaufmann. Ratterman, M.J., & Gentner, D. (1987). Analogy and similarity: Determinants of accessibility and inferential soundness. In E.E. Smith (Ed.), Proceedings of the 9th Annual Conference of the Cognitive Science Society (pp ), Hillsdale, NJ: Lawrence Erlbaum. Reed, S.K. (1989). Constraints on the abstraction of solutions. Journal of Educational Psychology, 81, Reed, S.K., Ernst, G.W., & Banerji, R. (1974). The role of analogy in transfer between similar problem states. Cognitive Psychology, 1, Reeves, L.M., & Weisberg, R.W. (1990). Analogical transfer in problem solving: Schematic representations and cognitive processes. Paper presented at the meeting of the Eastern Psychological Association. Philadelphia, PA. Reeves, L.M., & Weisberg, R.W. (1994). The role of content and abstract information in analogical transfer. Psychological Bulletin, 115,

129 121 v. Rhöneck, C. (1986). Vorstellungen vom elektrischen Stromkreis. Naturwissenschaften im Unterricht - Physik/Chemie, 34, Ross, B.H. (1984). Remindings and their effects in learning a cognitive skill. Cognitive Psychology, 16, Ross, B.H. (1987). This is like that: The use of earlier problems and the separation of similarity effects. Journal of Experimental Psychology: Learning, Memory, & Cognition, 13, Ross, B.H. (1989a). Distinguishing types of superficial similarities: Different effects on the access and use of earlier problems. Journal of Experimental Psychology: Learning, Memory, & Cognition, 15, Ross, B.H. (1989b). Remindings in learning and instruction. In S. Vosniadou & A. Ortony (Eds.), Similarity and analogical reasoning (pp ). Cambridge, UK: Cambridge University Press. Ross, B.H., & Kennedy, P.T. (1990). Generalizing from the use of earlier examples in problem solving. Journal of Experimental Psychology: Learning, Memory, & Cognition, 16, Rumelhart, D.E., & Abrahamson, A.A.A. (1973). A model for analogical reasoning. Cognitive Psychology, 5, Rumelhart, D.E., Smolensky, P., McClelland, J.L., & Hinton, G.E. (1986). Schemata and sequential thought processes in PDP models. In J.L. McClelland, D.E. Rumelhart, & the PDP Research Group (Eds.), Parallel distributed processing: Explorations in the microstructure of cognition (Vol. 2, pp. 7-57). Cambridge, MA: MIT Press. Sandhofer, C.M., & Smith, L.B. (2001). Why Children learn colour and size words so differently: Evidence from adults learning of artificial terms. Journal of Experimental Psychology: General, 130, Schank, R.C. (1982). Dynamic memory. New York, NY: Cambridge University Press.

130 122 Schmid, U. (2006). Computermodelle des Denkens und Problemlösens. In J. Funke (Ed.), Enzyklopädie der Psychologie, Themenbereich C: Theorie und Forschung, Serie 2: Kognition, Band 8, Denken und Problemlösen (pp ). Göttingen, Germany: Hogrefe. Schmid, U., Burghardt, J., & Wagner, U. (2003). Analogy needs abstraction[ ]. Schmid, U., Gust, H., Kühnberger, K.U., & Burghardt, J. (2003). An algebraic framework for solving proportional and predictive analogies. In F. Schmalhofer, R.Young, & G. Katz (Eds.), Proceedings of the European Conference on Cognitive Science (pp ). Mahwah, NJ: Lawrence Erlbaum. Schmid, U., Wirth, J., & Polkehn, K. (2003). A closer look on structural similarity in analogical transfer. Cognitive Science Quarterly, 3, Schmid, U., & Wysotzki, F. (1997). Induktion von rekursiven Programmschemata und analoges Lernen. In R.H. Kluwe (Ed.), Strukturen und Prozesse intelligenter Systeme (pp ), Wiesbaden, Germany: Deutscher Universitätsverlag. Schwartz, D.L., & Bransford, J.D. (1998). A time for telling. Cognition & Instruction, 16, Schwedes, H. (1983). Zur Kontinuitätsvorstellung bei Wasserstromkreisen und elektrischen Schaltungen[ ]. http// text/lud-read.doc. Schwedes, H. (1985). The importance of water circuits in teaching electric circuits. In R. Duit, W. Jung, & C. v. Rhöneck (Eds.), Aspects of understanding electricity (pp ). Kiel, Germany: Verlag Schmidt & Klaunig. Schwedes, H., & Schilling, P. (1983). Schülervorstellungen zu Wasserstromkreisen, Physica Didactica, 10, Schwedes, H., & Dudeck, W.-G. (1993). Lernen mit der Wasseranalogie. Naturwissenschaften im Unterricht-Physik, 4,

131 123 Seifert, C.M. (1988). Goals in reminding. In J.L. Kolodner (Ed.), Proceedings of the Case- Based Reasoning Workshop (pp ). San Mateo, CA: Morgan Kaufmann. Shallice, T., & Burgess, P. (1991). Higher-order cognitive impairments and frontal lobe lesions in man. In S. Levin, H.M. Eisenberg, & A.L. Benton (Eds.), Frontal lobe function and dysfunction (pp ). New York, NY: Oxford University Press. Shastri, L., & Ajjanagadde, V. (1993). From simple associations to systematic reasoning: A connectionist representation of rules, variables, and dynamic bindings using temporal synchrony. Behavioral and Brain Sciences, 16, Shipstone, D., Dupin, J.J., Joshua, S., Jung, W., v. Rhöneck, C., Kärrqvist, K., & Licht, P. (1988). A study of student s understanding of electric circuits in five European countries. International Journal of Science Education, 3, Skorstad, J., Gentner, D., & Medin, D. (1988). Abstraction processes during concept learning: A structural view. In V. Patel (Ed.), Proceedings of the 10 th Annual Conference of the Cognitive Science Society (pp ). Montreal, Que: Lawrence Erlbaum. Smolensky, P. (1990). Tensor product variable binding and the representation of symbolic structure in connectionist systems. Artificial Intelligence, 46, Spellman, B.A., & Holyoak, K.J. (1996). Pragmatics in analogical mapping. Cognitive Psychology, 31, Spencer, R.M., & Weisberg, R.W. (1986). Context-dependent effects on analogical transfer. Memory & Cognition, 14, Spiro, R.J., Feltovich, P.J., Coulson, R.L., & Anderson, D.K. (1989). Multiple analogies for complex concepts: Antidotes for analogy-induced misconception in advanced knowledge acquisition. In S. Vosniadou, & A. Ortony (Eds.), Similarity and analogical reasoning (pp ). Cambridge, UK: Cambridge University Press. Sternberg, R.J. (1977). Component processes in analogical reasoning. Psychological Review, 84,

132 124 Thagard, P. (1988). Dimensions of analogy. In D.H. Helmon (Ed.), Analogical reasoning: Perspectives of artificial intelligence, cognitive science, and philosophy (pp ). Dordrecht, The Netherlands: Kluwer. Thagard, P. (2000). Coherence in thought and action. Cambridge, MA: MIT Press. Thagard, P., Holyoak, K.J., Nelson, G., & Gochfeld, D. (1990). Analog retrieval by constraint satisfaction. Artificial Intelligence, 46, Thompson, L., Gentner, D., & Loewenstein, J. (2000). Avoiding missed opportunities in managerial life: Analogical training more powerful than individual case training. Organizational Behavior and Human Decision Processes, 82, Tunteler, E., & Resing, W.C.M. (2002). Spontaneous analogical transfer in 4-year-olds: A microgenetic study. Journal of Experimental Child Psychology, 83, Vanderstoep, S. & Seifert, C.M. (1993). Knowing how versus knowing when : Improving transfer of problem solving principles. Journal of the Learning Sciences, 3, Vosniadou, S. (1987). Children and metaphors. Child Development, 58, Vosniadou, S. (1989). On the nature of children s naïve knowledge. In N.N. (Ed.), Proceedings of the 11 th Annual Conference of the Cognitive Science Society (pp ). Hillsdale, NJ: Lawrence Erlbaum. Vosniadou, S., & Ortony, A, (1989). Similarity and Analogical Reasoning: A synthesis. In S. Vosniadou, & A. Ortony (Eds.), Similarity and analogical reasoning (pp. 1-17). London, UK: Cambridge University Press. Weber, G. (1994). Fallbasiertes Lernen und Analogien: Unterstützung von Problemlöse- und Lernprozessen in einem adaptiven Lernsystem. Weinheim, Germany: Beltz, Psychologie-Verl.-Union. Weller, S., & Schmid, U. (2006). Analogy by abstraction[ ]. uni-bamberg.de/ publications/iccm06.pdf

133 125 Wharton, C.M., Holyoak, K.J., Downing, P.E., Lange, T.E., Wickens, T.D., & Melz, E.R. (1994). Below the surface: Analogical similarity and retrieval competition in reminding. Cognitive Psychology, 26, Wharton, C.M., Holyoak, K.J., & Lange, T.E. (1996). Remote analogical reminding. Memory & Cognition, 24, Wilson, W., Halford, G., Gray, B., & Phillips, S. (2001). The STAR-2 model for mapping hierarchically structured analogs. In D. Gentner, K.J. Holyoak, & Kokinov, B. (Eds.), The analogical mind: Perspectives from cognitive science (pp ). Cambridge, MA: MIT Press. Winston, P.H. (1980). Learning and reasoning by analogy. Communications of the Association for Computing Machinery, 23, Yamauchi, T., & Markman, A.B. (2000). Inference using categories. Journal of Experimental Psychology: Learning, Memory, & Cognition, 26,

134 A-1 Anhang A Simulationen A.1 Simulation des Wasserstromkreises InfoEinleitung1 Hallo, Du nimmst heute an einer Untersuchung zu Lehr-Lern-Prozessen im Unterricht teil. InfoEinleitung2 In den nächsten 15 Minuten wirst du einige Schaubilder und Simulationen aus einem eher physikalischen Bereich sehen. Es wird dabei um ein Wasserkreislaufsystem gehen. Den Schülern soll mit diesen Simulationen das Erlernen bestimmter physikalischer Gesetzmäßigkeiten erleichtert werden. Wir wollen mit Deiner Hilfe herausfinden, ob die Darstellungen leicht verständlich sind und welche Simulationen sich am besten eignen, um sie auch in der Schule einsetzen zu können. Falls Du das ein oder andere nicht verstehst, liegt das nicht an Dir, sondern an der Simulation oder der Aufgabenstellung. Es besteht also kein Grund für Dich, an Deiner Intelligenz zu zweifeln. Das Ziel soll nicht sein, Dein physikalisches Wissen zu testen. Auf dem Prüfstand steht unsere Simulation des Wasserkreislaufsystems. InfoEinleitung3 Wenn Du die Simulation dann gleich startest, werden Dir zunächst die wichtigsten Bauteile des Wasserstromkreises vorgestellt. Du wirst sehen, wie sie funktionieren und welche Wirkung sie haben. Anschließend sollen Dir einige Beispiele die wichtigsten physikalischen Gesetzmäßigkeiten verdeutlichen. Falls die eine oder andere Simulation zu schnell war, oder Du nicht alles verstanden hast, kannst Du sie per Wiederholungs-Button (links unten) noch ein

135 A-2 weiteres Mal abspielen. Achte bei allen Simulationen und Schaubildern gut auf die einzelnen vorgestellten Bauteile und physikalischen Gesetzmäßigkeiten und versuche, Dir die Funktionsweisen und Zusammenhänge einzuprägen, so dass Du später Fragen dazu beantworten könntest. Falls Du keine Fragen mehr hast, starten wir nun mit dem ersten Teil der Simulation InfoEinleitung4 In den nächsten 3 Schaubildern und Simulationen wollen wir Dir zunächst die einzelnen Bauteile des Wasserstromkreises erklären. Die verwendeten Bauteile sind über Schläuche miteinander verbunden. Wenn Du nun auf OK klickst, startet die Simulation. Schaubild 1 Einführung der Doppelwassersäule Einführung des Kreisels Einführung des Begriffs der Druckdifferenz Einführung des Begriffs des Wasserflusses Schaubild1 Bild1 Der grundlegendste Baustein eines Wasserstromkreises ist die so genannte Doppelwassersäule. Der Einfachheit halber wollen wir sie in den Schaltplänen mit DWS bezeichnen. Sie besteht grundsätzlich aus zwei Säulen, in denen Wasser hochsteigen kann. Durch ihre Höhe erzeugt jede Wassersäule einen Druck auf den Wasserkreis. Je höher der Wasserpegel in einer solchen Säule ist, desto größer ist auch der Druck, den er am Fuß der Doppelwassersäule auf das Wasser im Wasserkreis ausübt. In jeder Säule kann sich gleich viel Wasser befinden. Diese Variante siehst du in Abbildung a).

136 A-3 Schaubild1 Bild2 Die Wasserstände können aber auch unterschiedlich sein. In solchen Fällen spricht man von einer Pegeldifferenz zwischen den beiden Wassersäulen. Durch diese Pegeldifferenz ergibt sich auch eine Druckdifferenz, da ja die Wassersäulen unterschiedlich hoch sind und somit unterschiedlich stark Druck auf den Wasserkreis ausüben. Abbildung b) zeigt so eine Druckdifferenz. In den folgenden Abbildungen wird eine Druckdifferenz immer mit p bezeichnet. Die Hauptaufgabe der Doppelwassersäule besteht darin, einen Wasserfluss zu erzeugen. Allerdings funktioniert das nur, wenn die Wassersäulen unterschiedlich hohe Pegelstände haben. Damit also Wasser im Wasserstromkreis fließen kann, muss eine Druckdifferenz p in der Doppelwassersäule bestehen. Das Wasser fließt dann von der Säule mit dem höheren Pegelstand zur Säule mit dem niedrigeren Pegelstand. Ein Transformator in der Doppelwassersäule hält die Pegelstände immer konstant, so dass stets die gleiche Druckdifferenz herrscht. Das garantiert auch, dass wir einen ständigen Wasserfluss haben. Schaubild1 Bild3 Um einen Wasserfluss im System kenntlich zu machen, wird ein weiteres wichtiges Bauteil eingeführt, nämlich der Kreisel. Dieses Bauteil wird durch ein K gekennzeichnet. Der Kreisel dreht sich, wenn das Wasser in den Schläuchen des Wasserstromkreises fließt. Das kannst Du in Abbildung c) beobachten.

137 A-4 Schaubild1 Bild4 Hier siehst Du den Sachverhalt nochmals verdeutlicht: In Abbildung a) siehst du ein Wasserstromsystem, bei dem keine Pegeldifferenz in der Doppelwassersäule besteht. Jede Säule erzeugt also aufgrund ihrer Höhe den gleichen Druck. Beide Wassersäulen drücken somit im Wasserkreis in gleicher Weise gegeneinander. Folglich fließt auch kein Wasser im Kreislauf. Also steht der Kreisel still und zeigt keine Umdrehungen. Bei Abbildung c) besteht eine Druckdifferenz p zwischen den einzelnen Wassersäulen der Doppelwassersäule. Die höhere Säule drückt also mit viel stärkerer Kraft auf das Wasser im Wasserkreis als die kleinere Säule. Somit entsteht eine Druckdifferenz, die einen Wasserfluss im System erzeugt. Das siehst du an der Drehbewegung des Kreisels. Schaubild 2 Einführung des Druckdifferenzmessers Schaubild2 Bild1 Ein weiteres Bauteil im Wasserstromkreis ist der Druckdifferenzmesser. Damit kann man die Unterschiede im Wasserdruck an jeder Stelle im Wasserstromkreis messen. Mit ihm können also Druckdifferenzen p auch abseits der Doppelwassersäule angezeigt werden. Abbildung a) zeigt Aufbau und Funktion eines Druckdifferenzmessers. Ein Druckdifferenzmesser besteht ebenso wie die Doppelwassersäule aus zwei separaten Säulen, in denen Wasser hoch steigen kann. Auch hier gilt wieder: Je höher der Pegelstand einer Säule, desto größer ist der Wasserdruck an dieser Stelle im Wasserstromkreis. Bei niedrigem Druck steigt die Wassersäule weniger hoch.

138 A-5 Schaubild2 Bild2 Der eigentliche Sinn dieses Bauteils ist es, Druckdifferenzen zu messen. Je stärker die Druckdifferenz, desto stärker unterscheiden sich die Pegelstände in den beiden Wassersäulen. Diesen Sachverhalt stellt Abbildung b) dar. Der Druckdifferenzmesser gibt also genauso wie die Doppelwassersäule Druckdifferenzen p an. Er kann aber an jeder Stelle des Wasserstromkreises verwendet werden und verändert den Wasserfluss nicht. Man kann ihn als Messgerät für Druckdifferenzen p verstehen. Schaubild 3 Einführung des Widerstandsbegriffs Schaubild3 Bild1 Kommen wir noch einmal zurück zum Kreisel. Du hast ja zuvor schon gesehen, dass er den Wasserfluss anzeigen kann. Allerdings behindert er auch den Wasserfluss an der Stelle, an der er angebracht wurde. Das Wasser muss ja den Kreisel antreiben, damit er sich drehen kann. Dafür ist mehr Anstrengung nötig. Man könnte also sagen, das Wasser muss gegen einen Widerstand anströmen. Das hat auch Konsequenzen für den Wasserdruck am Kreisel. Das Schaubild verdeutlicht, wie ein Kreisel zusammen mit einem Druckdifferenzmesser im Wasserstromkreis angebracht werden kann. Vor und nach dem Kreisel kann man jeweils einen bestimmten Wasserdruck messen, der durch den Pegelstand in der Säule angezeigt wird. Daraus lässt sich auch die Druckdifferenz ableiten, die sich über den Kreisel ergibt. Das veranschaulicht der eingebaute Druckdifferenzmesser. Wir merken uns also, dass der Kreisel eine

139 A-6 Behinderung des Wasserstroms darstellt und somit über ihn auch eine Druckdifferenz gemessen werden kann. InfoEinleitung5 Geschafft! Die erste Runde des Experiments hast Du erfolgreich hinter Dich gebracht. Aber Du musstest Dir auch schon einiges merken. Die letzten 3 Schaubilder sollten Dir die wichtigsten Bauteile des Wasserstromkreises näher bringen. Und da das ziemlich viel auf einmal war, bekommst Du hier noch einmal eine kurze Zusammenfassung der Bauteile und ihrer dazugehörigen Funktionen. InfoEinleitung6 Doppelwassersäule Kreisel Druckdifferenzmesser Eine Doppelwassersäule kann eine Druckdifferenz messen. Die Druckdifferenz ergibt sich aus der Differenz der beiden Pegelstände in der Doppelwassersäule. Durch eine anliegende Druckdifferenz kann die Doppelwassersäule einen Wasserfluss im Wasserstromkreis erzeugen. Der Kreisel zeigt im Wasserstromkreis einen Wasserfluss an. Er erschwert das Durchfließen des Wassers. Der Kreisel erzeugt eine Druckdifferenz im Wasserstromkreis. Der Druckdifferenzmesser besteht aus zwei separaten Säulen, in denen der Wasserdruck angezeigt wird. Mit dem Druckdifferenzmesser kann die Druckdifferenz an jeder Stelle des Wasserstromkreises gemessen werden. Die Druckdifferenz ergibt sich aus der Differenz der Pegelstände. InfoEinleitung7 Im zweiten Teil der Simulation werden wir Dir an einigen Beispielen die physikalischen Gesetzmäßigkeiten, die im Wasserstromkreis herrschen erklären. Die folgenden Animationen und Schaubilder enthalten die bekannten Bauteile. Manchmal werden auch mehrere Bauteile miteinander kombiniert. Ihre grundlegenden Funktionsweisen solltest du also immer im Hinterkopf behalten. Schaubild 4 Einführung des Zusammenhangs zwischen Druckdifferenz und Wasserstromstärke Einführung des Begriffs Wasserstromstärke

140 A-7 Schaubild4 Bild1 Als erstes erklären wir dir den Zusammenhang zwischen der Druckdifferenz p in der Doppelwassersäule und dem daraus entstehenden Wasserstrom im vorliegenden Stromkreis. Wie du ja schon zuvor gesehen hast, gibt es Doppelwassersäulen mit unterschiedlichen Pegeldifferenzen. Jede erzeugt also eine andere Druckdifferenz. Das hat auch Konsequenzen für den Wasserstrom. Grundlegend gilt folgende Regel: Je größer die Druckdifferenz p in der Doppelwassersäule, desto größer ist die Wasserstromstärke im Wasserstromkreis. Wie du ja vielleicht noch weißt, kann man den Wasserfluss mit dem Kreisel sichtbar machen. An ihm kann man auch sehr gut sehen, was der Begriff Wasserstromstärke meint. Die Wasserstromstärke gibt an, welche Menge Wasser pro Zeit an einem bestimmten Punkt vorbeifließt. Ist die Wasserstromstärke hoch, so wird viel Wasser pro Zeiteinheit vorbeifließen. Bei niedriger Wasserstromstärke ist das umgekehrt. Je schneller sich der Kreisel dreht, desto größer ist die Wasserstromstärke. Abbildung a) verdeutlicht den Zusammenhang. Hier misst man eine sehr große Druckdifferenz in der Doppelwassersäule. Dementsprechend dreht sich der Kreisel auch sehr schnell. Die Druckdifferenz ist also die Ursache für die Wasserstromstärke. Schaubild4 Bild2 In Abbildung b) wird mit Hilfe eines Wasserhahns, Wasser in die rechte Säule nachgefüllt. Die Druckdifferenz nimmt also kontinuierlich ab. Wie du siehst, dreht sich der Kreisel immer langsamer, je mehr man die Druckdifferenz in der Doppelwassersäule verringert.

141 A-8 Schaubild 5 Einführung des Zusammenhangs zwischen Wasserstromstärke und Behinderung des Wasserstroms (qualitativ) Einführung der Regel, dass die Stromstärke in einer Reihenschaltung überall gleich sein muss. Schaubild5 Bild1 In der nächsten Animation geht es um den Zusammenhang zwischen der Wasserstromstärke und einer Behinderung des Wasserstroms durch einen Kreisel. Wie du ja vielleicht noch weißt, ist ein Kreisel nicht nur sinnvoll um die Wasserstromstärke anzuzeigen. Ein Kreisel stellt auch immer eine Behinderung des Wasserstroms dar. Das Wasser muss also eine größere Kraft aufwenden um den Kreisel zu drehen und hindurch zu fließen. Du hast auch schon gesehen, dass ein Kreisel an der Stelle, an der er in den Wasserstromkreis eingebaut ist, eine Druckdifferenz erzeugt. Ein Druckdifferenzmesser kann das anzeigen. Schau dir dazu Abbildung a) an. Du siehst einen Kreisel, der sich im Wasserstromkreis dreht. Links und rechts neben dem Kreisel befinden sich die beiden Säulen des Druckdifferenzmessers. Wie du sehen kannst, zeigen sie eine Druckdifferenz p an. Schaubild5 Bild2

142 A-9 Entfernt man den Kreisel aus dem Wasserstromkreis, so zeigt der Druckdifferenzmesser keine Druckdifferenz p mehr an. Das siehst Du in Abbildung b). Die Druckdifferenz in der Doppelwassersäule bleibt aber weiterhin bestehen. Es gilt also folgende Regel: Druckdifferenzen können nur über Behinderungen des Wasserstroms, z.b. Kreisel gemessen werden. Diesen Effekt kann man sich so erklären: Der Wasserfluss wird von der Doppelwassersäule erzeugt. Er muss bei einem einfachen Stromkreis überall gleich sein, da ja die Pegelstände mit Hilfe des Transformators konstant gehalten werden. Wenn das Wasser nun an ein Hindernis, wie z.b. den Kreisel kommt, hat das Auswirkungen auf die Wasserstromstärke. Diese meint ja die Wassermenge, die pro Zeiteinheit an einem bestimmten Punkt vorbeifließt. Durch ein Hindernis kann zunächst einmal nicht die gleiche Wassermenge pro Zeiteinheit fließen, da ja der Wasserfluss behindert ist. Das Wasser muss also mit einer stärkeren Kraft als an anderen Stellen des Wasserkreises durch dieses Hindernis gedrückt werden. Dafür ist eben die Druckdifferenz nötig, die am Druckdifferenzmesser gemessen werden kann. Der Druck ist also nicht überall im einfachen Stromkreis gleich. Dort wo Druckdifferenzen auftreten, haben sie den Zweck, die Wasserstromstärke konstant zu halten. Schaubild 6 Einführung des Zusammenhangs zwischen Wasserstromstärke und Behinderung des Wasserstroms (quantitativ) Schaubild6 Bild1 Es gibt aber noch einen Effekt im Wasserstromkreis, der mit dem Kreisel zu tun hat. Bis jetzt haben wir ja immer denselben Kreisel K verwendet, der sich bei gleicher Druckdifferenz in der Doppelwassersäule immer gleich schnell gedreht hat. Es gibt aber auch noch andere Sorten von Kreiseln. Es gilt folgender Grundsatz: Je schwerer ein Kreisel ist, desto schwerer kann er vom Wasser gedreht werden. Je schwerer also der Kreisel ist, desto größer ist die Be-

143 A-10 hinderung des Wasserstroms, die er erzeugt. Diesen Effekt kannst du nochmals im folgenden Schaubild beobachten. Wie du siehst wird in allen drei Wasserstromkreisen dieselbe Doppelwassersäule verwendet, d.h. die Druckdifferenz, die entsteht, ist in allen 3 Kreisläufen identisch. Du siehst auch, dass drei verschiedene Kreisel verwendet wurden. Kreisel K1 in Abbildung a) ist am leichtesten und erzeugt die geringste Behinderung des Wasserstroms. Kreisel K3 in Abbildung c) ist am schwersten und erzeugt die stärkste Behinderung des Wasserstroms. Kreisel K2 in Abbildung b) ist mittelschwer. Man kann beobachten, dass Kreisel K1 am schnellsten und Kreisel K3 am langsamsten dreht. K2 dreht sich mittelschnell. Die Drehgeschwindigkeit ist wie wir wissen ein Hinweis auf die Wasserstromstärke. Letztendlich kann man sagen, dass sie Wasserstromstärke umso kleiner ist, je schwerer der Kreisel ist. InfoEinleitung8 PUUUUHHHH! Das war wieder ganz schön viel auf einmal. Fassen wir also die wichtigsten Gesetze nochmals zusammen. Es besteht folgender Zusammenhang zwischen Druckdifferenz und Wasserstromstärke: Je größer die Druckdifferenz in der Doppelwassersäule, desto größer ist die daraus resultierende Wasserstromstärke bzw. Je größer die Druckdifferenz in der Doppelwassersäule, desto schneller dreht sich der Kreisel im Wasserstromkreis. Für die Behinderung des Wasserstroms und die Wasserstromstärke gilt folgendes: Je stärker die Behinderung des Wasserstroms durch den verwendeten Kreisel, desto geringer ist die Wasserstromstärke durch den Kreisel. InfoEinleitung9 So nun bist Du fast schon Profi, was den Wasserstromkreis und seine Gesetze betrifft. Eine kleine Steigerung im Schwierigkeitsgrad hätten wir allerdings noch für Dich. Dann hast Du es aber auch geschafft und alles über den Wasserstromkreis gelernt. In den nächsten Animationen werden wir nicht nur einen Kreisel, sondern zwei oder drei Kreisel gleichzeitig in den Wasserstromkreis einbauen. Auch in diesem Fall gelten wieder bestimmte Regeln. Deine Aufgabe sollte es nun noch einmal sein, diese Gesetze so gut es geht zu verstehen und sie sich eventuell einzuprägen. Schaubild 7 In einer Reihenschaltung laufen alle Kreisel gleich schnell.

144 A-11 Schaubild7 Bild1 Im folgenden Schaubild siehst du drei Kreisel der gleichen Sorte K. Wie du siehst, sind sie alle drei nacheinander in den Wasserstromkreis eingebaut worden. Du findest in der Abbildung auch wieder eine Doppelwassersäule, in der eine bestimmte konstante Druckdifferenz p herrscht. Die eigentlich interessante Beobachtung ist, dass alle drei nacheinander angebrachten Kreisel gleich schnell drehen. Keiner dreht sich schneller als der andere. Das heißt also auch wieder, dass die Wasserstromstärke durch alle drei Kreisel gleich groß ist. Das ist immer so, bei Hindernissen, die nacheinander in den Wasserstromkreis eingebaut werden. Schaubild 8 Je mehr Widerstände in Reihe geschaltet sind, desto geringer ist die Gesamtstromstärke Schaubild8 Bild1 Nacheinander in den Wasserstromkreis eingebaute Kreisel drehen alle gleich schnell. OK, das kann man sich merken. Was passiert aber, wenn man einen der drei Kreisel wieder entfernt? Wie schnell dreht sich dann jeder einzelne Kreisel? Diesen Effekt verdeutlicht das folgende Schaubild. Du siehst zunächst in Abbildung a) noch einmal die drei Kreisel aus der vorherigen Abbildung. Alle drehen gleich schnell. Jetzt entfernt man einen der Kreisel. Wie du in Abbildung b) sehen kannst, drehen sich die beiden übrig gebliebenen Kreisel nun wesentlich schneller als zuvor. Wir können aber auch beobachten, dass sich keiner der beiden Kreisel schneller dreht als der andere. Es gilt also auch für einen Wasserstromkreis mit zwei Kreiseln,

145 A-12 dass jeder Kreisel gleich schnell dreht. Die Geschwindigkeit der Drehbewegung hat allerdings zugenommen. Würde man noch einen weiteren Kreisel entfernen, so dass nur noch ein Kreisel im Wasserstromkreis verbleibt, würde die Geschwindigkeit nochmals zunehmen. Umgekehrt gilt natürlich das gleiche. Man kann sich merken: Je mehr Kreisel der gleichen Sorte in den Wasserstromkreis eingebaut werden, desto langsamer dreht jeder einzelne Kreisel. Keiner der Kreisel, die in einer Reihe angebracht sind, dreht sich aber schneller als der andere. Wenn man also von einer Reihenschaltung einen Kreisel wieder entfernt, steigt die Wasserstromstärke und sinkt die Gesamtbehinderung des Wasserkreislaufs. Schaubild 9 Die Druckdifferenz der DWS teilt sich zu gleichen Teilen auf identische Kreisel im Wasserkreislauf auf. Schaubild9 Bild1 Die Wasserstromstärke ist also in einer Reihenschaltung an jeder Stelle des Wasserstromkreises gleich groß. Aber wie verhält es sich mit der Druckdifferenz? Schau dir bitte Abbildung a) an. Du siehst eine Doppelwassersäule an der eine Druckdifferenz p anliegt. Im Gegensatz zu vorher, ist nun aber auch angegeben, um wie viele Einheiten sich die beiden Wassersäulen unterscheiden. In diesem Fall misst man eine Druckdifferenz von 60 Einheiten. In dem Wasserstromkreis befinden sich auch zwei identische Kreisel der Sorte K. Durch zwei Druckdifferenzmesser wird die Druckdifferenz an beiden Kreiseln gemessen. Wie du sehen kannst, ist die Druckdifferenz von 30 Einheiten über jeden der beiden Kreisel die gleiche. Das entspricht jeweils der Hälfte der Druckdifferenz in der Doppelwassersäule. Die Druckdifferenz teilt sich also zu gleichen Teilen auf die beiden Kreisel auf.

146 A-13 Schaubild9 Bild2 Den gleichen Effekt können wir auch beobachten, wenn wir in Abbildung b) einen weiteren Kreisel in den Wasserstromkreis einbauen, so dass nun wieder drei Kreisel hintereinander drehen. An der Doppelwassersäule wird wieder eine Druckdifferenz p von 60 Einheiten gemessen. Im vorherigen Fall haben wir gesehen, dass sich die Druckdifferenz p der Doppelwassersäule zu gleichen Teilen auf die identischen Kreisel aufgeteilt hat. Jeder Kreisel hat die Hälfte der Druckdifferenz abbekommen. Bei den drei Kreiseln verhält es sich genauso. An jedem Kreisel wird eine Druckdifferenz von 20 Einheiten gemessen. Das entspricht einem Drittel der Druckdifferenz aus der Doppelwassersäule. Zählt man die einzelnen Teildruckdifferenzen an den Kreiseln zusammen, kommt man so wieder auf die Gesamtdruckdifferenz in der Doppelwassersäule. Schaubild 10 Über schwereren Kreiseln fällt ein größerer Teil der Gesamtdruckdifferenz ab, als über leichteren Kreiseln. Schaubild10 Bild1 In einem Wasserstromkreis, in dem Kreisel der gleichen Sorte in einer Reihe angebracht sind, teilt sich also die Druckdifferenz p der Doppelwassersäule zu gleichen Teilen auf die einzelnen Kreisel auf. Was aber passiert, wenn unterschiedliche Sorten von Kreiseln verwendet

147 A-14 werden? Das Schaubild soll helfen. In Abbildung a) siehst du noch einmal einen Stromkreis mit zwei gleichen Kreiseln der Sorte K. Die Gesamtdruckdifferenz p von 60 Einheiten teilt sich je zur Hälfte auf die Kreisel auf. An jedem Kreisel wird nun eine Druckdifferenz von 30 Einheiten gemessen. Schaubild10 Bild2 Gut, das haben wir schon gewusst. Jetzt zum neuen Problem. In Abbildung b) siehst du einen leichteren Kreisel K1 und einen schwereren Kreisel K2. Du siehst nun, dass sich die Druckdifferenz p der Doppelwassersäule nicht mehr zu gleichen Teilen auf die einzelnen Kreisel aufteilt. Über den schwereren Kreisel fällt eine wesentlich größere Druckdifferenz von 50 Einheiten ab, während für den leichteren Kreisel nur 10 Einheiten übrig bleiben. Wir lernen also, dass der Druckunterschied an einem Hindernis proportional zur Behinderung ist, die durch dieses Hindernis ausgelöst wird. Mit anderen Worten: Je größer die Behinderung des Wasserstroms, desto größer die Druckdifferenz an dem jeweiligen Hindernis. Wir sehen aber auch, dass sich die einzelnen Teildruckdifferenzen wieder zur Gesamtdruckdifferenz an der Doppelwassersäule addieren. Schaubild 11 Die Teildruckdifferenzen addieren sich zur Gesamtdruckdifferenz. Die Einzelwiderstände addieren sich zum Gesamtwiderstand. Schaubild11 Bild1

148 A-15 So, jetzt hast Du es gleich geschafft, nur noch ein Schaubild. In Abbildung a) siehst du wieder die drei Kreisel der Sorte K aus vorherigen Animationen. Sie drehen alle gleich schnell. Man kann beobachten, dass die Druckdifferenz über einen Kreisel K jeweils 20 Einheiten beträgt. Wenn man die Teildruckdifferenzen über alle drei Kreisel aufaddiert, erhält man wieder die Gesamtdruckdifferenz von 60 Einheiten, die an der Doppelwassersäule gemessen werden kann. Schaubild11 Bild2 In Abbildung b) siehst du, dass man Druckdifferenzen auch über zwei Kreiseln gleichzeitig messen kann. Die Abbildung zeigt, dass man über zwei Kreiseln eine Druckdifferenz von 40 Einheiten messen kann. Das ist also das Doppelte dessen, was man über einen Kreisel messen kann. Auch hier siehst du, dass sich die Teildruckdifferenzen addieren. Schaubild11 Bild3 Als logische Konsequenz müsste man über alle drei Kreisel eine Druckdifferenz von 60 Einheiten messen können. Genau diesen Sachverhalt zeigt Abbildung c). Die Teildruckdifferenzen über alle Widerstände addieren sich also zum Gesamtwiderstand auf.

149 A-16 Schaubild11 Bild4 Wir möchten dich aber noch auf einen interessanten Effekt aufmerksam machen. In Abbildung d) wollen wir die drei gleichen Kreisel der Sorte K durch einen einzigen Kreisel 3K ersetzen, der dreimal schwerer ist, als die bisherigen Kreisel. Dementsprechend behindert er den Wasserstrom auch dreimal mehr, als es jeder einzelne herkömmliche Kreisel K tut. Wie du in Abbildung d) sehen kannst, ändert sich jedoch nichts an der gemessenen Druckdifferenz. Sie beträgt immer noch 60 Einheiten. Drei normale Kreisel K in Reihe geschaltet, hemmen den Wasserstrom also genauso wie ein Kreisel 3K, der dreimal so schwer ist. Alle drei normalen Kreisel zusammen, erzeugen also die gleiche Druckdifferenz wie ein dreimal so schwerer Kreisel. Diese Druckdifferenz entspricht der Gesamtdruckdifferenz an der Doppelwassersäule. Die interessante Beobachtung ist also, dass sich die drei Kreisel in ihrer Wirkung zu einem dreimal schwerer drehbaren Kreisel addieren. A.2 Simulation des elektrischen Stromkreises InfoStromEinleitung1 Hallo, Du nimmst heute an einer Untersuchung zu Lehr-Lern-Prozessen im Unterricht teil. InfoStromEinleitung2 In den nächsten 15 Minuten wirst du einige Schaubilder und Simulationen aus einem eher physikalischen Bereich sehen. Es wird dabei um den Stromkreis gehen. Den Schülern soll mit diesen Simulationen das Erlernen bestimmter physikalischer Gesetzmäßigkeiten erleichtert werden. Wir wollen mit Deiner Hilfe herausfinden, ob die Darstellungen leicht verständlich sind und welche Simulationen sich am besten eignen, um sie auch in der Schule einsetzen zu können. Falls Du das ein oder andere nicht verstehst, liegt das nicht an Dir, sondern an der Simulation oder der Aufgabenstellung. Es besteht also kein Grund für Dich, an Deiner Intelli-

150 A-17 genz zu zweifeln. Das Ziel soll nicht sein, Dein physikalisches Wissen zu testen. Auf dem Prüfstand steht unsere Simulation des Stromkreises. InfoStromEinleitung3 Wenn Du die Simulation dann gleich startest, werden Dir zunächst die wichtigsten Bauteile des Stromkreises vorgestellt. Du wirst sehen, wie sie funktionieren und welche Wirkung sie haben. Anschließend sollen Dir einige Beispiele die wichtigsten physikalischen Gesetzmäßigkeiten verdeutlichen. Falls die eine oder andere Simulation zu schnell war, oder Du nicht alles verstanden hast, kannst Du sie per Wiederholungs-Button (links unten) noch ein weiteres Mal abspielen. Achte bei allen Simulationen und Schaubildern gut auf die einzelnen vorgestellten Bauteile und physikalischen Gesetzmäßigkeiten und versuche, Dir die Funktionsweisen und Zusammenhänge einzuprägen, so dass Du später Fragen dazu beantworten könntest. Falls Du keine Fragen mehr hast, starten wir nun mit dem ersten Teil der Simulation InfoStromEinleitung4 In den nächsten 3 Schaubildern und Simulationen wollen wir Dir zunächst die einzelnen Bauteile des Stromkreises erklären. Die verwendeten Bauteile sind über leitende Drähte miteinander verbunden. Wenn Du nun auf OK klickst, startet die Simulation. Schaubild 1 Einführung der Batterie, Einführung der Glühbirne Einführung des Begriffs Spannung Einführung des Begriffs Strom Schaubild1 Bild1

Cognitive Systems Master thesis

Cognitive Systems Master thesis Cognitive Systems Master thesis Recherche Phase SS 2011 Gliederung 1. Einleitung 2. Analogie Modelle 2.1 SME 2.2 Ava 2.3 Lisa 3. Zusammenfassung 4. Ausblick 2 Einleitung Analogie Problemsituation wird

Mehr

Seminar: Denken und Problemlösen Dozent: Prof. Dr. Joachim Funke. Referent: Philip Furley

Seminar: Denken und Problemlösen Dozent: Prof. Dr. Joachim Funke. Referent: Philip Furley Seminar: Denken und Problemlösen Dozent: Prof. Dr. Joachim Funke Referent: Philip Furley Gliederung Einleitung Ziel: Gemeinsamkeiten und Unterschiede der Sichtweisen der Künstlichen Intelligenz und der

Mehr

Zur Anwendung heuristischer Hilfsmittel beim Lösen von Sachaufgaben im Mathematikunterricht der Grundschule

Zur Anwendung heuristischer Hilfsmittel beim Lösen von Sachaufgaben im Mathematikunterricht der Grundschule Naturwissenschaft Stefanie Kahl Zur Anwendung heuristischer Hilfsmittel beim Lösen von Sachaufgaben im Mathematikunterricht der Grundschule Examensarbeit Zur Anwendung heuristischer Hilfsmittel beim Lösen

Mehr

Bachelorarbeit. Was ist zu tun?

Bachelorarbeit. Was ist zu tun? Bachelorarbeit Was ist zu tun? Titelseite Zusammenfassung/Summary Inhaltsverzeichnis Abkürzungsverzeichnis Einleitung Material und Methoden Ergebnisse Diskussion Ausblick Literaturverzeichnis Danksagung

Mehr

2 Geschäftsprozesse realisieren

2 Geschäftsprozesse realisieren 2 Geschäftsprozesse realisieren auf fünf Ebenen Modelle sind vereinfachte Abbilder der Realität und helfen, Zusammenhänge einfach und verständlich darzustellen. Das bekannteste Prozess-Modell ist das Drei-Ebenen-Modell.

Mehr

Virtuelle Unternehmen

Virtuelle Unternehmen Martin Garrecht Virtuelle Unternehmen Entstehung, Struktur und Verbreitung in der Praxis PETER LANG Europäischer Verlag der Wissenschaften Gliederung Gliederung Abbildungsverzeichnis 11 Tabellenverzeichnis

Mehr

Standardisierte Vorgehensweisen und Regeln zur Gewährleistung von: Eindeutigkeit Schlussfolgerungen aus empirischen Befunden sind nur dann zwingend

Standardisierte Vorgehensweisen und Regeln zur Gewährleistung von: Eindeutigkeit Schlussfolgerungen aus empirischen Befunden sind nur dann zwingend Standardisierte Vorgehensweisen und Regeln zur Gewährleistung von: Eindeutigkeit Schlussfolgerungen aus empirischen Befunden sind nur dann zwingend oder eindeutig, wenn keine alternativen Interpretationsmöglichkeiten

Mehr

2. Datenvorverarbeitung

2. Datenvorverarbeitung Kurzreferat Das Ziel beim Clustering ist es möglichst gleich Datensätze zu finden und diese in Gruppen, sogenannte Cluster zu untergliedern. In dieser Dokumentation werden die Methoden k-means und Fuzzy

Mehr

2. Einfach drauf los schreiben

2. Einfach drauf los schreiben Die 3 Gebote 1. Schreiben 2. Einfach drauf los schreiben 3. Strukturieren 1 1. Schreiben 1.1 Sofort mit dem Schreiben beginnen! Entwicklung der Hypothesen Lesen & Exzerpieren Stimulierstellung, Versuchsdurchführung

Mehr

Fhr ZINKL Thomas ABSTRACT -1-

Fhr ZINKL Thomas ABSTRACT -1- ABSTRACT -1- Inhaltsverzeichnis 1 Abstract...3 1.1 Handlungsleitendes Interesse...3 1.2 Hypothese...3 1.3 Forschungsleitende Fragen...3 1.4 Methodendiskussion...4 1.5 Ziel der empirischen Untersuchung...5

Mehr

Kompetenzen Natur und Technik Check S2/S3

Kompetenzen Natur und Technik Check S2/S3 Institut für Bildungsevaluation Assoziiertes Institut der Universität Zürich Kompetenzen Natur und Technik Check S2/S3 Informationen für Lehrpersonen und Eltern 1. Wie sind die Ergebnisse dargestellt?

Mehr

Bibliographische Beschreibung

Bibliographische Beschreibung 4 Bibliographische Beschreibung Schmidtner, Siegfried: Produktgestaltung und Prozesskettenplanung für Nockenwellen Dissertation an der Fakultät für Maschinenbau und Verfahrenstechnik der Technischen Universität

Mehr

Ministerium für Schule und Weiterbildung des Landes NRW

Ministerium für Schule und Weiterbildung des Landes NRW Ministerium für Schule und Weiterbildung des Landes NRW Ergebnisse der Vergleichsarbeiten (VERA), Klasse 3, für das Land Nordrhein-Westfalen im Jahr 2007 21. August 2007 Am 8. und 10. Mai 2007 wurden in

Mehr

Vorgehensweise bei der Erstellung. von Hausarbeiten (Bachelorarbeiten)

Vorgehensweise bei der Erstellung. von Hausarbeiten (Bachelorarbeiten) Leuphana Universität Lüneburg Institut für Bank-, Finanz- und Rechnungswesen Abt. Rechnungswesen und Steuerlehre Vorgehensweise bei der Erstellung von Hausarbeiten (Bachelorarbeiten) I. Arbeitsschritte

Mehr

Der Forschungsprozess in der Quantitativen Sozialforschung. Crash-Kurs

Der Forschungsprozess in der Quantitativen Sozialforschung. Crash-Kurs Der Forschungsprozess in der Quantitativen Sozialforschung Eine jede empirische Studie ist ein PROZESS. Definition: Unter PROZESS ist der Ablauf von Strukturen zu verstehen. Definition: Unter STRUKTUR

Mehr

Grundlegende Eigenschaften von Punktschätzern

Grundlegende Eigenschaften von Punktschätzern Grundlegende Eigenschaften von Punktschätzern Worum geht es in diesem Modul? Schätzer als Zufallsvariablen Vorbereitung einer Simulation Verteilung von P-Dach Empirische Lage- und Streuungsparameter zur

Mehr

Markenführung in der Bundesliga

Markenführung in der Bundesliga Berichte aus der Betriebswirtschaft Marvin Karczewski Markenführung in der Bundesliga Eine empirische Untersuchung kausaler Beziehungen zur Wirkung identitätsorientierter Markenführung bei professionellen

Mehr

Objektorientierte Modellierung (1)

Objektorientierte Modellierung (1) Objektorientierte Modellierung (1) Die objektorientierte Modellierung verwendet: Klassen und deren Objekte Beziehungen zwischen Objekten bzw. Klassen Klassen und Objekte Definition Klasse Eine Klasse ist

Mehr

WS 2009/10. Diskrete Strukturen

WS 2009/10. Diskrete Strukturen WS 2009/10 Diskrete Strukturen Prof. Dr. J. Esparza Lehrstuhl für Grundlagen der Softwarezuverlässigkeit und theoretische Informatik Fakultät für Informatik Technische Universität München http://www7.in.tum.de/um/courses/ds/ws0910

Mehr

Klausur Ingenieurpsychologie Sommersemester 2016

Klausur Ingenieurpsychologie Sommersemester 2016 Prüfungsinfos Klausur Ingenieurpsychologie Sommersemester 2016 Psychologie Alle anderen Zeit Zeit: 10.08.2016, 11:10 Uhr Ort HSZ/02/E POT/81/H Dauer 90 min 60 min Inhalte Vorlesung + Seminar Vorlesung

Mehr

Gemeinsam einsam fernsehen

Gemeinsam einsam fernsehen Alexander Blicker-Dielmann Gemeinsam einsam fernsehen Eine Untersuchung zum Einfluss sozialer Hinweisreize auf die Filmrezeption Diplomica Verlag Alexander Blicker-Dielmann Gemeinsam einsam fernsehen:

Mehr

Die Wirkungsweise des Talentförderprogramms des DFB und die Auswirkungen auf den deutschen Profifußball

Die Wirkungsweise des Talentförderprogramms des DFB und die Auswirkungen auf den deutschen Profifußball Die Wirkungsweise des Talentförderprogramms des DFB und die Auswirkungen auf den deutschen Profifußball - Eine Untersuchung der Zeiträume vor und nach Einführung der DFB- Talentförderung zur Überprüfung

Mehr

WAHRNEHMUNG UND NACHWEIS NIEDRIGER ELEKTRISCHER LEISTUNG. FernUniversität Universitätsstrasse 1 D Hagen, GERMANY. 1.

WAHRNEHMUNG UND NACHWEIS NIEDRIGER ELEKTRISCHER LEISTUNG. FernUniversität Universitätsstrasse 1 D Hagen, GERMANY. 1. WAHRNEHMUNG UND NACHWEIS NIEDRIGER ELEKTRISCHER LEISTUNG Eugen Grycko 1, Werner Kirsch 2, Tobias Mühlenbruch 3 1,2,3 Fakultät für Mathematik und Informatik FernUniversität Universitätsstrasse 1 D-58084

Mehr

Diagnostik und Personalauswahl mit computergestützten Problemlöseszenarien?

Diagnostik und Personalauswahl mit computergestützten Problemlöseszenarien? Diagnostik und Personalauswahl mit computergestützten Problemlöseszenarien? Zur Kriteriumsvalidität von Problemlöseszenarien und Intelligenztests von Martin Kersting Hogrefe Verlag für Psychologie Göttingen

Mehr

Dynamisches Huffman-Verfahren

Dynamisches Huffman-Verfahren Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über

Mehr

Der Lehrer als Experte

Der Lehrer als Experte Rainer Bromme Der Lehrer als Experte Zur Psychologie des professionellen Wissens Verlag Hans Huber Bern Göttingen Toronto INHALTSVERZEICHNIS 1 Einführung 1 Die Entwicklung der Lehrerkognitionsforschung

Mehr

Epistemische Modalität

Epistemische Modalität Marion Krause Epistemische Modalität Zur Interaktion lexikalischer und prosodischer Marker. Dargestellt am Beispiel des Russischen und des Bosnisch-Kroatisch-Serbischen 2007 Harrassowitz Verlag Wiesbaden

Mehr

Kinga Szűcs Friedrich-Schiller-Universität Jena Fakultät für Mathematik und Informatik Abteilung Didaktik

Kinga Szűcs Friedrich-Schiller-Universität Jena Fakultät für Mathematik und Informatik Abteilung Didaktik Die Stufentheorie von Piaget Kinga Szűcs Friedrich-Schiller-Universität Jena Fakultät für Mathematik und Informatik Abteilung Didaktik 14.04.2016 Hintergrund Die umfassendste und bedeutendste Theorie des

Mehr

IT Mitarbeiter Identifikation mit der Unternehmensmarke als strategischer Erfolgsfaktor

IT Mitarbeiter Identifikation mit der Unternehmensmarke als strategischer Erfolgsfaktor Wirtschaft Marcel Piller IT Mitarbeiter Identifikation mit der Unternehmensmarke als strategischer Erfolgsfaktor Wie kann eine hohe IT Mitarbeiter Identifikation erreicht werden? Masterarbeit Executive

Mehr

Schlusswort Einen wissenschaftlichen Text kann man schließen

Schlusswort Einen wissenschaftlichen Text kann man schließen Schlusswort Einen wissenschaftlichen Text kann man schließen: mit einem Fazit (nach jedem größeren Kapitel des Hauptteils oder nur nach dem ganzen Hauptteil); mit Schlussfolgerungen; mit einem Fazit und

Mehr

Ein- und Zweistichprobentests

Ein- und Zweistichprobentests (c) Projekt Neue Statistik 2003 - Lernmodul: Ein- Zweistichprobentests Ein- Zweistichprobentests Worum geht es in diesem Modul? Wiederholung: allgemeines Ablaufschema eines Tests Allgemeine Voraussetzungen

Mehr

Nadine Löw. Organisatorische Wandlungsfähigkeit als Wettbewerbsvorteil und Erfolgsfaktor. Eine empirische Untersuchung. WiKu

Nadine Löw. Organisatorische Wandlungsfähigkeit als Wettbewerbsvorteil und Erfolgsfaktor. Eine empirische Untersuchung. WiKu Nadine Löw Organisatorische Wandlungsfähigkeit als Wettbewerbsvorteil und Erfolgsfaktor Eine empirische Untersuchung WiKu IX Geleitwort Vorwort Abbildungsverzeichnis Tabellenverzeichnis Abkürzungsverzeichnis

Mehr

Allgemeine Vorgaben zur Gestaltung der Bachelorarbeit. Studiengang Bauphysik. Prof. Dr. Karl Georg Degen Bauphysik und Akustik

Allgemeine Vorgaben zur Gestaltung der Bachelorarbeit. Studiengang Bauphysik. Prof. Dr. Karl Georg Degen Bauphysik und Akustik Prof. Dr. Karl Georg Degen Bauphysik und Akustik Schellingstrasse 24 D-70174 T +49 (0)711 8926 2795 F +49 (0)711 8926 2761 www.hft-stuttgart.de karl.degen@hft-stuttgart.de Studiengang Bauphysik Allgemeine

Mehr

STUDIE: Psychologische Verfahren der externen Personalauswahl aus Sicht der Bewerber

STUDIE: Psychologische Verfahren der externen Personalauswahl aus Sicht der Bewerber STUDIE: Psychologische Verfahren der externen Personalauswahl aus Sicht der Bewerber personnel insight Deinhardplatz 3 56068 Koblenz Tel.: 0261 9213900 nicole.broockmann@personnel-insight.de Theoretischer

Mehr

Markenpersönlichkeit - Persönlichkeitsorientiertes Markenmanagement

Markenpersönlichkeit - Persönlichkeitsorientiertes Markenmanagement Wirtschaft Gérald Marolf Markenpersönlichkeit - Persönlichkeitsorientiertes Markenmanagement Vordiplomarbeit Universität Zürich Institut für Strategie und Unternehmensökonomik SS 2005 Semesterarbeit Lehrstuhl

Mehr

Gedächtnis. Extern gewonnene Informationen werden in drei Stufen verarbeitet:

Gedächtnis. Extern gewonnene Informationen werden in drei Stufen verarbeitet: Gedächtnis Gedächtnis Extern gewonnene Informationen werden in drei Stufen verarbeitet: Aufnahme in das Arbeitsgedächtnis ( Kurzzeitgedächtnis ) Abgleich mit langfristig gespeicherten Strukturen Integration

Mehr

Ministerium für Schule und Weiterbildung. Ergebnisse der Vergleichsarbeiten (VERA), Klasse 3, 2009

Ministerium für Schule und Weiterbildung. Ergebnisse der Vergleichsarbeiten (VERA), Klasse 3, 2009 Ministerium für Schule und Weiterbildung Ergebnisse der Vergleichsarbeiten (VERA), Klasse 3, 2009 4. September 2009 Am 12. und 14. Mai 2009 wurden in Nordrhein-Westfalen zum dritten Mal in den dritten

Mehr

Abstract. Zielsetzung der Arbeit und Methode

Abstract. Zielsetzung der Arbeit und Methode Abstract Zielsetzung der Arbeit und Methode Eine Grundaufgabe des Offiziers ist die Weiterbildung in Bezug auf seine eigene Person, und ebenso in Bezug auf seine Untergebenen. Die schnelllebige Zeit von

Mehr

1 Grundprinzipien statistischer Schlußweisen

1 Grundprinzipien statistischer Schlußweisen Grundprinzipien statistischer Schlußweisen - - Grundprinzipien statistischer Schlußweisen Für die Analyse zufallsbehafteter Eingabegrößen und Leistungsparameter in diskreten Systemen durch Computersimulation

Mehr

Universität [C% München

Universität [C% München der Bundeswehr Universität [C% München Unternehmensinterne Ideenwettbewerbe als Instrument des Ideenmanagements - Gestaltung und Potential der Nutzung für organisatorischen Wandel Daniel Klein V Abbildungsverzeichnis

Mehr

Formulierungshilfen für das wissenschaftliche Schreiben

Formulierungshilfen für das wissenschaftliche Schreiben Formulierungshilfen für das wissenschaftliche Schreiben 1. Einleitendes Kapitel 1.1.1 Einen Text einleiten und zum Thema hinführen In der vorliegenden Arbeit geht es um... Schwerpunkt dieser Arbeit ist...

Mehr

2 Elektrischer Stromkreis

2 Elektrischer Stromkreis 2 Elektrischer Stromkreis 2.1 Aufbau des technischen Stromkreises Nach der Durcharbeitung dieses Kapitels haben Sie die Kompetenz... Stromkreise in äußere und innere Abschnitte einzuteilen und die Bedeutung

Mehr

Inhaltsverzeichnis. Abbildungsverzeichnis 9. Tabellenverzeichnis Einleitung Theoretischer Hintergrund 21. Inhaltsverzeichnis 1

Inhaltsverzeichnis. Abbildungsverzeichnis 9. Tabellenverzeichnis Einleitung Theoretischer Hintergrund 21. Inhaltsverzeichnis 1 Inhaltsverzeichnis 1 Inhaltsverzeichnis Abbildungsverzeichnis 9 Tabellenverzeichnis 14 1 Einleitung 17 2 Theoretischer Hintergrund 21 2.1 Das Auftreten von falschen Erinnerungen... 21 2.2 Der Prozess des

Mehr

Sozialwissenschaftliche Methoden und Methodologie. Begriffe, Ziele, Systematisierung, Ablauf. Was ist eine Methode?

Sozialwissenschaftliche Methoden und Methodologie. Begriffe, Ziele, Systematisierung, Ablauf. Was ist eine Methode? Sozialwissenschaftliche Methoden und Methodologie WiSe 2007/ 08 Prof. Dr. Walter Hussy Veranstaltung 1 Begriffe, Ziele, Systematisierung, Ablauf 24.01.2008 1 Was ist eine Methode? Eine Methode ist eine

Mehr

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/467 Ernst W. Mayr

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/467 Ernst W. Mayr Die so genannte Gütefunktion g gibt allgemein die Wahrscheinlichkeit an, mit der ein Test die Nullhypothese verwirft. Für unser hier entworfenes Testverfahren gilt ( ) k np g(n, p) = Pr p [T K] = Pr p

Mehr

Was ist ein Test? Grundlagen psychologisch- diagnostischer Verfahren. Rorschach-Test

Was ist ein Test? Grundlagen psychologisch- diagnostischer Verfahren. Rorschach-Test Was ist ein Test? Ein Test ist ein wissenschaftliches Routineverfahren zur Untersuchung eines oder mehrerer empirisch abgrenzbarer Persönlichkeitsmerkmale mit dem Ziel einer möglichst quantitativen Aussage

Mehr

Allgemeine Psychologie Denken und Sprache

Allgemeine Psychologie Denken und Sprache Allgemeine Psychologie Denken und Sprache von Sieghard Beller und Andrea Bender GOTTINGEN BERN WIEN PARIS OXFORD PRAG TORONTO CAMBRIDGE, MA AMSTERDAM KOPENHAGEN STOCKHOLM Vorwort 11 1 Einleitung 13 1.1

Mehr

Schülerexperiment: Untersuchung von Stromstärken und Spannungen in Reihen- und Parallelschaltungen

Schülerexperiment: Untersuchung von Stromstärken und Spannungen in Reihen- und Parallelschaltungen Schülerexperiment: Untersuchung von Stromstärken und Spannungen in Reihen- und Parallelschaltungen Stand: 26.08.2015 Jahrgangsstufen 8 Fach/Fächer Benötigtes Material Physik Stecksysteme oder andere Schülerexperimentiersysteme

Mehr

Logistik im Kontext des ausländischen Markteintritts

Logistik im Kontext des ausländischen Markteintritts Michael Bohn Logistik im Kontext des ausländischen Markteintritts Entwicklung von Gestaltungsempfehlungen für den ausländischen Markteintritt unter besonderer Berücksichtigung der Erfolgskomponente Logistik

Mehr

Hans-Werner Wahl Vera Heyl. Gerontologie - Einführung und Geschichte. Verlag W. Kohlhammer

Hans-Werner Wahl Vera Heyl. Gerontologie - Einführung und Geschichte. Verlag W. Kohlhammer Hans-Werner Wahl Vera Heyl Gerontologie - Einführung und Geschichte Verlag W. Kohlhammer Vorwort 9 1 Alter und Alternsforschung: Das junge gesellschaftliche und wissenschaftliche Interesse am Alter 12

Mehr

Christian Vinck Die Entwicklung einer Balanced Scorecard für eine Non-Profit-Organisation: Am Beispiel des Deutschen Tennis Bundes e. V.

Christian Vinck Die Entwicklung einer Balanced Scorecard für eine Non-Profit-Organisation: Am Beispiel des Deutschen Tennis Bundes e. V. Christian Vinck Die Entwicklung einer Balanced Scorecard für eine Non-Profit-Organisation: Am Beispiel des Deutschen Tennis Bundes e. V. XIII Inhaltsverzeichnis A Einleitung 1 1 Einführung in die Forschungsthematik...

Mehr

Wissen sichtbar machen

Wissen sichtbar machen Wissen sichtbar machen Wissensmanagement mit Mapping- Techniken herausgegeben von Heinz Mandl und Frank Fischer Hogrefe Verlag für Psychologie Göttingen Bern Toronto Seattle Inhaltsverzeichnis I Zur Einführung

Mehr

Effizienz in der Wortschatzvermittlung

Effizienz in der Wortschatzvermittlung Neda Teymoortash Effizienz in der Wortschatzvermittlung Eine vergleichende experimentelle Untersuchung zur Effektivität dreier Wortschatzvermittlungskonzepte für den Fremdsprachenunterricht: Suggestopädie,

Mehr

Diplomarbeit. Modellierung von Einspeiseprofilen der Photovoltaik als Eingangsgröße für Netzberechnungen. Michael Schedler

Diplomarbeit. Modellierung von Einspeiseprofilen der Photovoltaik als Eingangsgröße für Netzberechnungen. Michael Schedler Diplomarbeit Modellierung von Einspeiseprofilen der Photovoltaik als Eingangsgröße für Netzberechnungen Michael Schedler Zusammenfassung Ziele der Diplomarbeit Ziel der Diplomarbeit ist es die Einflussgrößen,

Mehr

Schülerexperiment: Messen elektrischer Größen und Erstellen von Kennlinien

Schülerexperiment: Messen elektrischer Größen und Erstellen von Kennlinien Schülerexperiment: Messen elektrischer Größen und Erstellen von Kennlinien Stand: 26.08.2015 Jahrgangsstufen 7 Fach/Fächer Natur und Technik/ Schwerpunkt Physik Benötigtes Material Volt- und Amperemeter;

Mehr

Hinweise zum Erstellen eines Exposés für die Abschlussarbeit

Hinweise zum Erstellen eines Exposés für die Abschlussarbeit Hinweise zum Erstellen eines Exposés für die Abschlussarbeit Stand: 12.10.2016 Lehrstuhl für Ökonomik des Gartenbaus und Landschaftsbaus 1. Struktur des Exposés Ihr Exposé sollte 6-8 Seiten umfassen und

Mehr

Die Theorie von Jean Piaget (2.5.) 1. Phasen der kognitiven Entwicklung 2. Annahmen zum Prozess der Entwicklung 3. Pädagogische Anwendung

Die Theorie von Jean Piaget (2.5.) 1. Phasen der kognitiven Entwicklung 2. Annahmen zum Prozess der Entwicklung 3. Pädagogische Anwendung Die Theorie von Jean Piaget (2.5.) 1. Phasen der kognitiven Entwicklung 2. Annahmen zum Prozess der Entwicklung 3. Pädagogische Anwendung Piagets Phasentheorie: Grundlegendes Strukturalistische Annahmen

Mehr

Zaubern im Mathematikunterricht

Zaubern im Mathematikunterricht Zaubern im Mathematikunterricht 0011 0010 1010 1101 0001 0100 1011 Die Mathematik als Fachgebiet ist so ernst, dass man keine Gelegenheit versäumen sollte, dieses Fachgebiet unterhaltsamer zu gestalten.

Mehr

A Verlag im Internet

A Verlag im Internet Ökonomische, ökologische und soziale Funktionen von Agrotourismus für Schulkinder in Deutschland und in Polen am Beispiel der ausgewählten Regionen im Land Brandenburg/Berlin und in der Region Wielkopolska/Lubuskie

Mehr

Narrative Kompetenz in der Fremdsprache Englisch

Narrative Kompetenz in der Fremdsprache Englisch Fremdsprachendidaktik inhalts- und lernerorientiert / Foreign Language Pedagogy - content- and learneroriented 27 Narrative Kompetenz in der Fremdsprache Englisch Eine empirische Studie zur Ausprägung

Mehr

Schulinternes Curriculum Physik

Schulinternes Curriculum Physik Schulinternes Curriculum Physik Jahrgangsstufe Kontexte Inhalte Vorschläge für zentrale Versuche Konzeptbezogene Kompetenzen Prozessbezogene Kompetenzen 8 Elektrizität messen, verstehen, anwenden Alltagserfahrungen

Mehr

Kombinatorik mit dem Dominospiel (Klasse 4)

Kombinatorik mit dem Dominospiel (Klasse 4) Kombinatorik mit dem Dominospiel (Klasse 4) Alexandra Thümmler Einführung: Kombinatorik ist die Kunst des geschickten Zählens. In den Bildungsstandards werden kombinatorische Aufgaben inhaltlich dem Bereich

Mehr

Multiple Repräsentationen, Verständnis physikalischer Experimente und

Multiple Repräsentationen, Verständnis physikalischer Experimente und Multiple Repräsentationen, Verständnis physikalischer Experimente und kognitive Aktivierung: Ein Beitrag zur Entwicklung der Aufgabenkultur Dissertation zur Erlangung des akademischen Grades eines Doktors

Mehr

Theorien, Methoden und Begriffe oder Rezeptwissen?

Theorien, Methoden und Begriffe oder Rezeptwissen? Theorien, Methoden und Begriffe oder Rezeptwissen? Zielperspektive Pädagogische Handlungskompetenz These: Diese (praktische) Handlungskompetenz ist nicht einfach ein Wissensvorrat, der sich in Verhaltensregeln

Mehr

Kundenrückgewinnung. Sieben Prinzipien zum Erfolg

Kundenrückgewinnung. Sieben Prinzipien zum Erfolg Wirtschaft Carlo Morhard Kundenrückgewinnung. Sieben Prinzipien zum Erfolg Masterarbeit Kundenrückgewinnung Sieben Prinzipien zum Erfolg Autor: Dipl.-Betriebsw. (FH) Carlo Morhard Master Thesis am Zentrum

Mehr

Marco Vannotti (Autor) Die Zusammenhänge zwischen Interessenkongruenz, beruflicher Selbstwirksamkeit und verwandten Konstrukten

Marco Vannotti (Autor) Die Zusammenhänge zwischen Interessenkongruenz, beruflicher Selbstwirksamkeit und verwandten Konstrukten Marco Vannotti (Autor) Die Zusammenhänge zwischen Interessenkongruenz, beruflicher Selbstwirksamkeit und verwandten Konstrukten https://cuvillier.de/de/shop/publications/2438 Copyright: Cuvillier Verlag,

Mehr

EF Q1 Q2 Seite 1

EF Q1 Q2 Seite 1 Folgende Kontexte und Inhalte sind für den Physikunterricht der Jahrgangsstufe 8 verbindlich. Fakultative Inhalte sind kursiv dargestellt. Die Versuche und Methoden sind in Ergänzung zum Kernlehrplan als

Mehr

Inhaltsverzeichnis. Kurzfassung. Abstract

Inhaltsverzeichnis. Kurzfassung. Abstract Inhaltsverzeichnis Kurzfassung Abstract Inhaltsverzeichnis iii v vii 1 Einleitung 1 1.1 Problemstellung und Einordnung der Arbeit 1 1.2 Lösungsansatz 7 L3 Verwandte Arbeiten S 1.3.1 Datenbank-Suchmaschmen

Mehr

Der Einfluss operativer und strategischer Planungs- und Kontrollinstrumente auf den Erfolg mittelständischer Unternehmen

Der Einfluss operativer und strategischer Planungs- und Kontrollinstrumente auf den Erfolg mittelständischer Unternehmen Lars Osthoff Der Einfluss operativer und strategischer Planungs- und Kontrollinstrumente auf den Erfolg mittelständischer Unternehmen Eine panelökonometrische Analyse Rainer Hampp Verlag München und Mering

Mehr

Forschungsmethoden: Definition

Forschungsmethoden: Definition Forschungsmethoden: Definition Unter Forschungsmethoden versteht man die generelle Vorgehensweise beim Aufstellen der Fragestellung, bei der Planung, der Durchführung und der Auswertung einer Untersuchung.

Mehr

Werte und Bürgerschaftliches Engagement Perspektiven für Familie und Religion

Werte und Bürgerschaftliches Engagement Perspektiven für Familie und Religion Werte und Bürgerschaftliches Engagement Perspektiven für Familie und Religion Eine vergleichende Studie zu familiären und religiösen Werten sozial engagierter Bürger in der Bundesrepublik Deutschland und

Mehr

Inhaltsverzeichnis Tabellenverzeichnis Abbildungsverzeichnis Danksagung... 9

Inhaltsverzeichnis Tabellenverzeichnis Abbildungsverzeichnis Danksagung... 9 Inhaltsverzeichnis Inhaltsverzeichnis... 3 Tabellenverzeichnis... 6 Abbildungsverzeichnis... 8 Danksagung... 9 1 Einleitung... 15 1.1 Konkretisierung der Fragestellung... 21 1.2 Aufbau der Arbeit... 23

Mehr

Controlling in Nonprofit- Organisationen

Controlling in Nonprofit- Organisationen Christian Horak Controlling in Nonprofit- Organisationen Erfolgsfaktoren und Instrumente 2. Auflage DeutscherUniversitätsVerlag GABLER VIEWEG WESTDEUTSCHER VERLAG INHALTSVERZEICHNIS 0 Einleitung 1 0.0

Mehr

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Referate halten im Unterricht. Das komplette Material finden Sie hier:

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Referate halten im Unterricht. Das komplette Material finden Sie hier: Unterrichtsmaterialien in digitaler und in gedruckter Form Auszug aus: Das komplette Material finden Sie hier: School-Scout.de Titel: Bestellnummer: 59017 Kurzvorstellung: Ein Referat zu gestalten und

Mehr

Diskutieren Sie aufbauend auf Lothar Krappmanns Überlegungen die Frage, was es heißen kann, aus soziologischer Perspektive Identität zu thematisieren?

Diskutieren Sie aufbauend auf Lothar Krappmanns Überlegungen die Frage, was es heißen kann, aus soziologischer Perspektive Identität zu thematisieren? Geisteswissenschaft Anonym Diskutieren Sie aufbauend auf Lothar Krappmanns Überlegungen die Frage, was es heißen kann, aus soziologischer Perspektive Identität zu thematisieren? Essay Friedrich-Schiller-Universität

Mehr

Entstehung und Verlauf des Forschungsprojekts...7

Entstehung und Verlauf des Forschungsprojekts...7 Inhaltsverzeichnis 1. Entstehung und Verlauf des Forschungsprojekts...7 2. Der Elternfragebogen... 10 2.1 Das methodische Vorgehen... 10 2.2 Die Ergebnisse des Elternfragebogens... 12 2.2.1 Trägerschaft

Mehr

1 Einleitung Erster Teil: Theoretischer Hintergrund Warum Mathematik? - Bedeutung des Faches Mathematik... 14

1 Einleitung Erster Teil: Theoretischer Hintergrund Warum Mathematik? - Bedeutung des Faches Mathematik... 14 Inhaltsverzeichnis 3 INHALTSVERZEICHNIS 1 Einleitung... 11 Erster Teil: Theoretischer Hintergrund... 14 2 Warum Mathematik? - Bedeutung des Faches Mathematik... 14 2.1 Sieben Gründe für den Mathematikunterricht

Mehr

Probeklausur für den Studiengang B-BPG-01-a, B-PV-01-1-a. Einführung in die Pflegewissenschaft

Probeklausur für den Studiengang B-BPG-01-a, B-PV-01-1-a. Einführung in die Pflegewissenschaft Probeklausur für den Studiengang B-BPG-01-a, B-PV-01-1-a Einführung in die Pflegewissenschaft für Dienstag, den 18.01.11 Sehr geehrte Studierende, wie vereinbart hier die Probeklausur zum Abschluss des

Mehr

Benutzerhandbuch für eine Software-Anwendung gestalten

Benutzerhandbuch für eine Software-Anwendung gestalten Benutzerhandbuch für eine Software-Anwendung gestalten Arbeitspapier zur Klärung der Zielvorgaben Inhaltsverzeichnis Inhaltsverzeichnis Inhaltsverzeichnis...2 1 Kriterien für ein gutes Benutzerhandbuch...3

Mehr

HPSG. Referat zu dem Thema Kongruenz im Englischen Von Anja Nerstheimer

HPSG. Referat zu dem Thema Kongruenz im Englischen Von Anja Nerstheimer HPSG Referat zu dem Thema Kongruenz im Englischen Von Anja Nerstheimer Gliederung Einleitung Kongruenz Allgemein Zwei Theorien der Kongruenz Probleme bei ableitungsbasierenden Kongruenztheorien Wie syntaktisch

Mehr

Teil: lineare Regression

Teil: lineare Regression Teil: lineare Regression 1 Einführung 2 Prüfung der Regressionsfunktion 3 Die Modellannahmen zur Durchführung einer linearen Regression 4 Dummyvariablen 1 Einführung o Eine statistische Methode um Zusammenhänge

Mehr

Prüfungen im Fach Biologie im Schuljahr 2013/14

Prüfungen im Fach Biologie im Schuljahr 2013/14 Prüfungen im Fach Biologie im Schuljahr 2013/14 (1) Grundlagen Qualifizierender Hauptschulabschluss Realschulabschluss Abitur Externenprüfungen (2) Anforderungen an Prüfungsaufgaben (3) Bewertung Zusammenstellung

Mehr

Gedächtnismodell. nach Büchel F. (2010). DELV Das eigene Lernen verstehen, S. 15 ff.

Gedächtnismodell. nach Büchel F. (2010). DELV Das eigene Lernen verstehen, S. 15 ff. Gedächtnismodell nach Büchel F. (2010). DELV Das eigene Lernen verstehen, S. 15 ff. Warum können wir uns gewisse Sachen besser und andere weniger gut merken und warum können wir uns an vermeintlich Gelerntes

Mehr

- Theoretischer Bezugsrahmen -

- Theoretischer Bezugsrahmen - Inhaltsverzeichnis 1. Leserführung 1 1.1. Teil 1: Der theoretische Bezugsrahmen... 1 1.2. Teil 2: Das Produkt... 1 1.3. Teil 3: Das Produkt in der Praxis... 2 1.4. Teil 4: Schlussfolgerungen... 2 2. Einleitung

Mehr

Informatische Modellbildung

Informatische Modellbildung Informatische Modellbildung Informatik als Wissenschaft von der Herstellung ausführbarer Modelle bzw. der Simulation künstlicher Welten hier: formale Methoden zur Präzisierung des Modellbegriffs Begriffsdefinition

Mehr

Studiengang Informatik der FH Gießen-Friedberg. Sequenz-Alignment. Jan Schäfer. WS 2006/07 Betreuer: Prof. Dr. Klaus Quibeldey-Cirkel

Studiengang Informatik der FH Gießen-Friedberg. Sequenz-Alignment. Jan Schäfer. WS 2006/07 Betreuer: Prof. Dr. Klaus Quibeldey-Cirkel Studiengang Informatik der FH Gießen-Friedberg Sequenz-Alignment Jan Schäfer WS 2006/07 Betreuer: Prof. Dr. Klaus Quibeldey-Cirkel Überblick Einführung Grundlagen Wann ist das Merkmal der Ähnlichkeit erfüllt?

Mehr

Hartmut Kasten. 4-6 Jahre. Entwicklungspsychologische Grundlagen

Hartmut Kasten. 4-6 Jahre. Entwicklungspsychologische Grundlagen Hartmut Kasten 4-6 Jahre Entwicklungspsychologische Grundlagen Beltz Verlag Weinheim und Basel Inhalt Geleitwort ll Einleitung 12 1 Der Übergang in den Kindergarten 14 1.1 Weshalb ist der Kindergarteneintritt

Mehr

Kapitel DB:IV (Fortsetzung)

Kapitel DB:IV (Fortsetzung) Kapitel DB:IV (Fortsetzung) IV. Logischer Datenbankentwurf mit dem relationalen Modell Das relationale Modell Integritätsbedingungen Umsetzung ER-Schema in relationales Schema DB:IV-45 Relational Design

Mehr

1. Theorie der Darstellungsebenen (E-I-S-Schema, E-I-S-Prinzip nach Jerome BRUNER)

1. Theorie der Darstellungsebenen (E-I-S-Schema, E-I-S-Prinzip nach Jerome BRUNER) 1. Theorie der Darstellungsebenen (E-I-S-Schema, E-I-S-Prinzip nach Jerome BRUNER) Nach BRUNER lassen sich drei Formen der Repräsentation von Wissen unterscheiden: 1. enaktive Repräsentation (Handlungen)

Mehr

Leitfaden zur Erstellung der Masterarbeit in der Erziehungswissenschaft Schwerpunkt Sozialpädagogik

Leitfaden zur Erstellung der Masterarbeit in der Erziehungswissenschaft Schwerpunkt Sozialpädagogik Stand: SoSe 204 Institut für Erziehungswissenschaft Arbeitsbereich Sozialpädagogik Georgskommende 33 4843 Münster Leitfaden zur Erstellung der Masterarbeit in der Erziehungswissenschaft Schwerpunkt Sozialpädagogik

Mehr

Nichtdeterministische Platzklassen

Nichtdeterministische Platzklassen Sommerakademie 2010 Rot an der Rot AG 1: Wieviel Platz brauchen Algorithmen wirklich? Nichtdeterministische Platzklassen Ulf Kulau August 23, 2010 1 Contents 1 Einführung 3 2 Nichtdeterminismus allgemein

Mehr

Wissenserwerb, Lernstrategien, Metakognition, Problemlösen

Wissenserwerb, Lernstrategien, Metakognition, Problemlösen Wissenserwerb, Lernstrategien, Metakognition, Problemlösen Wiederholung: Überblick über Lerntheorien und Einteilung des Gedächtnisses Wie ist Wissen gespeichert? Propositionen, Schemata, Skripts Metakognition

Mehr

Problemreduktion durch Transformation am Beispiel des. Erweiterten Euklidschen Algorithmus

Problemreduktion durch Transformation am Beispiel des. Erweiterten Euklidschen Algorithmus Problemreduktion durch Transformation am Beispiel des Erweiterten Euklidschen Algorithmus Wolfgang Windsteiger JKU Linz, A 4040 Linz, Austria Kurzfassung Transformation beschreibt im Wesentlichen die algorithmische

Mehr

Das Erste Staatsexamen in den Erziehungswissenschaften neue LPO I. Zur schriftlichen Prüfung in der Allgemeinen Pädagogik

Das Erste Staatsexamen in den Erziehungswissenschaften neue LPO I. Zur schriftlichen Prüfung in der Allgemeinen Pädagogik Das Erste Staatsexamen in den Erziehungswissenschaften neue LPO I Zur schriftlichen Prüfung in der Allgemeinen Pädagogik Inhaltliche Teilgebiete der Allgemeinen Pädagogik gemäß 32 LPO I a) theoretische

Mehr

Zusammenfassung Ergebnisse des Fragebogens Gesundheitskommunikation

Zusammenfassung Ergebnisse des Fragebogens Gesundheitskommunikation Institut für Umweltentscheidungen (IED) Consumer Behavior Zusammenfassung Ergebnisse des Fragebogens Gesundheitskommunikation Zuerst einmal nochmals vielen Dank, dass Sie unseren Fragebogen ausgefüllt

Mehr

Inhaltsverzeichnis. Vorwort

Inhaltsverzeichnis. Vorwort Vorwort V 1 Verhältnis der Sonderpädagogik zur Allgemeinen Pädagogik 1 Martin Sassenroth 1.1 Vorbemerkungen 1 1.2 Entstehungsgeschichte und Definitionen von Heil- und Sonderpädagogik 2 1.2.1 Sonderpädagogik

Mehr

Schreiben in Unterrichtswerken

Schreiben in Unterrichtswerken Europäische Hochschulschriften 1014 Schreiben in Unterrichtswerken Eine qualitative Studie über die Modellierung der Textsorte Bericht in ausgewählten Unterrichtswerken sowie den Einsatz im Unterricht

Mehr

Inhalt 1. Einleitung: Kontrollverlust durch Social Media? Unternehmenskommunikation als wirtschaftliches Handeln 21

Inhalt 1. Einleitung: Kontrollverlust durch Social Media? Unternehmenskommunikation als wirtschaftliches Handeln 21 Inhalt Vorwort 11 1. Einleitung: Kontrollverlust durch Social Media? 15 1.1 Forschungsinteresse: Social Media und Anpassungen des Kommunikationsmanagements 16 1.2 Vorgehensweise der Untersuchung 18 2.

Mehr