Die Modellierung von Strukturgleichungen. Grundlegende theoretische Konzepte und Anwendungen (EQS)

Größe: px
Ab Seite anzeigen:

Download "Die Modellierung von Strukturgleichungen. Grundlegende theoretische Konzepte und Anwendungen (EQS)"

Transkript

1 Die Modellierung von Strukturgleichungen Grundlegende theoretische Konzepte und Anwendungen (EQS) Manuskript zum Structural Equation Modeling und einer Anwendungsmöglichkeit (EQS) Sirko Kupper 1997

2 Inhaltsverzeichnis 0. VORBEMERKUNG EINLEITUNG GRUNDLEGENDE KONZEPTE Modellspezifikation Schätzung der Parameter Bewertung der Modellanpassung Modellmodifikation Interpretation Kommunikation Zusammenfassung der theoretischen Grundlagen EQS: PRAKTISCHE ANWENDUNG AN EINEM BEISPIEL Daten Modellspezifikation (Hypothetisiertes Modell der BDI Struktur) Bewertung der Modellanpassung Vorbereitende Analysen Prüfen der Stichprobenstatistik Behandlung der Nichtnormalität Testen des hypothetisierten Modells Durchführen der Parameterschätzung Statistische Signifikanz der Parameterschätzung Generalisierung und Modellmodifikation Testen der Invarianz über das Geschlecht hinweg ZUSAMMENFASSUNG LITERATURVERZEICHNIS

3 0. Vorbemerkung Die formale Struktur des vorliegenden Textes ist weitestgehend selbsterklärend, so daß sich im Grunde jegliche Vorbemerkungen erübrigen. Es soll jedoch, nicht zuletzt aus Gründen größerer Klarheit, auf zwei Besonderheiten aufmerksam gemacht werden: Die Notation s. M-S. x (d. h. siehe Manuskript-Seite x) stellt einen Bezug auf das vorliegende Manuskript selbst dar. Wichtige Textpassagen wurden durch Umrahmung und schraffierte Markierung hervorgehoben. Alle übrigen Abkürzungen orientieren sich an den konventionellen Richtlinien zur Manuskriptgestaltung. 1. Einleitung Das Modellieren von linearen Strukturgleichungen (Structural Equation Modeling, SEM) oder von sog. Kausalmodellen ist ein statistischer Ansatz, um Hypothesen über die Beziehungen zwischen beobachtbaren und nicht beobachtbaren, latenten Variablen zu testen. Sofern beobachtete (d. h. empirische) Daten vorliegen, können auch Beziehungen zwischen 2 nicht beobachtbaren, latenten Variablen getestet werden. Berechnungen zur statistischen Theorie, die dem SEM-Ansatz zugrundeliegt, wurden bereits zu Beginn der 70er Jahre durchgeführt (Jöreskog, 1973; Keesling, 1972; Wiley, 1973). Das steigende Interesse an dem SEM-Ansatz seit Beginn der 90er Jahre läßt sich en grosse durch zwei Entwicklungen nachweisen: zum einen wurden die Forschungsfragestellungen in den Sozial- und Verhaltenswissenschaften zunehmend komplexer (vgl. Hoyle, 1994; Reis & Stiller, 1992) einen weiteren Ausschlag für das wachsende Interesse gab das Erscheinen flexibler und benutzerfreundlicher Software (Bentler, 1992a: EQS; Jöreskog & Sörbom, 1993: LISREL 8 u.a.) 3

4 2. Grundlegende Konzepte Wie bereits eingeführt, stellt SEM eine statistische Methodologie dar. Mit Hilfe dieser Methodologie werden über einen hypothesen-testenden (d. h. konfirmatorischen oder bestätigenden) Ansatz a priori formulierte Kausalhypothesen zur Erklärung von Merkmalszusammenhängen geprüft (Bortz, 1993; Byrne, 1994). Herkömmliche statistische Ansätze, wie die Pfad-, Regressions- oder konfirmatorische Faktorenanalyse, können als Teilmodelle der linearen Strukturgleichungsmodelle angesehen werden. Das Hauptmerkmal linearer Strukturgleichungsmodelle, das gleichermaßen auch für die starke Verbreitung dieser Methode im Laufe der letzten 30 Jahre angesehen wird, ist die Berücksichtigung latenter Variablen (z. B. Depression, Einstellungen, Erziehungsstil). Die latenten, nicht beobachtbaren Variablen (s. M-S. 11) können nur über indirekte Indikatoren erfaßt werden (z. B. Fragebogenitems als Indikatoren für die latente Variable Depression ). 2.1 Modellspezifikation Dieser Abschnitt soll dazu genutzt werden, die spezifischen Eigenheiten des SEM-Ansatzes zu erläutern. Chronologisch betrachtet beginnt SEM mit der Spezifizierung eines Modells, mit dem die Anpassung der empirischen an eine theoretische Verteilung abgeschätzt werden soll. D. h. es soll überprüft werden, wie gut die Häufigkeit des Auftretens bestimmter beobachteter Werte (empirische Verteilung: Rohwertverteilung) mit der Häufigkeit des Auftretens dieser beobachteten Werte übereinstimmen würde, wenn die Anzahl der Werte unendlich groß wäre (theoretische Verteilung: z. B. Normalverteilung; vgl. Bild 1, s. M-S. 5). Mit anderen Worten soll aus einem empirischen Stichprobenbefund (d. h. aufgrund der Kenntnis von der Wahrscheinlichkeit eines bestimmten Ereignisses) die Verteilung und Ausprägung in der Grundgesamtheit theoretisch berechnet werden. Anpassung einer empirischen Verteilung an eine theoretische Verteilung Eine Stichprobe wird aus einer Grundgesamtheit nach dem Zufallsprinzip gezogen und soll als repräsentativ für diese gelten. Das Untersuchungsergebnis für diese eine Stichprobe soll nun auf die Grundgesamtheit, aus der sie stammt (und welche sie repräsentieren soll), übertragen werden. 4

5 Beispiel: 500 Jungen, 10 Jahre, 5. Schulklasse, werden mit einem Intelligenztest (z. B. HAWIK-R) untersucht (= Datenerhebung mit dem Fragebogen HAWIK-R). Diese 500 Jungen sollen als repräsentativ gelten für alle 10-jährigen Jungen, die in die 5. Klasse gehen. Die empirischen Ergebnisse aus der Intelligenzuntersuchung mit den 500 Jungen (z. B. 335 oder 67 % der Jungen haben Werte im Bereich von 87 bis 113 Wertpunkten erreicht = IQ ) sollen nun übertragen werden auf die Grundgesamtheit (67% aller 10-jährigen Jungen der 5. Schulklasse besitzen einen mittleren IQ im Bereich von ). Um diese Übertragung zu gewährleisten, werden statistische Prüf- und Analysemethoden eingesetzt (= Inferenzstatistik). Auf diese Methoden soll im Rahmen des vorliegenden Manuskripts nicht näher eingegangen werden. Interessierte Leser seien verwiesen auf Bortz (1993). In diesem Beispiel sind die Stichprobe = 500 Jungen, Grundgesamtheit = alle 10-jährigen Jungen der 5. Schulklasse, repräsentativ = die 500 Jungen sollen als Prototyp für alle 10-jährigen Jungen, die die 5. Klasse besuchen, stehen. Ein Modell ist zunächst einmal im allgemeinsten Sinne seiner statistischen Bedeutung eine Aussage zur Häufigkeit und Bedeutsamkeit der Beziehung zwischen Variablen. Modelle können im Kontext verschiedener analytischer Ansätze ganz verschiedene Formen annehmen: Bild 1 Darstellung einer empirischen Verteilung (links) und einer theoretischen Verteilung (rechts) Notation: f(x) = Häufigkeit mit der die beobachteten Werte x auftreten, x = beobachtete Werte (z. B. Werte von 81 Schülern in einer Leistungskontrolle), Mean (?, lies: My) = Mittelwert der Grundgesamtheit,? (lies: Sigma)= Standardabweichung in der Grundgesamtheit So wird ein Modell im Kontext korrelationsstatistischer Untersuchungen gewöhnlicherweise die ungerichtete Beziehung zwischen zwei Variablen 5

6 Bild 2 Darstellung der gerichteten Beziehung (Beispiel 1) und der ungerichteten Beziehung (Beispiel 2) Notation: X =Frühkindlicher Hirnschaden, Y=Hyperaktivität,Z 1= Pubertätsmagersucht, Z 2= Depression (s. Text) spezifizieren (ausgenommen die Modelle der semipartiellen oder kanonischen Korrelation). Ungerichtete Beziehung heißt, daß zwischen Variable Z 1 (z. B. Pubertätsmagersucht) und Variable Z 2 (z. B. Depression) ein Zusammenhang besteht. Es ist aber nicht bekannt, ob Z 1 die Ursache für Z 2 ist oder ob Z 2 die Ursache für Z 1 ist (Bild 2). In den Ansätzen der Multiplen Regression oder der Varianzanalyse (ANOVA) würden in den Modellen gerichtete Beziehungen zwischen Variablen spezifiziert werden (wobei die Direktionalität auch in diesen Ansätzen nicht statistisch getestet werden kann). Gerichtete Beziehung heißt, daß zwischen Variable X (Frühkindlicher Hirnschaden) und Y (Hyperaktivität) ein Zusammenhang besteht. Es ist bekannt, daß bei manchen Kindern X die Ursache für Y ist (siehe Bild 2). Eine Spezifikation bedeutet, daß das Modell formal ausgedrückt wird. Die Spezifikationen variieren ebenfalls über die verschiedenen statistischen Analysemethoden hinweg: Im Falle der einfachen Korrelation oder Korrelation 1. Ordnung enthält das einzige Modell, das spezifiziert werden kann, die einfache ungerichtete Beziehung zwischen 2 Variablen (Bild 2, s. M-S. 6). 6

7 Sofern die Varianzanalyse zur Verifikation komplexer Forschungshypothesen verwendet wird, ist eine explizite Modellspezifikation erforderlich (d. h. die üblichen Vergleiche zwischen den Standardmittelwertseffekten und Variableninteraktionen sind nicht ausreichend). Ein drittes Beispiel wäre die aufklärende (exploratorische) Faktorenanalyse (FA), bei der die Analyse ebenfalls nicht mit einem expliziten Modell beginnt. Die verschiedenen Entscheidungsvorgänge jedoch, wie z. B. zu extrahierende Faktorenanzahl, Extraktionsmethode oder Rotationsmethode, stellen bereits eine implizite Spezifikation von einem Modell dar. Exploratorische Faktorenanalyse Bei der Durchführung einer exploratorischen Faktorenanalyse wird unterstellt, daß zwischen den beobachteten Variablen Zusammenhänge bestehen und die Variablen daher als voneinander abhängig und bündelungsfähig angesehen werden können. Diese Bündel werden als Faktoren bezeichnet. Die Faktoren können somit als hinter den beobachtbaren Variablen stehende Größen verstanden werden, die den Zusammenhang zwischen bestimmten beobachteten Variablen repräsentieren. Etwas verkürzt kann die grundlegende Annahme der exploratorischen Faktorenanalyse wie folgt beschrieben werden: Jeder Wert einer beobachteten Variablen läßt sich als eine Linearkombination mehrerer (hypothetischer) Faktoren beschreiben. In mathematischen Termini hat die Linearkombination folgendes Aussehen: Legende: x j = a j1 p 1 + a j2 p a jn p n x j = alle Werte der beobachteten Variablen a jn = Faktorladung der Variable j p n = Faktoren Faktorladungen geben an wie stark der Zusammenhang zwischen einer beobachteten Variablen und einer latenten Variablen (d. h. Faktor) tatsächlich ist (vgl. auch Backhaus, Erichson, Plinke & Weiber, 1996, S. 190ff.). 7

8 Unterschied zwischen exploratorischer und konfirmatorischer Faktorenanalyse Der Forscher hat die Absicht, Strukturen in einem empirischen Datensatz zu erkennen. Zunächst besitzt der Forscher noch keine konkreten Vorstellungen über die Korrelationen (Zusammenhänge) zwischen den zu untersuchenden Variablen. Als Ursache dieser empirisch beobachteten Korrelationen werden lediglich hypothetische Faktoren als verursachend angesehen. Der Forscher besitzt keine genaue Kenntnis von diesen Faktoren. In diesem Fall wird eine exploratorische Faktorenanalyse angewendet. Es soll also etwas entdeckt werden (nämlich die Faktoren) und daraus hervorgehend Hypothesen entwickelt (generiert) werden. Wenn der Forscher jedoch bereits vorher (also a priori) konkrete Vorstellungen über mögliche hypothetische Faktoren besitzt (z. B. durch eine exploratorische Faktorenanalyse, aus Theorien oder anderen Forschungsuntersuchungen), werden Hypothesen über die Beziehung zwischen direkt beobachtbaren Variablen und den dahinter stehenden, nicht beobachtbaren Faktoren (latente Variablen) aufgestellt. Diese Hypothesen sollen sodann an einem empirischen Datensatz überprüft (d.h. getestet) werden. In diesem Fall wird eine konfirmatorische Faktorenanalyse angewendet. Es soll also etwas begründet werden (nämlich die Beziehung zwischen beobachteten und latenten Variablen) und daraus resultierend Hypothesen getestet werden. Sehr viel zentraler und wichtiger ist der Vorgang der Modellspezifikation im SEM-Ansatz. Schlußendlich kann im Grunde keinerart statistische Analyse (ob Varianzanalyse oder SEM) durchgeführt werden, ohne die Beziehung zwischen den zu analysierenden Variablen in einem Modell zu spezifizieren. Im Rahmen des SEM-Ansatzes führt die Modellspezifikation jedoch zu der Formulierung einer Behauptung über eine Menge von Parametern. Die Parameter, die eine Spezifikation erfordern, sind im Rahmen des SEM-Ansatzes Konstanten, welche die Art der Beziehung zwischen den Variablen kennzeichnen. Die Parameter werden gewöhnlicherweise als feste, restringierte oder freie Parameter spezifiziert. 8

9 Modellparameter im SEM-Ansatz Die festen Parameter werden nicht durch die Daten geschätzt, sondern a priori numerisch festgelegt. In der Regel besitzen die festen Parameter einen Wert von Null. (Falls zwischen 2 Variablen aufgrund einer exploratorischen Faktorenanalyse, Theorien oder anderer Forschungsuntersuchungen eine kausale Beziehung erwartet wird, so setzt man den entsprechenden Parameter auf 1.) Die restringierten Parameter sollen aus den Werten der beobachteten Variablen geschätzt werden, aber dabei genau dem Wert eines oder mehrerer anderer Parameter entsprechen. Weil der Forscher aufgrund einer exploratorischen Faktorenanalyse, Theorien oder anderer Forschungsuntersuchungen stark vermutet, daß z. B. Parameter F2 und F3 einen gleich hohen Einfluß auf die beobachtbare Variable V20 haben. Die freien Parameter werden aus den Werten der beobachteten Variablen (z. B. Items eines Fragebogens) geschätzt und sind jene Parameter, von denen der Untersucher glaubt, daß sie von Null abweichen. Wie gut nun das in dem Modell spezifizierte Muster von festen, restringierten oder freien Parametern mit den Varianzen und Kovarianzen der beobachteten Daten übereinstimmt, wird durch die verschiedenen Indizes für die Angemessenheit des Modells (z. B. CFI, GFI; s. M-S. 18ff.) angegeben, insbesondere durch den? 2 -Wert als statistischer Index (Overall Fit). Das Muster der festen, restringierten und freien Parameter definiert 2 Komponenten des allgemeinen linearen Strukturgleichungsmodells: a) das Strukturmodell und b) das Meßmodell (Bild 3, s. M-S. 11). Die graphische Darstellung eines Pfaddiagramms erfolgt immer mit Hilfe der folgenden Komponenten: a) Rechtecke b) Ellipsen c) Pfeile 9

10 ad a. Rechtecke werden dazu benutzt, um beobachtete Variablen zu kennzeichnen, welche sowohl für die latenten Variablen im Meßmodell oder die UV bzw. AV s im Strukturmodell Indikatoren sein können. ad b. Ellipsen oder Kreise werden dazu benutzt, latente Variablen (UV und AV) sowie Fehler der Vorhersage im Strukturmodell und Meßfehler im Meßmodell darzustellen. ad c. Pfeile werden dazu benutzt, Verbindungen zu kennzeichnen. Es gibt 2 Arten von Pfeilen: Gerade Pfeile, die nur in eine Richtung zeigen. Sie kennzeichnen die Richtung der Vorhersage von Prädiktor zu Outcome. Gebogene Pfeile, die an beiden Enden eine Pfeilspitze besitzen und ungerichtete Verbindungen kennzeichnen (z. B. Korrelationen). McCallum formulierte zusätzlich noch (Mac Callum, 1995, p. 24): Stark gebogene Pfeile, die an der gleichen Variablen beginnen und enden und somit die Varianz (d. h. die Kovarianz einer Variable mit sich selbst) kennzeichnen sollen. Im Pfaddiagramm ist die Strukturkomponente eines Modells gewöhnlicherweise so abgebildet, daß gerichtete Pfeile von links nach rechts verlaufen. Wenn die Meßkomponente in dem Diagramm enthalten ist, dann ist es notwendig, die Beziehung zwischen den Indikatoren und den latenten Variablen vertikal und horizontal anzuordnen, um eine Überschneidung mit den strukturellen Anteilen des Diagramms zu vermeiden. 10

11 Strukturmodell Meßmodell F1 Wie bereits oben erwähnt, müssen bei der Anwendung des SEM-Ansatzes auf einen konkreten Datensatz und eine spezielle Hypothesenstruktur 2 Modelle spezifiziert werden: das Strukturmodell und das Meßmodell. Das Strukturmodell ist die Komponente des allgemeinen Strukturgleichungsmodells, welche die Kausalbeziehungen zwischen den latenten Variablen vorgibt. Ein Strukturmodell enthält nur latente Variablen (z. B. Allgemeines SEM und EQS: Latente Variablen 1. Ordnung und 2. Ordnung bzw. LISREL: endogene und exogene latente Variablen) (vgl. Bild 3). Das Meßmodell ist jene Komponente des allgemeinen Modells, welche die Beziehungen zwischen den latenten Variablen und geeigneten Indikatorvariablen (mittels derer sich die latenten Variablen indirekt messen lassen) vorgibt. Ein Meßmodell enthält also direkt beobachtbare Variablen (Indikatorvariablen) und nicht beobachtbare, latente Variablen (= Faktoren, im Sinne der Faktorenanalyse) (vgl. auch Backhaus, Erichson, Plinke & Weiber, 1996, S. XX). F4 F1 F2 F3 F2 D1 D2 D3 Wenn die Meß- und Strukturkomponenten kombiniert werden, so ergibt sich ein umfassendes statistisches Modell, mit dessen Hilfe die Beziehungen zwischen Variablen meßfehlerfrei geschätzt werden können (Bild 4, s. M-S. 12). Latente Variablen F3 V1 V2 V3 V4 V5 V6 V7 V8 V9 E1 E2 E3 E4 E5 E6 E7 E8 E9 Bild 3 Separates Pfaddiagramm: das Strukturmodell (links) und das Meßmodell (rechts) Notation: F unbeobachteter (latenter) Faktor, V beobachtete Variable, D Residual-Fehler in Vorhersage des latenten Faktors, E Meßfehler Latente Variablen sind theoretisch hypothetisierte, unbeobachtbare Variablen. Im Sinne der Faktorenanalyse können latente Variablen als hinter den beobachtbaren Variablen stehende Größen begriffen werden. Sie repräsentieren den Zusammenhang zwischen den beobachteten Variablen. 11

12 Mathematisch präziser ausgedrückt werden die latenten Variablen im Rahmen des SEM-Ansatzes aus den Kovarianzen der beobachteten Variablen geschätzt. Die Kovarianz kann in diesem Fall als Kennzahl für den Grad verstanden werden, in dem die 2 oder mehr beobachteten Variablen miteinander variieren (d. h. voneinander abhängig sind). Die Kovarianz liefert über ihre Größe und Vorzeichen somit eine Angabe über das Ausmaß und die Richtung der Korrelation zwischen den 2 oder mehr Variablen. Aus diesem Grund wird der SEM-Ansatz auch nicht selten als Kovarianz- Strukturanalyse bezeichnet (s. Bentler, 1992b; Bollen, 1990; Breckler, 1990; Cudeck, 1989; Cudeck & Henley, 1991; Hu & Bentler; 1993; Hu, Bentler & Kano, 1992; Hoyle, 1995 u.a.). Hu & Bentler (1993) bezeichneten z. B. die Modellierung von Strukturgleichungen als Modellierung von Kovarianz- Strukturgleichungen. Diese Bezeichnung wäre mathematisch und statistisch betrachtet wesentlich korrekter. Beim praktischen Vorgehen (Software- Programme EQS oder LISREL) werden schließlich auch diese Kovarianzen oder Korrelationen zwischen den Indikatorvariablen berechnet. Aus den berechneten Kovarianzen können nun folgende Beziehungen bestimmt F4 F1 F2 F3 Bild 4 Vollständiges Strukturgleichungsmodell (Meß- und Strukturmodell) Notation: F unbeobachteter (latenter) Faktor, V beobachtete Variable, D Residual-Fehler in Vorhersage des latenten Faktor, E Meßfehler; F4 = latente Variable 2. Ordnung, F1,F2,F3 = latente Variablen 1. Ordnung 12

13 werden: a) zwischen latenten Variablen und ihren Indikatorvariablen, b) zwischen den latenten Variablen 1. und 2. Ordnung (z. B. Bild 4, s. M-S. 12: latente Variablen 1. Ordnung = F1, F2, F3; latente Variable 2. Ordnung: F4; vgl. auch Backhaus, Erichson, Plinke & Weiber, 1996, S. 326). Die latenten Variablen lassen sich nur über die Werte von indirekten Indikatorvariablen erfassen (z. B. Fragebogenitems als Indikatoren für die latente Variable Depression ). Aus dem Gesagten geht hervor, daß die beobachtbare Variable (im Bezug auf die latenten Variablen) als Indikatorvariable bezeichnet wird. Damit ist gemeint, daß die Werte der beobachteten Variable (Daten) als Indikator ( Anzeiger ) für die Werte der nicht beobachtbaren, latenten Variablen dienen. Die latenten Variablen sind ohne Einfluß eines Zufallfehlers eindeutig mit ihrer Indikatorvariablen (= direkt beobachtbare Variable) verbunden. Die Beziehungen zwischen den Variablen beobachtete oder latente im Strukturgleichungsmodell können in 3 Formen unterteilt werden: 1. Assoziation Bezeichnet eine Beziehung zwischen 2 Variablen, die innerhalb des Modells als nichtdirektional oder ungerichtet behandelt werden (Bild 2, s. M-S. 6). 2. Direkter Effekt (oder gerichteter Effekt) Bezeichnet die gerichtete Beziehung zwischen Variablen. In einem Modell charakterisiert jeder direkte Effekt die Beziehung zwischen einer unabhängigen (UV) und abhängigen Variablen (AV), obgleich die AV in dem einen direkten Effekt die UV in einem anderen sein kann (Bild 5, s. M-S. 14). 3. Indirekter Effekt (oder ungerichteter Effekt) Bezeichnet die Eigenschaft, daß ein und dieselbe Variable sowohl als UV als auch als AV simultan fungieren kann. Der indirekte Effekt von UV auf AV 13

14 erfolgt durch eine Mediatorvariable (MV, oder vermittelnde Variable). Im Falle von nur einer Mediatorvariable wäre die MV eine AV in Bezug auf die UV, aber eine UV in Bezug auf die AV. Auf diese Art und Weise beinhaltet der einfachste indirekte Effekt zwei direkte Effekte. Beispiel: Wenn x (UV) einen direkten Effekt auf y (AV) hat und y (UV) einen direkten Effekt auf z (AV), so hat x einen indirekten Effekt auf z durch den Mediator y (Bild 5). Die Summe der direkten und indirekten Effekte einer UV auf eine AV wird als totaler Effekt einer UV bezeichnet. Eine weitere grundsätzliche Überlegung bei der Spezifikation von Modellen im Rahmen des SEM-Ansatzes ist die Identifikation. Identifikation bezeichnet die Beziehung zwischen der Information, die geschätzt werden soll (= freie Parameter, d. h. Varianzen und Kovarianzen der zu schätzenden Modellparameter) und der Information, aus welcher diese freien Parameter geschätzt werden sollen (= Varianzen und Kovarianzen der empirischen Werte der Indikatorvariablen). Das Modell gilt als genau richtig identifiziert, wenn für die Schätzung jedes freien Parameters genau ein empirischer Wert einer Indikatorvariablen x direkter Effekt y y direkter Effekt z1, z2 x indirekter Effekt z1, z2 Bild 5 Direkter und indirekter Effekt zwischen latenten und beobachteten Daten Notation:x= unabhängige Variable, y= Mediatorvariable, z 12=abhängige Variablen z1 X Y z2 14

15 vorliegt (mit Freiheitsgraden, F G = 0). Z. B. aus den empirischen Varianzen und Kovarianzen von 4 empirischen Werten der Indikatorvariablen sollen 4 freie Parameter geschätzt werden (F G = 4-4 = 0). Das Modell ist überidentifiziert, wenn für die Schätzung jedes freien Parameters mehrere empirische Werte einer Indikatorvariablen vorliegen (mit F G = [beobachtete Varianzen + Kovarianzen] - Anzahl der freien Parameter). Z. B. aus 21 empirischen Varianzen und Kovarianzen sollen 4 freie Parameter geschätzt werden (F G = 21-4 = 17) Das Modell ist unteridentifiziert, wenn für die Schätzung jedes freien Parameters nicht genau ein oder mehrere empirische Werte einer Indikatorvariablen vorliegen (mit F G = [beobachtete Varianzen + Kovarianzen] - Anzahl der freien Parameter). Z. B. aus 3 empirischen Varianzen und Kovarianzen sollen 4 freie Parameter geschätzt werden (F G = 3-4 = -1). Aus dem Gesagten ergibt sich eine wichtige Modell-Restriktion: Ein zu schätzendes Modell muß entweder genau identifiziert oder überidentifiziert sein. Im Rahmen praktischer Anwendungen wird immer eine Überidentifikation angestrebt. Die Bestimmung des Identifikationsstatus kann mitunter sehr schwierig sein. Software- Programme, wie z. B. EQS, geben Warnungen an den Benutzer, sobald sie auf unteridentifizierte Modelle treffen. Die Software-Programme geben jedoch nicht immer die Ursache bzw. Lokalisation des diagnostizierten Identifikationsproblems an. Dies kann sehr irreleitend sein, weil nämlich häufig die Ursache in den Besonderheiten der Daten und nicht in der Fehlspezifikation des Modells liegt (vgl. MacCallum, 1995; Chou & Bentler, 1995). Es sollte insgesamt deutlich geworden sein, daß Korrelationsstatistik, Multiple Regressionsanalyse, Varianzanalyse und Faktorenanalyse selbst als Strukturgleichungsmodelle zu bezeichnen sind (Tanaka et al., 1990). Hinsichtlich dieser Betrachtungsweise ist SEM ein sehr allgemeines lineares statistisches Modell, welches zur Beurteilung vieler Forschungshypothesen und Interessen der Sozialwissenschaftler genutzt werden kann. 15

16 2.2 Schätzung der Parameter Die freien und restringierten Parameter sollen aus der Menge der beobachteten Daten geschätzt werden. Auf dem einfachsten vorstellbaren Niveau der einfach-strukturierten Quadratmethoden können die Varianzanalyse oder die Multiple Regressionsanalyse zur Schätzung herangezogen werden. Zu bevorzugen sind jedoch iterative Methoden wie die Maximum-Likelihood- Methode oder die Methoden der quadrierten Kleinsten-Quadrate (vgl. Klauer, 1996, S. 101ff.; M-S. 18). Iterative Methoden lassen sich charakterisieren als schrittweise Annäherungen an eine akzeptable Schätzungslösung für die freien Parameter. Während dieser Iteration (schrittweisen Annäherung) spielen die implizierten Kovarianzmatrizen die ähnlich denen der beobachteten Werte sind eine wichtige Rolle. Die implizierte Kovarianzmatrix ist jene Matrix, die daraus resultieren würde, wenn die Werte der festen Parameter und die geschätzten Werte der freien und restringierten Parameter in strukturelle Gleichungen eingesetzt werden und diese wiederum zur Erstellung einer Kovarianzmatrix benutzt werden würden. Der Iteration ist folgender Algorithmus inhärent. Die Iteration beginnt mit einer bestimmten Menge von Startwerten, die aus Versuchswerten ( Näherungswerte ) der freien Parameter bestehen. Aus diesen Startwerten wird nun eine implizierte Kovarianzmatrix errechnet. Anschließend wird diese implizierte Matrix mit der Kovarianzmatrix der tatsächlichen, beobachteten Werten verglichen. Die Startwerte können sowohl vom Forscher als auch durch die Programmsoftware bereitgestellt werden (LISREL: ermittelt Startwerte aufgrund der Beobachtungsdaten; EQS: unterstellt einen Default-Wert [d. h. einen fehlenden wahren Wert] für die Startwerte). Für das Festsetzen von Startwerten durch den Forscher gibt es jedoch kein Rezept. Byrne (1994, p. 31) empfiehlt, daß einige für entscheidend gehaltene Faktorladungen (d. h. Korrelationen zwischen empirischen Variablen und latenten Variablen) hoch angesetzt werden sollten (z. B. 16

17 0.9). Weiterhin ließe es sich empfehlen, die Varianzen stets größer als die Kovarianzen sowie die Restwert-Varianzen (E) allgemein hoch (und eng angelehnt an die Start-Varianzen der Variablen, deren Residual sie darstellen) starten zu lassen. Unter der Vermutung oder dem Vorwissen, daß manche der Schätzungen negativ werden, sollte unbedingt das Vorzeichen bereits im vorhinein bei den Startwerten spezifiziert werden, da es ansonsten zu sehr problematischen iterativen Prozessen kommen kann (schlimmstenfalls kann dies zur Nicht- Konvergenz führen, vgl. unten Konvergenz, M-S. 17). Wie bereits gesagt, wird nach jeder Iteration (d. h. Schritt um Schritt ) die daraus resultierende implizierte Kovarianzmatrix (? ) mit der Kovarianzmatrix der beobachteten Werte (S) verglichen. Die Differenz von empirischer Kovarianzmatrix und implizierter Kovarianzmatrix wird nach jedem Vergleich in einer Residualmatrix (sog. Restwertmatrix) zusammengefaßt (R = S -? ). Diese Differenz wird als Anpassungsfunktion (F) bezeichnet. Die Residualmatrix enthält Werte, die die Unterschiede zwischen der implizierten und beobachteten Kovarianzmatrizen ausdrücken. Nach Abschluß der Iteration liegt eine implizierte Kovarianzmatrix vor, deren Elemente in Größe und Richtung (Direktionalität) den korrespondierenden Elementen in der beobachteten, empirischen Kovarianzmatrix bedeutend ähnlicher sind, als sie es zu Beginn der Iteration waren. Mit anderen Worten erfolgt die Iteration solange, bis die Werte der Residualmatrix (R) nicht mehr minimiert werden können. An diesem Punkt des Schätzungsvorgangs spricht man von einer Konvergenz. D.h. also, wenn die Differenz aus den Werten der empirischen und implizierten Kovarianzmatrix beinahe Null ist, dann spricht man davon, daß die empirische und die implizierte Kovarianzmatrix konvergieren. Bei einer perfekten Anpassung zwischen den beiden Matrizen würde ein Wert der Anpassungsfunktion errechnet werden, der gleich Null ist (F = 0). Dieser resultierende Wert ist der Ausgangspunkt für die Berechnung von Indizes der Modellanpassung (statistischer Index:? 2 ; deskriptive Indizes: CFI, NNFI u.a.). Konvergenzprobleme können auftreten bei: Modellen mit vielen freien Parametern, Modellen, die von nonparametrischen Daten (d. h. nicht normalverteilt) geschätzt werden und 17

18 Multitrait-Multimethod-Modellen (z. B. es werden untersucht: 3 Merkmale mit 3 Methoden, woraus sich die Kombination von 3? 3 Variablen und a-priori-faktoren ergibt). Maximum-Likelihood-Methode zur Parameterschätzung Das oben dargestellte Prinzip der Maximum-Likelihood-Methode (Maximale-Wahrscheinlichkeits-Methode) soll wie folgt zusammengefaßt werden. Startwerte (d. h. Näherungswerte) für die unbekannten Modellparameter (d. h. freie Parameter) werden iterativ so lange verändert, bis die aus den geschätzten Parametern zurückgerechneten Kovarianzen (bei standardisierten Daten: Korrelationen, weil N [0,1]) den empirisch ermittelten Kovarianzen (bzw. Korrelationen) möglichst gut entsprechen. 2.3 Bewertung der Modellanpassung Aus dem letzten Abschnitt ist folgende Schlußfolgerung hervorgegangen: Ein Modell besitzt genau dann eine gute Anpassung an die beobachteten Werte, wenn die implizierte Kovarianzmatrix der empirischen Kovarianzmatrix gleichwertig ist (d. h. die Elemente der Residualmatrix sind nahe Null). Die Frage der Modellanpassung ist natürlich eine statistische Frage, die ohne eine genaue Beschreibung der Daten, des Modells und der Schätzmethoden kaum zu beantworten ist. Der meist verwendete statistische Anpassungstest ist der? 2 -Anpassungstest (lies: chi-quadrat; sog. Goodness-of-Fit-Test), der sich direkt aus den Werten der Anpassungsfunktion herleitet (s. M-S. 17). Der Chi-Quadrat-Wert ergibt sich aus dem Produkt des Wertes der Anpassungsfunktion und der Stichprobengröße minus 1 (? 2 = F? [N-1]). 18

19 Das Ergebnis ist eine? 2 -Verteilung, sofern die Daten normalverteilt sind und das spezifizierte Modell korrekt ist (Normalverteilung, N [0,1], d. h.?=0 und?=1; zur Erklärung s.a. Notation von Bild 1, s. M-S. 5). Der Nachteil der? 2 -Statistik besteht in der rigorosen Restriktion, daß die Beobachtungsdaten multivariat normalverteilt vorliegen müssen (Beispiel für eine Normalverteilung in Bild 1, s. M- S. 5). Wenn diese Normalverteilungsannahme verletzt wird, so sind die Ergebnisse der statistischen Überprüfung stark verzerrt und daher ungültig. Die Verletzung der N(0,1)- Annahme kann also zu schwerwiegenden Folgen bezüglich der Gültigkeit des statistischen Hypothesentestens führen. Überdies kann eine N(0,1)-theoretische Teststatistik von selbst ja nicht erkennen, ob das zu studierende Modell adäquat für die Rohdaten ist oder nicht (Browne, 1982, 1984; Hu, Bentler & Kano, 1992; West et al., 1995). Es wurde daraufhin von Browne (1982, 1984) ein Ansatz entwickelt, um dieses Problem aufzulösen (Asymptotische Verteilungsfreie Methoden, ADF). Diese verteilungsfreien Methoden unterliegen jedoch einer Forderung nach hohen Stichprobenzahlen. Da es jedoch wiederum schwierig ist eine Minimumgrenze für die Stichprobengröße anzugeben (PRELIS2: k(k+1)/2, k: Variablenanzahl), sind diese Methoden nicht für alle Untersuchungen brauchbar. Obgleich der ADF-Ansatz verbessert werden kann (Yung & Bentler, 1984), vertreten Bentler und seine Mitarbeiter (Chou, Bentler & Satorra, 1991; Hu et al., 1992) die Meinung, daß es günstiger wäre, die vorhandenen Statistiken zu korrigieren bevor verschiedene neue Schätzmethoden entworfen werden. Auf diese Weise entwickelten Satorra & Bentler (1988a, 1988b) die Skalierte? 2 -Statistik (Scaled? 2 ), die eine Skalenkorrektur für die? 2 -Statistik enthält. Wenn N(0,1)-Voraussetzungen verletzt werden, dann nimmt die Berechnung vom Skalierten? 2 auf die Gültigkeit des Modells, die Schätzmethode und die Stichproben-Kurtosis (Steigungs)-Werte Einfluß. Die Skalierte? 2 -Statistik scheint ein weitaus zuverlässigerer Indikator für die Modellangemesseheit zu sein, als die nonparametrischen, verteilungsfreien Verfahren (z. B. ADF; Browne, 1984). Insbesondere von Vorteil ist das im EQS verfügbare (nicht aber in LISREL) Skalierte? 2 bei der Analyse psychologischer Daten, für die eine Annahme der multivariaten Normalverteilung oft nicht haltbar ist 19

20 (Bentler, Wu & Houck, 1996, S. 277; Hu, Bentler & Kano, 1992; Micceri, 1989). Nach den Ergebnissen der Monte Carlo-Studie, in der 6 Teststatistiken unter 7 Verteilungsbedingungen überprüft wurden, wurde das Skalierte? 2 als die reliabelste (d. h. zuverlässigste) Teststatistik erkannt (Hu et al., 1992). Diese wachsende Unzufriedenheit mit dem klassischen? 2 -Anpassungstest führte zu der Formulierung vieler weiterer sog. Zusatz-Anpassungsindizes, die deskriptiven (d. h. eher beschreibenden) Charakter besitzen. Bentler & Bonett (1980) leisteten mit ihrer Entwicklung des Normed-Fit-Index (NFI) und ihrer Verallgemeinerung des bestehenden Indizes nach Tucker & Lewis (1973, TLI) als Nonnormed-Fit-Index (NNFI) Pionierarbeit. Der Normed-Fit- Index (NFI) wurde später durch Bentler (1990a) zum Comparative-Fit-Index (CFI) umformuliert. Mit dem CFI kann einer Unterschätzung der Anpassung des hypothetisierten Modells vorgebeugt werden (Bentler, 1990a, p. 238). Der Comparative-Fit-Index (CFI) wird bei der Bewertung der Modellanpassung als der Index der Wahl vorgeschlagen (Bentler, 1990a, p. 245; 1990b). Diese Indizes und viele andere, die einer ähnlichen Logik folgen (z. B. Marsh, Balla & McDonald, 1988; Tanaka, 1993), stammen aus dem Vergleich der Anpassung des spezifizierten Modells mit der Anpassung des Unabhängigkeitsmodells (oder Nullmodells; Bentler & Bonett, 1980; Bentler, 1990a, p. 239; vgl. auch Byrne, 1994, p. 54). Das Unabhängigkeitsmodell ist ein Modell, in dem vollständige Unabhängigkeit zwischen den Variablen herrscht. D.h. es existieren ebenso viele latente Variablen (d. h. Faktoren) wie beobachtbare Variablen. Alle Korrelationen zwischen den Variablen sind Null (daher auch: Nullmodell). Es werden nur die Varianzen geschätzt. Im Rahmen des EQS werden anhand des Akaike Information Criterion (AIC; Akaike, 1987) und der Bozdogan Konsistenzversion des AIC (CAIC; Bozdogan, 1987) diese beiden Modelle miteinander unter dem Aspekt der Sparsamkeit einer Modellkonstruktion miteinander 20

21 verglichen (Sparsamkeit heißt: ob durch die postulierten latenten Variablen [Faktoren] tatsächlich ein genügend großer Teil der Varianz aufgeklärt werden kann oder nicht und ob zu viele oder zu wenige Parameter geschätzt werden). Der? 2 -Goodness-of-Fit-Test und die Anzahl der zu schätzenden Parameter werden für beide Modelle in die Ermittlung des AIC und CAIC einbezogen. Der AIC und CAIC werden im EQS in alle weiteren Maximum-Likelihood- Berechnungen einbezogen. Die meisten zusätzlichen Anpassungsindizes stellen eine Verbesserung der Anpassung eines spezifizierten Modells, das feste, restringierte und freie Parameter enthält, dar. Im Gegensatz zum Unabhängigkeitsmodell, in dem alle strukturellen Parameter fest um Null herum liegen. Die zusätzlichen Anpassungsindizes (z. B. NFI, NNFI, CFI) sind keine statistischen Indizes (wie? 2 oder Scaled-? 2 ) und können daher auch nicht dazu genutzt werden, statistische Tests zur Modellanpassung durchzuführen. Sie werden eher als allgemeine Indizes zur Beurteilung der Modell-Angemessenheit verwendet. Die meisten (z. B. NFI, CFI, NNFI) der Zusatz-Anpassungsindizes können Werte im Bereich von 0 bis 1 annehmen. Ab dem Wert 0.9 wird ein Modell in der Regel als übereinstimmend mit den beobachteten Daten (Bentler, 1992b). Die augenscheinliche Unterscheidung zwischen dem? 2 -Anpassungstest und den Zusatz- Anpassungsindizes besteht in der Größe der Werte, ab der eine akzeptable Anpassung des Modells als bestätigt gilt. Das? 2 ist in Wirklichkeit ein Index für eine schlechte Anpassung ( Badness-of-Fit ) und daher weisen kleinere Werte auf eine bessere Anpassung hin. Eine perfekte Anpassung würde paradoxerweise ein? 2 -Wert von Null ausweisen (d. h. die Residualmatrix besteht nur aus Nullwerten). Dies kommt aus dem Grunde zustande, weil? 2 ein statistischer Index ist und daher werden seine Werte relativ zu den verfügbaren Freiheitsgraden ermittelt. In praktischen Anwendungen wird ein Modell in der Regel dann angenommen, wenn der Chi-Quadrat-Wert im Verhältnis zu den Freiheitsgraden möglichst 21

22 klein wird, d. h. er sollte kleiner oder gleich der Freiheitsgrade sein (vgl. Backhaus et al., 1996, S. 398). Die Zusatzindizes (z. B. NFI, NNFI, CFI) hingegen sind Indizes für eine gute Anpassung ( Goodness-of-Fit ), was bedeutet, daß größere Werte (d. h. nahe Eins) für eine perfekte Anpassung wünschenswerter sind. Eine perfekte Anpassung würde z. B. durch einen CFI-Wert von 1 ausgewiesen werden. Da Zusatzindizes jedoch keine statistischen Indizes sind, existiert für sie auch kein definitiver kritischer Wert, ab dem ein Modell als gut angepaßt gelten kann oder auch nicht (vgl. Bentler, 1990, p. 243). Gegenüber anderen existierenden Zusatzindizes (NFI, NNFI, Bentler & Bonett, 1980; IFI, Bollen, 1989) ist der Bentler-CFI-Index (1990a, p. 245) jedoch vorzuziehen, weil er kein primär deskriptiver Index ist. Bentler (1990a, p. 245) bezeichnet ihn selbst als Populationsindex, der eine grundlegendere Möglichkeit für den idealen Anpassungsvergleich bietet als es bisher von anderen Indizes zu erwarten war. Der finale Aspekt der Anpassungsbewertung beinhaltet den Vergleich zwischen zwei oder mehr theoriefußenden Modellen mit den gleichen Daten. Dieser Modellvergleich ist statistischer Natur, ganz ähnlich den Modellvergleichen in der hierarchischen Regressionsanalyse. Der Modellvergleich erfordert die Spezifikation von 2 ineinander nested (verzahnten) Modellen. 2 Modelle gelten dann als ineinander nested (verzahnt), wenn sie beide die gleichen Parameter enthalten, aber die Menge der freien Parameter in dem einen Modell eine Untermenge der freien Parameter des anderen Modells darstellt (z. B. Unabhängigkeitsmodell und hypothetisiertes Modell). Eine? 2 -Statistik, ähnlich wie die F-Veränderungsstatistik bei der hierarchischen Regressionsanalyse, wird also dazu benutzt, zu entscheiden, welches der beiden oder mehreren Modelle die beobachteten Daten besser abbildet. 22

23 2.4 Modellmodifikation Der umstrittenste Aspekt des SEM-Ansatzes ist die Modifikation oder Respezifikation des Modells (MacCallum, Roznowski & Necowitz, 1992). Die Modellmodifikation beinhaltet die abstimmende Ergänzung des spezifizierten und geschätzten Modells um sowohl freie Parameter, die früher feste waren, als auch um feste Parameter, die früher freie waren. Die erwähnte Kontroverse über die Modellmodifikation betrifft eher die Grundlagen für die Modellmodifikation als die allgemeine Notation der Modellmodifikation. Die Modellmodifikation erfolgt in der Regel für Modelle, die nach der Schätzung eine ungünstige Anpassung der theoretischen Modellvorstellung an die beobachteten, empirischen Daten ausweisen. Zunächst müßte die Konsequenz gezogen werden, daß das hypothetisierte Modell nicht mit den erhobenen Daten übereinstimmt und somit aus empirischer Sicht zu verwerfen ist (wenn die Repräsentativität der Datenerhebung unterstellt werden darf, s. M-S. 5). Des Problempotentials einer Modellmodifikation muß sich der Forscher klar bewußt sein. Von einer streng statistischen Warte aus beurteilt, kann ein Modell, welches durch den empirischen Datensatz abzulehnen ist, nicht kurzerhand modifiziert werden und wiederum an dem gleichen Datensatz getestet werden (Backhaus, Erichson, Plinke & Weiber, 1996, S. 407f.; Bortz, 1993, S. 445). Wenn jedoch der gleiche Datensatz weiterverwendet wird, obwohl die Modellparameter geändert wurden, kann nicht mehr im engeren Sinne von einer konfirmatorischen sondern höchstens von einer exploratorischen Faktorenanalyse (s. M-S. 7) gesprochen werden. Es kann also festgehalten werden, daß nach einer Modifikation des hypothetisierten Modells (ob Struktur- oder Meßmodell) das methodische Vorgehen nur noch exploratorisch (statt konfirmatorisch) bezeichnet werden kann. Konfirmatorisch kann das Vorgehen nur dann bezeichnet werden, wenn für die Schätzung des re-spezifizierten Modells ein neuer Datensatz verwendet wird (strikt statistisch betrachtet, müßte sogar eine neue Stichprobe per Auswahlverfahren aus einer anderen Grundgesamtheit gezogen werden; s. M-S. 5). Sofern nicht weitere theoriegestütze Modelle für eine günstigere Beschreibung oder Abbildung der Daten vorhanden sind, kann eine der folgenden Strategien die Grundlage für die 23

24 Modifikation bilden (d. h. zur Lokalisation jener Modellschwachstelle, aufgrund welcher das Modell nach Vergleich mit den empirischen Daten abgelehnt werden mußte): 1. Prüfung der Parameterschätzungen 2. Beurteilung einiger Formen der Residualmatrix 3. Benutzung von statistischen Suchstrategien. Durch die Anwendung einer der angegebenen Strategien kann eine günstigere Anpassung erreicht werden. Die bekanntesten Suchstrategien existieren im Rahmen des LISREL- und EQS-Programms. Der Modifikationsindex (LISREL) und der Lagrange Multiplier Test (EQS) geben Informationen über die Höhe der? 2 -Wertveränderung, die sich ergeben würde, wenn die Parameter, die im ursprünglichen Modell fest waren, nun frei werden. EQS gibt mit Hilfe des WALD-Test überdies noch Informationen über die Veränderung des? 2 -Wertes, die daraus resultieren würde, wenn frühere freie Parameter nun fest werden. Mit dem Wald- und Lagrange Multiplier Test (LMT) kann die? 2 -Änderung für den Fall der Respezifikation von einem oder mehreren Parametern verwendet werden, währenddessen mit dem Modifikationsindex (LISREL) lediglich ein Paramter respezifiziert werden kann. Das Anliegen des LMT ist, festzustellen, ob bei einem Modell, welches die Daten günstiger abbilden würde, bestimmte Parameter eher frei oder eher als fest zu spezifizieren sind. Die Angaben des LMT müssen jedoch vom Forscher im Hinblick auf seine Theorie kritisch geprüft werden. Letztlich beruht die Strategie des LMT ausschließlich auf statistischen Kriterien (z. B. wird eher ein fester Parameter als wünschenswert für das Testen befunden). Dies ist nur einer von vielen Vorteilen von EQS gegenüber LISREL. Der Nachteil der Verwendung dieser Modifikationsstrategien besteht natürlich darin, daß somit dem Fehler 1. Art (oder? -Fehler) Vorschub geleistet werden kann und dies wiederum führt insgesamt zu einer Situation, daß lediglich die spezielle Eigenart einer bestimmten Datenmenge als reliables Ergebnis interpretiert wird (MacCallum et al., 1992). Mit anderen Worten heißt dies, es besteht die Gefahr, daß ein zutreffendes hypothetisiertes Modell abgelehnt wird, obwohl es zutreffend ist (? -Fehler). 24

25 Fehler 1. Art (? -Fehler): eine richtige Hypothese wird abgelehnt Fehler 2. Art (?-Fehler): eine falsche Hypothese wird angenommen 2.5 Interpretation Wenn sowohl der? 2 -Anpassungstest als auch die zusätzlichen Anpassungsindizes eine insgesamt akzeptable Anpassung des spezifizierten Modells an die beobachteten Daten kennzeichnen, dann bewegt sich der Fokus der Betrachtung auf die Anpassung der spezifischen Elemente. Zur Interpretation werden zum einen die Vorzeichen der Pfadkoeffizienten (Bild 4, s. M-S. 12 z. B. F1-V1, F1-V2, F1-V3) und ihre Größe herangezogen. Für weitere Aussagen über die einzelnen Schätzungen müssen die Schätzungen der freien Parameter auf Signifikanz (d. h. bedeutsamer Unterschied von Null) geprüft werden (m. H. eines t-tests: Parameterschätzwert geteilt durch seine Standardabweichung). Eine Schätzung wird dann als signifikant angesehen, wenn ihr t-wert größer als 1,96 ist. Die Parameterschätzungen, die signifikant von Null unterschieden sind, können als wesentlicher Beitrag zur Bildung der Modellstruktur interpretiert werden. Der herausforderndste und auch am schlechtesten verstandene Aspekt der Interpretation von SEM-Ergebnissen besteht nicht in der Größe oder Gerichtetheit der Beziehungen zwischen den Variablen, sondern in der Art dieser Beziehungen. Strukturgleichungsmodelle werden oft als statistische Mittelwerte beschrieben, um kausale Hypothesen über korrelierende Daten zu testen. Womöglich ist eine derartige naive Charakterisierung auch dafür verantwortlich, daß viele Forscher allzu schnell von statistisch signifikanten Beziehungen in Strukturgleichungsmodellen auf Kausalität schließen (Cliff, 1983; Freedman, 1987). In Wirklichkeit tut der SEM-Ansatz nicht mehr, als daß er die Beziehungen zwischen Variablen testet, so wie sie vorher geschätzt worden sind. Was also ist der Vorteil von SEM im Vergleich zur Varianz- oder Regressionsanalyse, um kausale Hypothesen zu testen? Um diese Frage beantworten zu können, sollen zunächst die 25

26 notwendigen Bedingungen für eine kausale Beziehung vor Augen geführt werden (Bollen, 1989, p ): 1. Assoziation, 2. Isolation, 3. Direktionalität (Gerichtetheit). ad 1. Die elementarste Bedingung ist die Assoziation (d. h. die Ursache und der Effekt müssen in Verbindung gebracht werden). Hierin unterscheidet sich SEM nicht groß von anderen statistischen Ansätzen. ad 2. Die vermutete Ursache muß von anderen möglichen Ursachen isoliert untersucht werden. Z. B. erfolgt dies bei Experimenten durch die Zufallszuweisung. Auch die Varianzanalyse und Regressionsanalyse kann dazu benutzt werden, vermutete Ursachenvariablen von anderen Variablen zu isolieren. Aber SEM ist flexibler und umfassender als die übrigen Ansätze, weil es die Mittelwerte nicht nur für die kontrollierten Variablen, sondern auch für den Meßfehler angibt. ad 3. Direktionalität ist die Bedingung, bezüglich welcher SEM am häufigsten mißverstanden wird. Gerichtete Pfeile werden dann falsch interpretiert, wenn man sie als Kennzeichen für die durch SEM getestete oder der vom Untersucher vermuteten Direktionalität (d. h. Kausalität) nimmt. In Wirklichkeit kann SEM die Direktionalität (d. h. Kausalität) nicht testen. Die Näherungsaussagen, die durch die Ergebnisse von SEM- Untersuchungen möglich werden, sind jedoch immer noch als wesentlich günstiger zu bezeichnen, um Ursache-Wirkungs-Beziehungen zu entschlüsseln, als es ein nicht-empirisches Vorgehen darstellen würde, z. B. durch das ledigliche Benutzen einer Theorie. 26

27 Obgleich Backhaus et al. (1996) die Ansicht verteten, daß mit Hilfe eines Datensatzes Kausalitäten überprüft werden könnten (Backhaus et al., 1996, S. 323f.), bleibt es letztlich unstrittig, daß es eine sehr gewagte Hypothese bleibt, Ursache-Wirkungs-Beziehungen statistisch und methodisch korrekt zu testen. Eine tatsächliche Schwierigkeit, Ursache und Wirkung in Beziehung zu setzen und diese Beziehungen zu testen, ergibt sich bei psychologischen sowie bei sozial- und verhaltenswissenschaftlichen Datenerhebungen. Im Ganzen gesehen kann zusammengefaßt werden, daß die Assoziation von Variablen in SEM nicht wesentlich anders interpretiert wird, als in der Varianz- oder Regressionsanalyse. Ein gerichteter Pfeil wird in Pfaddiagrammen dazu benutzt, Beziehungen zwischen Variablen zu beschreiben. Bei der Verwendung des SEM-Ansatzes sollten diese hypothetisierten, spezifizierten und geschätzten Beziehungen nicht für Kausalaussagen herangezogen werden es sei denn, die betreffende Beziehung wurde im Rahmen einer bereits bestätigten Theorie empirisch nachgewiesen (vgl. auch Martin, 1987; Mulaik & James, 1995). Mögliche Ergebnis- Aussagen könnten lauten: die untersuchten Daten weisen deutlich in die Richtung, daß Kommunikation Da bei der Präsentation der SEM-Ergebnisse viele Inkonsistenzen entstehen können und sich überdies die Untersuchungsergebnisse aus einer Vielzahl von Informationen zusammensetzen, haben einige Autoren ihr gesteigertes Interesse auf die Präsentation oder die Kommunikation von SEM-Ergebnissen gerichtet (z. B. Biddle & Marlin, 1987; Raykov, Tomer & Nesselroade, 1991; Hoyle & Panter, 1995). Eine erste Darstellungsmöglichkeit von SEM-Hypothesen und Ergebnissen ist ein Pfaddiagramm. 27

28 Das informativste Pfaddiagramm (vgl. Bild 4) enthält eine Kennzeichnung von allen Parametern des Modells (s. MacCallum, 1995). In der Praxis ist eine derartig vollständige Darstellung aber nur selten der Fall. Insbesondere werden oft jene Pfade aus den Darstellungen weggelassen, die Meß- und Vorhersagefehler kennzeichnen. Gelegentlich werden sogar die Indikatoren der latenten Variablen ausgespart. Obgleich man aus Gründen der Übersichtlichkeit mit solchen Auslassungen nicht allzu schlecht beraten ist, können sie aus zwei Gründen in die Irre leiten: 1. Das spezifizierte und geschätzte Modell ist nicht klar gekennzeichnet. Dieses Problem kann relativ leicht behoben werden, indem überprüft wird, welche Aspekte des spezifizierten Modells im Diagramm fehlen. 2. Die Parameterschätzungen sind nicht vollständig in dem Diagramm dargestellt. Zusätzliche Bedeutung für die Pfaddiagramm-Darstellung besitzt das Interesse des Untersuchers. Das heißt, welche Anteile der SEM-Analyse für den Forschungsbericht relevant sind und daher dargestellt werden (vgl. Biddle & Marlin, 1987). Es bieten sich folgende selektive Präsentations-Möglichkeiten an: F4 F1 F2 F3 Bild 6 Vollständiges Strukturgleichungsmodell (Meß- und Strukturmodell) Notation: F unbeobachteter (latenter) Faktor, V beobachtete Variable, D Residual-Fehler in Vorhersage des latenten Faktor, E Meßfehler; F4 = latente Variable 2. Ordnung, F1,F2,F3 = latente Variablen 1. Ordnung 28

29 1. Ursprünglich spezifiziertes und geschätztes Modell, 2. Anteile des ursprünlichen Modells, für die die Parameterschätzungen signifikant waren oder 3. modifiziertes, respezifiziertes und re-geschätztes Modell. Der Wert eines Pfaddiagramms, das das ursprünglich spezifizierte und geschätzte Modell darstellt, liegt darin, daß es die anfänglichen konzeptuellen Hypothesenüberlegungen des Untersuchers nachvollziehbar darstellt. Dies wäre gleichermaßen die Objektivität der Präsentation (ad 1). Jenes Diagramm, das die nicht signifikanten Pfade aus Gründen der Übersichtlichkeit wegläßt, ist zwar weniger überhäuft, aber gibt dennoch eine unvollständige Ergebnisdarstellung (ad 2). Der empfehlenswerte Mittelweg zwischen vollständigem-überhäuften und unvollständigemübersichtlichen Diagramm ist ein Pfaddiagramm, welches alle Parameter des ursprünglichen hypothetisierten Modells darstellt und die nichtsignifikanten Pfade durch Strichlinien abbildet. Das Pfaddiagramm, durch dessen Hilfe ein modifiziertes Modell veranschaulicht wird, sollte nicht das einzige Diagramm in der Ergebnisdarstellung sein (ad 3). Es könnte über die a-priori- Spezifikation hinwegtäuschen und den Anschein eines reliablen Modells vermitteln. Dadurch würde gegenüber dem? -Fehler eine Unachtsamkeit vorliegen (s. M-S. 25). Eine zweite Darstellungsmöglichkeit von SEM-Ergebnissen sind Tabellen. Sie werden in der Regel immer dann verwendet, wenn der verfügbare Raum zur Darstellung sehr begrenzt ist. Neben dem optischen Nachteil der Tabellendarstellung besteht noch ein weiteres Problem. Im Gegensatz zu varianzanalytischen Tabellen, in denen das Untersuchungsdesign durch das Tabellenformat vermittelt wird, geben SEM-Tabellen keine Auskunft über die Position der Parameter in dem spezifizierten oder re-spezifizierten Modell. 2.7 Zusammenfassung der theoretischen Grundlagen Dieser Abriß der Basiskonzepte und ihrer Bedeutsamkeit, die mit dem SEM-Ansatz als Forschungsdesign und Datenanalyse verbunden ist, zeigte Ähnlichkeiten und Unterschiede zu 29

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über Güte von s Grundlegendes zum Konzept der Güte Ableitung der Gütefunktion des Gauss im Einstichprobenproblem Grafische Darstellung der Gütefunktionen des Gauss im Einstichprobenproblem Ableitung der Gütefunktion

Mehr

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren Lineargleichungssysteme: Additions-/ Subtraktionsverfahren W. Kippels 22. Februar 2014 Inhaltsverzeichnis 1 Einleitung 2 2 Lineargleichungssysteme zweiten Grades 2 3 Lineargleichungssysteme höheren als

Mehr

Willkommen zur Vorlesung Statistik

Willkommen zur Vorlesung Statistik Willkommen zur Vorlesung Statistik Thema dieser Vorlesung: Varianzanalyse Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften Prof. Dr. Wolfgang

Mehr

Welche Unterschiede gibt es zwischen einem CAPAund einem Audiometrie- Test?

Welche Unterschiede gibt es zwischen einem CAPAund einem Audiometrie- Test? Welche Unterschiede gibt es zwischen einem CAPAund einem Audiometrie- Test? Auch wenn die Messungsmethoden ähnlich sind, ist das Ziel beider Systeme jedoch ein anderes. Gwenolé NEXER g.nexer@hearin gp

Mehr

Auswerten mit Excel. Viele Video-Tutorials auf Youtube z.b. http://www.youtube.com/watch?v=vuuky6xxjro

Auswerten mit Excel. Viele Video-Tutorials auf Youtube z.b. http://www.youtube.com/watch?v=vuuky6xxjro Auswerten mit Excel Viele Video-Tutorials auf Youtube z.b. http://www.youtube.com/watch?v=vuuky6xxjro 1. Pivot-Tabellen erstellen: In der Datenmaske in eine beliebige Zelle klicken Registerkarte Einfügen

Mehr

Zeichen bei Zahlen entschlüsseln

Zeichen bei Zahlen entschlüsseln Zeichen bei Zahlen entschlüsseln In diesem Kapitel... Verwendung des Zahlenstrahls Absolut richtige Bestimmung von absoluten Werten Operationen bei Zahlen mit Vorzeichen: Addieren, Subtrahieren, Multiplizieren

Mehr

Grundlagen der Inferenzstatistik

Grundlagen der Inferenzstatistik Grundlagen der Inferenzstatistik (Induktive Statistik oder schließende Statistik) Dr. Winfried Zinn 1 Deskriptive Statistik versus Inferenzstatistik Die Deskriptive Statistik stellt Kenngrößen zur Verfügung,

Mehr

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen Austausch- bzw. Übergangsrozesse und Gleichgewichtsverteilungen Wir betrachten ein System mit verschiedenen Zuständen, zwischen denen ein Austausch stattfinden kann. Etwa soziale Schichten in einer Gesellschaft:

Mehr

Überblick über die Verfahren für Ordinaldaten

Überblick über die Verfahren für Ordinaldaten Verfahren zur Analyse ordinalskalierten Daten 1 Überblick über die Verfahren für Ordinaldaten Unterschiede bei unabhängigen Stichproben Test U Test nach Mann & Whitney H Test nach Kruskal & Wallis parametrische

Mehr

QM: Prüfen -1- KN16.08.2010

QM: Prüfen -1- KN16.08.2010 QM: Prüfen -1- KN16.08.2010 2.4 Prüfen 2.4.1 Begriffe, Definitionen Ein wesentlicher Bestandteil der Qualitätssicherung ist das Prüfen. Sie wird aber nicht wie früher nach der Fertigung durch einen Prüfer,

Mehr

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse 11 13. 501322 Lösung 10 Punkte

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse 11 13. 501322 Lösung 10 Punkte 50. Mathematik-Olympiade. Stufe (Regionalrunde) Klasse 3 Lösungen c 00 Aufgabenausschuss des Mathematik-Olympiaden e.v. www.mathematik-olympiaden.de. Alle Rechte vorbehalten. 503 Lösung 0 Punkte Es seien

Mehr

Professionelle Seminare im Bereich MS-Office

Professionelle Seminare im Bereich MS-Office Der Name BEREICH.VERSCHIEBEN() ist etwas unglücklich gewählt. Man kann mit der Funktion Bereiche zwar verschieben, man kann Bereiche aber auch verkleinern oder vergrößern. Besser wäre es, die Funktion

Mehr

Tutorial: Homogenitätstest

Tutorial: Homogenitätstest Tutorial: Homogenitätstest Eine Bank möchte die Kreditwürdigkeit potenzieller Kreditnehmer abschätzen. Einerseits lebt die Bank ja von der Vergabe von Krediten, andererseits verursachen Problemkredite

Mehr

Stichprobenauslegung. für stetige und binäre Datentypen

Stichprobenauslegung. für stetige und binäre Datentypen Stichprobenauslegung für stetige und binäre Datentypen Roadmap zu Stichproben Hypothese über das interessierende Merkmal aufstellen Stichprobe entnehmen Beobachtete Messwerte abbilden Schluss von der Beobachtung

Mehr

Statistische Auswertung:

Statistische Auswertung: Statistische Auswertung: Die erhobenen Daten mittels der selbst erstellten Tests (Surfaufgaben) Statistics Punkte aus dem Punkte aus Surftheorietest Punkte aus dem dem und dem Surftheorietest max.14p.

Mehr

Data Mining: Einige Grundlagen aus der Stochastik

Data Mining: Einige Grundlagen aus der Stochastik Data Mining: Einige Grundlagen aus der Stochastik Hagen Knaf Studiengang Angewandte Mathematik Hochschule RheinMain 21. Oktober 2015 Vorwort Das vorliegende Skript enthält eine Zusammenfassung verschiedener

Mehr

Profil A 49,3 48,2 50,7 50,9 49,8 48,7 49,6 50,1 Profil B 51,8 49,6 53,2 51,1 51,1 53,4 50,7 50 51,5 51,7 48,8

Profil A 49,3 48,2 50,7 50,9 49,8 48,7 49,6 50,1 Profil B 51,8 49,6 53,2 51,1 51,1 53,4 50,7 50 51,5 51,7 48,8 1. Aufgabe: Eine Reifenfirma hat für Winterreifen unterschiedliche Profile entwickelt. Bei jeweils gleicher Geschwindigkeit und auch sonst gleichen Bedingungen wurden die Bremswirkungen gemessen. Die gemessenen

Mehr

OECD Programme for International Student Assessment PISA 2000. Lösungen der Beispielaufgaben aus dem Mathematiktest. Deutschland

OECD Programme for International Student Assessment PISA 2000. Lösungen der Beispielaufgaben aus dem Mathematiktest. Deutschland OECD Programme for International Student Assessment Deutschland PISA 2000 Lösungen der Beispielaufgaben aus dem Mathematiktest Beispielaufgaben PISA-Hauptstudie 2000 Seite 3 UNIT ÄPFEL Beispielaufgaben

Mehr

Anhand des bereits hergeleiteten Models erstellen wir nun mit der Formel

Anhand des bereits hergeleiteten Models erstellen wir nun mit der Formel Ausarbeitung zum Proseminar Finanzmathematische Modelle und Simulationen bei Raphael Kruse und Prof. Dr. Wolf-Jürgen Beyn zum Thema Simulation des Anlagenpreismodels von Simon Uphus im WS 09/10 Zusammenfassung

Mehr

Informationsblatt Induktionsbeweis

Informationsblatt Induktionsbeweis Sommer 015 Informationsblatt Induktionsbeweis 31. März 015 Motivation Die vollständige Induktion ist ein wichtiges Beweisverfahren in der Informatik. Sie wird häufig dazu gebraucht, um mathematische Formeln

Mehr

Name (in Druckbuchstaben): Matrikelnummer: Unterschrift:

Name (in Druckbuchstaben): Matrikelnummer: Unterschrift: 20-minütige Klausur zur Vorlesung Lineare Modelle im Sommersemester 20 PD Dr. Christian Heumann Ludwig-Maximilians-Universität München, Institut für Statistik 2. Oktober 20, 4:5 6:5 Uhr Überprüfen Sie

Mehr

1.3 Die Beurteilung von Testleistungen

1.3 Die Beurteilung von Testleistungen 1.3 Die Beurteilung von Testleistungen Um das Testergebnis einer Vp zu interpretieren und daraus diagnostische Urteile ableiten zu können, benötigen wir einen Vergleichsmaßstab. Im Falle des klassischen

Mehr

1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage:

1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage: Zählen und Zahlbereiche Übungsblatt 1 1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage: Für alle m, n N gilt m + n = n + m. in den Satz umschreiben:

Mehr

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung.

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung. Lineare Gleichungen mit einer Unbekannten Die Grundform der linearen Gleichung mit einer Unbekannten x lautet A x = a Dabei sind A, a reelle Zahlen. Die Gleichung lösen heißt, alle reellen Zahlen anzugeben,

Mehr

Universität Bonn 28. Juli 2010 Fachbereich Rechts- und Wirtschaftswissenschaften Statistische Abteilung Prof. Dr. A. Kneip. KLAUSUR Statistik B

Universität Bonn 28. Juli 2010 Fachbereich Rechts- und Wirtschaftswissenschaften Statistische Abteilung Prof. Dr. A. Kneip. KLAUSUR Statistik B Universität Bonn 28. Juli 2010 Fachbereich Rechts- und Wirtschaftswissenschaften Statistische Abteilung Prof. Dr. A. Kneip Sommersemester 2010 KLAUSUR Statistik B Hinweise zur Bearbeitung: Bei allen Teilaufgaben

Mehr

Einfache Varianzanalyse für abhängige

Einfache Varianzanalyse für abhängige Einfache Varianzanalyse für abhängige Stichproben Wie beim t-test gibt es auch bei der VA eine Alternative für abhängige Stichproben. Anmerkung: Was man unter abhängigen Stichproben versteht und wie diese

Mehr

1 Mathematische Grundlagen

1 Mathematische Grundlagen Mathematische Grundlagen - 1-1 Mathematische Grundlagen Der Begriff der Menge ist einer der grundlegenden Begriffe in der Mathematik. Mengen dienen dazu, Dinge oder Objekte zu einer Einheit zusammenzufassen.

Mehr

Primzahlen und RSA-Verschlüsselung

Primzahlen und RSA-Verschlüsselung Primzahlen und RSA-Verschlüsselung Michael Fütterer und Jonathan Zachhuber 1 Einiges zu Primzahlen Ein paar Definitionen: Wir bezeichnen mit Z die Menge der positiven und negativen ganzen Zahlen, also

Mehr

Repetitionsaufgaben Wurzelgleichungen

Repetitionsaufgaben Wurzelgleichungen Repetitionsaufgaben Wurzelgleichungen Inhaltsverzeichnis A) Vorbemerkungen B) Lernziele C) Theorie mit Aufgaben D) Aufgaben mit Musterlösungen 4 A) Vorbemerkungen Bitte beachten Sie: Bei Wurzelgleichungen

Mehr

Varianzanalyse (ANOVA: analysis of variance)

Varianzanalyse (ANOVA: analysis of variance) Varianzanalyse (AOVA: analysis of variance) Einfaktorielle VA Auf der Basis von zwei Stichproben wird bezüglich der Gleichheit der Mittelwerte getestet. Variablen müssen Variablen nur nominalskaliert sein.

Mehr

etutor Benutzerhandbuch XQuery Benutzerhandbuch Georg Nitsche

etutor Benutzerhandbuch XQuery Benutzerhandbuch Georg Nitsche etutor Benutzerhandbuch Benutzerhandbuch XQuery Georg Nitsche Version 1.0 Stand März 2006 Versionsverlauf: Version Autor Datum Änderungen 1.0 gn 06.03.2006 Fertigstellung der ersten Version Inhaltsverzeichnis:

Mehr

Bericht über die Untersuchung zur Erblichkeit von Herzerkrankungen beim PON

Bericht über die Untersuchung zur Erblichkeit von Herzerkrankungen beim PON 1 Bericht über die Untersuchung zur Erblichkeit von Herzerkrankungen beim PON Einleitung Bei der Rasse PON wurden im APH in der letzten Zeit auffällig viele Herzkrankheiten und Herzveränderungen unterschiedlicher

Mehr

9. Schätzen und Testen bei unbekannter Varianz

9. Schätzen und Testen bei unbekannter Varianz 9. Schätzen und Testen bei unbekannter Varianz Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Schätzen und Testen bei unbekannter Varianz Wenn wir die Standardabweichung σ nicht kennen,

Mehr

Konzepte der Informatik

Konzepte der Informatik Konzepte der Informatik Vorkurs Informatik zum WS 2011/2012 26.09. - 30.09.2011 17.10. - 21.10.2011 Dr. Werner Struckmann / Christoph Peltz Stark angelehnt an Kapitel 1 aus "Abenteuer Informatik" von Jens

Mehr

Angewandte Ökonometrie, WS 2012/13, 1. Teilprüfung am 6.12.2012 - Lösungen. Das folgende Modell ist ein GARCH(1,1)-Modell:

Angewandte Ökonometrie, WS 2012/13, 1. Teilprüfung am 6.12.2012 - Lösungen. Das folgende Modell ist ein GARCH(1,1)-Modell: Angewandte Ökonometrie, WS 2012/13, 1. Teilprüfung am 6.12.2012 - Lösungen LV-Leiterin: Univ.Prof.Dr. Sylvia Frühwirth-Schnatter 1 Wahr oder falsch? 1. Das folgende Modell ist ein GARCH(1,1)-Modell: Y

Mehr

Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau

Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau 1 Einführung in die statistische Datenanalyse Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau 2 Gliederung 1.Grundlagen 2.Nicht-parametrische Tests a. Mann-Whitney-Wilcoxon-U Test b. Wilcoxon-Signed-Rank

Mehr

Das große ElterngeldPlus 1x1. Alles über das ElterngeldPlus. Wer kann ElterngeldPlus beantragen? ElterngeldPlus verstehen ein paar einleitende Fakten

Das große ElterngeldPlus 1x1. Alles über das ElterngeldPlus. Wer kann ElterngeldPlus beantragen? ElterngeldPlus verstehen ein paar einleitende Fakten Das große x -4 Alles über das Wer kann beantragen? Generell kann jeder beantragen! Eltern (Mütter UND Väter), die schon während ihrer Elternzeit wieder in Teilzeit arbeiten möchten. Eltern, die während

Mehr

Behörde für Bildung und Sport Abitur 2008 Lehrermaterialien zum Leistungskurs Mathematik

Behörde für Bildung und Sport Abitur 2008 Lehrermaterialien zum Leistungskurs Mathematik Abitur 8 II. Insektenpopulation LA/AG In den Tropen legen die Weibchen einer in Deutschland unbekannten Insektenpopulation jedes Jahr kurz vor Beginn der Regenzeit jeweils 9 Eier und sterben bald darauf.

Mehr

Ein möglicher Unterrichtsgang

Ein möglicher Unterrichtsgang Ein möglicher Unterrichtsgang. Wiederholung: Bernoulli Experiment und Binomialverteilung Da der sichere Umgang mit der Binomialverteilung, auch der Umgang mit dem GTR und den Diagrammen, eine notwendige

Mehr

Rekursionen. Georg Anegg 25. November 2009. Methoden und Techniken an Beispielen erklärt

Rekursionen. Georg Anegg 25. November 2009. Methoden und Techniken an Beispielen erklärt Methoden und Techniken an Beispielen erklärt Georg Anegg 5. November 009 Beispiel. Die Folge {a n } sei wie folgt definiert (a, d, q R, q ): a 0 a, a n+ a n q + d (n 0) Man bestimme eine explizite Darstellung

Mehr

Klausur zur Vorlesung Multivariate Verfahren, SS 2006 6 Kreditpunkte, 90 min

Klausur zur Vorlesung Multivariate Verfahren, SS 2006 6 Kreditpunkte, 90 min Klausur, Multivariate Verfahren, SS 2006, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 08.08.2006 Klausur zur Vorlesung Multivariate Verfahren, SS 2006 6 Kreditpunkte, 90 min Gesamtpunkte: 39 Aufgabe

Mehr

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Vollständigkeit halber aufgeführt. Gehen wir einmal davon aus, dass die von uns angenommenen 70% im Beispiel exakt berechnet sind. Was würde

Mehr

Anwendungshinweise zur Anwendung der Soziometrie

Anwendungshinweise zur Anwendung der Soziometrie Anwendungshinweise zur Anwendung der Soziometrie Einführung Die Soziometrie ist ein Verfahren, welches sich besonders gut dafür eignet, Beziehungen zwischen Mitgliedern einer Gruppe darzustellen. Das Verfahren

Mehr

2. Psychologische Fragen. Nicht genannt.

2. Psychologische Fragen. Nicht genannt. Checkliste für die Beurteilung psychologischer Gutachten durch Fachfremde Gliederung eines Gutachtens 1. Nennung des Auftraggebers und Fragestellung des Auftraggebers. 2. Psychologische Fragen. Nicht genannt.

Mehr

Webergänzung zu Kapitel 10

Webergänzung zu Kapitel 10 Webergänzung zu Kapitel 10 10.1.4 Varianzanalyse (ANOVA: analysis of variance) Im Kapitel 10 haben wir uns hauptsächlich mit Forschungsbeispielen beschäftigt, die nur zwei Ergebnissätze hatten (entweder

Mehr

Beurteilung der biometrischen Verhältnisse in einem Bestand. Dr. Richard Herrmann, Köln

Beurteilung der biometrischen Verhältnisse in einem Bestand. Dr. Richard Herrmann, Köln Beurteilung der biometrischen Verhältnisse in einem Bestand Dr. Richard Herrmann, Köln Beurteilung der biometrischen Verhältnisse in einem Bestand 1 Fragestellung Methoden.1 Vergleich der Anzahlen. Vergleich

Mehr

Quantitative Methoden der Bildungsforschung

Quantitative Methoden der Bildungsforschung Glieung Wieholung Korrelationen Grundlagen lineare Regression Lineare Regression in SPSS Übung Wieholung Korrelationen Standardisiertes Zusammenhangsmaß (unstandardisiert: Kovarianz) linearer Zusammenhang

Mehr

Gibt es einen Geschmacksunterschied zwischen Coca Cola und Cola Zero?

Gibt es einen Geschmacksunterschied zwischen Coca Cola und Cola Zero? Gibt es einen Geschmacksunterschied zwischen Coca Cola und Cola Zero? Manche sagen: Ja, manche sagen: Nein Wie soll man das objektiv feststellen? Kann man Geschmack objektiv messen? - Geschmack ist subjektiv

Mehr

Prüfung eines Datenbestandes

Prüfung eines Datenbestandes Prüfung eines Datenbestandes auf Abweichungen einzelner Zahlen vom erwarteten mathematisch-statistischen Verhalten, die nicht mit einem Zufall erklärbar sind (Prüfung auf Manipulationen des Datenbestandes)

Mehr

PTV VISWALK TIPPS UND TRICKS PTV VISWALK TIPPS UND TRICKS: VERWENDUNG DICHTEBASIERTER TEILROUTEN

PTV VISWALK TIPPS UND TRICKS PTV VISWALK TIPPS UND TRICKS: VERWENDUNG DICHTEBASIERTER TEILROUTEN PTV VISWALK TIPPS UND TRICKS PTV VISWALK TIPPS UND TRICKS: VERWENDUNG DICHTEBASIERTER TEILROUTEN Karlsruhe, April 2015 Verwendung dichte-basierter Teilrouten Stellen Sie sich vor, in einem belebten Gebäude,

Mehr

Hauptseminar am Fachgebiet für Quantitative Methoden der Wirtschaftswissenschaften

Hauptseminar am Fachgebiet für Quantitative Methoden der Wirtschaftswissenschaften Hauptseminar am Fachgebiet für Quantitative Methoden der Wirtschaftswissenschaften Fehlende Daten in der Multivariaten Statistik SS 2011 Allgemeines Das Seminar richtet sich in erster Linie an Studierende

Mehr

Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1

Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1 LÖSUNG 3A Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1 Mit den Berechnungsfunktionen LG10(?) und SQRT(?) in "Transformieren", "Berechnen" können logarithmierte Werte sowie die Quadratwurzel

Mehr

ERGÄNZUNGEN ZUR ANALYSIS II MITTELWERTSATZ UND ANWENDUNGEN

ERGÄNZUNGEN ZUR ANALYSIS II MITTELWERTSATZ UND ANWENDUNGEN ERGÄNZUNGEN ZUR ANALYSIS II MITTELWERTSATZ UND ANWENDUNGEN CHRISTIAN HARTFELDT. Zweiter Mittelwertsatz Der Mittelwertsatz Satz VI.3.4) lässt sich verallgemeinern zu Satz.. Seien f, g : [a, b] R auf [a,

Mehr

Modellbildungssysteme: Pädagogische und didaktische Ziele

Modellbildungssysteme: Pädagogische und didaktische Ziele Modellbildungssysteme: Pädagogische und didaktische Ziele Was hat Modellbildung mit der Schule zu tun? Der Bildungsplan 1994 formuliert: "Die schnelle Zunahme des Wissens, die hohe Differenzierung und

Mehr

Einführung in statistische Analysen

Einführung in statistische Analysen Einführung in statistische Analysen Andreas Thams Econ Boot Camp 2008 Wozu braucht man Statistik? Statistik begegnet uns jeden Tag... Weihnachten macht Deutschen Einkaufslaune. Im Advent überkommt die

Mehr

Stellen Sie bitte den Cursor in die Spalte B2 und rufen die Funktion Sverweis auf. Es öffnet sich folgendes Dialogfenster

Stellen Sie bitte den Cursor in die Spalte B2 und rufen die Funktion Sverweis auf. Es öffnet sich folgendes Dialogfenster Es gibt in Excel unter anderem die so genannten Suchfunktionen / Matrixfunktionen Damit können Sie Werte innerhalb eines bestimmten Bereichs suchen. Als Beispiel möchte ich die Funktion Sverweis zeigen.

Mehr

90-minütige Klausur Statistik für Studierende der Kommunikationswissenschaft

90-minütige Klausur Statistik für Studierende der Kommunikationswissenschaft Prof. Dr. Helmut Küchenhoff SS08 90-minütige Klausur Statistik für Studierende der Kommunikationswissenschaft am 22.7.2008 Anmerkungen Überprüfen Sie bitte sofort, ob Ihre Angabe vollständig ist. Sie sollte

Mehr

Messung von Veränderungen. Dr. Julia Kneer Universität des Saarlandes

Messung von Veränderungen. Dr. Julia Kneer Universität des Saarlandes von Veränderungen Dr. Julia Kneer Universität des Saarlandes Veränderungsmessung Veränderungsmessung kennzeichnet ein Teilgebiet der Methodenlehre, das direkt mit grundlegenden Fragestellungen der Psychologie

Mehr

Psychologie im Arbeitsschutz

Psychologie im Arbeitsschutz Fachvortrag zur Arbeitsschutztagung 2014 zum Thema: Psychologie im Arbeitsschutz von Dipl. Ing. Mirco Pretzel 23. Januar 2014 Quelle: Dt. Kaltwalzmuseum Hagen-Hohenlimburg 1. Einleitung Was hat mit moderner

Mehr

Pädagogik. Melanie Schewtschenko. Eingewöhnung und Übergang in die Kinderkrippe. Warum ist die Beteiligung der Eltern so wichtig?

Pädagogik. Melanie Schewtschenko. Eingewöhnung und Übergang in die Kinderkrippe. Warum ist die Beteiligung der Eltern so wichtig? Pädagogik Melanie Schewtschenko Eingewöhnung und Übergang in die Kinderkrippe Warum ist die Beteiligung der Eltern so wichtig? Studienarbeit Inhaltsverzeichnis 1. Einleitung.2 2. Warum ist Eingewöhnung

Mehr

Pfadanalyse. 1. Grundlegende Verfahren. Bacher, SoSe2007

Pfadanalyse. 1. Grundlegende Verfahren. Bacher, SoSe2007 Pfadanalyse Bacher, SoSe2007 1. Grundlegende Verfahren Explorative Pfadanalyse: Kausale Beziehungen zwischen Variablen werden aufgedeckt, erforderlich ist eine kausale Anordnung der Variablen. Konfirmatorische

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme 1 Zwei Gleichungen mit zwei Unbekannten Es kommt häufig vor, dass man nicht mit einer Variablen alleine auskommt, um ein Problem zu lösen. Das folgende Beispiel soll dies verdeutlichen

Mehr

Dieser Ablauf soll eine Hilfe für die tägliche Arbeit mit der SMS Bestätigung im Millennium darstellen.

Dieser Ablauf soll eine Hilfe für die tägliche Arbeit mit der SMS Bestätigung im Millennium darstellen. Millennium SMS Service Schnellübersicht Seite 1 von 6 1. Tägliche Arbeiten mit der SMS Bestätigung Dieser Ablauf soll eine Hilfe für die tägliche Arbeit mit der SMS Bestätigung im Millennium darstellen.

Mehr

«Eine Person ist funktional gesund, wenn sie möglichst kompetent mit einem möglichst gesunden Körper an möglichst normalisierten Lebensbereichen

«Eine Person ist funktional gesund, wenn sie möglichst kompetent mit einem möglichst gesunden Körper an möglichst normalisierten Lebensbereichen 18 «Eine Person ist funktional gesund, wenn sie möglichst kompetent mit einem möglichst gesunden Körper an möglichst normalisierten Lebensbereichen teilnimmt und teilhat.» 3Das Konzept der Funktionalen

Mehr

Erfolg und Vermögensrückgänge angefertigt im Rahmen der Lehrveranstaltung Nachrichtentechnik von: Eric Hansen, eric-hansen@gmx.de am: 07.09.

Erfolg und Vermögensrückgänge angefertigt im Rahmen der Lehrveranstaltung Nachrichtentechnik von: Eric Hansen, eric-hansen@gmx.de am: 07.09. Abstract zum Thema Handelssysteme Erfolg und Vermögensrückgänge angefertigt im Rahmen der Lehrveranstaltung Nachrichtentechnik von: Eric Hansen, eric-hansen@gmx.de am: 07.09.01 Einleitung: Handelssysteme

Mehr

Häufig wiederkehrende Fragen zur mündlichen Ergänzungsprüfung im Einzelnen:

Häufig wiederkehrende Fragen zur mündlichen Ergänzungsprüfung im Einzelnen: Mündliche Ergänzungsprüfung bei gewerblich-technischen und kaufmännischen Ausbildungsordnungen bis zum 31.12.2006 und für alle Ausbildungsordnungen ab 01.01.2007 Am 13. Dezember 2006 verabschiedete der

Mehr

6.2 Scan-Konvertierung (Scan Conversion)

6.2 Scan-Konvertierung (Scan Conversion) 6.2 Scan-Konvertierung (Scan Conversion) Scan-Konvertierung ist die Rasterung von einfachen Objekten (Geraden, Kreisen, Kurven). Als Ausgabemedium dient meist der Bildschirm, der aus einem Pixelraster

Mehr

Korrelation (II) Korrelation und Kausalität

Korrelation (II) Korrelation und Kausalität Korrelation (II) Korrelation und Kausalität Situation: Seien X, Y zwei metrisch skalierte Merkmale mit Ausprägungen (x 1, x 2,..., x n ) bzw. (y 1, y 2,..., y n ). D.h. für jede i = 1, 2,..., n bezeichnen

Mehr

Dieses erste Kreisdiagramm, bezieht sich auf das gesamte Testergebnis der kompletten 182 getesteten Personen. Ergebnis

Dieses erste Kreisdiagramm, bezieht sich auf das gesamte Testergebnis der kompletten 182 getesteten Personen. Ergebnis Datenanalyse Auswertung Der Kern unseres Projektes liegt ganz klar bei der Fragestellung, ob es möglich ist, Biere von und geschmacklich auseinander halten zu können. Anhand der folgenden Grafiken, sollte

Mehr

Interne und externe Modellvalidität

Interne und externe Modellvalidität Interne und externe Modellvalidität Interne Modellvalidität ist gegeben, o wenn statistische Inferenz bzgl. der untersuchten Grundgesamtheit zulässig ist o KQ-Schätzer der Modellparameter u. Varianzschätzer

Mehr

Software Engineering. Sommersemester 2012, Dr. Andreas Metzger

Software Engineering. Sommersemester 2012, Dr. Andreas Metzger Software Engineering (Übungsblatt 2) Sommersemester 2012, Dr. Andreas Metzger Übungsblatt-Themen: Prinzip, Technik, Methode und Werkzeug; Arten von Wartung; Modularität (Kohäsion/ Kopplung); Inkrementelle

Mehr

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis Unterrichtsmaterialien in digitaler und in gedruckter Form Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis Das komplette Material finden Sie hier: Download bei School-Scout.de

Mehr

Fortgeschrittene Statistik Logistische Regression

Fortgeschrittene Statistik Logistische Regression Fortgeschrittene Statistik Logistische Regression O D D S, O D D S - R A T I O, L O G I T T R A N S F O R M A T I O N, I N T E R P R E T A T I O N V O N K O E F F I Z I E N T E N, L O G I S T I S C H E

Mehr

Statistik II für Betriebswirte Vorlesung 2

Statistik II für Betriebswirte Vorlesung 2 PD Dr. Frank Heyde TU Bergakademie Freiberg Institut für Stochastik Statistik II für Betriebswirte Vorlesung 2 21. Oktober 2014 Verbundene Stichproben Liegen zwei Stichproben vor, deren Werte einander

Mehr

q = 1 p = 0.8 0.2 k 0.8 10 k k = 0, 1,..., 10 1 1 0.8 2 + 10 0.2 0.8 + 10 9 1 2 0.22 1 = 0.8 8 [0.64 + 1.6 + 1.8] = 0.678

q = 1 p = 0.8 0.2 k 0.8 10 k k = 0, 1,..., 10 1 1 0.8 2 + 10 0.2 0.8 + 10 9 1 2 0.22 1 = 0.8 8 [0.64 + 1.6 + 1.8] = 0.678 Lösungsvorschläge zu Blatt 8 X binomialverteilt mit p = 0. und n = 10: a PX = = 10 q = 1 p = 0.8 0. 0.8 10 = 0, 1,..., 10 PX = PX = 0 + PX = 1 + PX = 10 10 = 0. 0 0.8 10 + 0. 1 0.8 9 + 0 1 10 = 0.8 8 [

Mehr

Datensicherung. Beschreibung der Datensicherung

Datensicherung. Beschreibung der Datensicherung Datensicherung Mit dem Datensicherungsprogramm können Sie Ihre persönlichen Daten problemlos Sichern. Es ist möglich eine komplette Datensicherung durchzuführen, aber auch nur die neuen und geänderten

Mehr

Verteilungsmodelle. Verteilungsfunktion und Dichte von T

Verteilungsmodelle. Verteilungsfunktion und Dichte von T Verteilungsmodelle Verteilungsfunktion und Dichte von T Survivalfunktion von T Hazardrate von T Beziehungen zwischen F(t), S(t), f(t) und h(t) Vorüberlegung zu Lebensdauerverteilungen Die Exponentialverteilung

Mehr

METHODENLEHRE I WS 2013/14 THOMAS SCHÄFER

METHODENLEHRE I WS 2013/14 THOMAS SCHÄFER METHODENLEHRE I WS 2013/14 THOMAS SCHÄFER DAS THEMA: INFERENZSTATISTIK IV INFERENZSTATISTISCHE AUSSAGEN FÜR ZUSAMMENHÄNGE UND UNTERSCHIEDE Inferenzstatistik für Zusammenhänge Inferenzstatistik für Unterschiede

Mehr

Die Optimalität von Randomisationstests

Die Optimalität von Randomisationstests Die Optimalität von Randomisationstests Diplomarbeit Elena Regourd Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf Düsseldorf im Dezember 2001 Betreuung: Prof. Dr. A. Janssen Inhaltsverzeichnis

Mehr

Das System sollte den Benutzer immer auf dem Laufenden halten, indem es angemessenes Feedback in einer angemessenen Zeit liefert.

Das System sollte den Benutzer immer auf dem Laufenden halten, indem es angemessenes Feedback in einer angemessenen Zeit liefert. Usability Heuristiken Karima Tefifha Proseminar: "Software Engineering Kernkonzepte: Usability" 28.06.2012 Prof. Dr. Kurt Schneider Leibniz Universität Hannover Die ProSeminar-Ausarbeitung beschäftigt

Mehr

Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken

Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken Dateiname: ecdl5_01_00_documentation_standard.doc Speicherdatum: 14.02.2005 ECDL 2003 Basic Modul 5 Datenbank - Grundlagen

Mehr

Kapiteltests zum Leitprogramm Binäre Suchbäume

Kapiteltests zum Leitprogramm Binäre Suchbäume Kapiteltests zum Leitprogramm Binäre Suchbäume Björn Steffen Timur Erdag überarbeitet von Christina Class Binäre Suchbäume Kapiteltests für das ETH-Leitprogramm Adressaten und Institutionen Das Leitprogramm

Mehr

Plotten von Linien ( nach Jack Bresenham, 1962 )

Plotten von Linien ( nach Jack Bresenham, 1962 ) Plotten von Linien ( nach Jack Bresenham, 1962 ) Ac Eine auf dem Bildschirm darzustellende Linie sieht treppenförmig aus, weil der Computer Linien aus einzelnen (meist quadratischen) Bildpunkten, Pixels

Mehr

Access [basics] Gruppierungen in Abfragen. Beispieldatenbank. Abfragen gruppieren. Artikel pro Kategorie zählen

Access [basics] Gruppierungen in Abfragen. Beispieldatenbank. Abfragen gruppieren. Artikel pro Kategorie zählen Abfragen lassen sich längst nicht nur dazu benutzen, die gewünschten Felder oder Datensätze einer oder mehrerer Tabellen darzustellen. Sie können Daten auch nach bestimmten Kriterien zu Gruppen zusammenfassen

Mehr

Ohne Fehler geht es nicht Doch wie viele Fehler sind erlaubt?

Ohne Fehler geht es nicht Doch wie viele Fehler sind erlaubt? Ohne Fehler geht es nicht Doch wie viele Fehler sind erlaubt? Behandelte Fragestellungen Was besagt eine Fehlerquote? Welche Bezugsgröße ist geeignet? Welche Fehlerquote ist gerade noch zulässig? Wie stellt

Mehr

Mitarbeiterbefragung als PE- und OE-Instrument

Mitarbeiterbefragung als PE- und OE-Instrument Mitarbeiterbefragung als PE- und OE-Instrument 1. Was nützt die Mitarbeiterbefragung? Eine Mitarbeiterbefragung hat den Sinn, die Sichtweisen der im Unternehmen tätigen Menschen zu erkennen und für die

Mehr

Eine der Aktien hat immer einen höheren Gewinn als die andere Aktie. Ihre Aufgabe ist es diese auszuwählen.

Eine der Aktien hat immer einen höheren Gewinn als die andere Aktie. Ihre Aufgabe ist es diese auszuwählen. Instruktionen am Anfang von Experiment 1 (auf Papier ausgeteilt: grünmarkierte Textstellen zeigen den Instruktionstext in der jeweiligen Bedingung an; Kommentare sind gelb markiert.) Stellen Sie sich vor,

Mehr

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt. Stock, Nordflügel R. 0-49 (Persike) R. 0- (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de WS 008/009 Fachbereich

Mehr

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen 4.3.2 Zusammengesetzte Zufallsvariablen Beispiel 48 Ein Würfel werde zweimal geworfen. X bzw. Y bezeichne die Augenzahl im ersten bzw. zweiten Wurf. Sei Z := X + Y die Summe der gewürfelten Augenzahlen.

Mehr

1 topologisches Sortieren

1 topologisches Sortieren Wolfgang Hönig / Andreas Ecke WS 09/0 topologisches Sortieren. Überblick. Solange noch Knoten vorhanden: a) Suche Knoten v, zu dem keine Kante führt (Falls nicht vorhanden keine topologische Sortierung

Mehr

Meet the Germans. Lerntipp zur Schulung der Fertigkeit des Sprechens. Lerntipp und Redemittel zur Präsentation oder einen Vortrag halten

Meet the Germans. Lerntipp zur Schulung der Fertigkeit des Sprechens. Lerntipp und Redemittel zur Präsentation oder einen Vortrag halten Meet the Germans Lerntipp zur Schulung der Fertigkeit des Sprechens Lerntipp und Redemittel zur Präsentation oder einen Vortrag halten Handreichungen für die Kursleitung Seite 2, Meet the Germans 2. Lerntipp

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Brückenkurs Mathematik TU Dresden 2015 Lineare Gleichungssysteme Schwerpunkte: Modellbildung geometrische Interpretation Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik auf der

Mehr

Zusammenfassende Beurteilung der Unterrichtsbeispiele für Wirtschaft und Recht

Zusammenfassende Beurteilung der Unterrichtsbeispiele für Wirtschaft und Recht Zusammenfassende Beurteilung der Unterrichtsbeispiele für Wirtschaft und Recht In die Auswertung der Beurteilungen der Unterrichtsbeispiele gingen von Seiten der SchülerInnen insgesamt acht Items ein,

Mehr

8. Berechnung der kalkulatorischen Zinsen

8. Berechnung der kalkulatorischen Zinsen 8. Berechnung der kalkulatorischen Zinsen 8.1. Allgemeines In der laufenden Rechnung werden im Konto 322.00 Zinsen nur die ermittelten Fremdkapitalzinsen erfasst. Sobald aber eine Betriebsabrechnung erstellt

Mehr

Umgang mit Schaubildern am Beispiel Deutschland surft

Umgang mit Schaubildern am Beispiel Deutschland surft -1- Umgang mit Schaubildern am Beispiel Deutschland surft Im Folgenden wird am Beispiel des Schaubildes Deutschland surft eine Lesestrategie vorgestellt. Die Checkliste zur Vorgehensweise kann im Unterricht

Mehr

Ishikawa-Diagramm. 1 Fallbeispiel 2. 2 Was ist ein Ishikawa-Diagramm 2. 3 Vorgehen bei der Erstellung eines Ishikawa-Diagramms 2.

Ishikawa-Diagramm. 1 Fallbeispiel 2. 2 Was ist ein Ishikawa-Diagramm 2. 3 Vorgehen bei der Erstellung eines Ishikawa-Diagramms 2. Ishikawa-Diagramm 1 Fallbeispiel 2 2 Was ist ein Ishikawa-Diagramm 2 3 Vorgehen bei der Erstellung eines Ishikawa-Diagramms 2 4 Vorteile 5 5 Nachteile 5 6 Fazit 5 7 Literaturverzeichnis 6 1 Fallbeispiel

Mehr

Berechnung der Erhöhung der Durchschnittsprämien

Berechnung der Erhöhung der Durchschnittsprämien Wolfram Fischer Berechnung der Erhöhung der Durchschnittsprämien Oktober 2004 1 Zusammenfassung Zur Berechnung der Durchschnittsprämien wird das gesamte gemeldete Prämienvolumen Zusammenfassung durch die

Mehr

Die Methode des Robusten Trends und der CAC40 (Frankreich)

Die Methode des Robusten Trends und der CAC40 (Frankreich) Die Methode des Robusten Trends und der CAC40 (Frankreich) von Dr. Hans Uhlig Zusammenfassung Auch für den CAC40 lässt sich ein robuster Trend bestimmen, wie es für den DAX bereits gezeigt werden konnte

Mehr