Lernziele Experimentelles Praktikum

Größe: px
Ab Seite anzeigen:

Download "Lernziele Experimentelles Praktikum"

Transkript

1 Lernziele Experimentelles Praktikum Inhaltsverzeichnis 1. Theoretischer Hintergrund des Artikels 2. Grundlagen des Experimentierens 3. Schritte der allgemeinen Versuchsplanung 4. Unabhängige Variablen und Abhängige Variablen (und Kovariablen) 5. Fehlervariablen 6. Versuchsmaterial/Durchführung eines Experiments 7. Statistik 8. Wissenschaftliche Berichterstellung 1. Theoretischer Hintergrund des Artikels Folgende Kenntnisse über den Artikel von Roediger und McDermott (1995) werden erwartet: Verstehen der theoretischen Modelle und Argumente. Verstehen der Ziele und Hypothesen. Verstehen von möglichen Einflussfaktoren Kapitel 2:Das Deese/Roediger-McDermott (DRM)-Paradigma Das von Deese, Roediger und McDermott (DRM) entwickelte Paradigma zur Erforschung falscher Erinnerungen wurde erst vor gut 10 Jahren von Roediger und McDermott (1995) in das Forschungsgebiet der Gedächtnisillusionen eingeführt; dennoch hat es eine Fülle von Untersuchungen und theoretischen Überlegungen in dieser Zeit hervorgerufen. Erst seit 2001, nachdem Tulving einen eigenen Namen für das Paradigma vorschlug, sind Untersuchungen unter dem Begriff des DRM-Paradigmas in der Literatur zu finden (Roediger, Watson, Mc- Dermott & Gallo, 2001). In diesem Unterpunkt steht das DRM-Paradigma im Mittelpunkt, wobei zunächst auf seine Entwicklungsgeschichte eingegangen werden soll (2.1). Um die Effekte von falschen Erinnerungen, 1

2 hervorgerufen und abgebildet durch das DRM-Paradigma, zu verdeutlichen, werden die theoretischen Ansätze erläutert (2.2). Zur Klärung der Einflussfaktoren auf falsche Erinnerungen wird in Abschnitt 2.3 ein Überblick über diese gegeben. 2.1 Entwicklung und Bewertung des DRM-Paradigmas Die Erforschung falscher Erinnerungen anhand des Deese/Roediger-McDermott (DRM)- Paradigmas hat in der kognitiven Psychologie einen besonderen Stellenwert erlangt. Zwar handelt es sich um ein noch sehr junges Paradigma (erste Untersuchungen von Roediger & McDermott, 1995), aber es zeigt auf vorbildliche Weise, wie ein innovatives Vorgehen zum Erkenntnisgewinn führen und eine Schrittmacherfunktion in der Forschung übernehmen kann. Die Besonderheit des DRM-Paradigmas besteht darin, dass Roediger und McDermott (1995) bereits bestehende Forschungsbefunde aufgegriffen haben, um sie in ihre Vorgehensweise zu integrieren Forschungsarbeiten von Deese (1959a, 1959b): Die Basis des DRMParadigmas Die Anfänge dieses Paradigmas gründen auf den Forschungsarbeiten von Deese (1959a, 1959b), der sich in den 1950er Jahren der systematischen Untersuchung von Gedächtnisillusionen widmete. Dabei konzentrierte er sich auf die Erforschung assoziativer Prozesse und deren Einfluss auf die Erinnerung. Deese (1959a, p ) war anfänglich der Annahme, dass eine hohe Assoziationsstärke zwischen den Items auf einer stärkeren kognitiven Organisation beruhte und damit zu einer besseren Wiedergabeleistung führen sollte: lists with high inter-item associative strength are more highly organized than those with low inter-item strength. High organization means that the number of items recalled is increased and that resistance to outside intrusion is relatively high. Demzufolge sollte die Assoziationsstärke ein Schutzfaktor gegen Intrusionen sein, welche das falsche Erinnern an nicht präsentierte Wörter darstellten. Er definierte die Assoziationsstärke als durchschnittliche Häufigkeit, mit der die Listenitems die anderen zugehörigen Items in der Freien Assoziation hervorriefen. Zum einen stellte er fest, dass zufällig präsentierte Wörter, die sich in der Freien Assoziation 2

3 als zusammenhängend erwiesen hatten, in der Testphase zusammen abgerufen wurden und die Reihenfolge sich nach deren Assoziationsstärke richtete (Deese, 1959a). Anhand von Wortlisten konnte er, im Einklang mit seiner ersten Annahme, eine Korrelation der Assoziationsstärke zwischen den Wörtern und deren korrekter Wiedergabe nachweisen. Zum anderen fiel ihm, entgegen seiner Annahme, auf, dass hoch assoziierte Wörter aus der Lernphase mit Intrusionen in der Testphase einhergingen. Diese Ergebnisse erklärte er folgendermaßen (Deese, 1959a, S.311): recall consists of a small core of words directly available through immediate memory and of strong free association of these. Recall is good or poor depending, then, upon the tendency of free associations from items within the list to converge upon other items within the list. Somit nahm Deese an, dass die Intrusionshäufigkeit von der Assoziationsstärke der Kategorienitems abhängt. Wenn nicht alle zusammengehörigen Kategorienexemplare präsentiert wurden, kamen falsche Erinnerungen durch die Assoziation der Kategorie zustande. In seiner nachfolgenden Studie griff Deese (1959b) seine Befunde auf und konzentrierte sich auf die Untersuchung von Intrusionsprädiktoren in der Freien Reproduktion. Die assoziative Struktur der Wortliste sah er als ausschlaggebend für das Auftreten dieser Intrusionen an. Um dies empirisch zu belegen wollte er Intrusionen auf der Basis von Wortassoziationsnormen hervorrufen. Er konstruierte 36 Wortlisten, von denen jede Liste aus 12 Items bestand, die am stärksten mit einem nicht präsentierten Wort assoziiert waren. Beispielsweise wurde das kritische Item sleep am häufigsten durch die Liste der Wörter bed, rest, awake, tired, dream, wake, night, blanked, doze, slumber, snore, pillow, peace, yawn, drowsy genannt (Roediger & McDermott, 1995). Den Versuchspersonen wurden jene Listen vorgelesen, die sie anschließend frei reproduzieren sollten. Hier interessierte sich Deese für die Wahrscheinlichkeit mit der das kritische, nicht präsentierte Item fälschlicherweise erinnert wurde. Als Basis dieser Wortlisten verwendete Deese (1959b) die Minnesota Normen für die Kent- Rosanoff Items von Russell und Jenkins (1954), bei denen bereits die Vorwärtsassoziationsstärke ( forward associative strength ) der Listenitems zu den späteren kritischen Items vorlag. 3

4 Die Vorwärtsassoziationsstärke repräsentiert die ersten Assoziationen von Personen zu dem späteren kritischen Item, die sich in einer Wortliste nach ihrer prozentualen assoziierten Häufigkeit anordnen lassen. Alle Listen wurden auf diese Weise konstruiert, jedoch ergab sich ein Unterschied in der Rückwärtsassoziationsstärke ( backward associative strength ). Die Rückwärtsassoziationsstärke stellt die durchschnittliche Wahrscheinlichkeit dar, mit der die Listenitems das kritische, nicht präsentierte Item im Freien Assoziationstest hervorrufen. Anhand seiner Ergebnisse konnte Deese (1959b) feststellen, dass die Wahrscheinlichkeit der freien Reproduktion des kritischen Items in Bezug zur Rückwärtsassoziationsstärke stand. Damit konnte er seine anfängliche Annahme untermauern und seine bisherigen Befunde verständlich machen (Deese, 1959a), die auf die Bedeutung der Listenzusammensetzung für das Entstehen von Intrusionen hinwiesen. Richtige und falsche freie Reproduktionen schienen also entscheidend von der assoziativen Struktur der Wortliste abzuhängen Forschungsarbeiten von Roediger und McDermott (1995) Aufgrund des steigenden Interesses an der Erforschung von false memories in den 1990er Jahren, ausgelöst durch die Debatte um die Glaubwürdigkeit von Zeugenaussagen und wiederbelebten Erinnerungen (Roediger, 1996), wollten Roediger und McDermott (1995) sich diesem Phänomen über kontrollierte Laboruntersuchungen nähern und falsche Erinnerungen reliabel erheben. Durch kritische Analysen der Ergebnisse aus Deeses (1959b) Studie stellten sich die Autoren die Frage, weshalb die Raten der falschen Reproduktion so hoch ausfielen (Roediger et al., 1998). Bisherige Studien wiesen im Gegensatz zu den hohen Intrusionsraten darauf hin, dass Probanden gewöhnlich wenig fehlerhaft in der Freien Reproduktion antworteten (Cofer, 1973; zit. n. Roediger & McDermott, 1995). Es kam der Gedanke auf, dass die Probanden nicht explizit darauf hingewiesen wurden auf das Erraten von Wörtern zu verzichten. Den Autoren war unklar, ob die Probanden den Test zur Freien Reproduktion nicht mit einem Test zur Freien Assoziation verwechselt hatten, wodurch eine solch hohe Intrusionsrate verständlich werden konnte. Mit anderen Worten ausgedrückt, zweifelten Roediger und Mc2 Dermott an der internen Validität der Studie, welche eine Voraussetzung für die zuverlässige Interpretation und Verallgemeinerung der Ergebnisse ist. Die Autoren waren daran interessiert 4

5 die Ergebnisse aus Deeses Studie (1959b) zu replizieren (Roediger et al., 1998). Darüber hinaus wollten sie zur Erhebung falscher Erinnerungen zusätzlich einen Wiedererkennenstest verwenden und prüfen, ob sich Unterschiede richtiger und falscher Erinnerungen auf ein Konfidenzrating auswirken (Roediger & McDermott, 1995). In ihrem ersten Experiment griffen Roediger und McDermott (1995) auf sechs der semantisch assoziierten Listen von Deese (1959b) zurück, die zu den höchsten Raten der falschen Reproduktion geführt hatten. Die aus 12 Items bestehenden Wortlisten waren mit einem kritischen, nicht präsentierten Item hoch assoziiert. Die Wörter waren innerhalb der Liste gemäß ihrer Assoziationsstärke absteigend angeordnet (Roediger & McDermott, 1995). Nach der Präsentation der Items sollten die Probanden zunächst alle Wörter, an die sie sich erinnerten ohne zu raten, reproduzieren, wobei sie mit dem zuletzt gehörten Item beginnen sollten. Die Listen wurden den Probanden so vorgelesen, dass der Abstand zwischen jedem Wort 1,5 Sekunden betrug. Im Anschluss an die Freie Reproduktion folgte ein Wiedererkennenstest, der aus 42 Items bestand, von denen 12 in der Lernphase präsentierte und 30 nichtpräsentierte Items waren. Auf einer vierstufigen Ratingskala wurden die Probanden gebeten die Sicherheit zu ihrem Wiedererkennensurteil anzugeben [(4)= sicher alt, (3)= wahrscheinlich alt, (2) = wahrscheinlich neu, (1)= sicher neu ]. In der Freien Reproduktion wurden die in der Lernphase präsentierten Wörter mit einer Wahrscheinlichkeit von.65 reproduziert. Die kritischen nicht präsentierten Wörter wurden mit einer Wahrscheinlichkeit von.40 fälschlicherweise reproduziert, was der Reproduktionswahrscheinlichkeit der präsentierten Listenitems aus mittlerer Position entsprach. Andere Wörter wurden kaum genannt (.14), daher konnten Rateeffekte ausgeschlossen werden. Die Ergebnisse des Wiedererkennenstests zeigten, dass nicht präsentierte kritische Items mit einer Wahrscheinlichkeit von.84 annähernd genauso häufig wie die präsentierten Listenitems als alt (.86) bezeichnet wurden. Darüber hinaus fiel dieses Urteil in 58% der Fälle mit hoher Sicherheit aus, womit Listen- und kritische Items ein ähnlich hohes Konfidenzrating erhielten. Im Gegensatz dazu wurden die nicht assoziierten Items selten (.02) und leicht assoziierte Items etwas häufiger (.21) fälschlicherweise wiedererkannt. Auch erhielten diese Items ein 5

6 geringeres Sicherheitsurteil. Das zweite Experiment wurde unter den Zielsetzungen durchgeführt, die Ergebnisse des ersten Experiments mit einer größeren Bandbreite von Wortlisten zu replizieren, zu überprüfen, ob ein Zusammenhang zwischen den reproduzierten Items mit den später wiedererkannten Items bestand und wie sich die Rate der falschen Alarme für kritische Items im Wiedererkennenstest veränderte, wenn die entsprechenden Wortlisten vorher nicht präsentiert wurden. Anstelle eines Sicherheitsurteils wurde zur Erfassung der phänomenologischen Erfahrung ein remember/know -Urteil erhoben (Tulving, 1985). Insgesamt wurden 24 Listen verwendet, die jeweils 15 assoziierte Items enthielten. Von diesen 24 Listen wurden den Probanden jedoch nur 16 präsentiert. Nach der Präsentation von acht Wortlisten sollten die Probanden die Items frei reproduzieren und nach den anderen acht Listen lösten die Personen Mathematikaufgaben. Die verbliebenen acht Listen dienten im Wiedererkennenstest als Distraktoren. In diesem Experiment wurden die Listen durch ein Tonbandgerät mit einem Abstand von 1,5 Sekunden zwischen den Listenwörtern vorgegeben. In der folgenden Testphase wurde der Wiedererkennenstest bearbeitet. Zu alt bezeichneten Items sollte ein remember/know - Urteil abgegeben werden. Im Fall einer lebhaften Erinnerung an ein Item sollten die Probanden ein remember -Urteil angeben, das somit eine Erinnerung an spezifische Aspekte beinhaltete. Demgegenüber sollte im Fall einer unspezifischen Erinnerung ein know -Urteil abgegeben werden. Insgesamt bestand der Wiedererkennenstest aus 96 Items, von denen 48 Listenitems aus der Lernphase und 48 neue Items waren. Bei den 48 neuen Items handelte es sich um die 24 kritischen Items aller 24 Listen und um je drei Items aus den acht nicht präsentierten Listen. Die Ergebnisse konnten auch in diesem Experiment eine hohe falsche Reproduktion demonstrieren. Mit einer Wahrscheinlichkeit von.55 wurden die kritischen Items häufiger reproduziert als Listenitems aus mittlerer Position (.47). Im Wiedererkennenstest zeigte sich im Fall der vorherigen Freien Reproduktion eine höhere falsche Wiedererkennensleistung kritischer Items (.81) verglichen mit der Bearbeitung von Rechenaufgaben (.72). Dem Reproduzieren folgte ein höherer Anteil von falschen remember - 6

7 Urteilen (.58) als dem Lösen von Rechenaufgaben (.38). Die Ergebnisse zu den remember/ know -Urteilen überraschten, da falsche Erinnerungen an nicht präsentierte Items bisher durch know -Urteile gekennzeichnet waren (Rajaram, 1993), jedoch in dieser Studie mit einem hohen remember -Urteil einhergingen Bewertung des DRM-Paradigmas Rückblickend kann zum DRM-Paradigma festgehalten werden, dass Deeses (1959a, 1959b) Arbeiten den Anstoß für die systematische Erforschung von falschen Erinnerungen für Roe2 diger und McDermott (1995) gaben. Das grundlegende Paradigma von Deese (1959a, 1959b) zur Induktion und Erhebung von Gedächtnisillusionen griffen sie auf und weiteten es auf den Wiedererkennenstest aus (Roediger et al., 1998). Man spricht von einem DRM-Paradigma, wenn durch semantisch assoziierte Wortlisten falsche Reproduktionen und falsches Wiedererkennen hervorgerufen werden. Das DRM-Paradigma hat entscheidend zum Erkenntnisgewinn falscher Erinnerungen beigetragen, da es zuverlässig durch die semantisch assoziierten Wortlisten diese Erinnerungseffekte hervorrufen kann (Blair, Lenton & Hastie, 2002; Roediger & McDermott, 1995). Anhand dieses Paradigmas lässt sich nicht nur die Anzahl, sondern auch die Genauigkeit der Erinnerungen erheben. Da das DRM-Paradigma durch ein standardisiertes Vorgehen im Labor gekennzeichnet ist, erreicht der Untersucher ein hohes Maß an experimenteller Kontrolle einhergehend mit einer sehr zufrieden stellenden Objektivität und internen Validität (Payne, Elie, Blackwell & Neuschatz, 1996). Auch Ghetti et al. (2002) verweisen auf diesen Aspekt, indem sie das DRM-Paradigma mit klassischen Interviews zu tatsächlich erlebten Erinnerungen vergleichen. Während in den Interviews die Antworten durch soziale Erwünschtheit verfälscht sein können, wird dies im DRM-Paradigma dadurch umgangen, dass die Probanden instruiert sind, möglichst viele Listenitems und nur diese zu erinnern. Um die Validität des Ergebnisses im DRM-Paradigma zu sichern, werden Antwortkriterien und Sensitivitätsmaße bestimmt (Gallo, Roediger & McDermott, 2001b; Miller & Wolford, 1999; Wickens & Hirshman, 2000; Wixted & Stetch, 2000), so dass geprüft werden kann, ob die Personen sich an die Instruktion gehalten und gemäß dieser geantwortet haben. 7

8 Blair et al. (2002) widmeten sich der Untersuchung der Reliabilität des DRM-Paradigmas und stellten fest, dass sowohl falsche als auch richtige Erinnerungen als reliabel bezeichnet werden können. Retestkoeffizienten des zweiwöchigen Zeitabstandes der Untersuchungen weisen auf eine bedeutende Stabilität der Erinnerungen hin. Zu beiden Messzeitpunkten produzierten die Probanden ein ähnliches Maß richtiger und falscher Erinnerungen. Obwohl es sich nicht um identische Listen bei beiden Messzeitpunkten handelte, erzielten jene Versuchspersonen, die im ersten Test einen hohen Anteil falscher Erinnerungen hatten auch im zweiten Test ein vergleichbares Ausmaß, womit die falschen Erinnerungen des ersten Messzeitpunktes zuverlässige Prädiktoren für die falschen Erinnerungen des zweiten Messzeitpunktes waren. Die Autoren schlussfolgern, dass die Reliabilität falscher Erinnerungen im DRM-Paradigma nicht durch allgemeine Antworttendenzen erklärt werden kann. Wortintrusionen der kritischen Items können in der Freien Reproduktion reliabel erzielt werden (Deese, 1959b); zudem lassen sich im Wiedererkennenstest zuverlässig falsche Erinnerungen testen (Roediger & McDermott, 1995). Der Vorteil des DRM-Paradigmas zeigt sich darin, dass es nicht an eine bestimmte Testart gebunden ist: Nicht nur verschiedene explizite Tests (Reproduktion und Wiedererkennen), sondern auch verschiedene implizite Tests (konzeptuelle und perzeptuelle) bilden das Gedächtnisphänomen falscher Erinnerungen ab (Mc- Dermott, 1997). Zwar sind die Raten falscher Erinnerungen dahingehend unterschiedlich, dass sie im Wiedererkennenstest höher ausfallen als in der Freien Reproduktion (Roediger & McDermott, 1995) und dass sie deutlicher in konzeptuellen als in perzeptuellen Tests vorzufinden sind (McDermott, 1997), aber diese Befunde liefern damit ein differenzierteres Verständnis falscher Erinnerungen. Ein Kritikpunkt der Untersuchungen zum DRM-Paradigma richtet sich auf die geringe externe Validität, da viele Untersuchungen im Labor stattfanden und Studenten als Stichprobe nutzten (Roediger & McDermott, 1995). Auch ist es schwierig diese Untersuchungen auf Fragestellungen zur Missbrauchsdebatte zu übertragen (s.o.). Demnach wären die Ergebnisse nur bedingt interpretierbar und generalisierbar. Das DRM-Paradigma hat in der Forschung trotz solcher ungeklärter Probleme einen hohen 8

9 Stellenwert erlangt, da es zum einen eine zuverlässig hohe Anzahl falscher Erinnerungen hervorrufen kann und zum anderen einen phänomenologischen Vergleich richtiger und falscher Erinnerungen ermöglicht, was sich im remember -Urteil der Probanden widerspiegelt (Miller & Wolford, 1999; Payne et al., 1996; Roediger & McDermott, 1995). Auch liegt ein großer Vorteil des Paradigmas darin, dass es verschiedenen Stichproben vorgegeben werden kann. Demnach lassen sich falsche Erinnerungen älterer und jüngerer Erwachsener miteinander vergleichen (Norman & Schacter, 1997; Schacter, Israel & Racine, 1999), ebenso ist ein Kontrast dieser Gruppen mit älteren und jüngeren Kindern, aber auch eine alleinige Untersuchung der falschen Erinnerungen im Kindesalter möglich (Brainerd et al., 2002a). Auf diese Weise lassen sich Aussagen über Entwicklungstrends falscher Erinnerungen treffen. Darüber hinaus kann durch das DRM-Paradigma das Verständnis unterschiedlicher Krankheitsbilder erweitert werden: Einige Untersuchungen nutzten es, um die kognitiven Beeinträchtigungen Amnesie- und Demenzerkrankter genauer zu erfassen und um uneingeschränkte kognitive Funktionen ausfindig zu machen (Norman & Schacter, 1997; Schacter, Verfaillie & Pradere, 1996). Zudem erweist sich das DRM-Paradigma nicht nur in der Grundlagenforschung als nützlich, es hat auch zu einem Erkenntnisgewinn in angewandten Disziplinen geführt. Nicht nur Kinder, auch Erwachsene unterliegen dem Gedächtnisphänomen falscher Erinnerungen, welches die Genauigkeit von Zeugenaussagen bei Gericht beeinträchtigen kann (Migueles & Garcia- Bajos, 1999). Auch die Erkenntnis, dass falsche Erinnerungen durch ein Gefühl der lebhaften Erinnerung gekennzeichnet sein können, relativiert die Glaubwürdigkeit wiedererlebter Kindheitserinnerungen, besonders im Rahmen von (Psycho-)Therapien (Andrews, 1997; Gudjonsson, 1997; Loftus, 1993; Roediger, et al., 1997). Quelle: Dissertation: Alterskorrelierte Veränderungen von falschen Erinnerungen? Eine experimentelle Studie an Kindern und jungen Erwachsenen vorgelegt von Anette Jammers (2007) 9

10 2. Grundlagen des Experimentierens Abgrenzung von echten Experimenten zu anderen Ansätzen Das Experiment als Forschungsansatz: Grundlegend unterscheiden sich Forschungsansätze danach, wie stark die Merkmale eines experimentellen Ansatzes ausgeprägt sind. Hier kann von einem Kontinuum gesprochen werden. Experimente sind durch vier Merkmale gekennzeichnet, die in der Praxis unterschiedlich stark ausgeprägt sein können. Abbildung: Merkmale von Experimenten Beschreibbarkeit der Versuchsbedingungen ist ein zentrales Merkmal von Experimenten. Die Beschreibbarkeit der Bedingungen ist die Grundlage dafür, dass die Ergebnisse sinnvoll interpretiert werden können und dass das Experiment von anderen Forschern wiederholt werden kann. Natürlich kann man gerade in der Psychologie nie alle Bedingungen beschreiben, wird sich daher auf die vermutlich bedeutsamen Bedingungen beschränken. Selbst wenn es sich nicht um ein Experiment handelt ist die Beschreibbarkeit der Versuchsbedingungen für sämtliche Studien ein zentrales Qualitätsmerkmal. Willkür kennzeichnet die Möglichkeit die unabhängige Variable bzw. die unabhängigen Variablen frei manipulieren zu können. Erst durch diese willkürliche Manipulation können wirklich zuverlässig Ursache-Wirkungs-Zusammenhänge überprüft oder gefunden werden. Willkürliche Manipulation von Variablen ist gerade in der Feldforschung häufig nicht möglich. Man wird bei 10

11 einem breiten Kundenstamm nicht die Vertrauenstreiber in Mobilfunkanbieter willkürlich gestalten können, muss sich hier also auf zufällige Variation verlassen. Kontrolle von Störvariablen ist en zentrales Qualitätsmerkmal von allen Forschungsstudien, sowohl in Praxis als auch in der Wissenschaft. Wirken Störvariablen wie etwa Erwartungen des Versuchsleiters, Stimmungen der Versuchspersonen oder Ablenkung durch Lärm, sind Ergebnisse letztendlich nicht brauchbar, mit äußerster Vorsicht zu interpretieren. Es ist also wichtig, Störvariablen ganz auszuschalten oder zumindest zu erheben, um ihre Effekte abschätzen und aus den Ergebnissen heraus rechnen zu können. Wiederholbarkeit ist stark Abhängig von der Beschreibbarkeit der Versuchsbedingungen der Willkür und der Kontrolle von Störvariablen. Sie ist eine Voraussetzung für wissenschaftliche Forschung überhaupt, da Wiederholbarkeit das Überprüfen der Ergebnisse ermöglicht und es ermöglicht, Experimente zu erweitern und neue Fragestellungen zu überprüfen. In der Psychologie gestaltet sich diese Forderung wesentlich schwieriger als in anderen Wissenschaften. Meist kann man z. B. nicht dieselben Versuchspersonen verwenden, da sich hier Trainingseffekte zeigen. Man wird sich also einer Wiederholung unter gleichen Bedingungen soweit möglich annähern. Abbildung: Experiment und Quasi-Experiment Das Ideal eines echten Experimentes kann nie voll erreicht werden. Häufig wird man bei 11

12 wirtschaftspsychologischen Fragestellungen daher mit so genannten Quasiexperimenten arbeiten. Diese sind dadurch gekennzeichnet, dass eine Variation bei einer unabhängigen Variable nicht in der Hand des Forschers liegt aber von einem Unternehmen durchgeführt wird. Etwa eine Preisänderung oder eine neuartige Marketingkommunikation. Die willkürliche Variation der unabhängigen Variable ist also nicht gegeben. Zudem ist auch die Wiederholbarkeit bei Ereignissen im Feld meist nicht möglich, zumindest sehr schwer. Auch Störvariablen lassen sich hier nicht gut kontrollieren. Das Ideal eines echten Experimentes kann daher in Laborumgebungen am besten erreicht werden, bei Feldstudien ist ein echtes Experiment dagegen sehr schwer umsetzbar. Die allermeisten Designs in der Forschungspraxis sind so genannte Ex-post-facto-Designs. Ex-post-facto-Designs erheben lediglich Daten zu einem Zeitpunkt und ohne jegliche Manipulation einer unabhängigen Variablen. Ein klassisches Beispiel wäre eine Kundenbefragung oder eine Mitarbeiterbefragung. Zusammenhänge von Variablen können dann nur durch statistische Korrelationen aufgezeigt werden. Eine Feststellung von Ursache und Wirkung ist bei solchen Designs allerdings nicht möglich. Zusammenhänge müssen hier dann rein mit Logik und Theorie interpretiert werden. Veränderung der Ausgangsbedingungen mit Erfassung der Folgezustände Echtes Experiment: Erfassung von Ursache-Wirkungszusammen-hängen durch systematische und willkürliche Veränderung der Ausgangsbedingungen und exakte Erfassung der Folgezustände durch den Vergleich von Experimental- und Kontrollgruppen. Um ein Experiment handelt es sich nur dann, wenn 1. eine Unterscheidung von unabhängigen (uv) und abhängigen Variablen (av) möglich ist, 2. die uv der av stets vorausgeht und 3. die Daten von wenigstens zwei Probandengruppen verglichen werden. Experimentelle Forschungsdesigns prüfen eine Hypothese, indem sie die unabhängige Variable gezielt manipulieren und den Einfluss von Störvariablen durch Konstanthaltung der Versuchsbedingungen, Elimination, Randomisierung oder Parallelisierung kontrollieren. Man unterscheidet zwei Arten von Experimenten: Labor- und Feldexperiment. Der Vorteil von Laborexperimenten ist, dass die Versuchsbedingungen in hohem Maße kontrolliert werden können, was eine hohe interne Validität 12

13 sicherstellt. Dagegen haben Feldexperimente oft den Vorteil, dass sie aufgrund der natürlichen Umgebung, in der sie durchgeführt werden, eine hohe externe Validität aufweisen. Quasi-experimentelle Untersuchung: Anders als bei Experimenten erfolgt die Zuweisung der Versuchspersonen zu den Experimental- und Kontrollgruppen in Untersuchungen mit quasi-experimentellem Versuchsplan nicht durch Randomisierung oder Parallelisierung, sondern aufgrund vorhandener Eigenschaften der Versuchsobjekte, wie Alter, Geschlecht, Raucher/Nichtraucher, Mitgliedschaft in einer Gruppe usw. Zum Beispiel fragte die Kultivierungsforschung nach Einstellungsunterschieden beim Fernsehkonsum; Personen mit hohem Fernsehkonsum wurden der Experimentalgruppe, Personen mit geringem Fernsehkonsum der Kontrollgruppe zugeordnet. Im sogenannten natürlichen Experiment erfolgt die Zuordnung aufgrund von natürlichen, nicht kontrollierten Ereignissen wie der Einführung eines neuen Schultyps oder der Verbreitung eines neuen Mediums. Quasi-experimentelle Untersuchungen ermöglichen keinen Rückschluss auf kausale Zusammenhänge, da nicht feststellbar ist, ob die unabhängige Variable die abhängige bedingt oder umgekehrt und ob beide Ereignisse konfundiert sind. Wiederholbarkeit von Experimenten Reproduzierbarkeit bezeichnet die Wiederholbarkeit von empirisch-wissenschaftlichen Forschungsergebnissen; man spricht auch von Replizierbarkeit. Sie ist eine Grundanforderung an wissenschaftliche Experimente, Messungen und Analysen: Unter gleichen Versuchsbedingungen müssen gleiche Ergebnisse erzielt werden, was als Replikation eines Versuchs bezeichnet wird. Um die Reproduzierbarkeit nachweisen zu können, gehört eine ausreichende Protokollierung von experimentellem Aufbau und Versuchsdurchführung zur guten naturwissenschaftlichen Praxis. Ein experimentelles Ergebnis gilt erst als verlässlich, wenn es von einem unabhängigen Forscher/Forschergruppe nachvollzogen worden ist. siehe auch Kap Schluss auf die Sachhypothese Buch: Das psychologische Experiment: eine Einführung, Oswald Huber Definition von interner und externer Validität Randomisierte Experimente sind insbesondere durch eine zufällige (randomisierte) Verteilung der 13

14 Versuchspersonen auf die Experimental- und die Kontrollgruppen gekennzeichnet. Bei Quasi-Experimenten bestimmen bereits vorhandene Eigenschaften der Versuchspersonen (z. B. der tägliche Fernsehkonsum), ob sie zur Experimental- oder Kontrollgruppe gezählt werden. Den Versuchsplan echter Experimente nennt man experimentelles Design, den Versuchsplan von Quasi-Experimenten quasi-experimentelles Design. Die möglichen Kombinationen der oben genannten Designs unterscheiden sich entsprechend nachfolgender Tabelle hinsichtlich der internen und der externen Validität (Gütekriterium). Interne Validität liegt vor, wenn die Veränderung der abhängigen Variable eindeutig auf die Variation der unabhängigen Variable zurückgeführt werden kann (keine Alternativerklärung). Externe Validität liegt vor, wenn das Ergebnis in der Stichprobe auf andere Personen, Situationen und Zeitpunkte generalisiert werden kann. Interne und Externe Validität bei Experiment und Quasi-Experiment Die externe Validität auch Allgemeingültigkeit, Verallgemeinerungsfähigkeit oder ökologische Validität (vgl. Ökologischer Fehlschluss) bezeichnet die Übereinstimmung von tatsächlichem und intendiertem Untersuchungsgegenstand. Grundidee ist hier die Frage nach der Generalisierbarkeit (Induktion). Regelmäßig führt man zuerst Studien an kleinen und leicht zu erreichenden Gesamtheiten durch, etwa seinen Studenten oder Patienten. Eine fälschliche Generalisierung bedeutet z.b.: Obgleich man durch viele Beispiele von gravierenden Irrtümern gewarnt sein sollte, geschieht es doch immer noch sehr schnell und gerne, dass für die so gewonnenen Ergebnisse eine Allgemeingültigkeit in Anspruch genommen wird, die häufig illusorisch ist. Ärzte beispielsweise überschätzen häufig die Schwere und die Häufigkeit von Krankheiten und Komplikationen, weil sie nur diese Fälle zu sehen bekommen; Psychiater unterschätzen genauso regelmäßig den Einfluss von psychiatrischer Hospitalisierung und Komorbiditäten, weil sie sich daran gewöhnt haben. Das korrekte Vorgehen ist also, nach einer solchen explorativen Studie eine repräsentative durchzuführen; freilich ist dies in jedem Falle aufwändig und bisweilen auch sehr schwierig. Stichprobenbias bezeichnet die Abweichung einer konkreten Stichprobe von dem Ideal einer streng 14

15 zufälligen Auswahl aus der richtigen Grundgesamtheit. Interne Validität : Ein Experiment besitzt dann eine hohe interne Validität (oder Ceteris-Paribus- Distributionibus-Validität), wenn Veränderungen im Verhalten der Versuchsperson (abhängige Variable) eindeutig auf die bewusste Veränderung der unabhängigen Variable (Treatment) zurückzuführen sind. Um dies zu gewährleisten, müssen Störvariablen kontrolliert bzw. durch verschiedene Methoden, wie Elimination, Randomisierung, Konstanthaltung und Parallelisierung ausgeschaltet werden. randomisiert quasi-experimentell Feld interne Validität hoch / externe Validität hoch interne Validität niedrig / externe Validität hoch Labor interne Validität hoch /externe Validität niedrig interne Validität niedrig /externe Validität niedrig Quellen, die die interne Validität beeinträchtigen: Zwischenzeitliches Geschehen (Ereignisse, die zusätzlich neben dem Stimulus die abhängige Variable beeinflussen, z. B. Schwarzer Freitag ) Reifungsprozesse ( intrapersonale Prozesse, die unabhängig vom Stimulus sind, z. B. Entwicklung eines Kleinkindes) Messeffekte (engl. testing effects) Hilfsmittel (Veränderung im Messinstrument), das kann auch die unwillentliche Änderung der Gestik beim Versuchsleiter sein Verzerrte Auswahlen und Ausfälle (Unterschied zwischen Kontroll- und Experimentalgruppen nicht nur in Bezug auf den Stimulus, sondern auch in anderen Merkmalen, die die abhängige Variable beeinflussen) Quellen, die die externe Validität beeinträchtigen: Reaktivität (Reaktive Effekte des Messens), zum Beispiel in Form des Effekts sozialer Erwünschtheit Reaktive Effekte der experimentellen Situation, Messeffekte auf Versuchspersonen Sind Störfaktoren und Stimulus vermischt, spricht man von einer Konfundierung 15

16 siehe auch Kap Arten der Validität im Experiment, Kontrolle von Störvariablen Buch: Das psychologische Experiment: eine Einführung, Oswald Huber Max-Min-Kon-Prinzip: Effekt maximieren, Fehlervarianz minimieren, Fehlervariablen konstant halten Das Max-Kon-Min-Prinzip der Versuchsplanung geht auf Kerlinger (1973) zurück und bildet die Grundlage jedes Experiments, aus dem Kausalschlüsse gezogen werden sollen. Mit der Berücksichtigung des Max-Kon- Min-Prinzips wird ein Experiment also intern valide. Das Prinzip fordert drei Aspekte, die beachtet werden müssen, wenn man von den Änderungen der AV gültige Rückschlüsse auf die Wirkung einer UV ziehen möchte. Der erste Aspekt betrifft die Primärvarianz. Diese ist die tatsächlich durch die Wirkung der UV entstandene Varianz. Folglich muss dieser Teil der Varianz möglichst hoch ausfallen er muss maximiert werden. Dies kann durch die Wahl von Extremgruppen als Stichprobe, die Auswahl von optimalen Stufen der UV oder die Umwandlung eines Störfaktors in eine weitere experimentelle Variable geschehen (Sarris, 1992). Der zweite Aspekt des Max-Kon-Min-Prinzips bezieht sich auf die Sekundärvarianz, also die durch kontrollierte Drittvariablen entstandene Varianz. Für diesen Varianzanteil wird eine maximale Kontrolle angestrebt, die Sekundärvarianz soll also kontrolliert werden. Hierfür existieren einige spezielle experimentelle Techniken (vgl. Kontrolltechniken). Auch bei der Datenauswertung kann die Sekundärvarianz kontrolliert werden, indem die Kontrollvariablen in statistischen Verfahren berücksichtigt werden. Der dritte Aspekt des Prinzips betrifft die unsystematische Fehlervarianz. Da dieser Varianzanteil nicht kontrollierbar ist, muss versucht werden, ihn so gering wie möglich zu halten, d. h. ihn zu minimieren. Die Techniken zur Kontrolle der Sekundärvarianz beinhalten teilweise auch Möglichkeiten zur Minimierung des Zufallsfehlers. Weiterhin tragen Wiederholungs- oder Blockpläne, eine standardisierte Untersuchungssituation und hohe Reliabilitäten und Validitäten der verwendeten Messinstrumente zur Minimierung der unsystematischen Fehlervarianz bei (Sarris, 1992). Zusammenfassend lautet das Max-Kon- Min-Prinzip "Maximiere die Primärvarianz, kontrolliere die Sekundärvarianz und minimiere die [unsystematische] Fehlervarianz!" Buch: Sarris, V. (1992). Methodologische Grundlagen der Experimentalpsychologie. Band 2: Versuchsplanung und Stadien des psychologischen Experiments. München: Reinhardt. 16

17 3. Schritte der allgemeinen Versuchsplanung Die aufgelisteten Punkte stellen die allgemeinen Schritte bei der Planung eines Experimentes dar. Es wird erwartet, dass die Kenntnis davon haben, welches diese Planungsschritte sind. Präzisierung der Fragestellung (beobachtete Merkmale, Einflussgrössen und Störgrössen) Wahl des statistischen Modells; Konstruktion der geeigneten Versuchsanordnung; Wahl der Auswertungsmethode; Wahl der Versuchsgrösse Präzisierung der Fragestellung und Hypothesen: Nachdem ein eigenes Thema gefunden wurde und die Literaturrecherche abgeschlossen ist, wird eine oder mehre Fragestellungen formuliert. Sie dient der Eingrenzung und Präzisierung des häufig komplexen Untersuchungsgegenstands. Die Fragestellung sollte aus der Literatur abgeleitet (begründet) und möglichst präzise formuliert sein. Ist die Fragestellung zu ungenau, kann es schwierig werden, diese zu überprüfen. Im Anschluss an die Fragestellungen werden die Hypothesen formuliert bzw. aus der Fragestellung abgeleitet. Dieser Schritt ist vor allem bei den quantitativen Methoden unerlässlich. Während eine Fragestellung noch unspezifisch formuliert sein kann, muss in der Hypothese erkennbar sein, welche Zusammenhänge oder Unterschiede untersucht werden sollen und welches der Untersuchungsgegenstand (relevante Merkmale) ist. Wissenschaftliche Hypothesen müssen somit bestimmten Kriterien genügen. Allgemein wird unter einer Hypothese eine Annahme, Vermutung oder unbewiesene Voraussetzung verstanden. Ausgangspunkt ist eine ausformulierte Idee als Arbeitsgrundlage mit der Absicht, sie zu beweisen oder zu widerlegen. Unter wissenschaftlichen Hypothesen (auch Forschungshypothesen) werden Annahmen verstanden, in denen eine Beziehung zwischen zwei oder mehreren Variablen behauptet wird, die für eine bestimmte Grundgesamtheit. Zudem beziehen sich Hypothesen auf reale und empirisch zugängliche Sachverhalte (vgl. Bortz & Döring, 2002, Sedlmeier & Renkewitz, 2008). Wissenschaftliche Hypothesen müssen bestimmten Kriterien genügen. Zu diesen gehören: - Allgemeingültig (über den Einzelfall oder ein singulären Ereignis hinausgehende Behauptung) - Operationalisierbarkeit (Begriffen müssen Beobachtungen zuordenbar sein) - Widerspruchsfreiheit (Es sind keine Widersprüche enthalten.) - Falsifizierbarkeit (Es sind Ereignisse denkbar, die dem Satz widersprechen) - Formalstruktur eines sinnvollen Konditionalsatzes ( Wenn-dann-Satz / Je-desto-Satz ) - Begründet sein, d.h. die Herleitung der Hypothese sollte nachvollziehbar sein. 17

18 siehe auch Kap. 4. Die wichtigsten Schritte bei einem Experiment Buch: Das psychologische Experiment: eine Einführung, Oswald Huber Buch: Versuchsplanung und experimentelles Praktikum, Arndt Bröder Buch: Forschungsmethoden und Evaluation : für Human- und Sozialwissenschaftler, Bortz & Döring (2002) 18

19 Buch: Forschungsmethoden und Statistik in der Psychologie, Sedlmeier & Renkewitz (2008) 4. Unabhängige Variablen und Abhängige Variablen (und Kovariablen) Definition von abhängigen Variablen und unabhängigen Variablen siehe auch Kap Typen von Variablen im Experiment Buch: Das psychologische Experiment: eine Einführung, Oswald Huber Unterscheidung zwischen theoretischen Konstrukten und deren Operationalisierung Ein Konstrukt ist ein nicht empirisch erkennbarer Sachverhalt innerhalb einer wissenschaftlichen Theorie. Konstrukte sind somit gedanklicher bzw. theoretischer Natur. Das bedeutet nicht, dass der betreffende Sachverhalt nicht existiert, sondern nur, dass er aus anderen, messbaren Sachverhalten (Indikatoren) erschlossen wird. Daher spricht man auch von latenten Konstrukten Der Prozess des Erschließens heißt Operationalisierung. siehe auch Kap. 4.2 Operationalisieren und Messen Buch: Das psychologische Experiment: eine Einführung, Oswald Huber Worin besteht der Unterschied zwischen Gruppierungs- vs. Wiederholungsfaktoren Begriffe zur Varianzanalyse: Gruppierungsfaktor (grouping factor): die Schichten des Faktors entsprechen unabhängigen Stichproben z.b. Geschlecht, Alter. Die Beobachtungen der einzelnen Stufen eines Wiederholungsfaktors sind im Allgemeinen korreliert. Messwiederholungsfaktor (repeated measures factor): die Schichten des Faktors entsprechen abhängigen Stichproben Zielvariable (abhängige Variable): Die metrische Zufallsvariable, deren Wert durch die kategorialen Variablen erklärt werden soll. Die abhängige Variable enthält Messwerte. Einflussvariable (Faktor; unabhängige Variable) 19

20 Die kategoriale Variable (= Faktor), die die Gruppen vorgibt. Ihr Einfluss soll überprüft werden, sie ist nominalskaliert. Die Kategorien eines Faktors heißen dann Faktorstufen. Diese Bezeichnung ist nicht identisch mit jener bei der Faktorenanalyse. Versuchspläne mit wiederholter Messung: Bei diesen Designs wird eine Versuchsgruppe zu verschiedenen Zeitpunkten untersucht. Auch bei diesen Plänen muss zwischen Zweistichproben- und Mehrstichprobenversuchsplänen sowie einfaktoriellen, zweifaktoriellen und mehrfaktoriellen Versuchsplänen unterschieden werden. Anmerkung: Bei Messwiederholungsplänen werden die einzelnen Probanden nach unten, die Zeit (W = Wiederholungsmessung) nach rechts angetragen. Varianzanalyse: Zweifaktorielle rmanova (repeated measurements) Ziel: Analyse des Einflusses zweier unabhängiger Variablen (UVn) auf eine abhängige Variable (AV). Die AV muss dabei stetig sein (intervallskaliert) die UVn sind i.d.r nominal- oder ordinalskaliert Einer der Faktoren ist ein Messwiederholungsfaktor, der andere ein Gruppierungsfaktor, d.h. ein Faktor, der wie in der ANOVA für unabhängige verschiedene Gruppen von Merkmalsträgern definiert. Für die Stufen des Messwiederholungsfaktors gelten die Voraussetzungen der rmanova: Die Beobachtungen müssen abhängig sein Die Fehler innerhalb einer Person sollen normalverteilt sein mit einem Erwartungswert von 0. Die Varianzen der Differenzen zwischen den Treatmentstufen müssen gleich sein. Sphärizitätsannahme. Für die Stufen des Gruppierungsfaktors gelten die Zweifaktorielle rmanova (repeated measurements). Voraussetzungen der unabhängigen ANOVA: Die Beobachtungen müssen unabhängig sein. Die Fehler in jeder Treatmentstufe sollten normalverteilt sein mit einem Erwartungswert von 0. Die Fehlervarianzen in jeder Treatmentstufe sollen gleich sein (Homoskedastizität). Treatmenteffekt und Fehler müssen additiv sein, d.h. die Fehler dürfen nicht mit den Erwartungswerten der Treatmentstufen korrelieren. Buch: Multivariate Analysemethoden: Eine anwendungsorientierte Einführung: Eine Anwendungsorientierte Einführung (Springer-Lehrbuch). Klaus Backhaus, Kap. 2. Varianzanalysen. oder siehe auch: 20

21 Kombination von unabhängigen Variablen Auf welche Arten können unabhängige Variablen kombiniert werden In der Varianzanalyse geht es allgemein um die Fragestellung, wie sich eine oder mehrere unabhängige Variablen auf eine oder mehrere abhängige Variablen auswirken. Sie stellt damit eine Verallgemeinerung des t-tests dar. Unabhängige Variablen werden im Zusammenhang mit der Varianzanalyse als Faktoren bezeichnet. Sie können ein beliebiges Skalenniveau aufweisen. Häufig handelt es sich um qualitative, nominalskalierte Variablen. Die einzelnen qualitativen Ausprägungen eines Faktors werden als Faktorstufen bezeichnet. Wichtig ist in diesem Zusammenhang, daß jede Versuchsperson eindeutig einer Faktorstufe beziehungsweise einer Kombination von verschiedenen Faktorstufen zugeordnet werden kann. Wird lediglich ein Faktor betrachtet, so spricht man von einer einfaktoriellen Varianzanalyse. Werden mehr als eine Faktor untersucht, so spricht man von einer mehrfaktoriellen Varianzanalyse. Im Gegensatz zu den Faktoren, handelt es sich bei den in einer Varianzanalyse betrachteten abhängigen Variablen immer um quantitative, intervallskalierte Variablen. Wird genau eine abhängige Variable betrachtet, so spricht man von einer univariaten Varianzanalyse. Werden mehr als eine abhänige Variable untersucht, so spricht man von einer multivariaten Varianzanalyse. Die verschiedenen, in der Varianzanalyse möglichen Variablenkonstellationen sind in der folgenden Tabelle nochmals zusammengefaßt: Anzahl der unabhängigen Variablen Anzahl der abhängigen Variablen 1 > 1 1 > 1 einfaktorielle, univariate Varianzanalyse einfaktorielle, multivariate Varianzanalyse mehrfaktorielle, univariate Varianzanalyse mehrfaktorielle, multivariate Varianzanalyse 21

22 Worin besteht eine vollständige Kreuzung von Faktoren und wieso stellt sie üblicherweise den Idealfall dar? vollständig gekreuzter Versuchsplan: Realisierung aller Bedingungskombinationen, die sich aus der gewählten faktoriellen Anlage ergeben hierarchischen Versuchsplan oder auch Versuchpslan mit eingenisteten Faktoren: (Die Regel) Werden weniger als die maximal mögliche Anzahl von Bedingungskombinationen realisiert Klassifikation: vollständige Kreuzung vs. Hierarchisierung der Faktoren Welche Vor- und Nachteile weisen Wiederholungs- resp. Gruppierungsfaktoren auf? Nicht immer sind beide Varianten implementierbar Interferenzen zwischen Bedingungen bei Wiederholungsfaktoren Verständnis einer vollständigen Kreuzung und ihrer Vorteile Vorteile Aufgrund der geringen benötigten Probandenzahl handelt es sich hier um ein sehr ökonomisches Design. Zudem tritt eine geringere interindividuelle Varianz als bei Einfachmessungen auf, die Wirksamkeit experimenteller Effekte (Primärvarianz) ist also leichter nachweisbar. Nachteil Probleme entstehen, wenn sog. Carry-over-Effekte (Übertragungseffekte) auftreten, also evtl. ein Teil des Effekts bei Y2 auf Effekte des Treatments A1 zurückzuführen ist. Dieses Problem lässt sich entweder durch die Wahl eines hinreichend großen Zeitabstandes oder aber auch über die komplette Ausbalancierung der Reihenfolge der Versuchsbedingungen lösen. Wenn keine komplette Ausbalancierung vorliegt, handelt es sich um ein quasiexperimentelles Design. Bemerkung: Eine Ausbalancierung bei zwei Versuchsgruppen und zwei Zeitpunkten wird auch als Crossover-Design bezeichnet. Zusammenfassend Messwiederholung: Eine Person wird in mehreren experimentellen Bedingungen Gemessen. Eine Person gibt mehrere Datenpunkte ab. Die Daten sind voneinander abhängig Messwiederholter Faktor Vorteile: 22

23 Probandenmerkmale werden kontrolliert Weniger Versuchspersonen benötigt Nachteile Spezielle Störeffekte der Messwiederholung Sequenzeffekte 5. Fehlervariablen siehe auch Kap. 1 Empirische Forschung im Überblick, Abschnitt Kausale Hypothesen, Messfehler und Störvariablen Kap. 8 Hypothesenprüfende Untersuchungen,, Abschnitt Unterschiedshypothesen, Kontrolltechniken Buch: Forschungsmethoden und Evaluation, Bortz & Döring Definition von Fehlervariablen Definition nicht-konfundierende Fehlervariablen (Rauschvariablen) In einem Experiment wird getestet, ob eine Zufallsvariable Einfluss auf eine Zufallsvariable hat. Beeinflusst aber neben der bekannten Variable auch eine unbekannte Störvariable die Zufallsvariable, dann spricht man von Konfundierung. Wenn eine dritte Variable zwei Zufallsvariablen beeinflusst, dann wird die kausale Interpretation der Effekte verfälscht. Konfundierung ist eine Möglichkeit dieser Verfälschung. Sie ist von zwei Bedingungen abhängig: Eine Störvariable hängt mit der unabhängigen Variable stochastisch zusammen. Störvariable verändert den regressiven Zusammenhang zwischen der abhängigen Variable und der und der unabhängigen Variable. Mathematisch ausgedrückt ist eine Regression konfundiert, wenn gilt: Die Ereignisse und sind stochastisch abhängig und Definition konfundierende Fehlervariable (Störvariablen); Fehlervariablen der VP: Positionseffekte, Carry-Over-Effekte, (un-)vollständiges Ausbalancieren, Randomisieren, Lateinische Quadrate Fehlervariablen Konfundierende Fehlervariablen: Störvariablen Storen die Interpretation des Experiments 23

24 Nicht-konfundierende Fehlervariablen: Rauschvariablen Z.B. individuelle Unterschiede zwischen Versuchspersonen Kontrollvariablen Systematische Variation von potentiellen Fehlervariablen Kontrolle der Störvariablen: Konstanthaltung, Elimination, Systematische Variation, Zufällige Variation, Randomisierung, Parallelisieren, Blindversuche und Zufällige Zuordnung der Versuchspersonen auf die experimentellen Bedingungen In Experimenten gibt es Techniken zur Kontrolle von Störfaktoren. Diese Techniken sind in Sozialwissenschaften besonders wichtig. Im Experiment kann man Versuchs- und Kontrollgruppe(n) bilden, die dazu dienen, den Einfluss von Versuchspersonenmerkmalen auszuschalten, die als Störfaktoren wirken können. Man unterscheidet zwei Verfahren zur Bildung der Gruppen: Randomisierung ist ein Verfahren, bei dem die Versuchspersonen (zum Beispiel teilnehmende Patienten) unter Verwendung eines Zufallsmechanismus unterschiedlichen Gruppen zugeordnet werden. Dadurch sollen bekannte und unbekannte personengebundene Störgrößen gleichmäßig auf Experimental- und Kontrollgruppen verteilt werden. Es sollen im Mittel gleiche Voraussetzungen bzw. Versuchsbedingungen geschaffen werden, um trotz der Störgrößen eine höhere statistische Sicherheit zu erreichen. Siehe hierzu Ceteris paribus. R. A. Fisher entwickelte das Prinzip der Randomisierung als Konsequenz der ceteris-paribus-klausel. Die experimentellen Behandlungsbedingungen werden den Versuchsgruppen, diesen wiederum die Probanden nach dem Zufall ( randomisiert ) zugewiesen. Dadurch werden Scheinerklärungen ausgeschlossen, nach denen z. B. ein Verhalten als Effekt der experimentellen Behandlung bezeichnet wird, das tatsächlich bereits präexperimentell bestanden hat nicht die neue Unterrichtsmethode hat zu den besseren Ergebnissen geführt, die Probanden dieser Versuchsgruppe hatten schon vor der Untersuchung einen Lernvorsprung. Der Grad, in dem tatsächlich randomisiert wird, ist ein Merkmal zur Unterscheidung der Typen des Experiments Excel: Hilfsspalte mit de Funktion: =ZUFALLSZAHL() Das Verfahren findet unter anderem bei psychologischen Experimenten (Feld- und Laborexperimenten) Anwendung, worauf sich der folgende Artikel konzentriert. Durch das Verfahren sollen hier Alternativerklärungen ausgeschlossen und die Wahrscheinlichkeit verringert werden, dass der in einem Wirksamkeitstest nachgewiesene Effekt einer systematischen Verzerrung (Bias) unterliegt. Randomisierung ist die Voraussetzung für eine weitere Maßnahme zur Vermeidung des Bias: der Verblindung. 24

25 Parallelisierung oder Matching bezeichnet Verfahren zur Bildung von Gruppen, die bezüglich eines Störfaktors oder mehrerer Störfaktoren homogen sind. Soll zum Beispiel eine Lehrmethode evaluiert werden, so können durch Parallelisierung zwei hinsichtlich ihrer Noten möglichst ähnliche Schülergruppen gebildet warden. Positionseffekte (Ermüdungseffekte, Übungseffekte, Sensibilisierungseffekte, Erinnerungseffekte) Einfluss auf die AV ist von der Position der experimentellen Bedingung im Versuchsablauf abhängig Kann sich positiv und negativ auf AV auswirken Ermüdungseffekte Probanden werden mit der Zeit müde / erschöpft / unmotiviert Übungseffekte Probanden werden mit Wiederholung besser Sensibilisierungseffekte Probanden werden mit der Zeit sensibler für die Fragestellung des Experiments Erinnerungseffekte Probanden haben Erinnungsvorteile aus vorher durchgeführten Tätigkeiten Übertragungseffekte Zeitlich frühere Bedingungen beeinfluss zeitlich spätere Bedingungen Unabhängig von der exakten Position in der Versuchsabfolge Carry-Over Effekte Beispiel: Lernstrategien entwickeln Wörter Klassifizieren Effekte des zwischenzeitlichen Geschehens Einflussgrössen aus dem Alltag der Versuchsperson Wichtigkeit wächst mit zeitlichem Abstand der Bedingungen Vollständiges inter-individuelles Ausbalancieren Jede Versuchsbedingung tritt gleich häufig an jeder Position des Versuchsablaufs auf Begriffe: Inter-individuell: zwischen den Versuchspersonen Intra-individuell: innerhalb der Versuchspersonen Lateinisches Quadrat lateinisches Quadrat, experimentelle, faktorielle und ökonomische Versuchsanordnung für einen unvollständigen Versuchsplan mit wenigen Versuchspersonen. Es nennt sich "Quadrat", da alle Faktoren die gleiche Anzahl von Faktorstufen aufweisen müssen. Vorausgesetzt wird, daß alle Faktoren feste Stufen haben. Interaktionen können nicht eindeutig interpretiert werden. Die Reihenfolge der (hier drei) 25

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über Güte von s Grundlegendes zum Konzept der Güte Ableitung der Gütefunktion des Gauss im Einstichprobenproblem Grafische Darstellung der Gütefunktionen des Gauss im Einstichprobenproblem Ableitung der Gütefunktion

Mehr

5. Wie wird im Experiment die interessierende, vom Versuchsleiter gemessene Variable bezeichnet?

5. Wie wird im Experiment die interessierende, vom Versuchsleiter gemessene Variable bezeichnet? Bei jeder Frage ist mindestens eine Antwort anzukreuzen. Es können mehrere Antwortalternativen richtig sein. Die Frage gilt nur dann als richtig beantwortet, wenn alle richtigen Alternativen angekreuzt

Mehr

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse 11 13. 501322 Lösung 10 Punkte

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse 11 13. 501322 Lösung 10 Punkte 50. Mathematik-Olympiade. Stufe (Regionalrunde) Klasse 3 Lösungen c 00 Aufgabenausschuss des Mathematik-Olympiaden e.v. www.mathematik-olympiaden.de. Alle Rechte vorbehalten. 503 Lösung 0 Punkte Es seien

Mehr

Einfache Varianzanalyse für abhängige

Einfache Varianzanalyse für abhängige Einfache Varianzanalyse für abhängige Stichproben Wie beim t-test gibt es auch bei der VA eine Alternative für abhängige Stichproben. Anmerkung: Was man unter abhängigen Stichproben versteht und wie diese

Mehr

Statistische Auswertung:

Statistische Auswertung: Statistische Auswertung: Die erhobenen Daten mittels der selbst erstellten Tests (Surfaufgaben) Statistics Punkte aus dem Punkte aus Surftheorietest Punkte aus dem dem und dem Surftheorietest max.14p.

Mehr

Primzahlen und RSA-Verschlüsselung

Primzahlen und RSA-Verschlüsselung Primzahlen und RSA-Verschlüsselung Michael Fütterer und Jonathan Zachhuber 1 Einiges zu Primzahlen Ein paar Definitionen: Wir bezeichnen mit Z die Menge der positiven und negativen ganzen Zahlen, also

Mehr

Vorwort zur 6. Auflage 11 Einleitung 13. Kapitel 1 Psychologie als Wissenschaft 15

Vorwort zur 6. Auflage 11 Einleitung 13. Kapitel 1 Psychologie als Wissenschaft 15 5 Inhalt Vorwort zur 6. Auflage 11 Einleitung 13 Kapitel 1 Psychologie als Wissenschaft 15 1.1 Alltagspsychologie und wissenschaftliche Psychologie 15 1.2 Sammlung von Tatsachenwissen Erforschung von Gesetzmäßigkeiten

Mehr

Theorie qualitativen Denkens

Theorie qualitativen Denkens Theorie qualitativen Denkens Vorbetrachtungen - vor den 70er Jahren standen vor allem quantitative Forschungen im Mittelpunkt - qualitative Wende in den 70er Jahren in der BRD - seit dem setzt sich qualitatives

Mehr

Einführung ins Experimentieren. Methodenpropädeutikum II Allgemeine Psychologie. Überlegungen zum exp. Design. Adrian Schwaninger & Stefan Michel

Einführung ins Experimentieren. Methodenpropädeutikum II Allgemeine Psychologie. Überlegungen zum exp. Design. Adrian Schwaninger & Stefan Michel Methodenpropädeutikum II Allgemeine Psychologie Adrian Schwaninger & Stefan Michel Einführung ins Experimentieren 1. Fragestellung und Hypothesen 2. Variablen und Operationalisierung UV und Störvariablen

Mehr

QM: Prüfen -1- KN16.08.2010

QM: Prüfen -1- KN16.08.2010 QM: Prüfen -1- KN16.08.2010 2.4 Prüfen 2.4.1 Begriffe, Definitionen Ein wesentlicher Bestandteil der Qualitätssicherung ist das Prüfen. Sie wird aber nicht wie früher nach der Fertigung durch einen Prüfer,

Mehr

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Vollständigkeit halber aufgeführt. Gehen wir einmal davon aus, dass die von uns angenommenen 70% im Beispiel exakt berechnet sind. Was würde

Mehr

Zeichen bei Zahlen entschlüsseln

Zeichen bei Zahlen entschlüsseln Zeichen bei Zahlen entschlüsseln In diesem Kapitel... Verwendung des Zahlenstrahls Absolut richtige Bestimmung von absoluten Werten Operationen bei Zahlen mit Vorzeichen: Addieren, Subtrahieren, Multiplizieren

Mehr

Intrinsisch motivierte Mitarbeiter als Erfolgsfaktor für das Ideenmanagement: Eine empirische Untersuchung

Intrinsisch motivierte Mitarbeiter als Erfolgsfaktor für das Ideenmanagement: Eine empirische Untersuchung Intrinsisch motivierte Mitarbeiter als Erfolgsfaktor für das Ideenmanagement: Eine empirische Untersuchung Bearbeitet von Martina Sümnig Erstauflage 2015. Taschenbuch. 176 S. Paperback ISBN 978 3 95485

Mehr

Messung von Veränderungen. Dr. Julia Kneer Universität des Saarlandes

Messung von Veränderungen. Dr. Julia Kneer Universität des Saarlandes von Veränderungen Dr. Julia Kneer Universität des Saarlandes Veränderungsmessung Veränderungsmessung kennzeichnet ein Teilgebiet der Methodenlehre, das direkt mit grundlegenden Fragestellungen der Psychologie

Mehr

Persönlichkeit und Persönlichkeitsunterschiede

Persönlichkeit und Persönlichkeitsunterschiede 9 Persönlichkeit und Persönlichkeitsunterschiede 1 Inhalt Die Beschäftigung mit der menschlichen Persönlichkeit spielt in unserem Alltag eine zentrale Rolle. Wir greifen auf das globale Konzept Persönlichkeit

Mehr

Das psychologische Experiment: Eine Einführung

Das psychologische Experiment: Eine Einführung Oswald Huber Das psychologische Experiment: Eine Einführung Mit dreiundfünfzig Cartoons aus der Feder des Autors 4. Auflage Verlag Hans Huber Inhalt Vorwort 11 Vorwort zur 3. Auflage 12 Einleitung 13 Kapitel

Mehr

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren Lineargleichungssysteme: Additions-/ Subtraktionsverfahren W. Kippels 22. Februar 2014 Inhaltsverzeichnis 1 Einleitung 2 2 Lineargleichungssysteme zweiten Grades 2 3 Lineargleichungssysteme höheren als

Mehr

Qualitative und Quantitative Forschungsmethoden

Qualitative und Quantitative Forschungsmethoden Qualitative und Quantitative Forschungsmethoden Unterschiede zwischen den Forschungsstrategien Überprüfendes vs. Entdeckendes Erkenntnisinteresse Ziel ist die Überprüfung von Theorieaussagen. Es werden

Mehr

Data Mining: Einige Grundlagen aus der Stochastik

Data Mining: Einige Grundlagen aus der Stochastik Data Mining: Einige Grundlagen aus der Stochastik Hagen Knaf Studiengang Angewandte Mathematik Hochschule RheinMain 21. Oktober 2015 Vorwort Das vorliegende Skript enthält eine Zusammenfassung verschiedener

Mehr

OECD Programme for International Student Assessment PISA 2000. Lösungen der Beispielaufgaben aus dem Mathematiktest. Deutschland

OECD Programme for International Student Assessment PISA 2000. Lösungen der Beispielaufgaben aus dem Mathematiktest. Deutschland OECD Programme for International Student Assessment Deutschland PISA 2000 Lösungen der Beispielaufgaben aus dem Mathematiktest Beispielaufgaben PISA-Hauptstudie 2000 Seite 3 UNIT ÄPFEL Beispielaufgaben

Mehr

Univariates Chi-Quadrat-Verfahren für ein dichotomes Merkmal und eine Messwiederholung: Test nach McNemar

Univariates Chi-Quadrat-Verfahren für ein dichotomes Merkmal und eine Messwiederholung: Test nach McNemar Univariates Chi-Quadrat-Verfahren für ein dichotomes Merkmal und eine Messwiederholung: Test nach McNemar Inhaltsverzeichnis Univariates Chi-Quadrat-Verfahren für ein dichotomes Merkmal und eine Messwiederholung:

Mehr

DNotI. Fax - Abfrage. GrEStG 1 Abs. 3 Anteilsvereinigung bei Treuhandverhältnissen. I. Sachverhalt:

DNotI. Fax - Abfrage. GrEStG 1 Abs. 3 Anteilsvereinigung bei Treuhandverhältnissen. I. Sachverhalt: DNotI Deutsches Notarinstitut Fax - Abfrage Gutachten des Deutschen Notarinstitut Dokumentnummer: 1368# letzte Aktualisierung: 14. Juni 2004 GrEStG 1 Abs. 3 Anteilsvereinigung bei Treuhandverhältnissen

Mehr

Würfelt man dabei je genau 10 - mal eine 1, 2, 3, 4, 5 und 6, so beträgt die Anzahl. der verschiedenen Reihenfolgen, in denen man dies tun kann, 60!.

Würfelt man dabei je genau 10 - mal eine 1, 2, 3, 4, 5 und 6, so beträgt die Anzahl. der verschiedenen Reihenfolgen, in denen man dies tun kann, 60!. 040304 Übung 9a Analysis, Abschnitt 4, Folie 8 Die Wahrscheinlichkeit, dass bei n - maliger Durchführung eines Zufallexperiments ein Ereignis A ( mit Wahrscheinlichkeit p p ( A ) ) für eine beliebige Anzahl

Mehr

down-vorgehen bei Anforderungsanalysen als notwendige Ergänzung zum Bottom-up

down-vorgehen bei Anforderungsanalysen als notwendige Ergänzung zum Bottom-up Mathematik und Naturwissenschaften, Institut für Psychologie II, Professur Diagnostik und Intervention, Dipl.- Psych. Anna Koch Top-down down-vorgehen bei Anforderungsanalysen als notwendige Ergänzung

Mehr

AUTOMATISIERTE HANDELSSYSTEME

AUTOMATISIERTE HANDELSSYSTEME UweGresser Stefan Listing AUTOMATISIERTE HANDELSSYSTEME Erfolgreich investieren mit Gresser K9 FinanzBuch Verlag 1 Einsatz des automatisierten Handelssystems Gresser K9 im Portfoliomanagement Portfoliotheorie

Mehr

1 Mathematische Grundlagen

1 Mathematische Grundlagen Mathematische Grundlagen - 1-1 Mathematische Grundlagen Der Begriff der Menge ist einer der grundlegenden Begriffe in der Mathematik. Mengen dienen dazu, Dinge oder Objekte zu einer Einheit zusammenzufassen.

Mehr

Psychologie im Arbeitsschutz

Psychologie im Arbeitsschutz Fachvortrag zur Arbeitsschutztagung 2014 zum Thema: Psychologie im Arbeitsschutz von Dipl. Ing. Mirco Pretzel 23. Januar 2014 Quelle: Dt. Kaltwalzmuseum Hagen-Hohenlimburg 1. Einleitung Was hat mit moderner

Mehr

Einführung in die Algebra

Einführung in die Algebra Prof. Dr. H. Brenner Osnabrück SS 2009 Einführung in die Algebra Vorlesung 13 Einheiten Definition 13.1. Ein Element u in einem Ring R heißt Einheit, wenn es ein Element v R gibt mit uv = vu = 1. DasElementv

Mehr

Korrelation (II) Korrelation und Kausalität

Korrelation (II) Korrelation und Kausalität Korrelation (II) Korrelation und Kausalität Situation: Seien X, Y zwei metrisch skalierte Merkmale mit Ausprägungen (x 1, x 2,..., x n ) bzw. (y 1, y 2,..., y n ). D.h. für jede i = 1, 2,..., n bezeichnen

Mehr

Taschenbuch Versuchsplanung Produkte und Prozesse optimieren

Taschenbuch Versuchsplanung Produkte und Prozesse optimieren Wilhelm Kleppmann Taschenbuch Versuchsplanung Produkte und Prozesse optimieren ISBN-10: 3-446-41595-5 ISBN-13: 978-3-446-41595-9 Leseprobe Weitere Informationen oder Bestellungen unter http://www.hanser.de/978-3-446-41595-9

Mehr

Rhetorik und Argumentationstheorie. [frederik.gierlinger@univie.ac.at]

Rhetorik und Argumentationstheorie. [frederik.gierlinger@univie.ac.at] Rhetorik und Argumentationstheorie 1 [frederik.gierlinger@univie.ac.at] Ablauf der Veranstaltung Termine 1-6 Erarbeitung diverser Grundbegriffe Termine 7-12 Besprechung von philosophischen Aufsätzen Termin

Mehr

1.3 Die Beurteilung von Testleistungen

1.3 Die Beurteilung von Testleistungen 1.3 Die Beurteilung von Testleistungen Um das Testergebnis einer Vp zu interpretieren und daraus diagnostische Urteile ableiten zu können, benötigen wir einen Vergleichsmaßstab. Im Falle des klassischen

Mehr

Verband der TÜV e. V. STUDIE ZUM IMAGE DER MPU

Verband der TÜV e. V. STUDIE ZUM IMAGE DER MPU Verband der TÜV e. V. STUDIE ZUM IMAGE DER MPU 2 DIE MEDIZINISCH-PSYCHOLOGISCHE UNTERSUCHUNG (MPU) IST HOCH ANGESEHEN Das Image der Medizinisch-Psychologischen Untersuchung (MPU) ist zwiespältig: Das ist

Mehr

Mobile Intranet in Unternehmen

Mobile Intranet in Unternehmen Mobile Intranet in Unternehmen Ergebnisse einer Umfrage unter Intranet Verantwortlichen aexea GmbH - communication. content. consulting Augustenstraße 15 70178 Stuttgart Tel: 0711 87035490 Mobile Intranet

Mehr

Protokoll des Versuches 7: Umwandlung von elektrischer Energie in Wärmeenergie

Protokoll des Versuches 7: Umwandlung von elektrischer Energie in Wärmeenergie Name: Matrikelnummer: Bachelor Biowissenschaften E-Mail: Physikalisches Anfängerpraktikum II Dozenten: Assistenten: Protokoll des Versuches 7: Umwandlung von elektrischer Energie in ärmeenergie Verantwortlicher

Mehr

Melanie Kaspar, Prof. Dr. B. Grabowski 1

Melanie Kaspar, Prof. Dr. B. Grabowski 1 7. Hypothesentests Ausgangssituation: Man muss sich zwischen 2 Möglichkeiten (=Hypothesen) entscheiden. Diese Entscheidung soll mit Hilfe von Beobachtungen ( Stichprobe ) getroffen werden. Die Hypothesen

Mehr

«Eine Person ist funktional gesund, wenn sie möglichst kompetent mit einem möglichst gesunden Körper an möglichst normalisierten Lebensbereichen

«Eine Person ist funktional gesund, wenn sie möglichst kompetent mit einem möglichst gesunden Körper an möglichst normalisierten Lebensbereichen 18 «Eine Person ist funktional gesund, wenn sie möglichst kompetent mit einem möglichst gesunden Körper an möglichst normalisierten Lebensbereichen teilnimmt und teilhat.» 3Das Konzept der Funktionalen

Mehr

R ist freie Software und kann von der Website. www.r-project.org

R ist freie Software und kann von der Website. www.r-project.org R R ist freie Software und kann von der Website heruntergeladen werden. www.r-project.org Nach dem Herunterladen und der Installation von R kann man R durch Doppelklicken auf das R-Symbol starten. R wird

Mehr

Vermögensbildung: Sparen und Wertsteigerung bei Immobilien liegen vorn

Vermögensbildung: Sparen und Wertsteigerung bei Immobilien liegen vorn An die Redaktionen von Presse, Funk und Fernsehen 32 02. 09. 2002 Vermögensbildung: Sparen und Wertsteigerung bei Immobilien liegen vorn Das aktive Sparen ist nach wie vor die wichtigste Einflussgröße

Mehr

Die Optimalität von Randomisationstests

Die Optimalität von Randomisationstests Die Optimalität von Randomisationstests Diplomarbeit Elena Regourd Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf Düsseldorf im Dezember 2001 Betreuung: Prof. Dr. A. Janssen Inhaltsverzeichnis

Mehr

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung.

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung. Lineare Gleichungen mit einer Unbekannten Die Grundform der linearen Gleichung mit einer Unbekannten x lautet A x = a Dabei sind A, a reelle Zahlen. Die Gleichung lösen heißt, alle reellen Zahlen anzugeben,

Mehr

Leseprobe. Wilhelm Kleppmann. Versuchsplanung. Produkte und Prozesse optimieren ISBN: 978-3-446-42033-5. Weitere Informationen oder Bestellungen unter

Leseprobe. Wilhelm Kleppmann. Versuchsplanung. Produkte und Prozesse optimieren ISBN: 978-3-446-42033-5. Weitere Informationen oder Bestellungen unter Leseprobe Wilhelm Kleppmann Versuchsplanung Produkte und Prozesse optimieren ISBN: -3-44-4033-5 Weitere Informationen oder Bestellungen unter http://www.hanser.de/-3-44-4033-5 sowie im Buchhandel. Carl

Mehr

Gibt es einen Geschmacksunterschied zwischen Coca Cola und Cola Zero?

Gibt es einen Geschmacksunterschied zwischen Coca Cola und Cola Zero? Gibt es einen Geschmacksunterschied zwischen Coca Cola und Cola Zero? Manche sagen: Ja, manche sagen: Nein Wie soll man das objektiv feststellen? Kann man Geschmack objektiv messen? - Geschmack ist subjektiv

Mehr

Informationsblatt Induktionsbeweis

Informationsblatt Induktionsbeweis Sommer 015 Informationsblatt Induktionsbeweis 31. März 015 Motivation Die vollständige Induktion ist ein wichtiges Beweisverfahren in der Informatik. Sie wird häufig dazu gebraucht, um mathematische Formeln

Mehr

1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage:

1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage: Zählen und Zahlbereiche Übungsblatt 1 1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage: Für alle m, n N gilt m + n = n + m. in den Satz umschreiben:

Mehr

1 Einleitung. 1.1 Motivation und Zielsetzung der Untersuchung

1 Einleitung. 1.1 Motivation und Zielsetzung der Untersuchung 1 Einleitung 1.1 Motivation und Zielsetzung der Untersuchung Obgleich Tourenplanungsprobleme zu den am häufigsten untersuchten Problemstellungen des Operations Research zählen, konzentriert sich der Großteil

Mehr

Sinn und Gesundheit. Posttraumatic Growth. Studie: Posttraumatic Growth After War

Sinn und Gesundheit. Posttraumatic Growth. Studie: Posttraumatic Growth After War Sinn und Gesundheit Posttraumatic Growth Literatur: Zöllner, T.; Calhoun, L. & Tedeschi, R. (2006). Trauma und persönliches Wachstum. In A. Maercker, R. Rosner (Hrsg.), Psychotherapie der posttraumatischen

Mehr

Repetitionsaufgaben Wurzelgleichungen

Repetitionsaufgaben Wurzelgleichungen Repetitionsaufgaben Wurzelgleichungen Inhaltsverzeichnis A) Vorbemerkungen B) Lernziele C) Theorie mit Aufgaben D) Aufgaben mit Musterlösungen 4 A) Vorbemerkungen Bitte beachten Sie: Bei Wurzelgleichungen

Mehr

Meinungen der Bürgerinnen und Bürger in Hamburg und Berlin zu einer Bewerbung um die Austragung der Olympischen Spiele

Meinungen der Bürgerinnen und Bürger in Hamburg und Berlin zu einer Bewerbung um die Austragung der Olympischen Spiele Meinungen der Bürgerinnen und Bürger in Hamburg und Berlin zu einer Bewerbung um die Austragung der Olympischen Spiele 4. März 2015 q5337/31319 Le forsa Politik- und Sozialforschung GmbH Büro Berlin Schreiberhauer

Mehr

Info zum Zusammenhang von Auflösung und Genauigkeit

Info zum Zusammenhang von Auflösung und Genauigkeit Da es oft Nachfragen und Verständnisprobleme mit den oben genannten Begriffen gibt, möchten wir hier versuchen etwas Licht ins Dunkel zu bringen. Nehmen wir mal an, Sie haben ein Stück Wasserrohr mit der

Mehr

Statistik II Wahrscheinlichkeitsrechnung und induktive Statistik Erste Klausur zum Sommersemester 2005 26. Juli 2005

Statistik II Wahrscheinlichkeitsrechnung und induktive Statistik Erste Klausur zum Sommersemester 2005 26. Juli 2005 Statistik II Wahrscheinlichkeitsrechnung und induktive Statistik Erste Klausur zum Sommersemester 2005 26. Juli 2005 Aufgabe 1: Grundzüge der Wahrscheinlichkeitsrechnung 19 P. Als Manager eines großen

Mehr

Lineare Funktionen. 1 Proportionale Funktionen 3 1.1 Definition... 3 1.2 Eigenschaften... 3. 2 Steigungsdreieck 3

Lineare Funktionen. 1 Proportionale Funktionen 3 1.1 Definition... 3 1.2 Eigenschaften... 3. 2 Steigungsdreieck 3 Lineare Funktionen Inhaltsverzeichnis 1 Proportionale Funktionen 3 1.1 Definition............................... 3 1.2 Eigenschaften............................. 3 2 Steigungsdreieck 3 3 Lineare Funktionen

Mehr

Willkommen zur Vorlesung Statistik

Willkommen zur Vorlesung Statistik Willkommen zur Vorlesung Statistik Thema dieser Vorlesung: Varianzanalyse Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften Prof. Dr. Wolfgang

Mehr

Aktuell zu vergebende Themen für Abschlussarbeiten (Bachelor, Master und Diplom)

Aktuell zu vergebende Themen für Abschlussarbeiten (Bachelor, Master und Diplom) Aktuell zu vergebende Themen für Abschlussarbeiten (Bachelor, Master und Diplom) Inhalt A Themenbereich Führung... 2 A.1 Merkmale, Ursachen und Folgen negativen Führungsverhaltens... 2 A.2 Führung... 2

Mehr

Forschungsmethoden in der Sozialen Arbeit (Va)

Forschungsmethoden in der Sozialen Arbeit (Va) Forschungsmethoden in der Sozialen Arbeit (Va) Erhebungsinstrumente (Der Fragebogen) Lehrveranstaltung an der Fachhochschule für Sozialarbeit und Sozialpädagogik "Alice Salomon" Hochschule für Soziale

Mehr

Anwendungshinweise zur Anwendung der Soziometrie

Anwendungshinweise zur Anwendung der Soziometrie Anwendungshinweise zur Anwendung der Soziometrie Einführung Die Soziometrie ist ein Verfahren, welches sich besonders gut dafür eignet, Beziehungen zwischen Mitgliedern einer Gruppe darzustellen. Das Verfahren

Mehr

2. Psychologische Fragen. Nicht genannt.

2. Psychologische Fragen. Nicht genannt. Checkliste für die Beurteilung psychologischer Gutachten durch Fachfremde Gliederung eines Gutachtens 1. Nennung des Auftraggebers und Fragestellung des Auftraggebers. 2. Psychologische Fragen. Nicht genannt.

Mehr

Tipps für die praktische Durchführung von Referaten Prof. Dr. Ellen Aschermann

Tipps für die praktische Durchführung von Referaten Prof. Dr. Ellen Aschermann UNIVERSITÄT ZU KÖLN Erziehungswissenschaftliche Fakultät Institut für Psychologie Tipps für die praktische Durchführung von Referaten Prof. Dr. Ellen Aschermann Ablauf eines Referates Einleitung Gliederung

Mehr

Regelwerk der "Electronical Infrastructure for Political Work"

Regelwerk der Electronical Infrastructure for Political Work Regelwerk der "Electronical Infrastructure for Political Work" Stand 01.06.11 Inhaltsverzeichnis 1.Inhalt...2 2.Codex...2 3.Arbeiten mit dem EIPW...2 3.1.Dokumente...2 3.2.Gestaltung der Arbeit...2 3.2.1.Einfachheit

Mehr

Newsletter Immobilienrecht Nr. 10 September 2012

Newsletter Immobilienrecht Nr. 10 September 2012 Newsletter Immobilienrecht Nr. 10 September 2012 Maßgeblicher Zeitpunkt für die Kenntnis des Käufers von einem Mangel der Kaufsache bei getrennt beurkundetem Grundstückskaufvertrag Einführung Grundstückskaufverträge

Mehr

4. Versicherungsangebot

4. Versicherungsangebot 4. Versicherungsangebot Georg Nöldeke Wirtschaftswissenschaftliche Fakultät, Universität Basel Versicherungsökonomie (FS 11) Versicherungsangebot 1 / 13 1. Einleitung 1.1 Hintergrund In einem grossen Teil

Mehr

1.4.1 Lernen mit Podcasts

1.4.1 Lernen mit Podcasts 20 Die Bachelorarbeit er gut gefallen hat oder auch nicht). Hier nun kurz skizziert die drei Beispiele, die wir im Verlauf dieses Buchs immer wieder heranziehen werden: Waltraud und Valerie 1.4.1 Lernen

Mehr

etutor Benutzerhandbuch XQuery Benutzerhandbuch Georg Nitsche

etutor Benutzerhandbuch XQuery Benutzerhandbuch Georg Nitsche etutor Benutzerhandbuch Benutzerhandbuch XQuery Georg Nitsche Version 1.0 Stand März 2006 Versionsverlauf: Version Autor Datum Änderungen 1.0 gn 06.03.2006 Fertigstellung der ersten Version Inhaltsverzeichnis:

Mehr

Rating-Skalen: Definition

Rating-Skalen: Definition Rating-Skalen: Definition Rating-Skalen dienen dazu, einen Gegenstand (z.b. sich selbst) hinsichtlich eines bestimmten Merkmals (z.b. Schüchternheit) zu beurteilen. Rating-Skalen geben (gleich große) markierte

Mehr

Folie 1: Fehlerbaumanalyse (FTA) Kurzbeschreibung und Ziel Die Fehlerbaumanalyse im Englischen als Fault Tree Analysis bezeichnet und mit FTA

Folie 1: Fehlerbaumanalyse (FTA) Kurzbeschreibung und Ziel Die Fehlerbaumanalyse im Englischen als Fault Tree Analysis bezeichnet und mit FTA Folie 1: Fehlerbaumanalyse (FTA) Kurzbeschreibung und Ziel Die Fehlerbaumanalyse im Englischen als Fault Tree Analysis bezeichnet und mit FTA abgekürzt dient der systematischen Untersuchung von Komponenten

Mehr

WERKZEUG KUNDENGRUPPEN BILDEN

WERKZEUG KUNDENGRUPPEN BILDEN Integrierter MarketinXervice Dr. Rüdiger Alte Wilhelm-Busch-Straße 27 99099 Erfurt Tel.: 0361 / 55 45 84 38 WERKZEUG GRUPPEN BILDEN Die folgenden Fragen mögen Ihnen helfen, Kriterien aufzustellen, anhand

Mehr

Zulassung nach MID (Measurement Instruments Directive)

Zulassung nach MID (Measurement Instruments Directive) Anwender - I n f o MID-Zulassung H 00.01 / 12.08 Zulassung nach MID (Measurement Instruments Directive) Inhaltsverzeichnis 1. Hinweis 2. Gesetzesgrundlage 3. Inhalte 4. Zählerkennzeichnung/Zulassungszeichen

Mehr

Insiderwissen 2013. Hintergrund

Insiderwissen 2013. Hintergrund Insiderwissen 213 XING EVENTS mit der Eventmanagement-Software für Online Eventregistrierung &Ticketing amiando, hat es sich erneut zur Aufgabe gemacht zu analysieren, wie Eventveranstalter ihre Veranstaltungen

Mehr

Charakteristikum des Gutachtenstils: Es wird mit einer Frage begonnen, sodann werden die Voraussetzungen Schritt für Schritt aufgezeigt und erörtert.

Charakteristikum des Gutachtenstils: Es wird mit einer Frage begonnen, sodann werden die Voraussetzungen Schritt für Schritt aufgezeigt und erörtert. Der Gutachtenstil: Charakteristikum des Gutachtenstils: Es wird mit einer Frage begonnen, sodann werden die Voraussetzungen Schritt für Schritt aufgezeigt und erörtert. Das Ergebnis steht am Schluß. Charakteristikum

Mehr

DAS PARETO PRINZIP DER SCHLÜSSEL ZUM ERFOLG

DAS PARETO PRINZIP DER SCHLÜSSEL ZUM ERFOLG DAS PARETO PRINZIP DER SCHLÜSSEL ZUM ERFOLG von Urs Schaffer Copyright by Urs Schaffer Schaffer Consulting GmbH Basel www.schaffer-consulting.ch Info@schaffer-consulting.ch Haben Sie gewusst dass... >

Mehr

Die Bedeutung der Kinder für ihre alkoholabhängigen Mütter

Die Bedeutung der Kinder für ihre alkoholabhängigen Mütter anlässlich des 25. Kongresses des Fachverbandes Sucht e.v. Meilensteine der Suchtbehandlung Jana Fritz & Irmgard Vogt Institut für Suchtforschung FH FFM Forschungsprojekte des Instituts für Suchtforschung

Mehr

Das Vermögen der privaten Haushalte in Nordrhein-Westfalen ein Überblick auf der Basis der Einkommens- und Verbrauchsstichprobe

Das Vermögen der privaten Haushalte in Nordrhein-Westfalen ein Überblick auf der Basis der Einkommens- und Verbrauchsstichprobe Sozialberichterstattung NRW. Kurzanalyse 02/2010 09.07.2010 12.07.2010 Das Vermögen der privaten Haushalte in Nordrhein-Westfalen ein Überblick auf der Basis der Einkommens- und Verbrauchsstichprobe 2008

Mehr

Studiendesign/ Evaluierungsdesign

Studiendesign/ Evaluierungsdesign Jennifer Ziegert Studiendesign/ Evaluierungsdesign Praxisprojekt: Nutzerorientierte Evaluierung von Visualisierungen in Daffodil mittels Eyetracker Warum Studien /Evaluierungsdesign Das Design einer Untersuchung

Mehr

Beweisbar sichere Verschlüsselung

Beweisbar sichere Verschlüsselung Beweisbar sichere Verschlüsselung ITS-Wahlpflichtvorlesung Dr. Bodo Möller Ruhr-Universität Bochum Horst-Görtz-Institut für IT-Sicherheit Lehrstuhl für Kommunikationssicherheit bmoeller@crypto.rub.de 6

Mehr

Kreativ visualisieren

Kreativ visualisieren Kreativ visualisieren Haben Sie schon einmal etwas von sogenannten»sich selbst erfüllenden Prophezeiungen«gehört? Damit ist gemeint, dass ein Ereignis mit hoher Wahrscheinlichkeit eintritt, wenn wir uns

Mehr

Umgang mit Schaubildern am Beispiel Deutschland surft

Umgang mit Schaubildern am Beispiel Deutschland surft -1- Umgang mit Schaubildern am Beispiel Deutschland surft Im Folgenden wird am Beispiel des Schaubildes Deutschland surft eine Lesestrategie vorgestellt. Die Checkliste zur Vorgehensweise kann im Unterricht

Mehr

EINFLUSS VON WERBEARTIKELN AUF DIE WAHRNEHMUNG VON MARKEN

EINFLUSS VON WERBEARTIKELN AUF DIE WAHRNEHMUNG VON MARKEN EINFLUSS VON WERBEARTIKELN AUF DIE WAHRNEHMUNG VON MARKEN KURZZUSAMMENFASSUNG JUNI 2015 1 Impressum: Prof. DDr. Bernadette Kamleitner Eva Marckhgott, BSc Institute for Marketing & Consumer Research Department

Mehr

Leitfaden für das Erstellen eines Fragebogens

Leitfaden für das Erstellen eines Fragebogens Leitfaden für das Erstellen eines Fragebogens DI Thusnelda Reinisch-Rotheneder Quelle:www.2ask.net Fragebögen Noelle Neumann (1965): "Nicht der Interviewer muss schlau sein, sondern der Fragebogen." FRIEDRICHS

Mehr

1 MIO ÖSTERREICHISCHE SKIFAHRER SCHÜTZEN SICH BEREITS MIT HELM - UM 370.000 MEHR ALS IM VORJAHR

1 MIO ÖSTERREICHISCHE SKIFAHRER SCHÜTZEN SICH BEREITS MIT HELM - UM 370.000 MEHR ALS IM VORJAHR 1 MIO ÖSTERREICHISCHE SKIFAHRER SCHÜTZEN SICH BEREITS MIT HELM - UM 370.000 MEHR ALS IM VORJAHR 3/09 1 MIO ÖSTERREICHISCHE SKIFAHRER SCHÜTZEN SICH BEREITS MIT HELM - UM 370.000 MEHR ALS IM VORJAHR Mehr

Mehr

Allensbach: Das Elterngeld im Urteil der jungen Eltern

Allensbach: Das Elterngeld im Urteil der jungen Eltern August 2007 Allensbach: Das Elterngeld im Urteil der jungen Eltern Allensbach befragte im Juni 2007 eine repräsentative Stichprobe von 1000 Müttern und Vätern, deren (jüngstes) Kind ab dem 1.1.2007 geboren

Mehr

1 topologisches Sortieren

1 topologisches Sortieren Wolfgang Hönig / Andreas Ecke WS 09/0 topologisches Sortieren. Überblick. Solange noch Knoten vorhanden: a) Suche Knoten v, zu dem keine Kante führt (Falls nicht vorhanden keine topologische Sortierung

Mehr

DIE ANWENDUNG VON KENNZAHLEN IN DER PRAXIS: WEBMARK SEILBAHNEN IM EINSATZ

DIE ANWENDUNG VON KENNZAHLEN IN DER PRAXIS: WEBMARK SEILBAHNEN IM EINSATZ Kurzfassung DIE ANWENDUNG VON KENNZAHLEN IN DER PRAXIS: WEBMARK SEILBAHNEN IM EINSATZ Mag. Klaus Grabler 9. Oktober 2002 OITAF Seminar 2002 Kongresshaus Innsbruck K ennzahlen sind ein wesentliches Instrument

Mehr

Varianzanalyse (ANOVA: analysis of variance)

Varianzanalyse (ANOVA: analysis of variance) Varianzanalyse (AOVA: analysis of variance) Einfaktorielle VA Auf der Basis von zwei Stichproben wird bezüglich der Gleichheit der Mittelwerte getestet. Variablen müssen Variablen nur nominalskaliert sein.

Mehr

Behörde für Bildung und Sport Abitur 2008 Lehrermaterialien zum Leistungskurs Mathematik

Behörde für Bildung und Sport Abitur 2008 Lehrermaterialien zum Leistungskurs Mathematik Abitur 8 II. Insektenpopulation LA/AG In den Tropen legen die Weibchen einer in Deutschland unbekannten Insektenpopulation jedes Jahr kurz vor Beginn der Regenzeit jeweils 9 Eier und sterben bald darauf.

Mehr

Lineare Differentialgleichungen erster Ordnung erkennen

Lineare Differentialgleichungen erster Ordnung erkennen Lineare Differentialgleichungen erster Ordnung In diesem Kapitel... Erkennen, wie Differentialgleichungen erster Ordnung aussehen en für Differentialgleichungen erster Ordnung und ohne -Terme finden Die

Mehr

Versuchsplanung. Inhalt. Grundlagen. Faktor-Effekt. Allgemeine faktorielle Versuchspläne. Zweiwertige faktorielle Versuchspläne

Versuchsplanung. Inhalt. Grundlagen. Faktor-Effekt. Allgemeine faktorielle Versuchspläne. Zweiwertige faktorielle Versuchspläne Inhalt Versuchsplanung Faktorielle Versuchspläne Dr. Tobias Kiesling Allgemeine faktorielle Versuchspläne Faktorielle Versuchspläne mit zwei Faktoren Erweiterungen Zweiwertige

Mehr

Schleswig-Holstein 2011. Kernfach Mathematik

Schleswig-Holstein 2011. Kernfach Mathematik Aufgabe 6: Stochastik Vorbemerkung: Führen Sie stets geeignete Zufallsvariablen und Namen für Ereignisse ein. Machen Sie auch Angaben über die Verteilung der jeweiligen Zufallsvariablen. Eine repräsentative

Mehr

Ist Fernsehen schädlich für die eigene Meinung oder fördert es unabhängig zu denken?

Ist Fernsehen schädlich für die eigene Meinung oder fördert es unabhängig zu denken? UErörterung zu dem Thema Ist Fernsehen schädlich für die eigene Meinung oder fördert es unabhängig zu denken? 2000 by christoph hoffmann Seite I Gliederung 1. In zu großen Mengen ist alles schädlich. 2.

Mehr

unsere eigene Intuition unzureichend war. Obwohl wir beide schon jahrelang Statistik lehrten und anwandten, hatten wir kein intuitives Gespür für die

unsere eigene Intuition unzureichend war. Obwohl wir beide schon jahrelang Statistik lehrten und anwandten, hatten wir kein intuitives Gespür für die unsere eigene Intuition unzureichend war. Obwohl wir beide schon jahrelang Statistik lehrten und anwandten, hatten wir kein intuitives Gespür für die Zuverlässigkeit statistischer Ergebnisse bei kleinen

Mehr

Zusammenfassende Beurteilung der Unterrichtsbeispiele für Wirtschaft und Recht

Zusammenfassende Beurteilung der Unterrichtsbeispiele für Wirtschaft und Recht Zusammenfassende Beurteilung der Unterrichtsbeispiele für Wirtschaft und Recht In die Auswertung der Beurteilungen der Unterrichtsbeispiele gingen von Seiten der SchülerInnen insgesamt acht Items ein,

Mehr

Klausur zu Methoden der Statistik I (mit Kurzlösung) Wintersemester 2007/2008. Aufgabe 1

Klausur zu Methoden der Statistik I (mit Kurzlösung) Wintersemester 2007/2008. Aufgabe 1 Lehrstuhl für Statistik und Ökonometrie der Otto-Friedrich-Universität Bamberg Prof. Dr. Susanne Rässler Klausur zu Methoden der Statistik I (mit Kurzlösung) Wintersemester 2007/2008 Aufgabe 1 Ihnen liegt

Mehr

Tutorium zur Mikroökonomie II WS 02/03 Universität Mannheim Tri Vi Dang. Aufgabenblatt 3 (KW 44) (30.10.02)

Tutorium zur Mikroökonomie II WS 02/03 Universität Mannheim Tri Vi Dang. Aufgabenblatt 3 (KW 44) (30.10.02) Tutorium zur Mikroökonomie II WS 02/03 Universität Mannheim Tri Vi Dang Aufgabenblatt 3 (KW 44) (30.10.02) Aufgabe 1: Preisdiskriminierung dritten Grades (20 Punkte) Ein innovativer Uni-Absolvent plant,

Mehr

Chemie Zusammenfassung KA 2

Chemie Zusammenfassung KA 2 Chemie Zusammenfassung KA 2 Wärmemenge Q bei einer Reaktion Chemische Reaktionen haben eine Gemeinsamkeit: Bei der Reaktion wird entweder Energie/Wärme frei (exotherm). Oder es wird Wärme/Energie aufgenommen

Mehr

Ohne den gewerkschaftlichen Rechtsschutz hätte ich meine Rechte nicht durchsetzen können.

Ohne den gewerkschaftlichen Rechtsschutz hätte ich meine Rechte nicht durchsetzen können. Ohne den gewerkschaftlichen Rechtsschutz hätte ich meine Rechte nicht durchsetzen können. Auswertung der Mandantenbefragung 2009 Kurzfassung November 2009 DGB Rechtsschutz GmbH Seite 1 Inhaltsangabe Vorbemerkung

Mehr

Risikodiversifikation. Birgit Hausmann

Risikodiversifikation. Birgit Hausmann diversifikation Birgit Hausmann Übersicht: 1. Definitionen 1.1. 1.2. diversifikation 2. messung 2.1. messung im Überblick 2.2. Gesamtaktienrisiko und Volatilität 2.3. Systematisches und Betafaktor 2.4.

Mehr

Die Quantitative und Qualitative Sozialforschung unterscheiden sich bei signifikanten Punkten wie das Forschungsverständnis, der Ausgangspunkt oder

Die Quantitative und Qualitative Sozialforschung unterscheiden sich bei signifikanten Punkten wie das Forschungsverständnis, der Ausgangspunkt oder 1 2 3 Die Quantitative und Qualitative Sozialforschung unterscheiden sich bei signifikanten Punkten wie das Forschungsverständnis, der Ausgangspunkt oder die Forschungsziele. Ein erstes Unterscheidungsmerkmal

Mehr

Klausur Nr. 1. Wahrscheinlichkeitsrechnung. Keine Hilfsmittel gestattet, bitte alle Lösungen auf dieses Blatt.

Klausur Nr. 1. Wahrscheinlichkeitsrechnung. Keine Hilfsmittel gestattet, bitte alle Lösungen auf dieses Blatt. Klausur Nr. 1 2014-02-06 Wahrscheinlichkeitsrechnung Pflichtteil Keine Hilfsmittel gestattet, bitte alle Lösungen auf dieses Blatt. Name: 0. Für Pflicht- und Wahlteil gilt: saubere und übersichtliche Darstellung,

Mehr

GEVITAS Farben-Reaktionstest

GEVITAS Farben-Reaktionstest GEVITAS Farben-Reaktionstest GEVITAS Farben-Reaktionstest Inhalt 1. Allgemeines... 1 2. Funktionsweise der Tests... 2 3. Die Ruhetaste und die Auslösetaste... 2 4. Starten der App Hauptmenü... 3 5. Auswahl

Mehr

Erfahrungen mit Hartz IV- Empfängern

Erfahrungen mit Hartz IV- Empfängern Erfahrungen mit Hartz IV- Empfängern Ausgewählte Ergebnisse einer Befragung von Unternehmen aus den Branchen Gastronomie, Pflege und Handwerk Pressegespräch der Bundesagentur für Arbeit am 12. November

Mehr