MÜNSTERANER FRAGEBOGEN ZUR EVALUATION VON SEMINAREN (MFE-S)

Ähnliche Dokumente
Münsteraner Fragebogen zur Evaluation von Vorlesungen (MFE-V)

Münsteraner Fragebogen zur Evaluation von Seminaren (MFE-S)

MÜNSTERANER FRAGEBOGEN ZUR EVALUATION - ZUSATZMODUL ROLLENSPIELE (MFE-ZRO)

MÜNSTERANER FRAGEBOGEN ZUR EVALUATION - ZUSATZMODUL UNTERSUCHUNGEN VON STUDIERENDEN (MFE-ZUS)

MÜNSTERANER FRAGEBOGEN ZUR EVALUATION ZUSATZMODUL EXKURSION (MFE-ZEX)

MÜNSTERANER FRAGEBOGEN ZUR EVALUATION - ZUSATZMODUL BASISTEXTE (MFE-ZBA)

MÜNSTERANER FRAGEBOGEN ZUR EVALUATION - ZUSATZMODUL REFERATE (MFE-ZRE)

MÜNSTERANER FRAGEBOGEN ZUR EVALUATION VON VORLESUNGEN - REVIDIERT (MFE-VR)

MÜNSTERANER FRAGEBOGEN ZUR EVALUATION - ZUSATZMODUL DISKUSSION (MFE-ZDI)

MÜNSTERANER FRAGEBOGEN ZUR EVALUATION - ZUSATZMODUL MODERATION (MFE-ZMO)

MÜNSTERANER FRAGEBOGEN ZUR EVALUATION - ZUSATZMODUL COMPUTERGESTÜTZTE LEHRE (MFE-ZCL)

MÜNSTERANER FRAGEBOGEN ZUR EVALUATION VON KLAUSUREN (MFE-K)

MÜNSTERANER FRAGEBOGEN ZUR EVALUATION VON SEMINAREN - REVIDIERT (MFE-SR)

8.4 Daten-Analyse-Methoden Resultate Resümee und Implikationen für die Lehrevaluationspraxis 159

Münsteraner Fragebogen zur Evaluation - Zusatzmodul Basistexte (MFE-ZBa)

Auswertung zur Veranstaltung Website-Gestaltung zur Ingenieurpsychologie

Technische Hochschule Wildau Qualitätsmanagement. Ergebnisbericht. Öffentlicher Bericht für Fachbereiche

Auswertungsbericht Lehrveranstaltungsevaluation an die Lehrenden

Stefan Kratzenstein Einführung in die Sportwissenschaft (d) Erfasste Fragebögen = 2. Auswertungsteil der geschlossenen Fragen

Seminar "Praktikum: Algorithmen und Datenstrukturen"

Auswertungsbericht Lehrveranstaltungsevaluation an die Lehrenden

NICHT ausdrucken. Potsdamer Evaluationsportal. Vorwissen. SET.UP - Fragebogen: Standardeinstellung

Auswertungsbericht Lehrveranstaltungsevaluation an die Lehrenden

Vorlesung "Grundlagen der Schaltungstechnik (V)"

Auswertungsbericht Lehrveranstaltungsevaluation an die Lehrenden

Auswertungsbericht Lehrveranstaltungsevaluation an die Lehrenden

Carolin Oppermann, Eberhard Raithelhuber: 1522 VielFaltigkeiten: Alter(n) und Diversity in Deutschland (mit Exkursionsangebot) (Seminar)

Bewertung von Lehrveranstaltungen WS 2007/08 Philipps-Universität Marburg. Ergebnisse

Prof. Dr. Theresia Theurl. Aktuelle M&A Fälle ( SS 2015) Erfasste Fragebögen = 43. Auswertungsteil der geschlossenen Fragen

Prof. Dr. Katharina Böhm. Gesundheitliche Ungleichheit (WS1617_080353) Erfasste Fragebögen = 16. Auswertungsteil der geschlossenen Fragen

Ergebnisbericht. Fachbereichsbericht. Kurs-Evaluation SoSe 2016 Fachbereich: Ingenieur und Naturwissenschaften. Fragebogen: Lehrevaluation SS 2016

InstEvaL Informationen zur Auswertung

Andreas Reschka: 3821 Informatik für das Lehramt Technik (Vorlesung)

Fragebogen zur Lehrevaluation

Im zweiten Teil des Berichts werden die Ergebnisse in Form von Profillinien dargestellt (Schnellüberblick).

Auswertung zur Veranstaltung "Emotionsdiagnostik"

Tim Kaiser Tutorium zur Einführung in die Politikwissenschaft (für WIPO Studierende BA Modul WSF-polw-1) Erfasste Fragebögen = 4

Ergebnisbericht. Bericht für den Fachbereich. Kurs-Evaluation WiSe 2017 Fachbereich: Ingenieur- und Naturwissenschaften.

Prof. Dr. Katja Sabisch. S Einführung in die Geschlechterforschung (K&G, Teil I; GEGE, Teil I) (WiSe1415_080376) Erfasste Fragebögen = 29

Prof. Dr. Katja Sabisch. S Einführung in die Geschlechterforschung (K&G, Teil I; GEGE, Teil I) (WiSe1314_080350) Erfasste Fragebögen = 21

Evaluation der Lehre. Wintersemester 2006/07. Fachbereich Erziehungswissenschaften und Psychologie Freie Universität Berlin

Integration und Konsequenzen von Hochschulevaluationen in der Praxis

Auswertungsbericht Lehrveranstaltungsevaluation

Auswertungsbericht Lehrveranstaltungsevaluation an die Lehrenden

Im zweiten Teil des Berichts werden die Ergebnisse in Form von Profillinien dargestellt (Schnellüberblick).

Übung "Technische Mechanik 3.1 (FZT - Hu Do Uhr)"

Auswertungsbericht Lehrveranstaltungsevaluation an die Lehrenden

Prof. Britta Rehder. Auswertungsteil der geschlossenen Fragen. Absolute Häufigkeiten der Antworten Std.-Abw. Mittelwert Median

05 VL (FEVOR, WiSe 15/16, 12 Umfragen, n = 234)

Andreas Kattler Übung zur Vorlesung Methoden und Statistik (WS18/19) Erfasste Fragebögen = 19; Rücklaufquote: 61.3%

Reliabilitäts- und Itemanalyse

Auswertung zur Lehrveranstaltung»Einführung in die Exilpublizistik: Die Familie Mann«- Seminar von Prof. Dr. Haarmann

Forschungsmethoden in der Erziehungswissenschaft Gruppe 12 von Ulrike Hanke

Auswertungsbericht zur Fachevaluation an die Lehrenden

Fragebogen zur Lehrveranstaltungsevaluation Seminar

Auswertungsbericht Lehrveranstaltungsevaluation

Prof. Dr. rer. soc. Klaus Peter Strohmeier VT Familiengerechte Kommunen? (Teil 1) (S&R) (WiSe1011_080501) Erfasste Fragebögen = 8

Prof. Dr. rer. soc. Jörg Bogumil S Mikropolitik - Macht in Organisationen (AOG, Teil I / II) (WiSe1011_080313) Erfasste Fragebögen = 22

Übung "Technische Mechanik 2.1 (MTR - Hu010 Di Uhr)"

Fachsemester: Fachsemester: gesamte Anzahl der Semester, die Sie in dem oben genannten Fach absolvierten (ohne Urlaubssemester, für MA ohne BA)

Andreas Reschka: 3825 EDV II: Standardanwendungen (Gruppe 1) (Übung)

Auswertungsbericht Lehrveranstaltungsevaluation an die Lehrenden

Online-Lehrevaluation der Psychologie

InStEvaL Informationen zur Auswertung

Bewertung von Lehrveranstaltungen WS 2007/08 Philipps-Universität Marburg. Ergebnisse

Evaluation Öffentliche Verwaltung in Deutschland - Montagskurs -

Fragebogen zur Evaluation der Lehre

Contraint-Programmierung SoSe 2014 (INM-8090 SS14) Erfasste Fragebögen = 8. Auswertungsteil der geschlossenen Fragen

Auswertung zur Veranstaltung "Pflichtübung Mikroökonomie 1 - Modul Mikroökonomie"

ERGEBNISBERICHT DER LEHRVERANSTALTUNGS- EVALUATION. Software-Qualitätsmanagement. Sommersemester 2007 Dozent/Dozentin: Gräbe

Rückmeldung zu den Nachbereitungsseminaren im Wintersemester 2016/17 Humboldt-Forschungskolleg Lehrkräftebildung

EDi Evaluation im Dialog

Andreas Kattler Übung zur Vorlesung Methoden und Statistik (WS18/19) Erfasste Fragebögen = 21; Rücklaufquote: 70%

Auswertungsbericht Lehrveranstaltungsevaluation

Weitere Informationen zur Evaluation an der Universität Leipzig finden Sie unter

Aufbau des Testberichts. 1. Problemstellung / inhaltliche Einführung. 2. Methode

geschlechterbezogener Vergleich der EINFLUSSFAKTOREN AUF DIE STUDIENZUFRIEDENHEIT

Auswertung zur Veranstaltung Ausgewählte Themen aus dem Bereich Software Engineering - Vorgehensmodelle im Software Engineering

Rückmeldung zu den Vorbereitungsseminaren im Wintersemester 2017/18 Humboldt-Forschungskolleg Lehrkräftebildung

Lehrveranstaltungsbeurteilung

Prof. Dr. habil. Udo Bankhofer Fach "Datenanalyse" (Fach-Nr. 6235) Erfasste Fragebögen = 11. Std.-Abw. Mittelwert Median 25 50% 25%

Wirtschaftsingenieurwesen (B. Eng.), berufsbegleitend

Vorlesung "Grundlagen der Schaltungstechnik (V)"

Wöchentlicher Zeitaufwand im Semester

Auswertung zur Lehrveranstaltung "Debatten zur Kultur- und Medientheorie" - Seminar von Prof. Dr. Haarmann

Auswertungsbericht studentische Lehrveranstaltungsbewertung

Freiwillige Lehrveranstaltungsbewertung im Fachbereich Sozialwesen im Sommersemester 2012

ANLAGE 1: Hochschul-Fragebogen

Früher hatten wir einen Zustand, dann kam die Veränderung, dann ein neuer Zustand. Jetzt ist die Veränderung der Zustand.

Dr.Felix Römer Schild und Schwert der Partei: Die Geschichte der Stasi (ROE_SS09_01) Erfasste Fragebögen = 13

Arbeitspapier. Leseprobe. Kritische Betrachtung von Fragebögen zur Lehrevaluation. Projekt OPEN OPen Education in Nursing

Transkript:

PsyEval Evaluation und Qualitätssicherung am Fach Psychologie der Universität Münster MÜNSTERANER FRAGEBOGEN ZUR EVALUATION VON SEMINAREN (MFE-S) INSTRUMENT INSTRUKTION Die beiden hier dokumentierten Itembatterien zur Bewertung von Seminaren wurden als Bestandteil eines umfassenderen Systems zur Lehrevaluation vorgegeben. Eine Dokumentation der Itembatterien zur Evaluation von Vorlesungen ist gegeben (MFE-V; Hirschfeld & Thielsch, 2009b). Sie werden deshalb ohne weitere Instruktion präsentiert. Instruktionen werden beim erstmaligen Zugriff auf das System gegeben (Verwendung der Daten, technische Voraussetzungen, u. ä.). Auch die Demographie der Teilnehmer wird beim Zugang ins System einmalig abgefragt (Alter, Geschlecht, Semester, Studiengang) (siehe Appendix A). ITEMS Didaktik: 3. Der/Die Lehrende erläuterte schwierige Sachverhalte verständlich. [Didaktik_1] 4. Man hat gemerkt, dass der Dozent/die Dozentin die Lehre für wichtig hält. [Didaktik_2] 5. Die Lehrmethoden waren zur Vermittlung des Stoffes gut geeignet. [Didaktik_3] Schwierigkeit: 6. Der/Die Lehrende passte das Niveau des Seminars an den Wissensstand der Studierenden an. [Schwierigkeit_1] 7. Die Inhalte des Seminars waren zu schwierig für mich. [Schwierigkeit_2] 8. Die Lehrmethoden des Seminars waren wenig abwechslungsreich. [Schwierigkeit_3] Selbststudium: 9. Es wurden ausreichend Materialien (z.b. Literaturangaben, Skript) zur Vertiefung des Stoffes angeboten. [Selbststudium_1] 10. Es wurden hilfreiche Materialien (z.b. Literaturangaben, Skript) zur Vertiefung des Stoffes angeboten. [Selbststudium_2] 11. Ich habe die Seminarsitzungen regelmäßig vorbereitet (z.b. durch das Lesen von Literatur oder die Bearbeitung von Hausaufgaben). [Selbststudium_3] 1

ANTWORTVORGABEN Die Items 3 bis 11 werden auf einer siebenstufigen Likert-Skala beantwortet. Die Endpunkte sind als 1 völlig unzutreffend bis 7 völlig zutreffend verankert. Ergänzend vorgegebene, hier nicht weiter dokumentierte Items 1. Was war Ihr HAUPTGRUND für den Besuch der Veranstaltung? Antwortvorgaben: Pflicht, Interesse und sonstiges 2. Die Thematik hat mich schon vor der Veranstaltung sehr interessiert. Antwortvorgaben: Wie Items 3 bis 11 12. Ich habe in der Veranstaltung inhaltlich viel gelernt. Antwortvorgaben: Wie Items 3 bis 11 13. Im Punktesystem der gymnasialen Oberstufe (0 [ungenügend] bis 15 [sehr gut +]) bewerte ich die Veranstaltung insgesamt mit folgender Punktzahl: Antwortformat: Offenes Antwortfeld 14. Anmerkungen für den/die Lehrende/n: Was hat Ihnen besonders gut an dieser Veranstaltung gefallen? Haben Sie Vorschläge für Veränderungen? Sonstige Anmerkungen: Antwortformat: Offenes Antwortfeld THEORETISCHER HINTERGRUND Die Evaluation der Lehre ist ein wichtiges Instrument zur Qualitätssicherung an Hochschulen. Nach Rindermann (1996) kann sie in verschiedenen Bereichen Veränderungen initiieren: So kann sie die Lehrqualifikation der Lehrenden verbessern, Stärken und Schwächen auf Veranstaltungs-, Fach-, oder Universitätsebene aufdecken, Diskussionen zwischen Lehrenden und Studierenden unterstützen, die Mittelvergabe steuern und Weiterbildungsmaßnahmen evaluieren. Seit dem Wintersemester 2000/1 werden im Fach Psychologie an der Universität Münster strukturierte Evaluationsfragebögen eingesetzt. Seit dem Wintersemester 2003/4 wird die Lehrevaluation über eine webbasierte Darbietungsplattform online durchgeführt (Haaser, Thielsch und Moeck, 2007). Vorteile dieser Online-Erhebungsform sind enorme Zeitersparnisse bei Erhebung, Auswertung und Präsentation der Daten (vgl. z.b. Göritz, Soucek & Bacher, 2005, Haaser, Thielsch & Moeck, 2007). Außerdem konnten dadurch die Menge an Fehlenden Werten reduziert und das Feedback für Dozenten durch frei wählbare Vergleichsveranstaltungen verbessert werden. Für den deutschsprachigen Raum liegen bereits eine Reihe von Instrumenten zur Lehrevaluation vor. Sie sind jedoch meist vergleichsweise lang und somit nur bedingt für eine internetgestützte Darbietung und gleichzeitige Evaluation unterschiedlicher Veranstaltungen geeignet. Speziell für Online-Erhebungen und Rückmeldungen werden eher kurze und ökonomische Skalen benötigt. Hohe Ökonomie, d.h. eine möglichst geringe Belastung von Studierenden durch die Befragung war deshalb ein vorrangiges Ziel bei der Konstruktion der hier beschriebenen Itembatterien. Ferner wurden für die meisten existierenden Lehrevaluationsinstrumente Daten für eine Prüfung ihrer psychometrischen Eigenschaften nur beim ersten Einsatz erhoben und nicht anhand neuer Daten konfirmatorisch überprüft. Im Unterschied dazu wird hier die nach früheren Hauptkomponentenanalysen angenommene dimensionale Strukturierung der Antworten mit neuen Daten aus nachfolgenden Erhebungen konfirmatorisch geprüft. 2

INSTRUMENTENTWICKLUNG ITEMKONSTRUKTION UND -AUSWAHL Die drei Münsteraner Itembatterien zur Evaluation von Seminaren (MFE-S; Hirschfeld & Thielsch, 2009a) entsprechen einer gekürzten Version eines umfangreicheren Fragenmoduls, das am Fachbereich Psychologie der Universität Münster entwickelt und zwischen dem Wintersemester 2002/3 und dem Sommersemester 2005 jedes Semester eingesetzt wurde. Die Originalversion sollte mit 17 Items drei Dimensionen der Lehrqualität möglichst detailliert erfassen (Grabbe, 2003). Erste Item- und Hauptkomponentenanalyse der im Sommersemester 2005 erhobenen Daten veranlassten eine Reduktion der Items auf 14 Items, von denen sich neun drei Hauptkomponenten zuordneten (Haaser, 2006). Für das abschließend beibehaltene Instrument wählte Haaser für diese drei Subskalen bewusst Items aus, die unterschiedliche Aspekte der entsprechenden Konstrukte erfassen sollen. Dies spiegelt sich in teilweise niedrigen Werten für die interne Konsistenz nach Cronbachs Alpha wieder. DURCHFÜHRUNGSMETHODE STICHPROBEN Zwischen dem Wintersemester 2002/3 und dem Sommersemester 2008 wurden im Rahmen der Lehrevaluation 9757 einzelne Lehrbewertungen erhoben. 1538 der Bewertungen wurden von Studenten und 7340 von Studentinnen abgegeben, bei 870 Fragebögen fehlten die demographischen Angaben. Die Befragten waren zwischen 18 und 67 Jahre (M = 23,05; SD = 3,64) alt. Die Mehrzahl (71.9%) studierte Psychologie im Hauptfach, die übrigen im Magisterstudiengang oder im Nebenfach. Die Studierenden befanden sich zwischen dem ersten und 40. Semester (M = 4,55; SD = 2,42). Um die allen konventionellen dimensionsanalytischen Verfahren gemeinsame zentrale Voraussetzung unabhängiger Itembeantwortungen zu erfüllen, wurden in die hier berichteten Analysen nur jeweils eine Bewertung von insgesamt 103 verschiedenen Studierenden einbezogen. Sie wurden in der Befragung eines Semesters erhoben, für welches der größte Rücklauf (WS 07/08) erzielt wurde. Aus dem Gesamtdatensatz, der aus Datenschutzgründen keine Befragtenkennungen enthält, wurden dafür alle Daten gelöscht, die von Studierenden mit identischen demografischen Daten (Alter, Geschlecht, Studiengang, Semester) stammen. Die demografischen Merkmale der so ausgewählten, und dadurch garantiert unterschiedlichen 103 Teilnehmern unterscheiden sich nicht von den für die Gesamtstichprobe ermittelten. DURCHFÜHRUNG DER STUDIE Die Lehrevaluation wurde seit dem Wintersemester 2002/3 jeweils am Ende eines Semesters durchgeführt. Für diese Erhebungen wurde eine Online-Plattform basierend auf PHP kombiniert mit MySQL-Datenbanken entwickelt (Haaser et al. 2007). AUSWERTUNGSMETHODEN Nach bereits früher durchgeführten Hauptkomponentenanalysen (vgl. Haaser, 2006) der bis dahin erhobenen Evaluationsdaten sollten die Antworten zu den neun hier geprüften Items den Einfluss von drei Dimensionen - Didaktik, Schwierigkeit und Selbststudium - indizieren. Das Zutreffen dieser aus früheren Ergebnissen abzuleitende Annahme wird hier mit linearen konfirmatorischen Faktoranalysen und unter Rückgriff auf den 3

konventionellen Maximum Likelihood Schätzer geprüft. Alle entsprechenden Analysen wurden mit AMOS durchgeführt. DESKRIPTIVE STATISTIKEN Deskriptive Statistiken für Subskalen (siehe Tabelle 1 und Tabelle 2) und Items (siehe Tabelle 3) liegen vor. DIMENSIONALITÄT Ein konfirmatorisches Modell (siehe Tabelle 3) mit drei korrelierten Faktoren erzielt eine gute Passung (χ 2 = 31, df = 24; TLI =.97, CFI =.98, RMSEA =.05). Dies bestätigt die auf der Basis früherer Analysen erwartete Strukturierung der Antworten zu den drei Subskalen. Die Analyse des kompletten Datensatzes ergab ähnliche Ladungsmuster und einen ebenso guten Fit. ITEMKENNWERTE Itemkennwerte (siehe Tabelle 3) und Interitemkorrelationen (siehe Tabelle 4) zur Beurteilung der psychometrischen Eigenschaften der Items der beiden Subskalenliegen vor. GÜTEKRITERIEN RELIABILITÄT Cronbachs Alpha beträgt.86 für die Subskala Didaktik,.62 für die Subskala Schwierigkeit, und.57 für die Subskala Selbststudium. Die interne Konsistenz der Subskalen ist danach als akzeptabel anzusehen, insbesondere auch deshalb, weil sie jeweils aus nur drei Items bestehen mit denen möglichst verschiedene Anteile der jeweiligen Ursprungsskala erfasst werden sollen. Weitere Reliabilitätsanalysen finden sich bei Haaser (2006). Sie weisen Ergebnisse auf, die denen von umfangreicheren Lehrevaluationsinstrumente (siehe bspw. FEVOR, Staufenbiel, 2000; HILVE, Rindermann, 2001; KIEL, Gediga et al., 2000 oder TRIL, Gollwitzer & Schlotz, 2003) entsprechen. VALIDITÄT Bereits Marsh (1984) weist auf die grundsätzliche Schwierigkeit hin, Lehrevaluationsinstrumenten angemessen zu validieren, da sehr viele verschiedene Faktoren den Lehrerfolg beeinflussen (Lehrkompetenz, Vorwissen der Studierenden, Thema, Veranstaltungstyp). Die meisten Instrumente, sowie die Itemsammlung von Grabbe (2003) auf der die hier vorgestellten Itembatterien aufbauen, können als Versuch angesehen werden möglichst viele der für die Lehrqualität relevanten Aspekte zu erfassen. Im Gegensatz zu diesen Ansätzen wurde hier versucht die wichtigsten Bereiche für den Lehrerfolg, von Lehrenden, zu erheben. Diese sind nach verschiedenen Modellen des Lehrerfolgs, wie dem multimodalen Bedingungsmodell von Rinderman (2001), das Auftreten und die Didaktik des Lehrenden. Diese werden mit den hier vorgeschlagenen Itembatterien erfasst, Dies spricht für deren Inhaltsvalidität in wichtigen Bereichen studentischer Lehrveranstaltungsbeurteilungen. Ein zentrales Ziel der Konstruktion der hier dokumentierten Subskalen war zudem dessen Ökonomie, die mit nur drei Items pro Subskala sicherlich als zufriedenstellt erreicht beurteilt werden kann. Eine breite Erfassung aller Aspekte des Lehrerfolgs würde sehr lange Fragebögen erfordern, was meist die Rücklaufquote und somit 4

die Aussagekraft der Evaluation einschränkt. Die Konzentration auf zentrale Bereiche in einem kurzen Instrument soll so eine hohe freiwillige Beteiligung an der Lehrevaluation sichern. Vergleichsweise sehr hohe Rücklaufquoten bei einer freiwilligen Lehrevaluation (Hauptfachseminare im Mittel > 60 %, Thielsch et al., 2008) und jährlich stattfindende Metaevaluationen (Haaser et al, 2007, Thielsch et al., 2008) zeigen, dass sowohl Lehrende als auch Studierende das Instrument gut annehmen und positiv beurteilen. AUSWERTUNGSHINWEISE Angesichts der offensichtlichen Eindimensionalität der Items der drei Subskalen können ihre Antwortwerte aufsummiert oder gemittelt werden. Das Online-Evaluationssystem im Fach Psychologie an der Universität Münster erlaubt einen Vergleich der Ergebnisse für verschiedene Veranstaltungen über eine Online- Rückmeldemaske. LITERATUR Gediga, G., von Kannen, K., Schnieder, F., Köhne, S., Luck, H., & Schneider, B. (2000). Kiel: Ein Kommunikationsinstrument für die Evaluation von Lehrveranstaltungen. Bissendorf: Methodos. Göritz, A. S., Soucek, R., Bacher, J. (2005): Webbasierte Lehrevaluation. In J. Wiemeyer (Hrsg.). Education, research and new media. Chances and challenges for science (S. 218-222). Hamburg: Czwalina. Grabbe, Y. (2003). Zwischenbericht: Lehrevaluation. Konstruktion eines Fragebogens für Vorlesungen und Seminare. Westfälische Wilhelms-Universität Münster. Online verfügbar unter http://wwwpsy.unimuenster.de/evaluation/1.4/downloads_files/zwischenbericht.pdf Haaser, K. (2006). Revision zweier Fragebögen zur studentischen Lehrveranstaltungsbeurteilung am Fachbereich Psychologie der Westfälischen Wilhelms-Universität Münster. Unveröffentlichte Diplomarbeit, Westfälische Wilhelms-Universität Münster. Haaser, K., Thielsch, M. T. & Moeck, R. (2007). Studentische Lehrveranstaltungsevaluation online: Erfahrungen, Empfehlungen und Standards der Prozessgestaltung. In: M. Krämer, S. Preiser & K. Brusdeylins (Hrsg.). Psychologiedidaktik und Evaluation VI (S. 337-346). Göttingen: V&R unipress. Hirschfeld, G., & Thielsch, M. T. (2009a). Münsteraner Fragebogen zur Evaluation von Seminaren (MFE-S). In A. Glöckner-Rist (Hrsg.), Zusammenstellung sozialwissenschaftlicher Items und Skalen. ZIS Version 13.0. Bonn: GESIS. Hirschfeld, G., & Thielsch, M. T. (2009b). Münsteraner Fragebogen zur Evaluation von Vorlesungen (MFE-V). In A. Glöckner-Rist (Hrsg.), Zusammenstellung sozialwissenschaftlicher Items und Skalen. ZIS Version 13.0. Bonn: GESIS. http://miami.uni-muenster.de/servlets/documentservlet?id=5090 Marsh, H. W. (1984). Students evaluations of university teaching - dimensionality, reliability, validity, potential biases, and utility. Journal of Educational Psychology, 76(5), 707-754. Rindermann, H. (1996). Untersuchung zur Brauchbarkeit studentischer Lehrevaluation. Landau: Verlag Empirische Pädagogik. 5

Rindermann, H. (2001). Lehrevaluation: Einführung und Überblick zu Forschung und Praxis der Lehrveranstaltungsevaluation an Hochschulen mit einem Beitrag zur Evaluation computerbasierten Unterrichts. Landau: Verlag Empirische Pädagogik. Staufenbiel, T. (2000). Fragebogen zur Evaluation von universitären Lehrveranstaltungen durch Studierende und Lehrende. Diagnostica, 46(4), 169-181. Thielsch, M. T., Hirschfeld, G., Sidikh, V., Steinhoff, A. & Fischer, S. (2008). Evaluationsbericht Psychologie 2008. Westfälische Wilhelms-Universität Münster. Verfügbar unter: http://miami.unimuenster.de/servlets/documentservlet?id=5027 QUELLE ZITIERUNG DIESES ZIS-BEITRAGS Hirschfeld, G., & Thielsch, M. T. (2009). Münsteraner Fragebogen zur Evaluation von Seminaren (MFE-S). In A. Glöckner-Rist (Hrsg.). Zusammenstellung sozialwissenschaftlicher Items und Skalen. ZIS Version 13.0. Bonn: GESIS. ORIGINALPUBLIKATION Vorgängerversionen finden sich dokumentiert bei: Grabbe, Y. (2003). Zwischenbericht: Lehrevaluation. Konstruktion eines Fragebogens für Vorlesungen und Seminare. Westfälische Wilhelms-Universität Münster. Online verfügbar unter http://wwwpsy.unimuenster.de/evaluation/1.4/downloads_files/zwischenbericht.pdf Haaser, K. (2006). Revision zweier Fragebögen zur studentischen Lehrveranstaltungsbeurteilung am Fachbereich Psychologie der Westfälischen Wilhelms-Universität Münster. Unveröffentlichte Diplomarbeit, Westfälischen Wilhelms-Universität Münster. ADRESSE DER AUTOREN Gerrit Hirschfeld, Dipl.-Psych. Westfälische Wilhelms-Universität Münster Psychologisches Institut II Fliednerstr. 21 48149 Münster Telefon: 0251-83 31378 E-Mail: gerrit.hirschfeld@uni-muenster.de Dr. Meinald Thielsch, Dipl.-Psych. Westfälische Wilhelms-Universität Münster Psychologisches Institut 1 Fliednerstr. 21 48149 Münster 0251-83 34154 E-Mail: thielsch@uni-muenster.de 6

TABELLEN Tabelle 1: Deskriptive Statistiken für Subskalen (103 Bewertungen) Median M SD Schiefe Kurtosis Didaktik 5.67 5.26 1.58-1.11(0.24) 0.41(0.47) Schwierigkeit 4.67 4.64 1.52-0.40(0.24) -0.58(0.47) Selbststudium 4.67 4.55 1.39-0.48(0.24) 0.10(0.47) Anmerkung: Die Berechnungen erfolgten mit SPSS Tabelle 2: Korrelationen zwischen den Skalen (103 Bewertungen) Didaktik Schwierigkeit Selbststudium Didaktik 1.00 0.66 0.34 Schwierigkeit 0.66 1.00 0.24 Selbststudium 0.34 0.24 1.00 Anmerkung: Die Berechnungen erfolgten mit SPSS Tabelle 3: Deskriptive Statistiken für Items (103 Bewertungen) Item M SD r i, s-i α Alpha if deleted Didaktik Didaktik_1 5.15 1.85 0.70 0.87 0.82 Didaktik_2 5.64 1.79 0.66 0.72 0.85 Didaktik_3 4.99 1.74 0.68 0.87 0.74 Schwierigkeit Schwierigkeit_1 4.83 1.98 0.56 0.84 0.34 Schwierigkeit_2 4.40 2.10 0.52 0.71 0.38 Schwierigkeit_3 4.68 1.96 0.24 0.33 0.76 Selbststudium Selbststudium_1 5.14 1.69 0.50 0.74 0.30 Selbststudium_2 4.68 1.86 0.57 0.96 0.16 Selbststudium_3 3.83 2.10 0.15 0.18 0.83 Anmerkung: r i, s-i = Trennschärfe, α = Ladung; die Berechnungen erfolgten mit SPSS Tabelle 4: Interitemkorrelationen (103 Bewertungen) Doz_1 Doz_2 Doz_3 S_1 S_2 S_3 St_1 St_2 St_3 Doz_1 1.00 0.58 0.74 0.67 0.57 0.30 0.34 0.35 0.00 Doz_2 0.58 1.00 0.69 0.48 0.36 0.19 0.28 0.33 0.02 Doz_3 0.74 0.69 1.00 0.55 0.46 0.38 0.33 0.42 0.03 S_1 0.67 0.48 0.55 1.00 0.61 0.23 0.26 0.20 0.04 S_2 0.57 0.36 0.46 0.61 1.00 0.20 0.33 0.23-0.03 S_3 0.30 0.19 0.38 0.23 0.20 1.00 0.08 0.16-0.02 St_1 0.34 0.28 0.33 0.26 0.33 0.08 1.00 0.71 0.09 St_2 0.35 0.33 0.42 0.20 0.23 0.16 0.71 1.00 0.18 St_3 0.00 0.02 0.03 0.04-0.03-0.02 0.09 0.18 1.00 Anmerkung: D = Didaktik, S = Schwierigkeit, ST = Selbststudium; die Berechnungen erfolgten mit SPSS 7

APPENDIX A: EINGANGSINFORMATIONEN Instruktionen Bevor Du an der Evaluation teilnehmen kannst, bitten wir Dich, die folgenden Felder auszufüllen. Fett geschriebene Felder sind verpflichtend. Anonymität Die Evaluation erfolg anonym und deine Daten werden absolut vertraulich behandelt. Soziodemographische Daten, wie z.b. dein Alter und Geschlecht werden nicht zusammen mit deinen Antworten an die Dozenten weitergegeben, sondern lediglich für anonyme statistische Untersuchungen durch das Evaluationsteam verwendet. Bitte fülle das Formular also ehrlich aus. Die Teilnehmer an der Verlosung können nach der Eingabe aller Daten ihre e-mail-adresse für die Verlosung in eine separate Datenmaske eingeben. Diese Adresse wird nicht mit deinem Code oder deiner Kennung in Verbindung gebracht, sondern nur einmal für die Verlosung benutzt und dann sofort gelöscht. Unsere Datenbanken sind gegen Zugriffe von Außen geschützt, wir können damit Anonymität und hohe Sicherheit garantieren. Vielen Dank für die Teilnahme bereits im Voraus. Demographie 1. Alter Antwortvorgaben: Freies Antwortfeld 2. Geschlecht Antwortvorgaben: weiblich, männlich 3. Studiengang Antwortvorgaben: Diplom Psychologie, Magister Psychologie, Diplom Pädagogik, Nebenfach Erziehungswissenschaften, Bachelor Psychologie, BA-KJ, Sonstige 4. Semester: Antwortvorgaben: Freies Antwortfeld Cookies Für diese Seiten müssen Cookies aktiviert sein! Meistens sind Cookies in den Browsereinstellungen von vorn herein aktiviert. Sie brauchen sich also keine Gedanken zu machen! Sollte allerdings das Problem auftreten, dass sie egal bei welcher Aktion immer wieder zu dieser Seite gelangen, folgen sie bitte der Anleitung unten auf dieser Seite, wie man Cookies aktiviert und probieren Sie dann bitte nochmals an der Evaluation teilzunehmen. Stand dieses Dokuments: 29. November 2010 8