Bewertung von Pre-Prozessing-Verfahren

Größe: px
Ab Seite anzeigen:

Download "Bewertung von Pre-Prozessing-Verfahren"

Transkript

1 Bewertung von Pre-Prozessing-Verfahren für die Mikroarray-Gen-Expressionsanalyse von Mohammad Esad-Djou Institut für Informatik Interdisziplinäres Zentrum für Bioinformatik IZBI WS 2006/07 zur Erlangung des akademischen Grades Diplom

2 ABSTRACT Das zentrale Ziel der Gen-Expressionsanalyse ist es, Gene und Gen-Gruppen mit differenziellen Expressionsmustern zu detektieren und zu charakterisieren. Die Qualität der Microarray-basierten Gen-Expressionsanalyse ist durch eine Vielzahl von unerwünschten systematischen und zufälligen Fehlern beeinflusst. Pre-Prozessing-Methoden sollen die gemessenen Rohintensitäten der Proben in ein geeignetes Expressionsmaß möglichst fehlerfrei transformieren. Trotz einer Vielzahl von entwickelten Algorithmen bleibt das Pre-Prozessing von Mikroarraydaten problematisch: zum einen gelingt die notwendige Korrektur nur teilweise. Zum anderen ist die Wahl des Verfahrens aufgrund fehlender Vergleichsstudien meist problematisch. Im Mittelpunkt dieser Arbeit stehen ausgewählte Probleme der Bewertung von Pre-Prozessing-Methoden und die Analyse von Expressionsdaten. Es wird ein Bewertungssystem für das Pre-Prozessing von Mikroarraydaten unter Verwendung vorhandener R-Routinen entwickelt und angewendet. Es wurde das Werkzeug GE-Comp in der Programmierungssprache R entwickelt. Durch seine modulare Struktur können unterschiedliche Testfälle kombiniert und anhand statistischer Parameter verglichen werden. Insbesondere können Pre-Prozessing-Methoden mit unterschiedlichen Algorithmen der Background Correction und Normalization bewertet werden. GE-Comp unterstützt weitere Auswertungen mit Affycomp [12] und SAM [15]. Das Bewertungsverfahren kann als Werkzeug für weitere Entwicklungen von Pre-Prozessing-Methoden Anwendung finden.

3 INHALTSVERZEICHNIS Danksagungen/Widmungen... iii Abkürzungsverzeichnis...iv 1 Einführung Problemstellung Das Ziel der vorliegenden Arbeit Struktur der Arbeit Grundlagen der Gen-Expressionsanalyse Biologische Grundlagen: Vom Gen zum Protein Gen-Expressionsanalyse GenChip-Technologie Hybridisierung und Image Prozessing Pre-Prozessing MAS RMA dchip: Li-Wong GC-RMA Plier: Probe Logarithmic Intensity Error Das Oligo-Verfahren VSN (Variance Stabilization ans Normalization) Zusammenfassung Bewertung der Pre-Prozessing-Verfahren Simulationsansatz Simulation der Gen-Expressionsdaten und Vergleichkriterien Grenze des Vorschlags R-Paket: Affycomp [16], [12] Der affycomp-report Bewertung der Affycomp SAM (Significance Analysis of Microarrays) Test Statistik [42]: SAM-Verfahren Abschätzung der FDR (False Discovery Rate) Zusammenfassung Konzept und Aufbau von GE-Comp Fehleranalyse Die Überprüfungsebenen Berichte und Visualisierung GE-Comp: Analyse und Entwurf Anwendung von GE-Comp in R Vorbereitung der Test-Fälle Ergebnisse Test und Testumgebung Die Test-Fälle...34

4 5.3 Bewertung von Pre-Prozessing-Verfahren Statistische Analyse von der Einzeln-Pre-Prozessing-Verfahren Verteilung und Einfluß von Ausreißern Standard-Abweichung: Präsizion Normalisierungseffekte Fold Change Vergleich der Pre-Prozessing-Methoden Korrelation zwischen den Methoden Analyse der Background Correction Analyse der Normalization Differentiell exprimierte Gene SAM-Analyse Keine signifikante Änderung von Gene Differentiell exprimierten Spike-in Gene Problematik der p-wert-korrektor Zusammenfassung und Ausblick Literaturverzeichnis Anhang A: Testen A.1 Testdatensätze...64 A.1.1 HG-U133A...64 A.1.2 Spike-in-Experimente...64 A.2 Testfälle...65 Glossar ii Bewertung von Pre-Prozessing-Verfahren für die Mikroarray Genexpressionsanalyse

5 Danksagungen/Widmungen Bei den folgenden Personen möchte ich mich besonders bedanken: Herrn Dr. Hans Binder für die Ermöglichung, Aufgabenstellung und Unterstützung der vorliegenden Diplomarbeit. Er zeigte stets großes Interesse an der Arbeit und unterstützte mich mit wertvollen Tipps und las die Arbeit mehrmals gegen. Den Mitgliedern vom Bioconductor-Forum, die sorgfältig meine Fragen zum Thema R-Sprache beantworteten. Besonders hervorzuheben sind dabei Gordon Smyth, Adaikalavan Ramasamy, Zhijin (Jean) Wu, Kasper Daniel Hansen, Wolfgang Huber, James MacDonald, Robert Gentleman, Jenny Drnevich, Seth Falcon, Ido M. Tamir, Naomi Altman und Sean Davis. Herrn Holger Schwender für seine engagierten und hilfreichen Antworten zum Siggenes-Paket der Arbeit. Meinen Freunden Steffen Junick, Nico Scherf und Johannes Freudenberg für diverse Anregungen und Diskussionen. Diese Diplomarbeit ist meinen Freunden gewidmet, die im Jahr 1988 in Folge des Massakers in verschiedenen Städten des Iran hingerichtet worden sind. iii Bewertung von Pre-Prozessing-Verfahren für die Mikroarray Genexpressionsanalyse

6 Abkürzungsverzeichnis BGC Background Correction CSV CV DNA FC FDR FPR Comma Separated Values Coefficient of Variance Desoxyribonukleinsäure Fold-Change False Discovery Rate False Positive Rate GC-Content Guanine-Cytosine-Content IM IQR LW Ideal Mismatch Intraquartile range Li/Wong, dchip MAS Microarray Suite 5.0 MM mrna MSE nf PLIER PM RMA RNA ROC SAM sf TPR VSN Mismatch Messenger RNA Mean Square Error Normalization Factor Probe Logarithmic Intensity Error Perfect Match Robust Multichip Average Ribonukleinsäure Receiver Operating Characteristic Curve Significance Analysis of Microarrays Scaling factor True Postive Rate (Sensititvität) Variance Stabilization and Normalization iv Bewertung von Pre-Prozessing-Verfahren für die Mikroarray Genexpressionsanalyse

7 1 Einführung Die Gen-Expressionsanalyse erhält zunehmende Bedeutung in vielen Bereichen biomedizinischer Forschung. So genannte Oligonucleotid-Microarrays haben sich dabei zu einem zentralen Werkzeug entwickelt [35]. Ziel ist es, Gene und Gen-Gruppen, mit differenziellen Expressionsmustern zu isolieren und zu charakterisieren. Die Qualität der Ergebnisse wird von unerwünschten Effekten beeinflusst [3]. Dazu gehören die Qualität der Arrays und der Probenpräparation, z. B. bei der Hybridzation und dem Scannen der Probenintensitäten [35]. So genannte Pre-Prozessing-Methoden sollen derartige Fehler minimieren. Das Pre-Prozessing von Mikroarrays kann in drei Schritte unterteilt werden, die den Hintergrund-bereinigen (Background Correction), Intensitäten zu vergleichender Chips normieren (Normalization) und mehrere Probenwerte zu einem Expressionswert je Gen aggregieren (Summarization) [6], [7], [8]. 1.1 Problemstellung Der Vergleich von Pre-Prozessing-Methoden als ein wichtiger Teilschritt der Gen-Expressionsanalyse ist Gegenstand der vorliegenden Arbeit. Die Bewertung und der Vergleich der Methoden erfordert die Bestimmung der Präzision und der Genauigkeit der jeweiligen Verfahren. Die Präzision lässt sich durch die Varianz oder Coefficient of Variance (CV) ausdrücken. Sie zeigt jedoch nicht an, wie nah eine Messung an der Realität ist [30]. Dies erfordert zusätzlich die Abschätzung des Bias, d.h. der systematischen Abweichung zwischen Mess- und wahrem Wert. Letzterer ist in der Regel nicht bekannt, so dass die Abschätzung der Genauigkeit in der Regel schwer möglich ist [19]. Ein Ausweg stellt die Verwendung von standardisierten Kalibrier-Datensätzen wie z. B. Spike-in-Experiment dar (siehe Kap. 5 und Anhang A) [12] Es gibt mehrere etablierte Methoden für das Pre-Prozessing der Probe-Level-Daten von Affymetrix GeneChips wie z. B. MAS (Microarray Suite 5.0), RMA (Robust Multichip Average) und dchip (bzw. Li-Wong). Aufgrund der genannten Probleme ist es schwierig, die beste Methode herauszufiltern. Darüberhinaus können für verschiedene Anwendungen unterschiedliche Verfahren jeweils die besten Ergebnisse liefern. Pre-Prozessing-Methoden werden hinsichtlich bestimmter Kriterien verglichen und es erfolgt somit eine Bewertung. Diese Kriterien werden im Kapitel 4 diskutiert. 1.2 Das Ziel der vorliegenden Arbeit Es soll ein Bewertungssystem erarbeitet werden, welches verschiedene Pre-Prozessing Verfahren vergleicht. Insbesondere soll der Einfluß unterschiedlicher Teilschritte der Vorverarbeitung mit jeweils unterschiedlichen Algorithmen auf die erhaltenen Expressionswerte anhand ausgewählter

8 Beispiele untersucht werden. Im Weiteren soll die erarbeitete Methode als ein praktisches Werkzeug bei der Weiterentwicklung von Pre-Prozessing-Methoden Anwendung finden. Folgende Teilaufgaben sollen bearbeitet werden: Konzipierung des Bewertungskonzepts unter Verwendung beschreibender Statistik und vergleichender Tests. Die Implementierung der Methoden in R (GE-Comp): Durch Verwendung der modularen Struktur sollen sowohl neu entwickelte als auch vorhandene Algorithmen in dem Werkzeug integriert werden. Die Verifizierung der Methode unter Verwendung von ausgewählten spiked-in Datensätzen. Vergleich verschiedener Preprozessingverfahren: MAS5, RMA, dchip, GC-RMA, PLIER und der am IZBI entwickelten OLIGO-Methode In der vorliegenden Arbeit werden alle möglichen Preprocessing-Schritte d.h. Background Correction, Normalization, PM-Correction und Summarization - betrachtet, und Signalwerte vor und nach dem Pre-Prozessing untersucht. Dadurch werden Erkenntnisse über den Einfluss des jeweiligen Schritts gewonnen. Im Unterschied zum Simulationsansatz von Freudenberg werden die Vergleichsdaten nicht synthetisiert [1], sondern es werden experimentelle spiked-in Datensätze herangezogen [42 CEL-Dateien von Affymetrix (HG-U133A)]. Ein weiterer Unterschied besteht darin, dass Expressionswerte, die aus verschiedenen Pre-Prozessing-Methoden erhalten wurden, als Eingabedaten zur Bestimmung differentiell exprimierter Gene mittels SAM (Significance Analysis of Microarrays) - eine von Robert Tibshirani u. a. erarbeiteter statistischer Test - verwendet werden. Das entwickelte Werkzeug (GE-Comp) ist mit Hilfe des Skripts in der R-Programmierungsumgebung anwendbar. Aus seiner modularen Architektur ergeben sich flexible Testmöglichkeiten. GE-Comp integriert die Möglichkeiten alternativer Ansätze wie affycomp [12] und SAM [15] (siehe Kapitel 3). 1.3 Struktur der Arbeit Kapitel 2 behandelt in die Grundlagen der Gen-Expressionsanalyse und die wichtigsten Pre-Prozessing-Verfahren. Im Kapitel 3 werden Methoden bzw. Alternativen zur Bewertung von Pre-Prozessing-Verfahren erläutert. Im 4. Kapitel werden das Konzept und der Aufbau von GE-Comp dargestellt. Im 5. Kapitel werden die verwendeten Testfälle und die Ergebnisse präsentiert, wobei sechs Pre-Prozessing-Verfahren MAS, RMA, dchip, GC-RMA, Plier und Oligo - miteinander verglichen werden. Das 6. Kapitel gibt eine Zusammenfassung und einen Ausblick. 2 Bewertung von Pre-Prozessing-Verfahren für die Mikroarray Genexpressionsanalyse

9 2 Grundlagen der Gen-Expressionsanalyse 2.1 Biologische Grundlagen: Vom Gen zum Protein Die DNA (Desoxyribonukleinsäure) und die RNA (Ribonukleinsäure) sind Polymere aus sequenziell angeordneten Nukleotiden. Chemisch ist jedes Nukleotid aus einem Zuckerrest, einer Phosphatgruppe und einer Base zusammengestzt. Die Basen, die in der DNA auftreten können, sind Adenin, Cytosin, Guanin und Thymin (A, C, G und T). In der RNA ist Thymin durch Uracil (U) ersetzt. Die Nukleotide seien im Weiteren basenspezifisch mit A, C, G und T abgekürzt. Die kleinste mögliche Einheit zur Kodierung genetischer Informationen, das Codon, besteht aus drei miteinander verbundenen Nukleotiden. Gene unterscheiden sich voneinander in der Abfolge der Nukleotide. Um aus einem Gen ein Protein zu synthetisieren, wird der DNA-Strang nach der Herstellung einer RNA-Kopie (Transkription) als mrna (messenger-rna) ins Cytoplasma entlassen. Die Ribosomen lesen die benötigten Aminosäuren an der mrna ab, die dann von einem trna-molekül angeliefert und zu der Polypeptidkette verknüpft werden [36, Teil III, Kap ]. 2.2 Gen-Expressionsanalyse Die Gen-Expression wird als Ablesen der in den Genen enthaltenen Informationen in der mrna bezeichnet. Sie erfolgt in der Regel als Transkription von der DNA zur mrna und anschließender Translation von der mrna zum Protein [23]. Mit Hilfe der Gen-Expressionsanalyse wird die Aktivität der Gene in einer Zelle/in einem Gewebe oder in einem Organismus anhand der mrna Konzentration entsprechender Gene ermittelt. Von der Analyse der Gen-Expression erhofft man sich die Aufklärung des Zusammenhangs von Genen und deren Ausprägung im entsprechenden Phänotyp [21]. Das Hauptziel der Gen-Expressionsanalyse besteht nun darin, die signifikant differenziell exprimierten Gene oder Gen-Gruppen zu identifizieren. Es existieren verschiedene experimentelle Verfahren zur Realisierung der Gen-Expressionsanalyse. Ältere Techniken wie z. B. Southern-Blotting und Northern-Blotting analysieren einzelne ausgewählte Gene. Neuere Techniken z. B. Differential Display und Serial Analysis of Gene Expression (SAGE) identifizieren bereits bis zu tausende Gene gleichzeitig [21]. Unter Gene-Mikroarrays werden moderne molekularbiologische Untersuchungstechniken bezeichnet, die die simultane Bestimmung einer Vielzahl unterschiedlicher mrna-segmente ermöglichen. Die GeneChip-Technologie von Affymetrix kann bis zu eine Million Oligonukleotide-Proben (etwa Gene) repräsentieren. Mikroarrays können sich unter anderem in der verwendeten festen Oberfläche (z. B. Glas, Plastik oder Nylonmembran), in der 3 Bewertung von Pre-Prozessing-Verfahren für die Mikroarray Genexpressionsanalyse

10 Länge der Proben, in der Proben-Dichte und in der Detektionsmethode (z. B. Ein- oder Zwei- Farben-Fluoreszenz) unterscheiden [2]. In dieser Arbeit werden Mikroarrays der Affymetrix GeneChip-Technologie betrachtet. Dieser Chiptyp gehört gegenwärtig zu den meist verwendeten Technologien bei der Genexpressionsanalyse. Die Technologie ist ausführlich in [2], [3] und dem Technical Manual von Affymetrix [4] beschrieben GenChip-Technologie Zur Darstellung eines Gens verwendet Affymetrix die Intensitäten von mehreren Proben. Abbildung 1 illustriert die Beziehungen zwischen mrna, Probe, Probepaar und Probeset. Ein Probeset besteht aus Probepaaren. Ein Probepaar wird aus 2 Proben gebildet, die gepaart vorliegen: Perfect Match (PM) und Mismatch (MM). Eine Probe enthält jeweils 25 Basen. Die PM-Probe wurde entworfen, um mit dem gesuchten spezifischen Transkript zu hybridisieren. Die entsprechende MM-Probe soll Kreuzhybridisierungen detektieren. Die MM-Probe unterscheidet sich von der PM-Probe nur in der mittleren Position, der 13. Base. Der Expressions-Level eines Gens wird aus den Werten der Proben eines Sets summarisiert. [57], [2]. Abbildung 1: Zusammenhang zwischen Probe (PM und MM) und Probeset in der Affymetrix GenChip-Technologie [2] Hybridisierung und Image Prozessing Das Mikroarray-Experiment und die anschliessende Datenanalyse erfolgen in mehreren Schritten. Nach Hybridisierung, Waschen und Fluoreszenzlabeling wird im ersten Schritt mit Hilfe des Scanners ein digitales Bild des Chips generiert. Das Bild wird im zweiten Schritt in quadratische Flächen (Zonen) aufgeteilt. Mittels geeignetem Imageprozessings wird die mittlere Intensität je Probenspot (Probenintensität oder Signalwert), der einer Fläche entspricht ermittelt. Diese Intensitäten (der PM- und MM-Proben) werden in einer CEL-Datei abgelegt. Detailierte Informationen befinden sich in [2]. Im dritten Schritt (Abbildung 2) werden die Rohintensitäten pre-prozessiert, um anschließend im vierten Schritt die Expressionswerte der einzelnen Proben zu ermitteln [siehe Abschnitt 2.3]. 4 Bewertung von Pre-Prozessing-Verfahren für die Mikroarray Genexpressionsanalyse

11 Abbildung 2: Microarray Data Analysis Prozess Grober Überblick [3 modifiziert] 2.3 Pre-Prozessing Bevor die Roh-Intensitäten analysiert werden können, müssen sie bereinigt bzw. aggregiert werden. Dabei unterscheidet man bis zu vier Teilschritte, die in der Tabelle 1 dargestellt sind. Teil-Schritt Background Correction Beschreibung Entfernen des Background Noise und des Image-Processing-Effects von der Signalintensität. Normalization Erzeugen einer vergleichbaren Probeintensität von verschiedenen Chips. PM-Correction Korregieren der PM-Intensität in einem Probeset für die nichtspezifische- (die Kreuz-) Hybridisierung. In manchen Quellen wird die PM-Correction nicht erwähnt. Summarization Aggregation der Werte der Probesets vom gleichen Gen zu einem Expressionswert. Tabelle 1: Teil-Schritte des Pre-Prozessing Background Correction: Die Hintergrundkorrektur entfernt Intensitätsanteile, die nicht auf die Bindung des Targets zurückzuführen sind. Die unerwünschten Hintergrundeffekte der Intensität sind z. B. auf das Image-Prozessing der Probenspots aber auch auf Kreuzhybridisierung mit nicht-spezifischer RNA und dem optischen Hintergrund (Restintensität beim Fehlen von hybridisierter RNA) zurückzuführen [20]. Normalization: Die Normalisierung bezeichnet den Ausgleich systematischer Unterschiede in der Verteilung der Proben-Intensitäten zwischen verschiedenen Chips, die nicht auf die differentielle Expression von Genen zurückzufüheren sind [20]. PM Correction: Zur Bestimmung des Anteils nicht-spezifischer Bindungen wurden die PM-Proben auf den Affymetrix GeneChips mit MM-Proben gepaart (siehe Abschnitt und 5 Bewertung von Pre-Prozessing-Verfahren für die Mikroarray Genexpressionsanalyse

12 Abbildung 1). Damit kann man die MM- Intensitäten zur Korrektur der Kreuz-Hybridisierung und des optischen Hintergrunds der PM-Intensitäten verwenden. Im einfachsten Fall wird die MM-Intensität von der PM-Intensität subtrahiert. Eine Reihe von Verfahren - wie RMA und GC-RMA - verzichten auf die MM-Werte. MAS verwendet jedoch diesen Teil-Schritt [20]. Summarization: Die Summarization aggregiert die Probenintensitäten jedes Probe-Sets zu je einem Expressionswert. Background Correction Intensitäten Normalization Normierte Arrays Probe-Set Probe-Set PM-Correction Korrigierte PM Korrigierte PM Summarization: Expressions-Set BG-Korrigierte Intensitäten Probe-Set Korrigierte PM Roh- Daten Probe Level Data Expressionswert Abbildung 3: Pre-Prozessing-Schritte [20, modifiziert] Wie in Abbildung 3 dargestellt, werden die Roh-Intensitäten von Eingabe-Datei(en) (z. B. einer CEL-Datei) gelesen. Danach werden die Hintergrundkorrektur und die Normalisierung durchgeführt. Im zweiten Block werden PM-Correction und Summarization zur Ermmitlung der Expressionswerte angewendet. Im Folgenden werden ausgewählte Pre-Prozessing-Methoden kurz vorgestellt MAS Microarray Suite 5.0 (MAS) ist das Standard-Pre-Prozessing-Verfahren von Affymetrix. In diesem Verfahren wird das Pre-Prozessing wie folgt realisiert [6]. Background Correction: Zur Abschätzung des Hintergrundwertes wird der Chip in K gleiche Zonen aufgeteilt (Default K=16). Danach werden Probe-Intensitäten jeder Zone geordnet (Ranking) und aus den niedrigsten der 2% Probe-Intensitäten in jeder Zone der mittlere Hintergrund b berechnet (bz k ). Die Standard-Abweichung dieser Intensitätswerte ist ein Maß des Hintergrundrauschens jeder Zone (nz k ) [6]. Die zur Korrektur verwendeten Hintergrundwerte werden zwischen den Zonen interpoliert [1]. Normalization: Die MAS-Methode verwendet einen simplen Scaling-Algorithmus zur Normalisierung. Der Algorithmus berechnet zwei Faktoren den sog. Scaling Factor sf und den Normalization Factor nf. Der Scaling factor (sf) wird wie folgt berechnet: 6 Bewertung von Pre-Prozessing-Verfahren für die Mikroarray Genexpressionsanalyse

13 sf Sc = SignalLogValue( i ) Mittel( 2, 0. 02, ) (2.1) [6, modifiziert] Sc bezeichnet das Target Signal (Target-mRNA-Konzentration). Die SignalLogValue wird aus den zugehörigen Probe-Sets i mittels One-Step Tukey s Biweight-Mittelung berechnet (siehe Summarization in MAS unten). Die Funktion Mittel berechnet den Mittelwert aller Beobachtungen nach Entfernung der Ausreißer (niedrigste bzw. höchste) 2% (d.h. 96% von Probe-Sets). Die Intensitäten werden danach wie folgt berechnet: SignalLogValue( i ) Intensität( i ) = nf * sf * 2 (2.2) [6, vereinfacht] Der Normalisierungs-Faktor nf wird mit Hilfe eines Refernzchips bestimmt, auf den alle weiteren Chips so skaliert werden, dass sie den gleichen mittleren Intensitätswert aufweisen [37]. PM-Correction: Die Grundannahme des Affymetrix-Probendesigns besteht darin, die MM als Proben für den nicht-spezifischen Hintergrund zu verwenden. Ein naiver Ansatz würde dann einfach das hintergrundkorrigierte Signal aus der Intensitätsdifferenz PM MM berechnen. Aufgrund der unterschiedlichen Mittelbasen der PM und MM führt diese Korrektur jedoch zu systematischen Fehlern, was sich z. B. in negativen Differenzwerten für ca. 40% aller Probenpaare widerspiegelt. Um diesen Effekt negativer PM MM Intensitätsdifferenzen zu vermeiden, werden die Intensitäten der MM-Proben in MAS durch einen sogenannten Ideal Mismatch (IM) Wert substituiert, der negative PM MM Intensitätsdifferenzen unterdrückt [6]. Summarization: Die individuellen Probenintensitäten eines Sets werden mittels des One-Step Tukey s Biweight Algorithm zu einem Expressionswert agreggiert. Dieser Algorithmus berechnet den Median der logarithmierten Intensitäten, wobei Ausreisser mit zunehmender Abweichung vom Median mit geringerem Gewicht berücksichtigt werden [6] RMA Background Correction: Der Background wird aus der Faltung der Verteilungen des Signals und des Hintergrunds geschätzt (siehe [13], [29] und [20]). Dabei wird für die letztere eine log-normal Verteilung und für die erstere eine exponentielle Verteilung angesetzt. Die Hintergrundverteilung ist durch ihre Position und Breite charakterisiert. Sie gilt für alle Proben des Arrays. Formel 2.3 zeigt die Berechnung der beobachteten Proben-Intensität. Sie wird als Summe des (tatsächlichen) Signals X und dem nicht-negativen Hintergrund Y modelliert. (siehe [37]) S = X + Y (2.3) [37] Normalization: Das RMA-Verfahren verwendet die Quantil-Normalisierung. Dabei werden n Arrays mit je p Genen in eine p n -Matrix X der entsprechenden Intensitätswerte transformiert. 7 Bewertung von Pre-Prozessing-Verfahren für die Mikroarray Genexpressionsanalyse

14 Die Werte eines jeden Arrays werden sortiert (X ), danach wird der Mittelwert jeder Zeile p (Gene) in X ermittelt und alle Positionen p in der sortierten Matrix X mit dem Mittelwert ersetzt. Das Verfahren wird für alle Positionen p wiederholt. Die sortierte Matix X wird anschließend wie die ursprüngliche Matrix X neu geordnet, um eine normierte Matrix X norm zu erhalten (siehe [37]). PM-Correction: Das RMA-Verfahren ignoriert die MM-Proben und nutzt PMonly. Summarization: Die logarithmierte Intensität jeder Probe wird additiv in einen Affinitäts- und in einen Expressionsanteil zerlegt. Die Modellparameter von log 2 α i und ( ) PM = α + β + ε (2.4) ( k) ( k) ( k) ( k) ij i j ij β j werden dann unter Verwendung der Intensitätsdaten mehrerer Chips (mindestens 4) mittels Median-Polish bestimmt. In der Formel (2.4) werden Parameter j = 1,...,J für die einzelnen Chips bzw. Arrays und k = 1,...,K für die einzelnen Probe-Sets verwendet. Jedes Probe-Set k besteht aus I Proben miti = 1,...,I. α i ist ein Probe-Effekt der i-ten Probe und β j der Chip-Effekt des j-ten Array. ε ij sind unabhängige und identische Fehler. Die Expressionswerte werden somit in der Log-Skala berechnet [37] dchip: Li-Wong Background Correction: Diese Methode verwendet keine gesonderte Hintergrundkorrektur. Normalization: Die Methode verwendet die sogenannte Invariant Set Normalisierung [8], [39], die auf der Annahme beruht, dass zwischen je zwei Chips eine Teilmenge von Genen existiert, deren Expressionsniveau sich nicht signifikant ändert. Zuerst werden die Probensignale aller Gene g 1,...,g m auf jedem Chip einer Serie mit abfallender Intensität geordnet (gerankt). Dann werden Intensitäten der Gene, die in den betrachteten Arrays ähnliche Rankzahlen besitzen, ausgewählt und als Invariant Set ausgezeichnet. Letztlich werden Probenintensitäten des Invariant-Sets für alle betrachteten Arrays auf die Werte eines daraus gewählten Baseline-Arrays mit Hilfe einer nicht-parametrische Kurve (running Median bzw. Smoothing Splines [39, S.10]) skaliert [38], [39, S. 9]. PM-Correction: Das Li-Wong-Verfahren bietet zwei Optionen, a) das volle Full-Li-Wong- Verfahren (LWF) und b) das reduzierte reduced-li-wong-verfahren (LWR). Ersteres verwendet nur PM-Intensitäten und ignoriert MM-Proben, letzteres verwendet die PM-MM Intensitätsdifferenz. Summarization: Die Li-Wong-Methode verwendet ein Modell, welches die Intensität additiv in einen probe-spezifischen Hintergrundanteil V j und einen Signalanteil zerlegt. Letzterer ist das Produkt aus einem probe-spezifischen Affinitäts- und einem genspezifischen Expressionsindex [24]. 8 Bewertung von Pre-Prozessing-Verfahren für die Mikroarray Genexpressionsanalyse

15 (LWF:)PMij = V j +αjθ i +φjθ i +ε MM ij = V j +αjθ i +ε ( LWR :)PM ij MM ij =θφ i j +εij (2.5) Formel (2.5) beschreibt die zwei Varianten der Li-Wong-Summarization, in denen θ i den Expressionsindex des betrachteten Gens auf dem i-ten Chip und φ j bzw. α j die entsprechenden Proben-Affinitäten bezeichnen. Die Parameter werden mittels nichtlinearer Maximum-Likelihood-Schätzung aus den Intensitätsdaten mehrerer Chips berechnet. V j ist die Base-Line -Antwort des j-ten Probe-Paares aufgrund nicht-spezifischer Hybridation GC-RMA GC-RMA [18] verwendet einen ähnlichen Algorthmus wie RMA jedoch mit einer unterschiedlichen Methode zur Hintergrundkorrektur, die auf dem GC-Content der Proben basiert. Background Correction: GC-RMA korrigiert den Intensitätsbeitrag der nicht-spezifischen Bindung (NSB) und verwendet, im Unterschied zu RMA, die Probe-Sequenz. Entsprechend dem Gehalt an benachbarten GC wird eine GC-spezifische Hintergrundverteilung geschätzt und bei der Korrektur verwendet [18] Plier: Probe Logarithmic Intensity Error Die Plier-Methode [17] wurde von Affymetrix entwickelt und steht in kommerziellen Paketen - wie Stratagene s ArrayAssist zur Verfügung. Die Hauptintention von Plier liegt bei den Background- und den PM-Correction Algorithmen. Es werden außer den PM-MM, PM-Only Ansätzen zwei weitere Ansätze vorgeschlagen: PM-B: Hier wird das Perfect Match von der Background-Abschätzung subtrahiert. B kann mit uniform Percentage- oder spatially smoothed Percentage-Methoden, die im Plier-Packet vorhanden sind, berechnet werden. MM treated as additional PM: Die Addition der Perfect Match mit der Mismatch (PM+MM) kann in den Fällen angewendet werden, in welcher der Fold-Change im Expressionswert gering ist. Die Grundidee von Plier ist Effekte von probe-spezifischen Intensitäten und chipspezifischen Konzentrationen bei Korrektur-Abschätzung zu berücksichtigen. Solche Schätzungen werden in Plier auf Basis zweier Parameter - sog. Feature Response 1 f(i) und Target Response t(j) ermöglicht. Target Response t(j) ist ein Maß innerhalb eines Experimentes mit (multiplikativen) Unterschieden bezüglich der Intensität, die eine andere Konzentration haben. Feature Response f(i) (vgl. Scaling Factor in MAS-Normalization) ist ein relatives Maß innerhalb eines Probe-Sets mit (multiplikativen) 1 Irrizariy u. a. nennen den Term Probe-Affinität 9 Bewertung von Pre-Prozessing-Verfahren für die Mikroarray Genexpressionsanalyse

16 Unterschieden bezüglich der Intensität einer gegebenen Eigenschaft (z. B. in der Position, in der Probe-Reihenfolge, usw.), die unterschiedlich als andere ist (Entdeckung der systematischen Fehler). Plier nimmt an, dass Fehler auf Log-Skale Additive (log(pm) = signal + Fehler) und auf normal-skala Multiplikative sind (vgl. VSN in Abschnitt 2.3.7). Nach der Abschätzung von Target Response und Feature Response wird die Total Response y wie folgt berechnet (Annahme: gleiche PM- und MM-Fehler für das Probe-Paar i, vgl. Formel 2:1 und 2.2 in MAS-Verfahren): PM (m) MM (m) = y (m) = t( j )* f (m) ( i )* e (2.6a) (siehe [17], [25] modifiziert, vereinfacht) ij ij ij wo t(j) ein chipspezifisches Hintergrundsignal (Konzentration von RNA auf Chip j) und f(i) probespezifische Werte (sog. Probe-Affinität für Probe-Paar i in Gen m) bezeichnet. e präsentiert Fehler. Zur Ermittlung der Fehler e wird ein Zwischenwert q mit Likelihood-Verfahren aus gemessenen PM- und MM-Intensitäten und Total Response y wie folgt berechnet: q = ( y* y) +4*PM*MM (2.6b) [17] Dannach wird für jedes Probe-Set der Fehler der beobachteten Intensitäten mit Formel (2.6c) berechnet: (y+ q) e = ( 2*PM ) (2.6c) [17] Wenn nur PM-Intensitäten verwendet werden, wird Formel (2.6d) zur Abschätzung des Fehlers mit BKG als Hintergrund-Wert benutzt: (y+ BKG) e = PM (2.6d) [17] Wenn die Abschätzung des Fehlers e berechnet ist, wird der Residual r auf Log-Skale und die German-McClure-Funktion (sog. M-Schätzer) h zur Reduzierung der inkonsitenten Features mit einem konstanten Tuning-Parameter z berechnet werden: h r = log( e ) (2.6e) [17] = 1 r*r r + r* z Anschließend werden Ergebnisse für das Probe-Set, als Log-Likelihood-Approximation LL aggregiert: LL(t,f ) = H(PM,MM,BKG,f(i),t(j)) = h(r)(2.7)[17] dann LL( t, f ) = h( r ) 10 Bewertung von Pre-Prozessing-Verfahren für die Mikroarray Genexpressionsanalyse

17 Für Normalization wird das Quantile-Verfahren (von RMA) und der Summarization-Algorithmus (von MAS) One-Step Tukey s Biweight - verwendet [17] Das Oligo-Verfahren Die Grundlage des Oligo-Verfahrens [10] ist die Modellierung der Signalintensität (P = PM oder MM, p = Probennummer) durch folgenden Annahmen: 1) Die Signalintensität (I) jeder Probe setzt sich additiv aus Anteilen spezifischer (S) und nichtspezifischer (NS) Hybridisierung zusammen. I = S + NS, d. h. es binden P P P P P P spezifische als auch nicht-spezifische RNA-Fragmente an die Probe. Spezifische Fragmente sind vollständig komplementär zur Probe (25 bp), nicht-spezifische nur teilweise (üblicherweise einige Basen). 2) Bei hohen RNA-Konzentrationen sättigen die Proben, d. h. mit steigender RNA-Konzentration binden zunehmend immer weniger der RNA-Target Fragmente. Dieses Verhalten wird mit der sogenannten Langmuir Isotherme beschrieben: I P P S + NS = mit 1 + f.( S + NS ) P P P P P P P P f 1 = (max. mögliche Probeintensität) I max 3) Hinzu kommt ein optisches Hintergrundrauschen, da jede Probe beim scannen selbst dann eine Signalintensität zurückgibt, wenn keine Hybridisierung stattgefunden hat. Dieser Wert trägt deshalb nicht zur Sättigung bei. P P P P SP + NSP SP + NSP I = + I = + I P P p 1 + f.( S + NS ) 1 + f. I P R R P p P P P p 4) Die Beiträge der spezifischen und nichtspezifischen Bindung werden multiplikativ in einen probenspezifischen Delta-Term, und in einen Gen- bzw. Chipspezifischen Anteil zerlegt, S = S set * S und NS = NS set * NS Die Gleichung verändert sich zu: I P P P P P P SP. SSet + NSP. NSChip = + I P 1 + fi. P R P Der gesuchte Wert ist der Expressionsgrad S Wert für den gesamten Chip berechnet werden NS S und NS bestimmt werden. Set P. Für den nichtspezifischen Anteil muss ein P Chip. Zusätzlich müssen die Sequenzprofile 11 Bewertung von Pre-Prozessing-Verfahren für die Mikroarray Genexpressionsanalyse

18 Auf der Basis dieser Annahmen werden beim Oligo-Verfahren die benötigten Parameter P PM MM PM MM R NS, S, S, NS, NS, I, I aus den Intensitäten bestimmt, um letztendlich Chip P P P P Max p P S Set zu schätzen. Nach der Bestimmung des optischen Hintergrunds [siehe 2.3, Background Correction] wird die sogenannte Hakenkurve (Abbildung 4, Links) aus den Probenintensitäten erzeugt, um aus ihr die gesuchten Parameter zu schätzen. Z. B. Die Probesets links vom Knick (grauer Bereich) werden als hauptsächlich nichtspezifisch hybridisiert angenommen und bilden somit die Grundlage für die Berechnung der nichtspezifischen Sensitivitätsprofile ( ). Mit den p NS p Sensitivitäts-korrigierten Intensitäten wird die Hakenkurve erneut berechnet und p NS p erneut bestimmt (Abbildung 4, Mitte). Durch Anpassung des Intensitätsmodells mittels Gradientenmethode an die Hakenkurve werden die benötigten Parameter geschätzt (Abbildung 4, Rechts). Anschließend werden aus den Daten die Sensitivitätsprofile für die spezifische Hybridisierung ( P S P ) berechnet. Abbildung 4: links: Hakenkurve aus Intensitätsdaten, mitte: Hakenkurven aus NS-korrigierten Intensitäten und rechts: Anpassung der theoretischen Funktion [10] Im letzten Schritt wird aus der Gleichung des Hybridisierungsmodells der spezifische Anteil der Hybridisierung ( S ) bestimmt. Die Werte für ein Probeset werden dann mittels des p p Turkey-Biweight Medianes und unter Ausschluss von Ausreißern berechnet [10] VSN (Variance Stabilization ans Normalization) VSN [9] ist ein Normalisierungsverfahren, das auf der Basis des multiplicative-additive error Modells von Rocke und Durbin [11] entwickelt wurde. In Rocke und Durbin [11] wurde ein zwei Komponentenmodell für die gemessene Gen-Expression y vorgeschlagen : η y = α+ε+ b. µ e [26] Hier bezeichnet α ein chipspezifisches (konstantes) Hintergrundsignal. µ das wahre Expressionsmaß ist in beliebigen Einheiten darstellt. ε und e η sind additive- bzw. multiplikative 12 Bewertung von Pre-Prozessing-Verfahren für die Mikroarray Genexpressionsanalyse

19 Fehler-Terme. b ist ein konstanter Verstärkungsfaktor für alle Gene eines Chips. Für beide ε (zufälliger Hintergrund) und η (zufällige Verstärkung) wird eine Normalverteilung mit dem Mittelwert null und den Varianzen 2 σ ε bzw. 2 σ η angenommen [26]. Entsprechend diesem Modell dominiert der additive Fehler für niedrige Intensitäten, während der multiplikative Fehler für hohe Intensitätswerte dominiert. Letzterer ist proportional zum wahren Signal µ. Huber [33] erweitert dieses Modell und berechnet die gemessene Intensität wie folgt: yik = α ik + b ik *x k [33] Entsprechend diesem Modell berechnet sich die Intensität y ik von Probe k auf Chip i additiv aus einem chipspezifischen Offset α ik und einem Signalterm, der sich multiplikativ aus einem Verstärkungsfaktor (sog. gain, vgl. Scaling Factor in MAS und Feature Response in Plier) b ik und dem wahren Expressionsmaß. x k zusammensetzt. Die Schätzung der Parameter des Fehlermodells wird folgendermaßen berechnet: α =α +ε ik i ik [33] α i bezeichnet den Offset pro Chip und ε ik den additiven Fehler. Additive Fehler sind nicht-spezifische Hybridisation, Kreuz-Hybridisation und Hintergrundfluoreszenz. Formel 2.8 zeigt die Berechnung des Verstärkungsfaktorsb ik, wo b i ein Normalisierungsfaktor pro Chip, b k ein sequenzspezifische Probe-Effizienz (der probespezifische Affinitäts-Faktor) und multiplikative Fehler ist. η ik ein b = b *b *e (2.8) η ik i k ik Huber berechnet die Parameter mit Hilfe des Sinus Hyperbolicus (arsinh) wie folgt (siehe [9], [33]): y ar sinh ik α b i i (vereinfacht dargestellt, siehe [33]) 2.4 Zusammenfassung Tabelle 2 fasst die beschriebenen Pre-Prozessing-Methoden überblicksartig zusammen. Die verschiedenen Methoden wurden oben kurz dargestellt. Die Notwendigkeit der Bewertung der einzelnen Methoden ergibt sich aus dervielfältigkeit der Pre-Prozessings-Ansätze. Die Überprüfung der Qualität von Gen-Expressionen vor, nach und auch in jedem Teilschritt des Pre-Prozessings ist erforderlich, um die Qualitätsniveaus von verschiedenen Pre-Prozessing-Methoden nach 13 Bewertung von Pre-Prozessing-Verfahren für die Mikroarray Genexpressionsanalyse

20 bestimmten Kriterien sicher zu stellen. VSN wurde als Normalisierungsverfahren nicht berücksichtigt. Verfahren MAS5 RMA MBEI (GC-RMA) Plier OLIGO Probe Name Microarray Suite Logarithmic Model Based Robust Multi-Chip Robust Multi- Error Expression Average Chip Average Intensity Index Estimate Oligo Pre-Prozessing Autoren Affymetrix 2002 BGC Normalization PM-MM Differenz mit Korretur constant: Base Line Methoden, linearer Ansatz PM-Corrction PM-MM Bolstad, Speed, Irizarry 2003 Li, Wong 2001 Chip-Mittel None Wie RMA Quantiles PMonly invariantset: Base Line Methoden, non-linearer Ansatz Bolstad, Hubbell Speed, Irizarry (Affymetrix) Wie RMA PMonly in Full- Li-Wong (Standard) subtractmm in PMonly Reduce-Li- Wong Mit PM- Correction in einem Schritt Wie RMA PM-MM, PM only, PM-B und (MM + PM) Binder, Preibisch, (IZBI) 2006 Wie MAS Oligo- Algorithmus Bestimmung der S- und NS- Proben, Langmuir Isotherme PM-MM One-Step Tukey Modell, Summarization Medianpolish Modell Wie RMA Wie MAS Wie MAS Anzahl der Chips Single Array Analysis 1 Multiple Array Analysis >4 Multiple Multiple Array Multiple Array Array Analysis >5 bis Analysis >4 Analysis >4 10 Skala Linear Log Linear Log Log Log, glog Tabelle 2: Zusammenfassung von sechs Pre-Prozessing-Methoden (siehe [28],[17])] 1 14 Bewertung von Pre-Prozessing-Verfahren für die Mikroarray Genexpressionsanalyse

21 3 Bewertung der Pre-Prozessing-Verfahren Dieses Kapitel gibt einen Überblick über ausgewählte Vorschläge zur Bewertung von Pre-Prozessing-Algorithmen. Dazu zählt die Diplomarbeit von Freudenberg am IZBI [1], das affycomp-[12][13], das SAM- und das siggenes-paket [14][15], die in der Programmiersprache R geschrieben wurden. 3.1 Simulationsansatz In der Diplomarbeit von Freudenberg wurde eine parametrische Bootstrap-Prozedur zur Simulation von Gen-Expressionsdaten angewendet, um ausgewählte Pre-Prozessing-Methoden miteinander verglichen, um den Einfluss von Hintergrundkorrektur- und Normalisierungsverfahren zu untersuchen. Es wurde eine neuen Normalisierungsmethode (Global Loess) vorgeschlagen[1] Simulation der Gen-Expressionsdaten und Vergleichkriterien Microarray-Signaldaten werden in einem Simulationsansatz mittels parametrischen Bootstraps erzeugt. Replikate werden dabei mittels einer Normalverteilung berechnet, deren Parameter aus experimentellen Probendaten geschätzt wurden. Die differenzielle Expression wurde durch einfache Skalierung von hintergrundbereinigten Signalanteilen vorgegeben. Es werden 5 Kriterien erarbeitet, um verchiedenen Preprozessingmethoden miteinander zu vergleichen. Das erste Kriterium betrachtet Zeit- und Speicherverbrauch der Methoden. Die vier weiteren Kriterien sind mathematische Maßstäbe: 1. der zufällige Fehler (Varianz); 2. der systematische Fehler (Bias); 3. und die Kombination beider als MSE (Mean Square Error); und, 4. die Sensitivität. Abbildung 5: Median MSE vs. dem Anteil von differentiell exprimierten Genen [1] 15 Bewertung von Pre-Prozessing-Verfahren für die Mikroarray Genexpressionsanalyse

22 Beispielweise wurde MSE als aggregiertes Maß für Bias und Varianz verwendet, um den Einfluß der Normalisierungsmethode auf die geschätzte Expression zu untersuchen. Abbildung 5 zeigt den Median der MSE-Werte über alle simulierten Exprimente. Wie erwartet, ist eine deutliche Reduzierung von MSE nach der Normalisierung zu verzeichnen. Die drei ausgewählte Normalisierungs-Methoden Quantile, Global Loess und Invariantset liefern die besten Ergebnisse, die schlechtesten liefert MAS. Alle Test-Fälle wurden mit Medianpolish (siehe RMA, Summarization) aggregiert Grenze des Vorschlags Folgende Probleme begrenzen die Anwendung bzw. Aussagefähigkeit des Simulationsansatzes: 1) Die begrenzte Speicherkapazität der Rechner; die im Bootstrapverfahren benötigte Kovarianzmatrix benötigt bereits für kleinere Chips (z. B. HG-U95Av2 mit Proben) über 600 GB Speicher. 2) Als Entwicklungsumgebung wurde die nur kommerziell-verfügbare Programmiersprache S-Plus verwendet. Im Unterschied zu R ist diese nicht frei zugänglich. 3) Einige mögliche Methodenkombinationen führen zu nicht-sinnvollen Ergebnissen. Als ein Beispiel kann VSN- und RMA-Verfahren dienen [1, s ]. Wenn man als Background Correction - RMA - und als Normalization - VSN - verwendet, werden nicht sinnvolle Werte berechnet 2 : Da die Intensitäten in RMA-Verfahren in die Log-Skala umgewandelt werden, erscheint die VSN-Normalisierung wirkungslos, da diese auf der originalen linearen Skala aufsetzt. Dies nennt man Über-Normalisierung (Over-Normalization). Die unaufmerksame Kombination verschiedener Verfahren liefert also nicht immer sinnvolle Erkenntnisse (siehe auch [34]). 3.2 R-Paket: Affycomp [16], [12] Affycomp wurde im Rahmen des Projekts Bioconductor als webbasiertes Werkzeug zum Vergleich und Bewertung von Preprozessingverfahren entwickelt. Das Paket kann zum Erzeugen eines automatischen Reports verwendet werden, der mehrere Plots und zusammenfassenden Statistiken erzeugt. Affycomp bewertet die Genauigkeit (niedriges Bias) und Präzision (niedrige Varianz) der erhaltenen Expressionsmaße für die spiked-in Datensätze von Affymetrix. Die Varianz eines Messprozesses kann einfach durch wiederholte Messungen geschätzt werden. Um jedoch den Bias einer Messung zu bestimmen, benötigt man die Kenntnis des tatsächlichen, wahren Wertes oder zumindest eine genauere, unabhängige Messung des Vergleichswertes. Aus diesem Grund verwedet Affycomp die Spike-in- und Dilution-Experimente. In Spike-in-Experimente werden unterschiedliche crna Bewertung von Pre-Prozessing-Verfahren für die Mikroarray Genexpressionsanalyse

23 Fragmente der Hybridations-Mischung von Arrays in unterschiedlichen pm(pico Molar)- Konzentrationen hinzugefügt. Die crnas werden bei einer bestimmten Konzentration auf jedem Array (abgesehen von Replikaten) in einem zyklischen Latin Square 3 Design, wo jede Konzentration genau einmal in jeder Zeile und Spalte erscheint, angeordnet. In die Dilution-Experimente durch GeneLogic 4 gibt es zwei Quellen von RNA: 1.) menschliches Lebergewebe und 2.) Zellen des Zentralnervensystems (CNS). Diese werden zu den Arrays (HG-U95Av2) in einer Reihe von unterschiedlichen Verdünnungen und Verhältnissen hybridisiert. Beide Experimente haben eine gemeinsame Eigenschaft: Die Genauigkeit und das erwartete Resultat der Datensätze sind vorher bekannt. Dadurch kann der Bias der Auswertmethoden geschätzt werden Der affycomp-report Affycomp erzeugt einen standartisierten Report, der den direkten Vergleich verschiedener Preprozessingmethoden anhand analoger Plots und statistischer Parameter erlaubt. Im Einzelnen werden folgende Informationen generiert: die Varianz des Expressionsmasses über die Replikat-Arrays, der Zusammenhang zwischen Expressionsmaß und der Änderung der mrna Konzentration, die Genauigkeit von Expressionsänderungen (Fold-Change) Abbildung 6: Beobachtete Konzentration vs. nominale Konzentration für Spike-In Gene, oben, links nach rechts: MAS, RMA, dchip; unten, Links nach Rechts: GC-RMA, Plier und Oligo-Verfahren [16] 3 Ein Latin square der Ordnung n ist eine n n Matrix (Array) L = (a i,j ) mit Einträgen aus einer n-elementigen Menge A, so dass jedes Element aus A in jeder Zeile und jeder Spalte von L genau einmal vorkommt. Es gibt für Latin Square aller möglichen Ordnungen. 4 Siehe: 17 Bewertung von Pre-Prozessing-Verfahren für die Mikroarray Genexpressionsanalyse

24 Zum direkten Vergleich mehrerer Preprozessingmethoden kann ein entsprechender Report erzeugt werden. Im Folgenden werden zwei Beispiele für Ausgabe-Informationen des Web-Tools präsentiert. In Abbildung 6 ist der Durchschnitt der beobachteten Log 2 -Expressionswerte als Funktion der nominalen Konzentration für jedes Spike-in Gen geplottet (eine Differenz der logarithmierten Achsenwerte von 1 entspricht somit der Verdoppelung der Basiswerte). Die gestrichene diagonale Linie hat die ideale bzw. optimale Steigung von 1. In Abbildung 6 zeigt das Oligo-Verfahren und partiell auch GC-RMA einen nahezu optimalen Kurvenverlauf. Am schlechtesten sind dchip, RMA und MAS. Die Abbildung 7 zeigt mittels des Web-tools erzeugte ROC-Kurven (Receiver Operating Characteristic Curve). Sie korreliert die True Postive Rate (Sensititvität) mit der False Positive Rate (1-Spezifizität) der jeweiligen Preproessingmethode. Die optimale Charakteristik für einen den bestmöglichen Test entspricht einer hohen Sensitivität (TPR=1) bei hoher Spezifizität (FPR=0), d.h. einem ROC-Kurvenverlauf entlang der linken und oberen Koordinatenachsen. Die ROC-Kurve eines schlechten Tests wird dagegen mehr der Diagonale (TPR=FPR) folgen, die dem rein zufälligen und somit unspezifischen Ergebnis entspricht. Abbildung 7: ROC-Kurven: Sensitivität vs. False Discovery Rate (FDR) wird für 6 Verfahren geplottet: oben, von links nach rechts: MAS, RMA, dchip; unten, von links nach rechts: GC-RMA, Plier und Oligo-Verfahren [16] Ohne die Diskussion der Preproessingmethoden vorwegzunehmen (siehe Kapitel 5), ist sofort zu erkennen, dass RMA, GC-RMA, das Oligo-Verfahren und partiell dchip eine bessere ROC-Charakteristik zeigen als MAS und Plier. Das affycomp-webtool erzeugt insgesamt Bewertung von Pre-Prozessing-Verfahren für die Mikroarray Genexpressionsanalyse

25 Abbildungen zu verschiedenen Aspekten der primären Datenanalyse. Tabelle 3 gibt einen Überblick dazu Bewertung der Affycomp Affycomp hat bemerkenswerte Vorteile, besonders hinsichtlich der Visualisierung und der standardisierten Testumgebung sowie der erzeugten statistischen Berichte betrifft. Allerdings weist Affycomp aber auch folgende Nachteile auf: 1. Die Verwendung von eigenen bzw. neuen Datensätzen ist bei Affycomp voraussichtlich kaum möglich. Sie müssen der vorgegebenen Struktur (wie z. B. Spiked-in-Design) haben. 2. Die Flexibilität des Pakets, z. B. für weitere Test-Methoden oder Testdaten, ist begrenzt. Abbildung Info Bewertung MAplot das Log 2 Fold Change (M) vs. das durchschnittliche Log 2 für alle Gene (A) von Spike-in Experimenten berechnet. (Figure 1) + Informationen über die Verteilung von FC + Überblick über die kombinierten Konsequenzen der Bias und die Varianz in den Schätzungen Spike-in data plot ROC- Kurven beobachtete FC vs. nominale FC Die beobachtete Konzentration wird gegen die nominale Konzentration für jedes Spike-in Gen geplottet (Figure 4.a) Die ROC-Kurven werden erzeugt, indem man die FP gegen die TP errechnet und zwar alle Punkte, bei denen die Plots einen bestimmten Wert/eine bestimmte Schwelle übersteigen. (Figure 5.a, Figure 5.b) Annahme: Der größt-mögliche beobachtete FC korrespondiert mit dem größten tatsächlichen FC. (Figure 6.a, Figure 6.b) + Ermöglicht die Bias und die Varianz festzusetzen + die Frage der Kennzeichnung der differentialen Expression + bietet eine graphische Darstellung für die Spezifizität und Sensitivität + die Darstellung der Abweichungen, außerdem eine Einschätzung der Bias + Figure 6.b: bessere Beobachtung der niedrigen Konzentration Tabelle 3: Zusammenfassung von ausgewählten Abbildungen im Affycomp-Paket 3.3 SAM (Significance Analysis of Microarrays) Der SAM-Ansatz ist eine von Robert Tibshirani u. a. erarbeiteter statistischer Test zur Bestimmung signifikant differentiell exprimierter Gene oder Gen-Gruppen anhand von Mikroarraydaten [14], [15] und [32]. Die Methode wurde in zwei R-Paketen, samr und siggenes, implementiert. In der vorliegenden Arbeit wurde nur Siggenes verwendet [42], [43]. Für jedes Gen wird eine modifizierte t-statistik als relatives Maß der differentiellen Expression bestimmt, welche die differentiellen Expression ins Verhältnis zu der aus wiederholten Messungen bestimmten Standardabweichung setzt. Für Gene mit t-werten jenseits einer justierbare Schwelle (threshold) verwendet SAM eine Permutationstechnik um die False Discovery Rate (FDR) zu schätzen [15]. Die Permutationstechnik vermeidet parametrische Annahmen über die Verteilung der einzelnen Gene. Das Ergebnis des t-tests wird als p-wert ausgegeben. Der p-wert gibt an, mit welcher Irrtumwahrscheinlichkeit (α) die Nullhypothese H 0 zu verwerfen ist. Das 19 Bewertung von Pre-Prozessing-Verfahren für die Mikroarray Genexpressionsanalyse

26 Signifikanzniveau α begrenzt die Wahrscheinlichkeit für Fehler erster Art bzw. für falsch positive Ergebnisse (FP) [40]. Je kleiner p, desto signifikanter folglich die ermittelte differentielle Expression Test Statistik [42]: SAM-Verfahren SAM kann Expressionswerte verwenden, um differentiell-experimnierte Gene zu ermitteln. Wenn man die Arrays (Sample bzw. CEL) mit n und die Gene mit m bezeichnet, dann können die gesamten Expressionswerte als eine Datenmatrix (m, n), mit m Zeilen und n Spalten dargestellt werden. Für jedes Gene i = 1,...,m wird als Test Statistik die differentielle Expression in einer relativen Skale in Bezug zu den entsprechenden Standardabweichungen gesetzt d i ri = s + s i 0 (3.4) [42] Dabei ist r i die differentielle Expression des Gens i in Bezug zur Referenzbedingung. s i ist die aus replikaten Messungen bestimmte Standardabweichung und der justierbare Term s 0 0 verhindert die Division durch Null und begrenzt somit Fluktuationen von d i bei zufällig auftretenden Werten von s i nahe Null. SAM betrachtet die Fälle ungepaarter und gepaarter Expressionswerte zweier zu vergleichender Klassen von Proben ( Sample versus Referenz): Ungepaarte Proben: Die differenzielle Expression und die entspr. Standardabweichung berechnen sich gemäss 1 1 r = x x = x x i i2 i1 ij ij n2 j C n 2 1 j C1 und (3.5) [42] s 1 1 x x x x n n i = ( + ) ( ij i1) + ( ij i2) /( ) n1 n2 j C1 j C2, wobei X die Expressionswerte von dem Gen i in CEL j = 1,...,n bezeichnet. Die Variablen C ij bezeichnen die Zahl der Beobachtungen innerhalb eines Klasse (C 1 und C 2 ). Dieser Ansatz setzt voraus, dass die arithmetischen Mittelwerte in jeder Gruppe normal verteilt und die Varianzen der Expressionswerte in beiden Gruppen gleich groß sind. Die Teststatistik des two class case for unpaired t-tests berechnet sich aus Gleichung (3.4) und (3.5). Gepaarte Proben: Im two class, paired Fall bilden zwei Samples (bzw. CEL) ein geordnete Paar (k, -k) mit {-1, 1, -2, 2,, -K, K}. Die differenzielle Expression und die entspr. Standardabweichung berechnen sich gemäss 20 Bewertung von Pre-Prozessing-Verfahren für die Mikroarray Genexpressionsanalyse

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren Lineargleichungssysteme: Additions-/ Subtraktionsverfahren W. Kippels 22. Februar 2014 Inhaltsverzeichnis 1 Einleitung 2 2 Lineargleichungssysteme zweiten Grades 2 3 Lineargleichungssysteme höheren als

Mehr

Leseprobe. Wilhelm Kleppmann. Versuchsplanung. Produkte und Prozesse optimieren ISBN: 978-3-446-42033-5. Weitere Informationen oder Bestellungen unter

Leseprobe. Wilhelm Kleppmann. Versuchsplanung. Produkte und Prozesse optimieren ISBN: 978-3-446-42033-5. Weitere Informationen oder Bestellungen unter Leseprobe Wilhelm Kleppmann Versuchsplanung Produkte und Prozesse optimieren ISBN: -3-44-4033-5 Weitere Informationen oder Bestellungen unter http://www.hanser.de/-3-44-4033-5 sowie im Buchhandel. Carl

Mehr

AUTOMATISIERTE HANDELSSYSTEME

AUTOMATISIERTE HANDELSSYSTEME UweGresser Stefan Listing AUTOMATISIERTE HANDELSSYSTEME Erfolgreich investieren mit Gresser K9 FinanzBuch Verlag 1 Einsatz des automatisierten Handelssystems Gresser K9 im Portfoliomanagement Portfoliotheorie

Mehr

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über Güte von s Grundlegendes zum Konzept der Güte Ableitung der Gütefunktion des Gauss im Einstichprobenproblem Grafische Darstellung der Gütefunktionen des Gauss im Einstichprobenproblem Ableitung der Gütefunktion

Mehr

OECD Programme for International Student Assessment PISA 2000. Lösungen der Beispielaufgaben aus dem Mathematiktest. Deutschland

OECD Programme for International Student Assessment PISA 2000. Lösungen der Beispielaufgaben aus dem Mathematiktest. Deutschland OECD Programme for International Student Assessment Deutschland PISA 2000 Lösungen der Beispielaufgaben aus dem Mathematiktest Beispielaufgaben PISA-Hauptstudie 2000 Seite 3 UNIT ÄPFEL Beispielaufgaben

Mehr

Einfache Varianzanalyse für abhängige

Einfache Varianzanalyse für abhängige Einfache Varianzanalyse für abhängige Stichproben Wie beim t-test gibt es auch bei der VA eine Alternative für abhängige Stichproben. Anmerkung: Was man unter abhängigen Stichproben versteht und wie diese

Mehr

LU-Zerlegung. Zusätze zum Gelben Rechenbuch. Peter Furlan. Verlag Martina Furlan. Inhaltsverzeichnis. 1 Definitionen.

LU-Zerlegung. Zusätze zum Gelben Rechenbuch. Peter Furlan. Verlag Martina Furlan. Inhaltsverzeichnis. 1 Definitionen. Zusätze zum Gelben Rechenbuch LU-Zerlegung Peter Furlan Verlag Martina Furlan Inhaltsverzeichnis Definitionen 2 (Allgemeine) LU-Zerlegung 2 3 Vereinfachte LU-Zerlegung 3 4 Lösung eines linearen Gleichungssystems

Mehr

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung.

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung. Lineare Gleichungen mit einer Unbekannten Die Grundform der linearen Gleichung mit einer Unbekannten x lautet A x = a Dabei sind A, a reelle Zahlen. Die Gleichung lösen heißt, alle reellen Zahlen anzugeben,

Mehr

Biostatistik, WS 2015/2016 Der zwei-stichproben-t-test

Biostatistik, WS 2015/2016 Der zwei-stichproben-t-test 1/29 Biostatistik, WS 2015/2016 Der zwei-stichproben-t-test (t-test für ungepaarte Stichproben) Matthias Birkner http://www.staff.uni-mainz.de/birkner/biostatistik1516/ 11.12.2015 2/29 Inhalt 1 t-test

Mehr

Statistische Auswertung:

Statistische Auswertung: Statistische Auswertung: Die erhobenen Daten mittels der selbst erstellten Tests (Surfaufgaben) Statistics Punkte aus dem Punkte aus Surftheorietest Punkte aus dem dem und dem Surftheorietest max.14p.

Mehr

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse 11 13. 501322 Lösung 10 Punkte

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse 11 13. 501322 Lösung 10 Punkte 50. Mathematik-Olympiade. Stufe (Regionalrunde) Klasse 3 Lösungen c 00 Aufgabenausschuss des Mathematik-Olympiaden e.v. www.mathematik-olympiaden.de. Alle Rechte vorbehalten. 503 Lösung 0 Punkte Es seien

Mehr

Lineare Funktionen. 1 Proportionale Funktionen 3 1.1 Definition... 3 1.2 Eigenschaften... 3. 2 Steigungsdreieck 3

Lineare Funktionen. 1 Proportionale Funktionen 3 1.1 Definition... 3 1.2 Eigenschaften... 3. 2 Steigungsdreieck 3 Lineare Funktionen Inhaltsverzeichnis 1 Proportionale Funktionen 3 1.1 Definition............................... 3 1.2 Eigenschaften............................. 3 2 Steigungsdreieck 3 3 Lineare Funktionen

Mehr

Musterlösung zu Serie 14

Musterlösung zu Serie 14 Dr. Lukas Meier Statistik und Wahrscheinlichkeitsrechnung FS 21 Musterlösung zu Serie 14 1. Der Datensatz von Forbes zeigt Messungen von Siedepunkt (in F) und Luftdruck (in inches of mercury) an verschiedenen

Mehr

Zeichen bei Zahlen entschlüsseln

Zeichen bei Zahlen entschlüsseln Zeichen bei Zahlen entschlüsseln In diesem Kapitel... Verwendung des Zahlenstrahls Absolut richtige Bestimmung von absoluten Werten Operationen bei Zahlen mit Vorzeichen: Addieren, Subtrahieren, Multiplizieren

Mehr

Die Optimalität von Randomisationstests

Die Optimalität von Randomisationstests Die Optimalität von Randomisationstests Diplomarbeit Elena Regourd Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf Düsseldorf im Dezember 2001 Betreuung: Prof. Dr. A. Janssen Inhaltsverzeichnis

Mehr

QM: Prüfen -1- KN16.08.2010

QM: Prüfen -1- KN16.08.2010 QM: Prüfen -1- KN16.08.2010 2.4 Prüfen 2.4.1 Begriffe, Definitionen Ein wesentlicher Bestandteil der Qualitätssicherung ist das Prüfen. Sie wird aber nicht wie früher nach der Fertigung durch einen Prüfer,

Mehr

1 Mathematische Grundlagen

1 Mathematische Grundlagen Mathematische Grundlagen - 1-1 Mathematische Grundlagen Der Begriff der Menge ist einer der grundlegenden Begriffe in der Mathematik. Mengen dienen dazu, Dinge oder Objekte zu einer Einheit zusammenzufassen.

Mehr

Welche Lagen können zwei Geraden (im Raum) zueinander haben? Welche Lagen kann eine Gerade bezüglich einer Ebene im Raum einnehmen?

Welche Lagen können zwei Geraden (im Raum) zueinander haben? Welche Lagen kann eine Gerade bezüglich einer Ebene im Raum einnehmen? Welche Lagen können zwei Geraden (im Raum) zueinander haben? Welche Lagen können zwei Ebenen (im Raum) zueinander haben? Welche Lagen kann eine Gerade bezüglich einer Ebene im Raum einnehmen? Wie heiÿt

Mehr

Einführung in die Algebra

Einführung in die Algebra Prof. Dr. H. Brenner Osnabrück SS 2009 Einführung in die Algebra Vorlesung 13 Einheiten Definition 13.1. Ein Element u in einem Ring R heißt Einheit, wenn es ein Element v R gibt mit uv = vu = 1. DasElementv

Mehr

Erweiterung der Aufgabe. Die Notenberechnung soll nicht nur für einen Schüler, sondern für bis zu 35 Schüler gehen:

Erweiterung der Aufgabe. Die Notenberechnung soll nicht nur für einen Schüler, sondern für bis zu 35 Schüler gehen: VBA Programmierung mit Excel Schleifen 1/6 Erweiterung der Aufgabe Die Notenberechnung soll nicht nur für einen Schüler, sondern für bis zu 35 Schüler gehen: Es müssen also 11 (B L) x 35 = 385 Zellen berücksichtigt

Mehr

Professionelle Seminare im Bereich MS-Office

Professionelle Seminare im Bereich MS-Office Der Name BEREICH.VERSCHIEBEN() ist etwas unglücklich gewählt. Man kann mit der Funktion Bereiche zwar verschieben, man kann Bereiche aber auch verkleinern oder vergrößern. Besser wäre es, die Funktion

Mehr

Daten sammeln, darstellen, auswerten

Daten sammeln, darstellen, auswerten Vertiefen 1 Daten sammeln, darstellen, auswerten zu Aufgabe 1 Schulbuch, Seite 22 1 Haustiere zählen In der Tabelle rechts stehen die Haustiere der Kinder aus der Klasse 5b. a) Wie oft wurden die Haustiere

Mehr

Würfelt man dabei je genau 10 - mal eine 1, 2, 3, 4, 5 und 6, so beträgt die Anzahl. der verschiedenen Reihenfolgen, in denen man dies tun kann, 60!.

Würfelt man dabei je genau 10 - mal eine 1, 2, 3, 4, 5 und 6, so beträgt die Anzahl. der verschiedenen Reihenfolgen, in denen man dies tun kann, 60!. 040304 Übung 9a Analysis, Abschnitt 4, Folie 8 Die Wahrscheinlichkeit, dass bei n - maliger Durchführung eines Zufallexperiments ein Ereignis A ( mit Wahrscheinlichkeit p p ( A ) ) für eine beliebige Anzahl

Mehr

Tutorial: Homogenitätstest

Tutorial: Homogenitätstest Tutorial: Homogenitätstest Eine Bank möchte die Kreditwürdigkeit potenzieller Kreditnehmer abschätzen. Einerseits lebt die Bank ja von der Vergabe von Krediten, andererseits verursachen Problemkredite

Mehr

Taschenbuch Versuchsplanung Produkte und Prozesse optimieren

Taschenbuch Versuchsplanung Produkte und Prozesse optimieren Wilhelm Kleppmann Taschenbuch Versuchsplanung Produkte und Prozesse optimieren ISBN-10: 3-446-41595-5 ISBN-13: 978-3-446-41595-9 Leseprobe Weitere Informationen oder Bestellungen unter http://www.hanser.de/978-3-446-41595-9

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Brückenkurs Mathematik TU Dresden 2015 Lineare Gleichungssysteme Schwerpunkte: Modellbildung geometrische Interpretation Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik auf der

Mehr

9. Schätzen und Testen bei unbekannter Varianz

9. Schätzen und Testen bei unbekannter Varianz 9. Schätzen und Testen bei unbekannter Varianz Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Schätzen und Testen bei unbekannter Varianz Wenn wir die Standardabweichung σ nicht kennen,

Mehr

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Vollständigkeit halber aufgeführt. Gehen wir einmal davon aus, dass die von uns angenommenen 70% im Beispiel exakt berechnet sind. Was würde

Mehr

Konzepte der Informatik

Konzepte der Informatik Konzepte der Informatik Vorkurs Informatik zum WS 2011/2012 26.09. - 30.09.2011 17.10. - 21.10.2011 Dr. Werner Struckmann / Christoph Peltz Stark angelehnt an Kapitel 1 aus "Abenteuer Informatik" von Jens

Mehr

Korrelation (II) Korrelation und Kausalität

Korrelation (II) Korrelation und Kausalität Korrelation (II) Korrelation und Kausalität Situation: Seien X, Y zwei metrisch skalierte Merkmale mit Ausprägungen (x 1, x 2,..., x n ) bzw. (y 1, y 2,..., y n ). D.h. für jede i = 1, 2,..., n bezeichnen

Mehr

Primzahlen und RSA-Verschlüsselung

Primzahlen und RSA-Verschlüsselung Primzahlen und RSA-Verschlüsselung Michael Fütterer und Jonathan Zachhuber 1 Einiges zu Primzahlen Ein paar Definitionen: Wir bezeichnen mit Z die Menge der positiven und negativen ganzen Zahlen, also

Mehr

Anwendungshinweise zur Anwendung der Soziometrie

Anwendungshinweise zur Anwendung der Soziometrie Anwendungshinweise zur Anwendung der Soziometrie Einführung Die Soziometrie ist ein Verfahren, welches sich besonders gut dafür eignet, Beziehungen zwischen Mitgliedern einer Gruppe darzustellen. Das Verfahren

Mehr

1.3 Die Beurteilung von Testleistungen

1.3 Die Beurteilung von Testleistungen 1.3 Die Beurteilung von Testleistungen Um das Testergebnis einer Vp zu interpretieren und daraus diagnostische Urteile ableiten zu können, benötigen wir einen Vergleichsmaßstab. Im Falle des klassischen

Mehr

V 2 B, C, D Drinks. Möglicher Lösungsweg a) Gleichungssystem: 300x + 400 y = 520 300x + 500y = 597,5 2x3 Matrix: Energydrink 0,7 Mineralwasser 0,775,

V 2 B, C, D Drinks. Möglicher Lösungsweg a) Gleichungssystem: 300x + 400 y = 520 300x + 500y = 597,5 2x3 Matrix: Energydrink 0,7 Mineralwasser 0,775, Aufgabenpool für angewandte Mathematik / 1. Jahrgang V B, C, D Drinks Ein gastronomischer Betrieb kauft 300 Dosen Energydrinks (0,3 l) und 400 Liter Flaschen Mineralwasser und zahlt dafür 50, Euro. Einen

Mehr

Insiderwissen 2013. Hintergrund

Insiderwissen 2013. Hintergrund Insiderwissen 213 XING EVENTS mit der Eventmanagement-Software für Online Eventregistrierung &Ticketing amiando, hat es sich erneut zur Aufgabe gemacht zu analysieren, wie Eventveranstalter ihre Veranstaltungen

Mehr

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis Unterrichtsmaterialien in digitaler und in gedruckter Form Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis Das komplette Material finden Sie hier: Download bei School-Scout.de

Mehr

B 2. " Zeigen Sie, dass die Wahrscheinlichkeit, dass eine Leiterplatte akzeptiert wird, 0,93 beträgt. (genauerer Wert: 0,933).!:!!

B 2.  Zeigen Sie, dass die Wahrscheinlichkeit, dass eine Leiterplatte akzeptiert wird, 0,93 beträgt. (genauerer Wert: 0,933).!:!! Das folgende System besteht aus 4 Schraubenfedern. Die Federn A ; B funktionieren unabhängig von einander. Die Ausfallzeit T (in Monaten) der Federn sei eine weibullverteilte Zufallsvariable mit den folgenden

Mehr

Behörde für Bildung und Sport Abitur 2008 Lehrermaterialien zum Leistungskurs Mathematik

Behörde für Bildung und Sport Abitur 2008 Lehrermaterialien zum Leistungskurs Mathematik Abitur 8 II. Insektenpopulation LA/AG In den Tropen legen die Weibchen einer in Deutschland unbekannten Insektenpopulation jedes Jahr kurz vor Beginn der Regenzeit jeweils 9 Eier und sterben bald darauf.

Mehr

Übungskomplex Felder (1) Eindimensionale Felder Mehrdimensionale Felder

Übungskomplex Felder (1) Eindimensionale Felder Mehrdimensionale Felder Übungskomplex Felder (1) Eindimensionale Felder Mehrdimensionale Felder Hinweise zur Übung Benötigter Vorlesungsstoff Ab diesem Übungskomplex wird die Kenntnis und praktische Beherrschung der Konzepte

Mehr

Berechnung der Erhöhung der Durchschnittsprämien

Berechnung der Erhöhung der Durchschnittsprämien Wolfram Fischer Berechnung der Erhöhung der Durchschnittsprämien Oktober 2004 1 Zusammenfassung Zur Berechnung der Durchschnittsprämien wird das gesamte gemeldete Prämienvolumen Zusammenfassung durch die

Mehr

Das Vermögen der privaten Haushalte in Nordrhein-Westfalen ein Überblick auf der Basis der Einkommens- und Verbrauchsstichprobe

Das Vermögen der privaten Haushalte in Nordrhein-Westfalen ein Überblick auf der Basis der Einkommens- und Verbrauchsstichprobe Sozialberichterstattung NRW. Kurzanalyse 02/2010 09.07.2010 12.07.2010 Das Vermögen der privaten Haushalte in Nordrhein-Westfalen ein Überblick auf der Basis der Einkommens- und Verbrauchsstichprobe 2008

Mehr

In konstanten Modellen wird davon ausgegangen, dass die zu prognostizierende Größe sich über die Zeit hinweg nicht verändert.

In konstanten Modellen wird davon ausgegangen, dass die zu prognostizierende Größe sich über die Zeit hinweg nicht verändert. Konstante Modelle: In konstanten Modellen wird davon ausgegangen, dass die zu prognostizierende Größe sich über die Zeit hinweg nicht verändert. Der prognostizierte Wert für die Periode T+i entspricht

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme Eines der am häufigsten auftretenden Standardprobleme der angewandten Mathematik ist das Lösen linearer Gleichungssysteme, etwa zur Netzwerkberechnung in der Elektrotechnik oder

Mehr

Versuchsplanung. Inhalt. Grundlagen. Faktor-Effekt. Allgemeine faktorielle Versuchspläne. Zweiwertige faktorielle Versuchspläne

Versuchsplanung. Inhalt. Grundlagen. Faktor-Effekt. Allgemeine faktorielle Versuchspläne. Zweiwertige faktorielle Versuchspläne Inhalt Versuchsplanung Faktorielle Versuchspläne Dr. Tobias Kiesling Allgemeine faktorielle Versuchspläne Faktorielle Versuchspläne mit zwei Faktoren Erweiterungen Zweiwertige

Mehr

Das Mathematik-Abitur im Saarland

Das Mathematik-Abitur im Saarland Informationen zum Abitur Das Mathematik-Abitur im Saarland Sie können Mathematik im Abitur entweder als grundlegenden Kurs (G-Kurs) oder als erhöhten Kurs (E-Kurs) wählen. Die Bearbeitungszeit für die

Mehr

Gleichungen Lösen. Ein graphischer Blick auf Gleichungen

Gleichungen Lösen. Ein graphischer Blick auf Gleichungen Gleichungen Lösen Was bedeutet es, eine Gleichung zu lösen? Was ist überhaupt eine Gleichung? Eine Gleichung ist, grundsätzlich eine Aussage über zwei mathematische Terme, dass sie gleich sind. Ein Term

Mehr

Willkommen zur Vorlesung Statistik

Willkommen zur Vorlesung Statistik Willkommen zur Vorlesung Statistik Thema dieser Vorlesung: Varianzanalyse Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften Prof. Dr. Wolfgang

Mehr

Grundlagen der Theoretischen Informatik, SoSe 2008

Grundlagen der Theoretischen Informatik, SoSe 2008 1. Aufgabenblatt zur Vorlesung Grundlagen der Theoretischen Informatik, SoSe 2008 (Dr. Frank Hoffmann) Lösung von Manuel Jain und Benjamin Bortfeldt Aufgabe 2 Zustandsdiagramme (6 Punkte, wird korrigiert)

Mehr

Access [basics] Gruppierungen in Abfragen. Beispieldatenbank. Abfragen gruppieren. Artikel pro Kategorie zählen

Access [basics] Gruppierungen in Abfragen. Beispieldatenbank. Abfragen gruppieren. Artikel pro Kategorie zählen Abfragen lassen sich längst nicht nur dazu benutzen, die gewünschten Felder oder Datensätze einer oder mehrerer Tabellen darzustellen. Sie können Daten auch nach bestimmten Kriterien zu Gruppen zusammenfassen

Mehr

Statistik für Studenten der Sportwissenschaften SS 2008

Statistik für Studenten der Sportwissenschaften SS 2008 Statistik für Studenten der Sportwissenschaften SS 008 Aufgabe 1 Man weiß von Rehabilitanden, die sich einer bestimmten Gymnastik unterziehen, dass sie im Mittel µ=54 Jahre (σ=3 Jahre) alt sind. a) Welcher

Mehr

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen Austausch- bzw. Übergangsrozesse und Gleichgewichtsverteilungen Wir betrachten ein System mit verschiedenen Zuständen, zwischen denen ein Austausch stattfinden kann. Etwa soziale Schichten in einer Gesellschaft:

Mehr

Handbuch Fischertechnik-Einzelteiltabelle V3.7.3

Handbuch Fischertechnik-Einzelteiltabelle V3.7.3 Handbuch Fischertechnik-Einzelteiltabelle V3.7.3 von Markus Mack Stand: Samstag, 17. April 2004 Inhaltsverzeichnis 1. Systemvorraussetzungen...3 2. Installation und Start...3 3. Anpassen der Tabelle...3

Mehr

Kapitel 4 Die Datenbank Kuchenbestellung Seite 1

Kapitel 4 Die Datenbank Kuchenbestellung Seite 1 Kapitel 4 Die Datenbank Kuchenbestellung Seite 1 4 Die Datenbank Kuchenbestellung In diesem Kapitel werde ich die Theorie aus Kapitel 2 Die Datenbank Buchausleihe an Hand einer weiteren Datenbank Kuchenbestellung

Mehr

Protokoll des Versuches 7: Umwandlung von elektrischer Energie in Wärmeenergie

Protokoll des Versuches 7: Umwandlung von elektrischer Energie in Wärmeenergie Name: Matrikelnummer: Bachelor Biowissenschaften E-Mail: Physikalisches Anfängerpraktikum II Dozenten: Assistenten: Protokoll des Versuches 7: Umwandlung von elektrischer Energie in ärmeenergie Verantwortlicher

Mehr

Melanie Kaspar, Prof. Dr. B. Grabowski 1

Melanie Kaspar, Prof. Dr. B. Grabowski 1 7. Hypothesentests Ausgangssituation: Man muss sich zwischen 2 Möglichkeiten (=Hypothesen) entscheiden. Diese Entscheidung soll mit Hilfe von Beobachtungen ( Stichprobe ) getroffen werden. Die Hypothesen

Mehr

Tipp III: Leiten Sie eine immer direkt anwendbare Formel her zur Berechnung der sogenannten "bedingten Wahrscheinlichkeit".

Tipp III: Leiten Sie eine immer direkt anwendbare Formel her zur Berechnung der sogenannten bedingten Wahrscheinlichkeit. Mathematik- Unterrichts- Einheiten- Datei e. V. Klasse 9 12 04/2015 Diabetes-Test Infos: www.mued.de Blutspenden werden auf Diabetes untersucht, das mit 8 % in der Bevölkerung verbreitet ist. Dabei werden

Mehr

DIE ANWENDUNG VON KENNZAHLEN IN DER PRAXIS: WEBMARK SEILBAHNEN IM EINSATZ

DIE ANWENDUNG VON KENNZAHLEN IN DER PRAXIS: WEBMARK SEILBAHNEN IM EINSATZ Kurzfassung DIE ANWENDUNG VON KENNZAHLEN IN DER PRAXIS: WEBMARK SEILBAHNEN IM EINSATZ Mag. Klaus Grabler 9. Oktober 2002 OITAF Seminar 2002 Kongresshaus Innsbruck K ennzahlen sind ein wesentliches Instrument

Mehr

Mean Time Between Failures (MTBF)

Mean Time Between Failures (MTBF) Mean Time Between Failures (MTBF) Hintergrundinformation zur MTBF Was steht hier? Die Mean Time Between Failure (MTBF) ist ein statistischer Mittelwert für den störungsfreien Betrieb eines elektronischen

Mehr

Wir arbeiten mit Zufallszahlen

Wir arbeiten mit Zufallszahlen Abb. 1: Bei Kartenspielen müssen zu Beginn die Karten zufällig ausgeteilt werden. Wir arbeiten mit Zufallszahlen Jedesmal wenn ein neues Patience-Spiel gestartet wird, muss das Computerprogramm die Karten

Mehr

Lineare Gleichungssysteme I (Matrixgleichungen)

Lineare Gleichungssysteme I (Matrixgleichungen) Lineare Gleichungssysteme I (Matrigleichungen) Eine lineare Gleichung mit einer Variable hat bei Zahlen a, b, die Form a b. Falls hierbei der Kehrwert von a gebildet werden darf (a 0), kann eindeutig aufgelöst

Mehr

Info zum Zusammenhang von Auflösung und Genauigkeit

Info zum Zusammenhang von Auflösung und Genauigkeit Da es oft Nachfragen und Verständnisprobleme mit den oben genannten Begriffen gibt, möchten wir hier versuchen etwas Licht ins Dunkel zu bringen. Nehmen wir mal an, Sie haben ein Stück Wasserrohr mit der

Mehr

4. Erstellen von Klassen

4. Erstellen von Klassen Statistik mit Tabellenkalkulation 4. Erstellen von Klassen Mit einem einfachen Befehl lässt sich eine Liste von Zahlen auf die Häufigkeit der einzelnen Werte untersuchen. Verwenden Sie dazu den Befehl

Mehr

4. Versicherungsangebot

4. Versicherungsangebot 4. Versicherungsangebot Georg Nöldeke Wirtschaftswissenschaftliche Fakultät, Universität Basel Versicherungsökonomie (FS 11) Versicherungsangebot 1 / 13 1. Einleitung 1.1 Hintergrund In einem grossen Teil

Mehr

SUDOKU - Strategien zur Lösung

SUDOKU - Strategien zur Lösung SUDOKU Strategien v. /00 SUDOKU - Strategien zur Lösung. Naked Single (Eindeutiger Wert)? "Es gibt nur einen einzigen Wert, der hier stehen kann". Sind alle anderen Werte bis auf einen für eine Zelle unmöglich,

Mehr

Die reellen Lösungen der kubischen Gleichung

Die reellen Lösungen der kubischen Gleichung Die reellen Lösungen der kubischen Gleichung Klaus-R. Löffler Inhaltsverzeichnis 1 Einfach zu behandelnde Sonderfälle 1 2 Die ganzrationale Funktion dritten Grades 2 2.1 Reduktion...........................................

Mehr

Versuch 3. Frequenzgang eines Verstärkers

Versuch 3. Frequenzgang eines Verstärkers Versuch 3 Frequenzgang eines Verstärkers 1. Grundlagen Ein Verstärker ist eine aktive Schaltung, mit der die Amplitude eines Signals vergößert werden kann. Man spricht hier von Verstärkung v und definiert

Mehr

Einfache statistische Auswertungen mit dem Programm SPSS

Einfache statistische Auswertungen mit dem Programm SPSS Einfache statistische Auswertungen mit dem Programm SPSS Datensatz: fiktive_daten.sav Dipl. Päd. Anne Haßelkus Dr. Dorothea Dette-Hagenmeyer 11/2011 Überblick 1 Deskriptive Statistiken; Mittelwert berechnen...

Mehr

1 topologisches Sortieren

1 topologisches Sortieren Wolfgang Hönig / Andreas Ecke WS 09/0 topologisches Sortieren. Überblick. Solange noch Knoten vorhanden: a) Suche Knoten v, zu dem keine Kante führt (Falls nicht vorhanden keine topologische Sortierung

Mehr

Planen mit mathematischen Modellen 00844: Computergestützte Optimierung. Autor: Dr. Heinz Peter Reidmacher

Planen mit mathematischen Modellen 00844: Computergestützte Optimierung. Autor: Dr. Heinz Peter Reidmacher Planen mit mathematischen Modellen 00844: Computergestützte Optimierung Leseprobe Autor: Dr. Heinz Peter Reidmacher 11 - Portefeuilleanalyse 61 11 Portefeuilleanalyse 11.1 Das Markowitz Modell Die Portefeuilleanalyse

Mehr

2 Evaluierung von Retrievalsystemen

2 Evaluierung von Retrievalsystemen 2. Evaluierung von Retrievalsystemen Relevanz 2 Evaluierung von Retrievalsystemen Die Evaluierung von Verfahren und Systemen spielt im IR eine wichtige Rolle. Gemäß der Richtlinien für IR der GI gilt es,...

Mehr

8.2 Thermodynamische Gleichgewichte, insbesondere Gleichgewichte in Mehrkomponentensystemen Mechanisches und thermisches Gleichgewicht

8.2 Thermodynamische Gleichgewichte, insbesondere Gleichgewichte in Mehrkomponentensystemen Mechanisches und thermisches Gleichgewicht 8.2 Thermodynamische Gleichgewichte, insbesondere Gleichgewichte in Mehrkomponentensystemen Mechanisches und thermisches Gleichgewicht 8.2-1 Stoffliches Gleichgewicht Beispiel Stickstoff Sauerstoff: Desweiteren

Mehr

Anhand des bereits hergeleiteten Models erstellen wir nun mit der Formel

Anhand des bereits hergeleiteten Models erstellen wir nun mit der Formel Ausarbeitung zum Proseminar Finanzmathematische Modelle und Simulationen bei Raphael Kruse und Prof. Dr. Wolf-Jürgen Beyn zum Thema Simulation des Anlagenpreismodels von Simon Uphus im WS 09/10 Zusammenfassung

Mehr

Die Größe von Flächen vergleichen

Die Größe von Flächen vergleichen Vertiefen 1 Die Größe von Flächen vergleichen zu Aufgabe 1 Schulbuch, Seite 182 1 Wer hat am meisten Platz? Ordne die Figuren nach ihrem Flächeninhalt. Begründe deine Reihenfolge. 1 2 3 4 zu Aufgabe 2

Mehr

Zugversuch. Laborskript für WP-14 WS 13/14 Zugversuch. 1) Theoretische Grundlagen: Seite 1

Zugversuch. Laborskript für WP-14 WS 13/14 Zugversuch. 1) Theoretische Grundlagen: Seite 1 Laborskript für WP-14 WS 13/14 Zugversuch Zugversuch 1) Theoretische Grundlagen: Mit dem Zugversuch werden im Normalfall mechanische Kenngrößen der Werkstoffe unter einachsiger Beanspruchung bestimmt.

Mehr

Theoretische Grundlagen der Informatik WS 09/10

Theoretische Grundlagen der Informatik WS 09/10 Theoretische Grundlagen der Informatik WS 09/10 - Tutorium 6 - Michael Kirsten und Kai Wallisch Sitzung 13 02.02.2010 Inhaltsverzeichnis 1 Formeln zur Berechnung Aufgabe 1 2 Hamming-Distanz Aufgabe 2 3

Mehr

TECHNISCHE UNIVERSITÄT MÜNCHEN

TECHNISCHE UNIVERSITÄT MÜNCHEN TECHISCHE UIVERSITÄT MÜCHE Zentrum Mathematik PRF. R.R. JÜRGE RICHTER-GEBERT, VAESSA KRUMMECK, MICHAEL PRÄHFER Höhere Mathematik für Informatiker I (Wintersemester 003/004) Aufgabenblatt 1 (4. ktober 003)

Mehr

XONTRO Newsletter. Kreditinstitute. Nr. 18

XONTRO Newsletter. Kreditinstitute. Nr. 18 XONTRO Newsletter Kreditinstitute Nr. 18 Seite 1 In XONTRO werden zum 24. Januar 2005 folgende Änderungen eingeführt: Inflationsindexierte Anleihen Stückzinsberechnung für französische und italienische

Mehr

W-Rechnung und Statistik für Ingenieure Übung 11

W-Rechnung und Statistik für Ingenieure Übung 11 W-Rechnung und Statistik für Ingenieure Übung 11 Christoph Kustosz (kustosz@statistik.tu-dortmund.de) Mathematikgebäude Raum 715 Christoph Kustosz (kustosz@statistik.tu-dortmund.de) W-Rechnung und Statistik

Mehr

Plotten von Linien ( nach Jack Bresenham, 1962 )

Plotten von Linien ( nach Jack Bresenham, 1962 ) Plotten von Linien ( nach Jack Bresenham, 1962 ) Ac Eine auf dem Bildschirm darzustellende Linie sieht treppenförmig aus, weil der Computer Linien aus einzelnen (meist quadratischen) Bildpunkten, Pixels

Mehr

DSO. Abtastrate und Speichertiefe

DSO. Abtastrate und Speichertiefe DSO Abtastrate und Speichertiefe Inhalt Inhalt...- 1 - Feine Signaldetails und lange Abtastzeiträume...- 2 - Was ein großer Speicher bewirkt...- 2 - Einfluss der Oszilloskop-Architektur auf die Update-Rate...-

Mehr

Dynamische Methoden der Investitionsrechnung

Dynamische Methoden der Investitionsrechnung 4 Dynamische Methoden der Investitionsrechnung Lernziele Das Konzept des Gegenwartswertes erklären Den Überschuss oder Fehlbetrag einer Investition mit Hilfe der Gegenwartswertmethode berechnen Die Begriffe

Mehr

Praktikum Physik. Protokoll zum Versuch: Geometrische Optik. Durchgeführt am 24.11.2011

Praktikum Physik. Protokoll zum Versuch: Geometrische Optik. Durchgeführt am 24.11.2011 Praktikum Physik Protokoll zum Versuch: Geometrische Optik Durchgeführt am 24.11.2011 Gruppe X Name1 und Name 2 (abc.xyz@uni-ulm.de) (abc.xyz@uni-ulm.de) Betreuerin: Wir bestätigen hiermit, dass wir das

Mehr

R ist freie Software und kann von der Website. www.r-project.org

R ist freie Software und kann von der Website. www.r-project.org R R ist freie Software und kann von der Website heruntergeladen werden. www.r-project.org Nach dem Herunterladen und der Installation von R kann man R durch Doppelklicken auf das R-Symbol starten. R wird

Mehr

6.2 Scan-Konvertierung (Scan Conversion)

6.2 Scan-Konvertierung (Scan Conversion) 6.2 Scan-Konvertierung (Scan Conversion) Scan-Konvertierung ist die Rasterung von einfachen Objekten (Geraden, Kreisen, Kurven). Als Ausgabemedium dient meist der Bildschirm, der aus einem Pixelraster

Mehr

Die Näherung durch die Sekante durch die Punkte A und C ist schlechter, da der Punkt C weiter von A entfernt liegt.

Die Näherung durch die Sekante durch die Punkte A und C ist schlechter, da der Punkt C weiter von A entfernt liegt. LÖSUNGEN TEIL 1 Arbeitszeit: 50 min Gegeben ist die Funktion f mit der Gleichung. Begründen Sie, warum die Steigung der Sekante durch die Punkte A(0 2) und C(3 11) eine weniger gute Näherung für die Tangentensteigung

Mehr

Datenbanken Kapitel 2

Datenbanken Kapitel 2 Datenbanken Kapitel 2 1 Eine existierende Datenbank öffnen Eine Datenbank, die mit Microsoft Access erschaffen wurde, kann mit dem gleichen Programm auch wieder geladen werden: Die einfachste Methode ist,

Mehr

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt. Stock, Nordflügel R. 0-49 (Persike) R. 0- (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de WS 008/009 Fachbereich

Mehr

Einführung. Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Vorlesungen zur Komplexitätstheorie. K-Vollständigkeit (1/5)

Einführung. Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Vorlesungen zur Komplexitätstheorie. K-Vollständigkeit (1/5) Einführung 3 Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Univ.-Prof. Dr. Christoph Meinel Hasso-Plattner-Institut Universität Potsdam, Deutschland Hatten den Reduktionsbegriff

Mehr

A1.7: Entropie natürlicher Texte

A1.7: Entropie natürlicher Texte A1.7: Entropie natürlicher Texte Anfang der 1950er Jahre hat Claude E. Shannon die Entropie H der englischen Sprache mit einem bit pro Zeichen abgeschätzt. Kurz darauf kam Karl Küpfmüller bei einer empirischen

Mehr

Stift-Karussell in M-Plot einrichten

Stift-Karussell in M-Plot einrichten Einsteiger Fortgeschrittene Profis markus.meinl@m-quest.ch Version 1.0 Voraussetzungen für diesen Workshop Die M-Quest Suite 2005 oder höher ist auf einem Rechner installiert Das Produkt M-Plot Suite ist

Mehr

Kennlinienaufnahme elektronische Bauelemente

Kennlinienaufnahme elektronische Bauelemente Messtechnik-Praktikum 06.05.08 Kennlinienaufnahme elektronische Bauelemente Silvio Fuchs & Simon Stützer 1 Augabenstellung 1. a) Bauen Sie eine Schaltung zur Aufnahme einer Strom-Spannungs-Kennlinie eines

Mehr

Dokumentation. estat Version 2.0

Dokumentation. estat Version 2.0 Dokumentation estat Version 2.0 Installation Die Datei estat.xla in beliebiges Verzeichnis speichern. Im Menü Extras AddIns... Durchsuchen die Datei estat.xla auswählen. Danach das Auswahlhäkchen beim

Mehr

PTV VISWALK TIPPS UND TRICKS PTV VISWALK TIPPS UND TRICKS: VERWENDUNG DICHTEBASIERTER TEILROUTEN

PTV VISWALK TIPPS UND TRICKS PTV VISWALK TIPPS UND TRICKS: VERWENDUNG DICHTEBASIERTER TEILROUTEN PTV VISWALK TIPPS UND TRICKS PTV VISWALK TIPPS UND TRICKS: VERWENDUNG DICHTEBASIERTER TEILROUTEN Karlsruhe, April 2015 Verwendung dichte-basierter Teilrouten Stellen Sie sich vor, in einem belebten Gebäude,

Mehr

7 Rechnen mit Polynomen

7 Rechnen mit Polynomen 7 Rechnen mit Polynomen Zu Polynomfunktionen Satz. Zwei Polynomfunktionen und f : R R, x a n x n + a n 1 x n 1 + a 1 x + a 0 g : R R, x b n x n + b n 1 x n 1 + b 1 x + b 0 sind genau dann gleich, wenn

Mehr

Quadratische Gleichungen

Quadratische Gleichungen Quadratische Gleichungen Aufgabe: Versuche eine Lösung zu den folgenden Zahlenrätseln zu finden:.) Verdoppelt man das Quadrat einer Zahl und addiert, so erhält man 00..) Addiert man zum Quadrat einer Zahl

Mehr

Dokumentation Datamining

Dokumentation Datamining Hochschule Wismar University of Applied Sciences Technology, Business and Design Fakultät für Ingenieurwissenschaften, Bereich EuI Dokumentation Datamining Eingereicht am: 13. Mai 2012 von: Karsten Diepelt

Mehr

Induktivitätsmessung bei 50Hz-Netzdrosseln

Induktivitätsmessung bei 50Hz-Netzdrosseln Induktivitätsmessung bei 50Hz-Netzdrosseln Ermittlung der Induktivität und des Sättigungsverhaltens mit dem Impulsinduktivitätsmeßgerät DPG10 im Vergleich zur Messung mit Netzspannung und Netzstrom Die

Mehr

Klausur zur Vorlesung Multivariate Verfahren, SS 2006 6 Kreditpunkte, 90 min

Klausur zur Vorlesung Multivariate Verfahren, SS 2006 6 Kreditpunkte, 90 min Klausur, Multivariate Verfahren, SS 2006, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 08.08.2006 Klausur zur Vorlesung Multivariate Verfahren, SS 2006 6 Kreditpunkte, 90 min Gesamtpunkte: 39 Aufgabe

Mehr

DIFFERENTIALGLEICHUNGEN

DIFFERENTIALGLEICHUNGEN DIFFERENTIALGLEICHUNGEN GRUNDBEGRIFFE Differentialgleichung Eine Gleichung, in der Ableitungen einer unbekannten Funktion y = y(x) bis zur n-ten Ordnung auftreten, heisst gewöhnliche Differentialgleichung

Mehr

13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen.

13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen. 13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen. Sie heißt linear, wenn sie die Form y (n) + a n 1 y (n 1)

Mehr