Einführung. Inhaltsverzeichnis. 1.1 Anliegen und Gegenstand der Zuverlässigkeitstechnik

Ähnliche Dokumente
Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de

4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)

Grundlegende Eigenschaften von Punktschätzern

Statistik, Geostatistik

1 Grundprinzipien statistischer Schlußweisen

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert

8. Konfidenzintervalle und Hypothesentests

Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp

Statistische Tests. Kapitel Grundbegriffe. Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe

Mathematik für Biologen

Standardisierte Vorgehensweisen und Regeln zur Gewährleistung von: Eindeutigkeit Schlussfolgerungen aus empirischen Befunden sind nur dann zwingend

Stochastik und Statistik für Ingenieure Vorlesung 4

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/467 Ernst W. Mayr

Auswahl von Schätzfunktionen

Multimomentaufnahme. Fachhochschule Köln Campus Gummersbach Arbeitsorganisation Dr. Kopp. Multimomentaufnahme. Arbeitsorganisation

3 Konfidenzintervalle

Hypothesen: Fehler 1. und 2. Art, Power eines statistischen Tests

5. Schließende Statistik Einführung

Die Abfüllmenge ist gleich dem Sollwert 3 [Deziliter].

Allgemeines zu Tests. Statistische Hypothesentests

Ein- und Zweistichprobentests

Übungsaufgaben zu Statistik II

Mathematik für Biologen

Kapitel V - Erwartungstreue Schätzfunktionen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Einführung in die Wahrscheinlichkeitsrechnung und Statistik für Ingenieure

Bei näherer Betrachtung des Diagramms Nr. 3 fällt folgendes auf:

Statistische Tests für unbekannte Parameter

Wahrscheinlichkeitstheorie und Statistik vom

Brückenkurs Statistik für Wirtschaftswissenschaften

Webinar Induktive Statistik. - Wahrscheinlichkeitsrechnung - Stichprobentheorie

9. Schätzen und Testen bei unbekannter Varianz

Einfache Varianzanalyse für unabhängige Stichproben

Einführung in die Maximum Likelihood Methodik

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente...

Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006

Klausur zu Statistik II

Einführung in die (induktive) Statistik

Mathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 2007

Beurteilende Statistik

Mathematische und statistische Methoden II

Grundlagen der Probabilistik

Schließende Statistik

THEMA: "STATISTIK IN DER PRAXIS TESTEN IST BESSER ALS VERMUTEN" TORSTEN SCHOLZ

10. Die Normalverteilungsannahme

Signalverarbeitung 2. Volker Stahl - 1 -

Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006

Einführung in die Wahrscheinlichkeitsrechnung

Θ Mathematik Stochastik

Übungen mit dem Applet Vergleich von zwei Mittelwerten

Analyse von Querschnittsdaten. Signifikanztests I Basics

Zufallsvariablen [random variable]

Zuverlässigkeit und Lebensdauer

Mean Time Between Failures (MTBF)

b) Bestimmen Sie die Varianz der beiden Schätzer. c) Ist ein oder sind beide Schätzer konsistent? Begründen Sie!

4 Statistik der Extremwertverteilungen

Verteilungsmodelle. Verteilungsfunktion und Dichte von T

Simulationsmethoden in der Bayes-Statistik

Kapitel 5. Univariate Zufallsvariablen. 5.1 Diskrete Zufallsvariablen

Statistik I für Betriebswirte Vorlesung 2

P (X = 2) = 1/36, P (X = 3) = 2/36,...

Grundgesamtheit und Stichprobe

Glossar Biometrie / Statistik. Auszug für Fragebogen Fallzahlberechnung/-begründung

Erwartungswert, Varianz und Standardabweichung einer Zufallsgröße. Was ist eine Zufallsgröße und was genau deren Verteilung?

Teil: lineare Regression

Bootstrap-Konfidenzintervalle

Unabhängigkeit KAPITEL 4

Klausur zur Mathematik für Biologen

Box. Mathematik ZU DEN KERNCURRICULUM-LERNBEREICHEN:

10 Der statistische Test

Prognose der Überlebenswahrscheinlichkeit von Ich-AG s nach drei Jahren

Jost Reinecke. 7. Juni 2005

I. Deskriptive Statistik 1

Methoden der Werkstoffprüfung Kapitel I Grundlagen. WS 2009/2010 Kapitel 1.0

Ablaufschema beim Testen

Entscheidung zwischen zwei Möglichkeiten auf der Basis unsicherer (zufälliger) Daten

M13 Übungsaufgaben / pl

VS PLUS

Prüfgröße: Ist die durch eine Schätzfunktion zugeordnete reelle Zahl (etwa Mittelwert 7 C).

- Eine typische Ausfallrate, wie sie bei vielen technischen Anwendungen zu sehen ist hat die Form einer Badewanne, deshalb nennt man diese Kurve auch

R. Brinkmann Seite

2. Übung zur Vorlesung Statistik 2

Anpassungstests VORGEHENSWEISE

Informatik II Grundbegriffe der Wahrscheinlichkeitsrechnung

11. Nichtparametrische Tests

Das Konfidenzintervall (Confidence Interval CI) Vertrauen schaffen, Signifikanz erkennen Autor: Beat Giger

Methodenlehre. Vorlesung 10. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg

Universitätsprofessor Dr. rer. nat. habil. Karl-Ernst Biebler und Dr. rer. nat. Bernd Jäger

Scheinklausur Stochastik 1 für Studierende des Lehramts und der Diplom-Pädagogik

Statistik und Wahrscheinlichkeitsrechnung

Willkommen zur Vorlesung Statistik (Master)

Testen von Hypothesen

2. Stetige lineare Funktionale

MATHEMATIK 3 STUNDEN

Mögliche Fehler beim Testen

Deskriptive Statistik 1 behaftet.

Klausur Stochastik und Statistik 31. Juli 2012

Kapitel VIII - Tests zum Niveau α

1 Dichte- und Verteilungsfunktion

Transkript:

Einführung 1 Inhaltsverzeichnis 1.1 Anliegen und Gegenstand der Zuverlässigkeitstechnik... 1 1.2 Schlussweisen der Mathematischen Statistik... 6 1.3 Typische Datenerfassungen, Wahrscheinlichkeitsmodelle und statistische Methoden... 8 1.3.1 Nicht reparierbare Objekte mit Totalausfällen... 9 1.3.2 Reparierbare Objekte mit Totalausfällen... 10 1.3.3 Nicht reparierbare Objekte mit Driftausfällen... 12 1.4 Beschleunigte Tests... 13 Literatur... 15 1.1 Anliegen und Gegenstand der Zuverlässigkeitstechnik Alles, was wir benutzen, was uns umgibt oder wovon wir abhängen, ob es ein Radio, ein Flugzeug oder ein künstliches Gelenk ist, kann ausfallen. Jeder Ausfall ist ärgerlich, kostspielig, manchmal sogar tödlich. Selbst wenn alles dafür getan wird, Ausfälle zu vermeiden, nichts funktioniert unbegrenzt. Ausfälle finden in der Regel zu zufälligen Zeitpunkten statt und lassen sich prinzipiell nicht vorhersagen. Wir interessieren uns aber für die Wahrscheinlichkeit dafür, dass der Prozessor eines Computers mindestens ein Jahr lang funktioniert, dass die Solarzelle im Satelliten den Start in den Orbit überlebt oder dass ein Laser in einer sehr hohen Umgebungstemperatur eine gewisse Zeit stabil bleibt. Um die Wahrscheinlichkeit eines Ausfalls ausdrücken und bestimmen zu können, muss zuerst definiert werden, was ein Ausfall ist, für welches Zeitintervall die gesuchte Wahrscheinlichkeit gelten soll und welchen Belastungen das Objekt in diesem Zeitraum ausgesetzt sein wird. Die Wahrscheinlichkeit dafür, dass kein Ausfall geschieht, heißt Überlebenswahrscheinlichkeit oder Zuverlässigkeit. Sie kann für nicht reparierbare Springer-Verlag Berlin Heidelberg 2016 G. Härtler, Statistik für Ausfalldaten, DOI 10.1007/978-3-662-50303-4_1 1

2 1 Einführung Objekte durch die MTTF (mittlere Zeit bis zum Ausfall, Mean Time To Failure) und für reparierbare Objekte durch die MTBF (mittlere Zeit zwischen den Ausfällen, Mean Time Between Failures) ausgedrückt werden. Falls die Ausfallrate von der Zeit unabhängig ist, genügt diese eine Angabe. Falls nicht, werden weitere Parameter benötigt. Eine quantitative Zuverlässigkeitsangabe ist aus vielen Gründen erforderlich, u. a. um die Ausfallfolgen (z. B. das Risiko für Leib und Leben) abschätzen zu können, den zu erwartenden Reparaturaufwand oder die Marktchancen. Das alles ist mit dem Begriff Technische Zuverlässigkeit (reliability) verbunden. Dieser Begriff wird heute gern allgemeiner verstanden, nämlich als eine sehr komplexe Eigenschaft, die die Überlebenswahrscheinlichkeit lediglich als eine Komponente enthält, s. Rakowski und Richardson (2001). In den geltenden Normen, die meistens in englischer Sprache vorliegen, spricht man deshalb statt von reliability von dependability. Wir werden diese allgemeinere Definition des Begriffes Zuverlässigkeit hier nicht verwenden, sondern die ursprüngliche: Zuverlässigkeit ist die Wahrscheinlichkeit dafür, dass das betrachtete Objekt in einem bestimmten Zeitraum unter bestimmten Einsatzbedingungen einwandfrei funktioniert. Die Zuverlässigkeit ist somit auf ein festes Zeitintervall bezogen und bedeutet die Wahrscheinlichkeit dafür, dass in diesem Zeitintervall kein Ausfall stattfindet, bei einem nicht reparierbaren Objekt ist das gleichbedeutend mit der Überlebenswahrscheinlichkeit. Jeder Ausfall ist die Folge des weitgehend unbekannten Zusammenwirkens unzähliger Faktoren im gesamten betrachteten Zeitraum. Obwohl jeder Ausfall eine Ursache hat (meistens das Zusammenwirken mehrerer Ursachen), können wir den Zeitpunkt seines Eintreffens nicht vorhersagen: Mit Bestimmtheit lässt sich nicht vorhersagen, ob das Objekt im betrachteten Zeitraum ausfällt, wann der Ausfall geschieht und aus welchem Grunde. Wird eine feste Anzahl gleichartiger Objekte untersucht ( gleich hinsichtlich Entwurf, Technologie, Material und Hersteller), so beobachten wir eine zufällige Anzahl von Ausfällen, die sich zu zufälligen Zeitpunkten im betrachteten festen Zeitraum ereignen. Um die Zuverlässigkeit als Wahrscheinlichkeit schätzen oder vorhersagen zu können, müssen wir einige Eigenschaften der Objekte kennen: Es ist zu definieren, was als Ausfall zählt, und es ist einzuschätzen, ob und wie sich die Ausfallhäufigkeit mit der Zeit ändert. Altert das Objekt, so nimmt die Ausfallwahrscheinlichkeit mit der Zeit zu. Hat ein Teil der Objekte anfangs unerkannte Defekte, so sind Frühausfälle möglich und die Ausfallwahrscheinlichkeit verringert sich mit der Zeit. Wir müssen auch überlegen, welche Defekte typisch sind und ob Belastungen existieren, die spezielle Wechselwirkungen und spezielle Ausfallursachen hervorrufen. Zu diesen Überlegungen gehört auch die Bestimmung eines geeigneten Wahrscheinlichkeitsmodells, was nur selten eine leichte Aufgabe ist. Das Modell beschreibt zufällige Größen und enthält freie Parameter (mindestens einen), die durch die Beobachtung von Ausfallzeitpunkten bzw. Ausfallhäufigkeiten in Zeitintervallen quantifiziert werden sollen. Letzteres sind die Ausfalldaten (failure data). Sie werden in speziellen Experimenten oder während der Anwendung eines oder mehrerer Objekte erfasst. Zu ihrer Auswertung braucht man geeignete statistische

1.1 Anliegen und Gegenstand der Zuverlässigkeitstechnik 3 Methoden um diese geht es in diesem Buch. Die typischen Wahrscheinlichkeitsmodelle der Zuverlässigkeitstechnik und die meist sehr eingeschränkten Möglichkeiten der Erfassung von Ausfalldaten in begrenzter Zeit erfordern spezielle Methoden der Mathematischen Statistik. In der Zuverlässigkeitstechnik ist es üblich, zwischen der Zuverlässigkeit von Komponenten (nicht reparierbar) und Systemen (reparierbar) zu unterscheiden. Komponenten sind Elemente (Units), bei denen man sich für die mittlere Zeit bis zum Ausfall (MTTF) oder eine zeitabhängige Ausfallrate interessiert. Komponenten lassen sich bezüglich ihrer Zuverlässigkeit nicht weiter zerlegen (z. B. Laserdioden). Die Versagenswahrscheinlichkeit von Systemen hängt sowohl von der Systemstruktur als auch von der Ausfallwahrscheinlichkeit der Komponenten ab, s. z. B. Walter und Schneeweiss (2005). Um das quantitativ berücksichtigen zu können, sind Struktur- und Zustandsanalysen des Systems erforderlich, d. h., es ist die Abhängigkeit der Systemzuverlässigkeit von der Zuverlässigkeit der Komponenten zu ermitteln. Dabei wird zwischen zwei Prototypen von Systemen unterschieden: Reihensysteme (sie fallen aus, falls nur eine ihrer Komponenten ausfällt) und Parallelsysteme (sie fallen aus, wenn alle ihre Komponenten ausgefallen sind). Reale Systeme sind Mischungen aus diesen beiden Grundformen. Elemente sind zwar in gewisser Weise auch Systeme, doch sie lassen sich nicht in selbstständige Komponenten mit jeweils eigener Zuverlässigkeit zerlegen. Die übliche Struktur- und Zustandsanalyse funktioniert bei ihnen nicht, und man ist auf Annahmen angewiesen. Sie sollten auf der Erfahrung, dem physikalischen Funktionsprinzip und Resultaten vorangegangener Experimente beruhen. Zur Quantifizierung der Zuverlässigkeit eines Objektes braucht man in jedem Fall ein Wahrscheinlichkeitsmodell und Ausfalldaten. Unter dem Begriff Ausfall versteht man meistens einen Totalausfall. Manchmal ist der Ausfall die Folge einer langsamen Veränderung von Leistungsparametern, dann spricht man von einem Driftausfall. Er geschieht zu dem Zeitpunkt, an dem der Leistungsverlust so groß geworden ist, dass eine ordnungsgemäße Funktion des Objekts nicht mehr gewährleistet ist. Die Ursachen von Driftausfällen sind langsame und unerwünschte chemische Prozesse, z. B. eine Korrosion. Häufig werden Driftausfälle wie Totalausfälle behandelt, und als Ausfallzeitpunkt wird jener Zeitpunkt angesehen, an dem die Leistung erstmalig eine festgelegte Grenze unterschreitet. Zur Quantifizierung der Zuverlässigkeit braucht man Wissensgebiete, die sich mit zufälligen Veränderlichen und den entsprechenden Beobachtungswerten befassen, also Wahrscheinlichkeitsrechnung und Mathematische Statistik. Nur diese Wissenschaften, zusammen heißen sie Stochastik, ermöglichen die Quantifizierung zufälliger Größen. Der Techniker ist es gewohnt, kausal zu denken und mit nicht-zufälligen Größen umzugehen. Deshalb hat er verständlicherweise Schwierigkeiten, die erforderliche stochastische Begrifflichkeit zu akzeptieren, und lässt sich nur ungern auf die Betrachtung zufälliger Größen ein. Zur Quantifizierung eines Vorganges mit zufälligem Charakter, wie es das Ausfallgeschehen von technischen Objekten ist, kommt man um die Anwendung der Stochastik nicht herum.

4 1 Einführung Die Quantifizierung zufälliger Größen erfolgt in zwei Schritten: Der erste ist konzeptionell und besteht darin, auf der Grundlage der allgemeinen Eigenschaften des Objekts und der Art der Ausfälle ein Wahrscheinlichkeitsmodell zu formulieren, das die generellen Eigenschaften der Ausfalldaten auszudrücken vermag. Für nicht reparierbare Objekte ist das die Wahl einer Wahrscheinlichkeitsverteilung vom Typ einer Lebensdauerverteilung und bei reparierbaren Objekten die eines stochastischen Prozesses vom Typ eines Punktprozesses (ein homogener oder nicht homogener Poisson-Prozess). Der zweite Schritt besteht im Schätzen oder Testen von Wahrscheinlichkeiten oder Parametern des Wahrscheinlichkeitsmodells mithilfe der erfassten Ausfalldaten. Dazu benötigt man Wahrscheinlichkeitsmodelle und auch Methoden der Mathematischen Statistik, die sonst eher selten angewendet werden. Die Ausfalldaten von Elementen lassen sich auf unterschiedliche Weise erfassen und durch eine Lebensdauerverteilung ausdrücken: 1. In einem Belastungsexperiment werden die Ausfallzeitpunkte von n > 1 Elementen, t 1 < t 2 < < t r < t, registriert, wobei t > 0 der Beendigungszeitpunkt ist. Es werden dabei r 0, 1 r n, Ausfallzeitpunkte beobachtet. Dabei entsteht eine Häufigkeitsverteilung, die als Realisierung einer Lebensdauerverteilung verstanden wird. Im einfachsten Fall ist das eine Exponentialverteilung, die nur von einem einzigen Parameter, λ > 0, abhängt. Dieser bedeutet eine bezüglich der Zeit konstante Ausfallrate und kann mithilfe der beobachteten Ausfallzeitpunkte geschätzt werden. Hängt jedoch die Ausfallrate von der Zeit ab, so entsprechen andere Lebensdauerverteilungen der gefundenen Häufigkeitsverteilung besser und es ist eine davon als Wahrscheinlichkeitsmodell zu verwenden. 2. In einem Belastungsexperiment zählt man die Anzahl der Ausfälle, x j 0, in m 1 sich nicht überlappenden, aneinandergrenzenden Zeitintervallen j > 0, j = 1, 2,..., m. Diese Daten lassen sich in geeigneter Weise über der Zeit darstellen und erlauben, falls die Zahl der beobachteten Ausfälle groß genug ist, ebenfalls die Schätzung einer Lebensdauerverteilung und damit eine Aussage über die Ausfallrate, die konstant (Exponentialverteilung) oder zeitabhängig sein kann. Die Ausfalldaten eines reparierbaren Systems werden durch ein anderes Modell beschrieben: Das System besteht z. B. aus k > 1 unabhängigen Elementen, die in Reihe geschaltet sind (Reihensystem). Jedes Element kann sich in nur einem der beiden Zustände befinden: funktionsfähig oder ausgefallen. Jeder Elementausfall zieht sofort den Systemausfall nach sich. Im Belastungsexperiment werden die Ausfallzeitpunkte t 1 < t 2 < < t r < t, registriert, wobei t > 0 der Beendigungszeitpunkt des Experiments ist. Es werden r 0 Ausfallzeitpunkte erfasst. Zuerst eliminiert man die Reparaturzeiten und korrigiert die Zeit, sie wird zur reinen Funktionszeit t > 0. Weil nun jedes ausgefallene Element sofort durch ein gleichartiges und voll funktionsfähiges ersetzt wird, verwendet man als Wahrscheinlichkeitsmodell für diese Daten einen

1.1 Anliegen und Gegenstand der Zuverlässigkeitstechnik 5 Erneuerungsprozess. Es ist ein Homogener Poisson-Prozess (HPP), und er hängt nur von einem Parameter ab, der mittleren Zeit zwischen den Ausfällen (MTBF). Die MTBF ist einer konstanten Ausfallrate pro Zeiteinheit reziprok. Nur im Falle einer konstanten Ausfallrate ist die MTBF als Zuverlässigkeitsparameter ausreichend. Reparaturen sind aber nicht unbedingt Erneuerungen, und die Ausfallrate muss nicht konstant sein. In einem solchen Fall wird ein allgemeineres Wahrscheinlichkeitsmodell benötigt, der Nichthomogene Poisson-Prozess (NPP). Die benötigten Ausfalldaten lassen sich auf zwei Wegen gewinnen: 1. Die beobachteten Ausfallzeitpunkte, t 1 < t 2 < < t r, werden als Funktionszeit registriert, wobei t r t > 0 und t > 0 der Beendigungszeitpunkt der Beobachtung ist. Dann sind die Zeiten zwischen den Ausfällen τ i = t i t i 1 > 0, t 0 = 0, Realisierungen einer zufälligen Größe τ >0, für die wir uns interessieren. Sind die Ausfälle in sich nicht überlappenden Intervallen sowohl untereinander als auch als von der vergangenen Funktionszeit unabhängig, so führt der Grenzübergang t 0 zu einer homogenen linearen Differenzialgleichung. Deren Lösung ergibt für die zufällige Größe τ >0 eine Exponentialverteilung, die nur von dem einen Parameter λ > 0 abhängt. Die beobachteten τ i > 0 sind dann unabhängige Zufallsgrößen mit einer identischen Exponentialverteilung. Der Parameter λ > 0 ist die konstante Ausfallintensität, die mithilfe der Ausfalldaten geschätzt werden kann. 2. Die Anzahl von Ausfällen x j 0 wird in den n > 1 Zeitintervallen (Funktionszeit) gleicher Länge j > 0, j = 1, 2,...n, registriert. Ist das Wahrscheinlichkeitsmodell ein HPP, so folgt aus der dazu gehörenden homogenen linearen Differenzialgleichung, dass die beobachteten Werte x j 0 einer Poisson-Verteilung folgen, die von λ > 0 als einzigem Parameter abhängt. Dadurch lässt sich die Ausfallintensität λ > 0 mithilfe der beobachteten Häufigkeiten schätzen. 3. Das Ausfallverhalten von Systemen ist häufig komplizierter, z. B. bei einem Fahrzeug. Ein solches System besteht aus k > 0 Elementen, die nicht in Reihe geschaltet und nicht untereinander unabhängig sind. Über das System weiß man z. B., dass es die Eigenschaft hat, gebraucht schlechter als neu zu sein. Dann werden die Ausfälle mit zunehmendem Systemalter häufiger. Nach der Eliminierung der Reparaturdauern ist das Wahrscheinlichkeitsmodell ein Nichthomogener Poisson-Prozess (NPP), der eine von der Zeit abhängende Ausfallintensität, λ(t) >0 besitzt. Im Beispiel würde sie monoton wachsen, d. h. λ(t i )<λ(t j ) für t i < t j. Der Beobachtung zugänglich sind die Ausfallzeitpunkte in einer Stichprobe von n 1 gleichartigen Systemen. Mit diesen lässt sich die Funktion λ(t) >0 schätzen. Weil die zeitabhängige Ausfallrate mehr als einen unbekannten Parameter enthält, benötigt man für die Schätzung einen größeren Beobachtungsumfang und die Bestimmung der Parameter ist schwieriger als im Falle einer konstanten Ausfallrate.

6 1 Einführung Die wichtigsten Wahrscheinlichkeitsmodelle für die typischen Fragestellungen der Zuverlässigkeitsanalyse enthält Kap. 3. Weitere Modelle findet man z. B. im Buch von Meeker und Escobar (1998). 1.2 Schlussweisen der Mathematischen Statistik Ausfalldaten werden entweder in speziellen Experimenten oder im praktischen Betrieb gewonnen. Ausfallzeitpunkte oder relative Häufigkeiten sind Realisierungen von Zufallsgrößen, für sie muss ein Wahrscheinlichkeitsmodell als gültig vorausgesetzt werden. Nach der Erfassung sind die Daten nicht mehr zufällig. Mit ihnen werden die unbekannten Parameter des Wahrscheinlichkeitsmodells geschätzt oder Hypothesen über sie getestet. Es gibt auch Anpassungstests, mit denen man prüfen kann, ob sich das angenommene Wahrscheinlichkeitsmodell mit den Daten verträgt oder nicht. Die große Zahl der möglichen Wahrscheinlichkeitsmodelle, der unterschiedlichen statistischen Methoden und die vielfältigen experimentellen Bedingungen für die Gewinnung der Ausfalldaten führen zu einer großen Anzahl von möglichen Methoden der Datenauswertung. Es ist deshalb erforderlich, in einem gewissen Grade die grundlegenden Konzepte der Wahrscheinlichkeitsrechnung und Mathematischen Statistik zu kennen. Die wichtigsten Grundlagen der Wahrscheinlichkeitsrechnung enthält Kap. 2 und spezielle Wahrscheinlichkeitsmodelle für die Zuverlässigkeitstechnik Kap. 3. Das Resultat jeder statistischen Analyse hängt von den Daten ab, die zufällig in die Stichprobe gekommen sind. Jede Größe, die daraus berechnet wird, ist natürlich auch zufällig. Ein bekanntes Beispiel ist der Mittelwert beobachteter Zufallsgrößen. Man kann ihn auf beliebig viele Stellen nach dem Komma berechnen und ihm dadurch den Anschein größter Genauigkeit verleihen, er ist und bleibt eine Funktion von beobachteten Zufallsgrößen und ist damit selbst eine beobachtete zufällige Größe. Die Zahl der Nachkommastellen sagt nichts über seine Genauigkeit. Funktionen von Beobachtungswerten wie der Mittelwert heißen Stichprobenfunktionen. Sie sind mit der jeder Stichprobe innewohnenden Unsicherheit behaftet. Diese ist umso kleiner, je größer die Anzahl der Beobachtungswerte in der Stichprobe ist. Jede seriöse statistische Analyse quantifiziert diese Unsicherheit und gibt einen Bereich an, in dem man dem Stichprobenergebnis vertrauen kann. Dieser Bereich heißt Vertrauens- oder Konfidenzbereich bzw. Vertrauens- oder Konfidenzintervall. Dazu gehört die Angabe der statistischen Sicherheit, die auch Konfidenzniveau genannt wird, üblicherweise in der Form (1 α)100 %, wobei α als Irrtumswahrscheinlichkeit bezeichnet wird. Das Vertrauensintervall ist jener Bereich um den Schätzwert einer Stichprobenfunktion (z. B. eines Mittelwerts), dem wir mit der statistischen Sicherheit z. B. von 95 % = (1 α) 100 % zutrauen, den wahren Wert zu enthalten. Dieses Vertrauen ist keine Wahrscheinlichkeit, denn der unbekannte Wert ist ein fester Wert und keine zufällige Größe. So ist auch der aus Ausfalldaten berechnete Schätzwert einer konstanten Ausfallrate in einem HPP nur der zufällige Wert einer

1.2 Schlussweisen der Mathematischen Statistik 7 Stichprobenfunktion, also nur ein Schätzwert, über dessen Vertrauenswürdigkeit erst die zusätzliche Angabe des Vertrauensintervalls mit einer gewissen statistischen Sicherheit Auskunft gibt. Die Bestimmung des Schätzwertes und Vertrauensintervalls nennt man Intervallschätzung. Die Mathematische Statistik stellt unterschiedliche Konzepte für die Schätzung einer Wahrscheinlichkeit oder eines unbekannten Parameters auf der Grundlage einer aus n > 1 Beobachtungswerten bestehenden Stichprobe bereit. Diese unterscheiden sich durch die Eigenschaften der Schätzwerte. Man wünscht sich, dass die (zufälligen) Schätzwerte ˆ n des unbekannten (wahren) Parameters um keinen anderen als den wahren Wert schwanken, dass sie möglichst wenig von ihm abweichen, mit zunehmendem Stichprobenumfang n > 1 gegen den wahren Wert konvergieren und die gesamte empirische Information, die die Stichprobe enthält, verwenden. Alle diese Forderungen lassen sich nur selten miteinander verbinden. Deshalb haben sich unterschiedliche Methoden zur Konstruktion guter Schätzungen entwickelt. Am bekanntesten sind die Methode der Kleinsten Quadrate (MKQ) und die Maximum-Likelihood-Schätzung (MLS). In der Praxis sind auch grafische Methoden üblich und in zunehmendem Maße Computersimulationen, wie das Bootstrap-Verfahren. Einen besonderen Zugang bietet die Bayes-Statistik, die die unbekannten Parameter selbst als zufällige Größen ansieht und in der Lage ist, eine eventuell vorhandene Vorinformation zu berücksichtigen. Diesen Methoden ist das Kap. 4 gewidmet. Die Anwendung statistischer Methoden setzt über die Datenbasis, d. h. über die Stichproben, einiges voraus: Die Stichproben müssen homogen, ihre Elemente voneinander unabhängig und alle Beobachtungswerte durch ein Wahrscheinlichkeitsmodell erklärbar sein. Solche Stichproben heißen i. i. d (independent identically distributed). Das ist eine Eigenschaft, die in der Praxis nur selten wirklich vorhanden ist. Eine Stichprobe von Halbleiterbauelementen kann z. B. Exemplare mit unerkannten Defekten im Kristall, in der Metallisierung usw. enthalten. In der Praxis verwendet man deshalb spezielle Methoden, um den Einfluss solcher verborgener Defekte auf die Schätzwerte der Ausfallrate zu reduzieren. Man führt eine Voralterung durch (sie wird auch als burn-in bezeichnet, früher war dafür der Begriff Einbrennen üblich). Dadurch werden die defekten Elemente zum früheren Ausfall provoziert und es bleiben nur die einwandfreien übrig. Trotz aller Sorgfalt ist eine sichere Trennung der defekten von den nicht defekten Elementen nicht möglich. Es besteht stets eine gewisse Willkür (Wie lange wird vorgealtert? Wie hoch wird dabei die Belastung gewählt? Schädigt man dadurch die einwandfreien Elemente?). Trotz berechtigter Bedenken ist in Kap. 5 eine grafische Methode zur Trennung derartiger Teilgesamtheiten beschrieben, die in der Praxis angewendet wird. In diesem Buch werden statistische Methoden nur beschrieben und nicht hergeleitet. Letzteres würde den die Praktiker interessierenden Rahmen sprengen. Manchmal wird die Herleitung angedeutet oder ihre Grundgedanken werden erklärt, soweit es für die Anwendung interessant sein könnte. In den Standardfällen wird auf die Fachliteratur verwiesen. Die für unsere Anwendungen wichtigsten Konzepte der Mathematischen Statistik werden in Kap. 4 behandelt.

8 1 Einführung 1.3 Typische Datenerfassungen, Wahrscheinlichkeitsmodelle und statistische Methoden Die Zuverlässigkeitstechnik benutzt für ihre speziellen Aufgabenstellungen weniger bekannte Wahrscheinlichkeitsmodelle und statistische Methoden. In den meisten Büchern über Mathematische Statistik und allgemeine Statistik-Softwarepakete sind die dafür erforderlichen Methoden nur unzureichend repräsentiert oder nur am Rande behandelt. Die Mathematische Statistik bezieht sich hauptsächlich auf das bekannteste und vielleicht am häufigsten angewendete Wahrscheinlichkeitsmodell für kontinuierliche Zufallsgrößen, die Normalverteilung: Die betrachtete zufällige Größe X ist auf der gesamten reellen Zahlengeraden < X < definiert, und ihre Verteilungsdichte ist symmetrisch in Bezug auf den Erwartungswert. Dort hat die Verteilungsdichte der Normalverteilung ihr Maximum. In der Zuverlässigkeitstechnik dagegen sind die betrachteten zufälligen Größen meistens Zeiten bis zum Ausfall, ihr Definitionsbereich ist also nur die positive Zahlengerade, und das am häufigsten angewandte Wahrscheinlichkeitsmodell ist die Exponentialverteilung. Ihre Verteilungsdichte hat das Maximum am Nullpunkt, und sie ist nicht symmetrisch. Üblicherweise wertet man vollständige Stichproben aus: Sie bestehen aus n > 1 Elementen und liefern auch n Beobachtungswerte. Dabei soll n möglichst groß sein. Die Zuverlässigkeitsprüfung ist eine zerstörende Prüfung, die Anzahl n ist aus Kostengründen möglichst klein zu wählen. In der Zuverlässigkeitsprüfung kann man Stichproben von n > 1 Elementen nur in einem begrenzten Zeitraum t > 0 betrachten, in diesem werden meistens nur r < n Ausfälle beobachtet. Man muss sich also mit unvollständigen Stichproben begnügen. Da die Ausfallwahrscheinlichkeit in der Regel sehr klein ist, betrachtet man eine viel kleinere Anzahl von Ausfällen als die Anzahl der in der Stichprobe enthaltenen Komponenten. Man hat es mit zensierten Stichproben zu tun. Wegen der hohen Zuverlässigkeit moderner technischer Systeme muss man häufig extrem kleine Ausfallwahrscheinlichkeiten quantifizieren. Das führt zu speziellen Konzepten, z. B. zu Experimenten unter einer erhöhten Belastung, um den Ausfallprozess zu beschleunigen. Solche Experimente heißen beschleunigte Tests und werden gewöhnlich Accelerated Life Tests (ALT) genannt. Man muss in solchen Experimenten die beobachteten Resultate auf die unter Normalbelastung zu erwartenden umrechnen, man braucht dazu ein weiteres Modell. Die Literatur über Methoden der Mathematischen Statistik für die Zuverlässigkeitstechnik ist im Allgemeinen nur wenig bekannt. Ein neueres und ziemlich ausführliches Buch, das sich ausschließlich diesen Modellen und Methoden widmet, ist Meeker und Escobar (1998). Diese Autoren haben auch ein entsprechendes Softwarepaket (SPLIDA, S-Plus Life Data Analysis 2004) erarbeitet. Ein älteres Buch in deutscher Sprache ist Härtler (1983) (es enthält Schätz- und Testverfahren für einige zusätzliche Lebensdauerverteilungen, aber keine beschleunigten Prüfungen, Driftausfälle oder neuere statistische Methoden). Speziell

1.3 Typische Datenerfassungen 9 für beschleunigte Prüfungen gibt es Bücher von Viertl (1988) und Nelson (2009). In den allgemein bekannteren Büchern über Zuverlässigkeitstechnik sind nur wenige der gängigen und einfachen statistischen Methoden beschrieben, etwa bei O Connor (1985). Ein Buch speziell über das Burn-in ist Jensen und Petersen (1982). Wir beschränken uns im Folgenden auf die vier typischen Fälle der Praxis, die auf typischen Strukturen von Ausfalldaten beruhen. Sie werden in den nächsten Abschnitten skizziert. Dabei wird zwischen reparierbaren und nicht reparierbaren Objekten, Totalund Driftausfällen sowie zwischen Tests unter Normalbelastung und unter erhöhter Belastung unterschieden. 1.3.1 Nicht reparierbare Objekte mit Totalausfällen Die Objekte in der Stichprobe sind Elemente (Units, Komponenten). Sie können sich nur in zwei, sich gegenseitig ausschließenden Zuständen befinden: Ā = funktionsfähig (nicht ausgefallen) oder A = nicht funktionsfähig (ausgefallen). Wir bezeichnen mit P( ) die Wahrscheinlichkeit (Probability) für den in Klammern stehenden Zustand. Es wird generell vorausgesetzt, dass jedes der betrachteten Objekte zum Zeitpunkt t = 0 funktionsfähig ist. Die Objekte können sich grundsätzlich nicht erneuern, d. h., sie können nicht aus dem Zustand A in den Zustand Ā zurückkehren. Die in diesem Fall geeigneten statistischen Methoden sind für die Untersuchung der Zuverlässigkeit von Komponenten üblich. Die interessierende Zufallsgröße ist die Zeit bis zum Ausfall (TTF, Time To Failure) und wird mit T > 0 bezeichnet. Die Ausfallwahrscheinlichkeit P(T < t) wächst monoton mit der Zeit. Die Wahrscheinlichkeitsverteilung der Zeit bis zum Ausfall ist F(t) = P(T < t), F(0) = 0, F( ) = 1. Sie heißt Lebensdauerverteilung und enthält mindestens einen freien Parameter. In den meisten Anwendungen sollen die Parameter einer Lebensdauerverteilung geschätzt oder getestet werden. Die dazu benötigten Ausfalldaten werden folgendermaßen gewonnen: Eine Stichprobe von n > 1 Objekten wird bis zum Zeitpunkt t > 0 belastet. In dieser Zeit werden r n Ausfallzeitpunkte 0 < t 1 t 2 t r t beobachtet. Diese ermöglichen den Schluss auf die unbekannten Parameter der Lebensdauerverteilung. Ein solches Experiment heißt Lebensdauertest, LT (Life Test). Abb. 1.1 zeigt Beobachtungsergebnisse eines 1000-h-Tests, in dem n = 10 Objekte bis zum Zeitpunkt t = 1000 h getestet und r = 5 Ausfällen beobachtet wurden. Die Zeit, in der ein Objekt funktionierte, ist jeweils als durchgezogene Linie dargestellt. Die Endpunkte der Linien sind die Ausfallzeitpunkte. Die Ausfalldaten in diesem Beispiel sind: n = 10, t = 1000, r = 5, {t 1, t 2,..., t 5 }. In diesem Fall ist die Zuverlässigkeit die Wahrscheinlichkeit dafür, dass ein Objekt bis zum Zeitpunkt t > 0 funktionsfähig bleibt, also die Überlebenswahrscheinlichkeit R(t) (reliability) des Zeitpunkts t > 0. Es gilt: R(t) = 1 P(T < t) = 1 F(t), 0 < t <. Darunter kann man sich den Anteil der bis zum Zeitpunkt t > 0 nicht ausfallenden Objekte

10 1 Einführung Abb. 1.1 Lebensdauern der Elemente in einem Lebensdauertest in einer sehr großen Population vorstellen. Entsprechend bedeutet F(t) den Anteil der ausfallenden Objekte. Zu jedem Zeitpunkt gilt F(t) + R(t) = 1. Die Resultate eines LTs ermöglichen die Schätzung ˆF(t) von F(t) oder der Parameter der Lebensdauerverteilung. Die Menge an empirischer Information hängt von der Beobachtungszeit, dem Stichprobenumfang, der Anzahl der beobachteten Ausfälle und den Ausfallzeitpunkten ab. Die statistischen Methoden für LTs werden in Kap. 5 behandelt. 1.3.2 Reparierbare Objekte mit Totalausfällen Die Objekte sind reparierbar, d. h., es sind Systeme. Jedes System kann sich zu jedem Zeitpunkt in einem der beiden Zustände funktionsfähig (Ā) oder ausgefallen (A) befinden. Es wird vorausgesetzt, dass jedes Objekt zum Zeitpunkt t = 0 funktionsfähig ist, sich also mit der Wahrscheinlichkeit 1 im Zustand Ā befindet. Die Systeme sind reparierbar. Das bekannteste Wahrscheinlichkeitsmodell dafür ist der Erneuerungsprozess (ein Homogener Poisson-Prozess, HPP). Der Begriff Erneuerung bezieht sich nicht auf den tatsächlichen Zustand des Objekts, sondern auf seine Funktionsfähigkeit. Im Allgemeinen führen Reparaturen nicht zu Erneuerungen, die Objekte sind nicht gebraucht so gut wie neu. Meistens werden mit zunehmendem Alter oder wachsender Zahl durchgeführter Reparaturen die Ausfälle häufiger. Wir setzen lediglich voraus, dass jedes Objekt nach jedem Ausfall und der zufälligen Reparaturdauer, die eliminiert werden muss, in den Zustand Ā (funktionsfähig) zurückkehrt. Die interessierende Zufallsgröße ist die Zeit zwischen den Ausfällen, (TBF, Time Between Failures), gemessen als Funktionszeit. Die Gewinnung von Ausfalldaten an reparierbaren Objekten erfordert in der Praxis eine angemessene Versuchsplanung und eine geeignete Methode zur Eliminierung der Reparaturzeiten. Abb. 1.2 zeigt die Beobachtungsdaten von zehn Objekten während einer Beobachtungsdauer von maximal 1000 h. Die Objekte wurden zu unterschiedlichen Zeitpunkten in Betrieb genommen und zwischendurch repariert. Die fett durchgezogenen Linien sind die Funktionszeiten und die dünnen Linien die Reparaturzeiten. Man ist gezwungen, die Datenauswertung damit zu beginnen, dass man die Beobachtungswerte in eine für die Auswertung geeignete Form bringt.

http://www.springer.com/978-3-662-50302-7