Formalisierte Bonitätsprüfungsverfahren und Credit Scoring 1

Größe: px
Ab Seite anzeigen:

Download "Formalisierte Bonitätsprüfungsverfahren und Credit Scoring 1"

Transkript

1 Prof. Dr. A. Mettler. All rights reserved. No part of this paper may be reproduced without the written permission of the author. Formalisierte Bonitätsprüfungsverfahren und Credit Scoring 1 1. Einleitende Bemerkungen zur Bonitätsanalyse Die klassische Bonitätsanalyse - auch als Kreditwürdigkeitsprüfung bezeichnet - wird in der deutschsprachigen betriebswirtschaftlichen Literatur teilweise noch von zwei Seiten her betrachtet. Zum einen stehen bei der sogenannten "Kreditwürdigkeit im engeren Sinne" die persönlichen und charakterlichen Eigenschaften des Kreditnehmers (insbesondere seine Zahlungs willigkeit ) im Zentrum der Beurteilung, während bei der sogenannten "Kreditfähigkeit" vor allem die finanziellen Verhältnisse (und damit die Zahlungs fähigkeit ) analysiert werden. Für die Zwecke der Automatisierung der Kreditwürdigkeitsprüfung macht eine solche Unterteilung wenig Sinn, da in diesem Falle rein ergebnisorientiert vorgegangen wird, indem mittels (quantitativer und qualitativer) möglichst aussagekräftiger Indikatoren generell die Bonität eines potentiellen Kreditnehmers zu beurteilen ist. In der Bankpraxis werden bei der Bonitätsanalyse im Unternehmensbereich häufig die drei Bereiche "Management", "Produkte/Dienstleistungen" und "finanzielle Verhältnisse" analysiert. Dabei wird zwar der Beurteilung des Managements theoretisch die grösste Wichtigkeit beigemessen, aber in der Realität steht trotzdem zumeist die Prüfung der finanziellen Verhältnisse im Vordergrund. Dies ist wohl weitgehend damit zu erklären, dass eine quantitative Beurteilung von Zahlenmaterial einfacher vorzunehmen ist als die qualitative Beurteilung von Management, Produkten und Märkten 2. Nebst der eigentlichen Bilanzanalyse kommt in neuerer Zeit auch einem zwischenbetrieblichen Vergleich mittels Branchendurchschnittswerten immer grösseres Gewicht zu

2 Im Privatkundenbereich können - in Analogie zu oben - die drei Bereiche "Persönlichkeit", "berufliches Umfeld" und "finanzielle Verhältnisse" unterschieden werden. Die Operationalisierung der beiden erstgenannten, qualitativ orientierten Bereiche ist in der Bankpraxis jedoch (im Vergleich zum Firmenkundenbereich) bedeutend weiter fortgeschritten, was wohl v.a. auf die längere Tradition des Einsatzes formalisierter Verfahren in diesem Kundensegment zurückzuführen ist. Beim Kreditentscheid können grundsätzlich zwei Fehlertypen auftreten: Man lehnt einen eigentlich kreditwürdigen Kunden ab oder man akzeptiert einen ex-post nicht kreditwürdigen Kunden. Bei formalisierten Bonitätsprüfungsverfahren werden für diese Fehler folgende Begriffe verwendet: 1. Als Fehler erster Art oder Alpha-Fehler bezeichnet man den Prozentsatz von im Nachhinein insolventen Kunden, die zuvor jedoch als gut klassifiziert werden. 2. Als Fehler zweiter Art oder Beta-Fehler bezeichnet man den Prozentsatz von ex post solventen Kreditkunden, die aber als schlecht klassifiziert und damit abgelehnt werden. Tatsächliche Bonität ex post Prognostizierte Bonität Gut Gut Type I accuracy Schlecht Fehler erster Art Schlecht Fehler zweiter Art Type 2 accuracy Abb. 1: Fehler erster und zweiter Art (Alpha- und Beta-Fehler) Beim Fehler erster Art bewirkt die spätere Insolvenz einen Abschreibungsbedarf und damit einen effektiven Verlustbeitrag. Die dadurch verursachten Kosten sind - 2 -

3 deutlich höher als diejenigen bei Fehlern zweiter Art, wo v.a. Opportunitätskosten in Form entgangener Brutto- bzw. Nettoerträge sowie in geringfügigerem Umfang Bearbeitungskosten entstehen

4 2. Zu den formalisierten Verfahren der Bonitätsprüfung Die herkömmliche Bonitätsprüfung beruht i.d.r. auf Richtlinien des Kreditgebers und der persönlichen Erfahrung des Kreditsachbearbeiters, womit dem subjektiven Element eine grosse Bedeutung zukommt. Schon seit längerer Zeit versucht man deshalb, die Bonitätsprüfung mittels formalisierter Verfahren zu rationalisieren und "objektiver" zu machen. Gleichzeitig verspricht man sich natürlich von solchen Verfahren eine Verbesserung der Urteilsqualität und damit eine Verringerung der eingegangenen Kreditrisiken. All diese Verfahren haben gemeinsam, dass als Ausgangslage eine genügend grosse Grundgesamtheit von Kundendaten aus der Vergangenheit vorhanden sein muss. Durch Untersuchung der seinerzeitigen Kreditentscheidungsverhältnisse und insbesondere der nachfolgenden Kreditgeschichte dieser Kunden (sind sie später als "gut" oder "schlecht" bzw. "solvent" oder "insolvent" klassifiziert worden) versucht man, Gesetzesmässigkeiten abzuleiten, die heute bei der Beurteilung von neuen Kreditanträgen herangezogen werden können. Somit wird von der Annahme ausgegangen, dass sich Muster der Vergangenheit auch in der Zukunft mit einer bestimmten Wahrscheinlichkeit wiederholen werden 4. Kreditanträge, Weitere Angaben Performance der Kredite 1. Analyse der Vergangenheit Heute 2. Prognose der Zukunft Kreditantrag, Weitere Angaben? Abb. 2: Zukunftsprognose aufgrund von Vergangenheitsdaten In der Literatur wurden in den letzten Jahrzehnten - insbesondere in den mit Datenmaterial reich ausgestatteten USA - die verschiedensten formalisierten - 4 -

5 Bonitätsprüfungsverfahren entwickelt. Sie lassen sich grob einteilen in statistische Verfahren (wie z.b. Diskriminanz- und Regressionsanalysen) einerseits und Verfahren der Mustererkennung (wie z.b. Cluster-Analysen, Rekursive Partitionsalgorithmen, Neuronale Netze) anderseits 5. Nicht alle diese Verfahren haben sich als geeignet für die Praxis erwiesen. In Europa wurde deshalb lange Zeit schwergewichtig mit der Diskriminanzanalyse gearbeitet, während heute den Neuronalen Netzen eine immer stärkere Bedeutung zukommt. In der Folge werden drei für die Praxis relevante Verfahren der formalisierten Bonitätsprüfung kurz dargestellt. Es handelt sich dabei um die Diskriminanzanalyse, die Regressionsanalyse und die Neuronalen Netze. Als Stütze für die gedankliche Vorstellung diene dabei folgendes Black-Box-Schema: 3.Diskriminanzanalyse 4.Regressionsanalyse 5.Neuronale Netze Black Box - Analysestichprobe -Funktionen-Generierung -Validierungsstichprobe - Gütebestimmung der Funktion evtl. Repetition Abb. 3: Black-Box-Schema der formalisierten Bonitätsprüfung Bei allen drei Verfahren ist das Vorgehen grundsätzlich dasselbe. Aus der Grundgesamtheit der Vergangenheitsdaten wird eine sogenannte Analysestichprobe gezogen, anhand derer ein Modell (hier als Black Box symbolisiert) eine Funktion generiert, welche diese Daten hinsichtlich ihrer künftigen Bonität bestmöglichst zu klassifizieren vermag. Die erhaltene Funktion wird danach auf eine sogenannte Validierungsstichprobe (bestehend aus nicht in der Analysestichprobe verwendeten - 5 -

6 Daten) angewendet, deren Resultate eine Qualitätsabschätzung bezüglich der angewandten Methode erlauben. 3. Diskriminanzanalytische Verfahren Die Diskriminanzanalyse versucht generell, mittels ausgewählter Kennzahlen einen Kreditbewerber in "akzeptabel" oder "nicht akzeptabel" zu klassifizieren und damit dem potentiellen Kreditgeschäft eine "(zu) hohe Verlustwahrscheinlichkeit" bzw. eine "(problemlose) geringe Verlustwahrscheinlichkeit" zuzuordnen. Zwei hauptsächliche Varianten stehen dabei zur Auswahl: Univariate Diskriminanzanalyse: Man nimmt aus der oben erwähnten Grundgesamtheit je eine Analysestichprobe von guten und schlechten Kreditkunden und untersucht diese parallel bezüglich einzelner, ausgewählter Kennzahlen. Für jede Kennzahl werden die erhaltenen Werte der Grösse nach geordnet, womit sich sowohl für die guten als auch die schlechten Fälle eine bestimmte Verteilung ergibt. Bsp.: Eine Stichprobe von 1000 guten und 1000 schlechten Kleinkreditkunden wird bezüglich der Kennzahl "Einkommen" analysiert. Dabei ergeben sich die in Abb. 4 gezeigten zwei Verteilungen. Es gilt: Je weiter die Mittelwerte der guten bzw. schlechten Kunden voneinander entfernt sind, umso trennschärfer ist die verwendete Kennzahl (in diesem Falle das Einkommen) und umso besser trennt der Trennwert T generell zwischen den beiden Kundengruppen. Durch Verschiebung dieses Trennwertes T kann zwar jeweils einer der beiden Fehler verkleinert werden, jedoch stets auf Kosten des anderen. Für T wird schliesslich derjenige Wert gewählt, welcher die Anzahl der in der Analysestichprobe falsch klassifizierten Unternehmen minimiert

7 Häufigkeit Mittelwertdifferenz Schlechte Kunden Gute Kunden Einkommen Trennwert T Beta-Fehler Alpha-Fehler Abb. 4: Univariate Diskriminanzanalyse In analoger Weise würden nun für andere ermittelte Kennzahlen (z.b. Alter, Vermögen etc.) ebenfalls Trennwerte T ermittelt. Da sich die damit aus verschiedenen Kennzahlen ergebenden Resultate auch widersprechen können, wird schliesslich bei der univariaten Diskriminanzanalyse nur eine einzige Kennzahl zur Klassifikation herangezogen, nämlich diejenige, welche die geringste Zahl von Kreditfällen falsch klassifiziert. Vorteile der univariaten Diskriminanzanalyse: - 7 -

8 - Einfach durchzuführen - Keine Voraussetzungen über die Verteilungsform in der Grundgesamtheit. Nachteile: - Es wird nur ein kleiner Teil der vorhandenen Informationen verwertet - Deshalb lediglich beschränkte Aussagekraft. Multivariate Diskriminanzanalyse: Die Trennwerte mehrerer Kennzahlen werden mittels einer Diskriminanzfunktion zu einer neuen Kennzahl, dem Diskriminanzwert zusammengefasst. Für diesen Diskriminanzwert wird wiederum ein Trennwert T festgelegt, welcher in gute bzw. schlechte Kredite trennt. Dabei ist zu bedenken, dass nicht einfach mehrere univariat gut klassifizierende Kennzahlen zusammengefasst werden dürfen 7, sondern mittels multivariater Analysemethoden vorgegangen werden muss. In der Vergangenheit wurde dabei häufig mit der sogenannten Linearen Diskriminanzanalyse gearbeitet 8, bei welcher die analysierten Kennzahlen in einer linearen Funktion zusammengefasst, d.h. gewichtet und addiert werden 9. Ein Beispiel für eine Lineare Diskriminanzfunktion ist der Z-Wert von Altman für öffentlich gehandelte Produktionsunternehmen in den USA 10 : Z = 1.2 X X X X X5 Dabei gilt: X1 = Umlaufsvermögen / Total Aktiven X2 = Einbehaltene Gewinne / Total Aktiven X3 = Gewinn vor Zinsen und Steuern / Total Aktiven X4 = Marktwert des EK / Buchwert langfristiges FK X5 = Umsatz / Total Aktiven - 8 -

9 Je höher der Wert von Z, umso kleiner das Bonitätsrisiko des Kreditnehmers. Die dazugehörige Klassifikationsregel lautet: Falls Z < > Zuteilung zur insolventen Gruppe Falls Z > Zuteilung zur solventen Gruppe Altman fand heraus, dass Falschklassifikationen v.a. im Bereiche von 1.81 < Z 2.99 passierten, weshlab er diesen Bereich als "zone of ignorance" bezeichnete. Eine Unternehmung mit einem Z-Wert von kleiner als 1.81 gilt demnach als "high default risk". Der Vollständigkeit halber sei erwähnt, dass auch Versuche unternommen wurden, mit einer quadratischen Diskriminanzfunktion sowie mit diskriminanzanalytischen Verfahren, die keine Voraussetzung an die Verteilung der Grundgesamtheit stellen, aussagekräftige Insolvenzprognosen zu erhalten. Diese Ansätze haben sich aber in der Praxis v.a. wegen ihrer Komplexität nicht durchgesetzt. 4. Regressionsanalytische Verfahren 11 Diese Verfahren versuchen, einem potentiellen Kreditgeschäft direkt eine Verlustwahrscheinlichkeit zuzuordnen. Dabei wird davon ausgegangen, dass die abhängige Variable (= die Kreditwürdigkeit) nur zwei Ausprägungen annehmen kann, nämlich "kreditwürdig" und "nicht kreditwürdig". Mittels einer Regressionsanalyse wird nun eine gewichtete Kombination von Kennzahlen (X1.. Xn) gesucht, welche diese Variable (eben die Kreditwürdigkeit) bestmöglichst erklärt 12. Für die Zwecke der Kreditwürdigkeitsprüfung wurden an regressionsanalytischen Verfahren insbesondere das Lineare Wahrscheinlichkeitsmodell, die Logit-Analyse und die Probit-Analyse eingesetzt

10 Lineares Wahrscheinlichkeitsmodell Bei diesem Modell ordnet man den Kreditdaten aus der Analysestichprobe den Wert Z=1 (für insolvente Fälle) bzw. den Wert Z=0 (solvente Fälle) zu. Danach wird eine lineare Schätzgleichung der Form Z = a X1 + b X k Xn (+ Error) errechnet 13. Werden für die Kennzahlen X1.. Xn Werte aus einem neuen Kreditantrag eingesetzt, so enstpricht der Erwartungswert für Z der zu erwartenden Verlustwahrscheinlichkeit. Das Modell hat eine hauptsächliche Schwäche: Es kann Verlustwahrscheinlichkeiten von < 0 oder > 1 produzieren, was ökonomisch keinen Sinn macht. Logit- und Probit-Modelle Logit- und Probit-Modelle basieren ebenfalls auf der Regressionsanalyse, sind jedoch nicht-linear. Mit ihnen wird statistisch "erzwungen", dass die errechneten Verlustwahrscheinlichkeiten zwischen 0 und 1 zu liegen kommen. Das Logit- Modell unterstellt, dass die kumulativen Verlustwahrscheinlichkeiten gemäss der logistischen Funktion f(x) = 1 / (1 + e-x) verteilt sind, während das Probit- Modell von einer Normalverteilung ausgeht Neuronale Netze Neruronale Netze versuchen, die Funktionsweise der Nervenzellen von Lebewesen nachzuahmen. Im menschlichen Gehirn befinden sich beispielsweise ca. 100 Milliarden Neuronen verschiedenster Art 15, die miteinander in Gruppen, sogenannten Netzwerken, verbunden sind. Jede dieser Gruppen besteht aus mehreren Tausend von vielfältigst miteinander verbundenen Neuronen. Das Gehirn selbst kann als Sammlung neuronaler Netzwerke aufgefasst werden. Wie das in Abb. 5 dargestellte Schema eines biologischen Neurons verdeutlicht, liefern die Dendriten spezifische Eingangssignale von anderen Neuronen. Diese Signale werden im Zellkörper (auch als "Soma" bezeichnet) addiert. Übersteigt dieser Reiz einen bestimmten Schwellenwert, so wird ein elektrischer Impuls dem Axon entlang zu dessen feinen Endverästelungen weitergeleitet. Die sogenannten Synapsen bilden dabei die Verbindungsstelle der Axonausläufer zu den Dendriten anderer Neuronen und beeinflussen die Reizweiterleitung in hemmender oder

11 anregender Weise (ein Mass dafür ist die sogenannte synaptische Verbindungsstärke). Ein Neuron kann mit mehr als Tausend anderen Neuronen verbunden sein, und die Reizweiterleitung in all diesen Verästelungen erfolgt parallel. Axon Neuronen: Zellkörper mit Kern Dendriten Synapsen Abb. 5: Schema eines biologischen Neurons Das künstliche Neuron ist analog zum biologischen aufgebaut. Das in Abb. 6 dargestellte Schema eines künstlichen Neurons illustriert die Ähnlichkeiten: Y0 bis Yn sind die Inputsignale (entweder als Eingabewerte oder als Werte vorgelagerter Neuronen). Diese Signale werden im Neuron (bzw. im Knoten) gewichtet, addiert und zu einem Ausgangswert Y verarbeitet. Die Bestimmung des Ausgangswertes Y erfolgt dabei in zwei Schritten. Erstens wird aus den Eingangssignalen mittels einer Aktivierungsfunktion der sogenannte Aktivitätszustand berechnet, meistens als Summe aus a = Yo w0 + Y1 w Yn wn

12 Y0 Y1 w1 w0 Y2 Yn w2 wn Neuron Y Y0.. Yn = Inputsignale aus vorgelagerten Neuronen w0.. wn =Gewichte für die Inputsignale Y = Ausgabewert Abb. 6: Schema eines künstlichen Neurons Zweitens wird dieser Aktivitätszustand gewissermassen "normiert", d.h. mittels einer Ausgabefunktion in einen Ausgabewert Y transformiert (eine häufig dazu benützte Ausgabefunktion ist die sogenannte Sigmoid-Funktion, die auch als logistische Funktion bezeichnet wird und die bereits vorne beim Logit-Modell erwähnt wurde). Der Ausgabewert Y wiederum dient entweder als Inputsignal für ein nachgelagertes Neuron oder stellt - falls in der Ausgabeschicht des Netzwerkes gelegen - einen Endwert dar

13 Ein Neuronales Netz schliesslich setzt sich aus mehreren, in Schichten gruppierten Neuronen (auch Knoten genannt) zusammen. Eine häufig benützte Struktur ist z.b. das folgende Drei-Schichten-Netzwerk: Abb. 7: Aufbau eines Neuronalen Netzes mit drei Schichten 16 In der Eingabeschicht werden die Daten von ausserhalb des Netzwerkes entgegengenommen und in der Ausgabeschicht die errechneten Resultate ausgegeben. Dazwischen liegt eine sogenannte verborgene Schicht ohne Verbindung nach aussen (in komplizierteren Netzen können auch mehrere verborgene Schichten vorhanden sein). Die Netzstruktur ist gemäss folgenden Regeln angeordnet:

14 Jedes Neuron der Eingabeschicht empfängt genau einen Wert Jedes Neuron der Eingabeschicht ist mit jedem Element der verborgenen Schicht verbunden Jedes Element der verborgenen Schicht ist mit jedem Element der Ausgabeschicht verbunden Jedes Element der Ausgabeschicht liefert genau einen Ausgangswert. Ein solches Netz, in welchem die Informationen ausschliesslich von der Eingabeschicht über die verborgene Schicht zur Ausgabeschicht fliessen, wird als feed-forward Netz bezeichnet (im Gegensatz zu feed-backward Netzen, bei denen Rückkoppelungen vorgesehen sind 17 ). Die eigentliche Datenverarbeitung geschieht nun, indem in einer sogenannten Lernphase Daten aus einer Analysestichprobe als Einganswerte (Y0.. Yn) vom Neuronalen Netz übernommen werden. Die Gewichtung mit w0.. wn erfolgt im ersten Schritt nach einem Zufallsverfahren, danach fliessen die erhaltenen Werte in die verborgene Schicht, wo sie wiederum zufallsgewichtet und weiterverarbeitet werden. Die danach erhaltenen Ausgangswerte werden mit den Ist-Werten der Analysestichprobe verglichen, d.h. der vom Netz errechnete Output wird mit dem korrekten Output verglichen. Bei Abweichungen werden die Knotengewichte w0.. wn nach einem bestimmten Muster modifiziert und danach die Daten der Analysestichprobe erneut verarbeitet 18. Das Ziel ist, den Fehler zwischen dem errechneten und dem korrekten Output zu minimieren, d.h. den beschriebenen Vorgang so lange zu wiederholen, bis sich kein vernünftiger Lernfortschritt mehr ergibt 19. Gegenüber anderen Verfahren haben Neuronale Netze eine ganze Reihe positiver Eigenschaften, die sie als Bonitätsbeurteilungsinstrument besonders geeignet erscheinen lassen. So können beispielsweise die Inputdaten unstrukturiert, unvollständig, nicht-linear, kurz "unscharf" sein, ohne dass dies die Anwendung wesentlich beinträchtigt. Eine weitere Stärke Neuronaler Netze ist, dass sie ohne eine Wissensbasis arbeiten, sondern das "Wissen" selber generieren und im Verbindungsmuster und den Verbindungsgewichten festhalten

15 6. Begriff und Geschichte des Credit Scoring Unter dem Begriff Credit Scoring versteht man eine auf der Grundlage empirischer Daten gefundene statistische Methode, mit welcher für ein spezifisches Kundensegment eine Vorhersage bezüglich des künftigen Kreditbedienungsverhaltens gemacht wird. Damit ist klar ersichtlich, dass im Grunde genommen alle formalisierten Bonitätsprüfungsverfahren gleichzeitig auch als Scoring Systeme bezeichnet werden können. Grundsätzlich kann das Scoring sowohl bei der Kreditvergabe (sogenanntes Credit Scoring oder Application Scoring) als auch bei der Kreditüberwachung (sogenanntes Behaviour Scoring oder Performance Scoring) eingesetzt werden. In den USA stammen die ersten dokumentierten Versuche mit Scoring Systemen aus den vierziger Jahren. Die Projekte versandeten aber bald darauf und erst Ende der fünfziger Jahre erhielten zwei Mathematiker, nämlich Bill Fair und Earl Isaac, von der American Investment Company den Auftrag, bei einer Gruppe von (guten und schlechten) Krediten ein Muster herauszufinden, welches die ex-post gegebene Kreditperformance zu erklären vermochte und danach auch für künftige Kreditbeurteilungen herangezogen werden konnte. Unter der Verwendung der Diskriminanzanalyse fanden die beiden heraus, dass mit dem von ihnen errechneten Verfahren gut 20 % der notleidenden oder bereits abgeschriebenen Kredite hätten verhindert werden können. Am Anfang stiess ihr Konzept auf starken Widerspruch, weil die bisherigen Kreditsachbearbeiter bezweifelten, dass ein solches System ihre Arbeit besser würde verrichten können als sie selbst. Die Entwicklung war aber nicht mehr aufzuhalten und mit zunehmender Verbesserung der Konzepte gelang es, auch die Skeptiker zu überzeugen. Heute benutzt eine Mehrzahl der grossen Warenhäuser und Kommerzbanken in den USA bestimmte Typen von Credit Scoring - Systemen und es hat sich auch eine breite Consulting-Industrie auf diesem Gebiete entwickelt. Im deutschsprachigen Bereich kennt man Scoring-Systeme erst seit ca. zwei Jahrzehnten. In Deutschland existieren heute Anwendungen insbesondere bei Versandhäusern (wo beinahe alle namhaften Vertreter solche benutzen), Banken, Teilzahlungsinstituten, Leasinggesellschaften und Kreditkartenemittenten, während in Österreich und der Schweiz erst vereinzelt davon Gebrauch gemacht wird

16 Die Entwicklung eines Scoring-Systems erfordert einiges an spezifischem Know- How, weshalb man sich i.d.r. auf externe Berater abstützen muss. Generell verläuft die Entwicklung etwa in folgenden Schritten ab: Bestimmung der Zielgruppe Für welche potentiellen Kreditnehmer (unterteilt in möglichst homogene Kundengruppen) soll das Scoring-System erstellt werden? Ein Kreditkartenantrag erfordert andere Angaben als ein Gesuch um einen Hypothekarkredit. Definition des "erwünschten" und "nicht erwünschten" Verhaltens Wann genau gilt ein Kundenverhalten als gut oder schlecht? Bereist bei Zahlungsrückständen, erst bei Konkurseröffnung, oder...? Beschaffung und Verarbeitung aussagekräftiger, relevanter Stichprobendaten Einerseits müssen generell die Kundendaten der Grundgesamtheit (und damit auch der verwendeten Analysestichprobe) in EDV-mässiger Form vorhanden sein, anderseits sollten sie in Zahl und Qualität den Anforderungen des gewählten formalisierten Verfahrens genügen 22. Applikation des gewählten Scoring-Verfahrens auf die Ausgangsdaten Mittels des gewählten mathematisch-statistischen Verfahrens werden diejenigen Kriterien, Gewichte und Verknüpfungen ermittelt, welche am besten zu klassifizieren vermögen. Das Resultat kann z.b. in einer Scorekarte festgehalten werden. Anwendung des Scoring Systems im laufenden Geschäft Es muss ein Grenzscore bestimmt werden, welches zwischen "gut" und "schlecht" trennt, allenfalls mit einem Unschärfebereich. Wie "hart" wird das System gehandhabt? Wer entscheidet in letzter Instanz, Mensch oder Maschine? Unterhalt des Scoring Systems Das gewählte System muss "gewartet" werden, Veränderungen in der Grundgesamtheit sind zu berücksichtigen, ebenso muss die Überwachung und gegebenenfalls periodische Anpassung von Kriterien, Gewichten und Verknüpfungen gewährleistet sein. Soll-Ist Vergleiche sind regelmässig durchzuführen. Hauptzielkonflikt: Alpha-Fehler Beta-Fehler

17 7. Credit Scoring - Modelle in Theorie und Praxis Die theoretischen Ansätze im Bereiche des Credit Scoring lassen sich bis 1941 zurückverfolgen, als Durand sein umfassendes Werk über "Consumer Credit Scoring" publizierte 23. Von den seither veröffentlichen Studien auf diesem Gebiete seien nachfolgend einige bibliographische Überblicke erwähnt: Altman et al. beschreiben in einem umfassenden Grundlagenwerk siebzehn Scoring-Modelle aus dem Privatkundenbereich und acht aus dem Firmenkundenbereich 24. Eine grosse Mehrheit der gezeigten Verfahren stützt sich dabei auf die Diskriminanzanalyse oder die Regressionsanalyse. In einer späteren Publikation gibt wiederum Altman 25 erstens einen detaillierten Überblick über die in den USA bekannten und verwendeten "Bankruptcy Models" und listet zweitens in einer "Non-US-Bibliography" die in anderen Ländern publizierten Klassifikationssysteme auf. Wiederum kommt der Diskriminanzanalyse das grösste Gewicht zu, allerdings werden vereinzelt auch Verfahren der Mustererkennung vorgestellt. Im deutschsprachigen Bereich verlief die Entwicklung bedeutend ruhiger. Zwar erschienen ebenfalls verschiedene Publikationen zur Problematik formalisierter Bonitätsprüfungsverfahren, aber im Vergleich zur weit "statistikgläubigeren" USA doch in bescheidenerer Zahl. Praktische Implementierungen beschränkten sich in aller Regel auf diskriminanzanalytische Anwendungen im Privatkundengeschäft. Die Situation hat sich in den letzten Jahren deutlich geändert, indem - vor allem mit der Entwicklung neuronaler Netze - eine Bewegung hin zu quantitativen Bonitätsprüfungsverfahren sichtbar ist. Einen guten Überblick über den Stand der Dinge geben zwei an der Universität Münster durchgeführte Untersuchungen neueren Datums 26. Momentan dreht sich die Diskussion vor allem um die Frage, ob neuronale Netze treffsicherere Vorhersagen erlauben als die traditionellen diskriminanzanalytischen Methoden. Aufgrund verschiedener vergleichender Studien lassen sich vorläufig folgende Schlüsse ziehen 27 :

18 - Mit neuronalen Netzen sind die Vorhersagegenauigkeiten der Diskriminanzanalyse i.d.r. erreichbar bzw. werden oftmals gar übertroffen - Die Implementierung Neuronaler Netze ist bedeutend aufwendiger und schafft wegen deren Intransparenz deutlich höhere Akzeptanzprobleme. 8. Möglichkeiten und Grenzen des Scoring Wichtig bei der Anwendung von Scoring-Systemen ist, dass man sich stets des grundsätzlichen Prognoseproblems bewusst ist, dass für einen einzelnen Kreditantrag nie eine hundertprozentige direkte Vorhersage möglich ist. Die einzige machbare Aussage ist die, dass in der Vergangenheit Kredite mit vergleichbarer Datenstruktur wie der zum Entscheid anstehende Fall mit einer Wahrscheinlichkeit von x % eine bestimmte Entwicklung genommen haben. Ist das Credit Scoring im Bereiche des Einzelkreditentscheides aus den eben gesagten Gründen nicht absolut treffsicher, so ergeben sich auf der Ebene des gesamten Kreditportefeuilles spürbare Vorteile. Das Management kann mit solchen Ansätzen eine aktive und bewusste Kreditrisikopolitik betreiben und Kreditportfolio-Überlegungen miteinfliessen lassen. Wie bereits mehrmals erwähnt ist eine grosse Zahl an vorhandenen Krediten die wohl wichtigste Voraussetzung für den Aufbau eines prognosefähigen und statistisch aussagekräftigen Scoring Systems. Um statistisch signifikante Resultate zu erzielen, sind einige hundert "schlechte" Fälle notwendig, was wiederum bedeutet, dass (bei einem "normalen" Kreditausfallgrad) einige Tausend "gute" Kredite zur Verfügung stehen müssen 28. Aus den erwähnten Gründen sind bislang sowohl Credit Scoring- als auch Behaviour Scoring-Systeme typischerweise für grosse Kreditmengen mit eher kleineren Kreditbeträgen (ca. 20'000 Fr.) eingesetzt worden, d.h. beispielsweise für Kreditkarten, Retailer Cards, Privatkredite, Fahrzeugkredite etc. Hypotheken oder grosse Beträge ungesicherter Kredite benötigen dagegen oftmals - neben der Evaluation durch ein Scoring System - zusätzliche Unterstützung, v.a. auch zur Bewertung der Sicherheiten. Die Entwicklungen gehen bei solchen Fällen klar in Richtung einer "Triagefunktion" des Scorings: Wirklich gute und wirklich schlechte

19 Kreditanträge werden rasch erkannt und mehr oder weniger maschinell entschieden. Die in der mittleren "Grauzone" liegenden Fälle werden durch die Kreditsachbearbeiter einer genaueren Prüfung unterzogen. Zusammenfassend seien nachfolgend nochmals die wichtigsten Vor- und Nachteile von Scoring-Systemen festgehalten: Vorteile des Scoring: Objektivere Risikobewertung und damit konsistentere Entscheidungen, da persönliche Präferenzen ausgeschaltet sind. Statistische Kontrolle und Verbesserung der Qualität des Kreditportfolios, indem das Risiko jedes Kredites beschrieben werden kann. Soll-Ist Vergleiche und darauf basierend Systemanpassungen sind möglich. Kostenmässig effiziente und rasche Abwicklung, da nicht in Frage kommende Kreditanträge genauso wie ganz klar positiv zu entscheidende Anträge sofort ausgeschieden werden können. Es sind Experimente möglich (beispielsweise die bewusste Akzeptierung riskanterer Anträge, um damit langfristig profitabler zu sein). Griffigere Kreditkontrolle, indem Kunden mit kleinem Risiko bevorzugt behandelt und betreut werden, wogegen die riskanteren Kredite strikte kontrolliert oder u.u. eliminiert werden. Nachteile des Scoring: Zeitintensiver Entwicklungsprozess, der volle Unterstützung durch das Management benötigt. Die Vorhersagefähigkeit für individuelle Kreditanträge ist limitiert. Die Systeme können sich mit der Zeit verschlechtern, sie müssen laufend validiert werden. Infolge der nicht transparenten Entscheidungsfindung können u.u. Akzeptanzprobleme auftreten

20 Referenzen: 1 Erweiterte Fassung eines Referates, gehalten anlässlich der Konferenz "Risikomanagement im Privatkundengeschäft", 27./28. Juni 1994, D - Bad Homburg. 2 Dass auch die Auswertung quantitativer Daten nicht unproblematisch ist, sei nur am Rande erwähnt. Häufig gemachte Einwendungen betreffen beispielsweise deren Vergangenheits- bzw. Stichtagsbezogenheit oder die Möglichkeit der legalen Datenmanipulation durch bilanzpolitische Massnahmen. 3 vgl. beispielsweise Müller-Ganz, J.: Kennzahlen zur Bonitätsbeurteilung im Quervergleich, Bern/Stuttgart/ Wien 1992, S. 20 ff. 4 Dies ist eine Annahme, welche in ähnlicher Form auch in den modernen Finanzmarkttheorien wie "Capital Asset Pricing Model", "Arbitrage Pricing Theory" oder "Option Pricing Theory" auftritt. Allerdings wird z.t. heute im Firmenkundengeschäft auch der Miteinbezug anderer, zukunftsbezogener Ansätze diskutiert (strategische Positionierung der Unternehmung, zukünftige Markteinschätzung etc.). 5 Auf die statistischen Verfahren gehen detailliert ein: Altman, E.I. / Avery, R.B. / Eisenbeis, R.A. / Sinkey, J.F.: Application of Classification Techniques in Banking and Finance, Greenwich (CT) Mit den Verfahren der Mustererkennung (ohne Neuronale Netze) befasst sich Heno, R.: Kreditwürdigkeitsprüfung mit Hilfe von Verfahren der Mustererkennung, Bern/Stuttgart Neuronale Netze werden umfassend erläutert bei Krause, C.: Kreditwürdigkeitsprüfung mit Neuronalen Netzen, Düsseldorf Sind die Einkommenswerte normalverteilt, so liegt der optimale T-Wert im Schnittpunkt der beiden Verteilungen. Dabei wird allerdings unterstellt, dass gute und schlechte Kreditkunden gleich häufig sind und ausserdem sind die Kosten der beiden Fehlertypen vernachlässigt. Feidicker zeigt eine Lösung auf, wie die Annahme ungleicher a-priori-wahrscheinlichkeiten und die Kosten der Klassifikation modellhaft berücksichtigt werden können. Vgl. Feidicker, M.: Kreditwürdigkeitsprüfung, Düsseldorf 1992, S. 197 ff. 7 Mehrere univariat gut trennende Kennzahlen können sich gegenseitig abschwächen oder verstärken 8 Ein detaillierter Überblick findet sich bei Feidicker, M.: Kreditwürdigkeitsprüfung, Düsseldorf 1992, S. 133 ff. 9 Verschiedene in der Praxis nicht immer vorhandene Voraussetzungen müssten theoretisch für die Anwendung des Linearen Diskriminanzanalyseverfahrens gegeben sein (z.b. eine Normalverteilung der Kennzahlenwerte, Gleichheit der Kovarianz-Matrizen der Kennzahlen-Gruppen, Unabhängigkeit der Kennzahlen). Da mit dieser Methode aber auch bei "massvollen" Verletzungen dieser Voraussetzungen immer noch relativ gute Resultate erreicht werden, ist sie sehr verbreitet. 10 Vgl. dazu Altman, E.I.: Corporate Financial Distress and Bankruptcy, New York (NY) 1993, S. 184 ff. 11 Vgl. dazu Saunders, A.: Financial Institutions Management, Burr Ridge (IL) 1994, S. 169 ff. 12 Bei diesen Verfahren sind die Voraussetzungen weniger restriktiv als bei der Diskriminanzanalyse (keine Normalverteilung der Kennzahlenwerte nötig, ungleiche Kovarianz-Matrizen der Kennzahlen-Gruppen erlaubt). 13 Rein formal entspricht die lineare Regressionsanalyse einer linearen Diskriminanzanalyse, auch wenn die Schätzgleichungen mittels unterschiedlicher Verfahren ermittelt werden. 14 Logit- und Probit-Modelle können mathematisch ineinander übergeführt werden. 15 Interessant ist dabei u.a., dass Neuronen nicht-sterbende Zellen sind, was ihnen eine herausragende Bedeutung gibt. 16 In Anlehnung an: Medsker, L. / Turban, E. / Trippi, R.R.: Neural Network Fundamentals for Financial Analysts, in: Trippi, R.R. / Turban, E.: Neural Networks in Finance and Investing, Chicago (IL) 1993, pp. 3-25, p Für genauere Angaben vgl. z.b. Krause, C.: Kreditwürdigkeitsprüfung mit neuronalen Netzen, Düsseldorf 1993, S. 43 ff. 18 Da die Anpassung der Gewichte bei der letzten Schicht beginnt und rückwärtsgerichtet verläuft, wird ein solches Netzwerk auch etwa als Backpropagation-Netzwerk bezeichnet. 19 In bestimmten Fällen kann ein Neuronales Netz auch "überlernen", d.h. es findet in der Analysestichprobe Zusammenhänge, die in der Validierungsstichprobe und auch bei der effektiven Anwendung nicht mehr gelten (sog. Overfitting oder Overlearning). 20 Dies im Unterschied zu den sogenannten Expertensystemen, die das Problemlösungsverhalten menschlicher Experten in einem bestimmten Teilgebiet abbilden. Sowohl Expertensysteme als auch Neuronale Netze werden gemeinhin dem Gebiete der "Künstlichen Intelligenz" ("artificial intelligence") zugeordnet. 21 Allerdings arbeiten verschiedene Unternehmen in diesen Ländern (v.a. Banken) momentan an entsprechenden Projekten. 22 Ein Problem kann sich dabei u.u. bei der Beschaffung von Daten über abgelehnte Kunden ergeben (haben sie sich im Nachhinein als solvent herausgestellt oder nicht?). 23 Durand, D.: Risk Elements in Consumer Installment Lending, New York

Automatische Mustererkennung zur Klassifikation von Konsumentenverhalten am Beispiel der Kreditwürdigkeitsprüfung

Automatische Mustererkennung zur Klassifikation von Konsumentenverhalten am Beispiel der Kreditwürdigkeitsprüfung Prof. Dr. Gerhard Arminger Dipl.-Ök. Alexandra Schwarz Bergische Universität Wuppertal Fachbereich Wirtschaftswissenschaft Fach Statistik Automatische Mustererkennung zur Klassifikation von Konsumentenverhalten

Mehr

Die Beurteilung von Kreditrisiken mittels künstlicher neuronaler Netze am Beispiel österreichischer KMUs

Die Beurteilung von Kreditrisiken mittels künstlicher neuronaler Netze am Beispiel österreichischer KMUs Die Beurteilung von Kreditrisiken mittels künstlicher neuronaler Netze am Beispiel österreichischer KMUs 1. Klagenfurter KMU Tagung Tanja Schuschnig Alexander Brauneis Institut für Finanzmanagement 25.09.2009

Mehr

Commercial Banking Übung 1 Kreditscoring

Commercial Banking Übung 1 Kreditscoring Commercial Banking Übung Kreditscoring Dr. Peter Raupach raupach@wiwi.uni-frankfurt.de Sprechzeit Dienstag 6-7:00 Uhr Raum 603 B Kreditscoring Gliederung Grundanliegen Das Sample Modellspezifikation Diskriminanzanalyse

Mehr

Diskriminanzanalyse Beispiel

Diskriminanzanalyse Beispiel Diskriminanzanalyse Ziel bei der Diskriminanzanalyse ist die Analyse von Gruppenunterschieden, d. h. der Untersuchung von zwei oder mehr Gruppen hinsichtlich einer Vielzahl von Variablen. Diese Methode

Mehr

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen Was bisher geschah Lernen: überwachtes Lernen korrigierendes Lernen bestärkendes Lernen unüberwachtes Lernen biologisches Vorbild neuronaler Netze: Neuron (Zellkörper, Synapsen, Axon) und Funktionsweise

Mehr

Allgemeine Regressionsanalyse. Kovariablen / Prädiktoren / unabhängige Variablen X j R d, evtl. deterministisch

Allgemeine Regressionsanalyse. Kovariablen / Prädiktoren / unabhängige Variablen X j R d, evtl. deterministisch Prof. Dr. J. Franke Statistik II für Wirtschaftswissenschaftler 9.1 Allgemeine Regressionsanalyse Daten (X j, Y j ), j = 1,..., N unabhängig Kovariablen / Prädiktoren / unabhängige Variablen X j R d, evtl.

Mehr

Bundling im Retailbanking Die Katze im Sack

Bundling im Retailbanking Die Katze im Sack Bundling im Retailbanking Die Katze im Sack Master Thesis Freie wissenschaftliche Arbeit zur Erlangung des Grades MBA Master of Business Administration an der Europäischen Fernhochschule Hamburg Betreuender

Mehr

Multivariate Statistik

Multivariate Statistik Hermann Singer Multivariate Statistik 1 Auflage 15 Oktober 2012 Seite: 12 KAPITEL 1 FALLSTUDIEN Abbildung 12: Logistische Regression: Geschätzte Wahrscheinlichkeit für schlechte und gute Kredite (rot/blau)

Mehr

Entscheidungsanalyse unter Unsicherheit Entscheidungskriterien in ökonomischen Netzen

Entscheidungsanalyse unter Unsicherheit Entscheidungskriterien in ökonomischen Netzen Entscheidungsanalyse unter Unsicherheit Entscheidungskriterien in ökonomischen Netzen Referat von Guido RECKE Institut für Agrarökonomie der Georg-August-Universität Göttingen Platz der Göttinger Sieben

Mehr

Marktliquidität von Aktien

Marktliquidität von Aktien Marktliquidität von Aktien Inauguraldissertation zur Erlangung der Würde eines Doctor rerum oeconomicarum der Wirtschafts- und Sozialwissenschaftlichen Fakultät der Universität Bern Lukas Roth Die Fakultät

Mehr

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1 Neuronale Netze, Fuzzy Control, Genetische Algorithmen Prof. Jürgen Sauer 5. Aufgabenblatt: Neural Network Toolbox 1 A. Mit Hilfe der GUI vom Neural Network erstelle die in den folgenden Aufgaben geforderten

Mehr

Begriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining

Begriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining Gliederung 1. Einführung 2. Grundlagen Data Mining Begriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining 3. Ausgewählte Methoden des Data

Mehr

Befragung und empirische Einschätzung der Praxisrelevanz

Befragung und empirische Einschätzung der Praxisrelevanz Befragung und empirische Einschätzung der Praxisrelevanz eines Vorgehensmodells zur Auswahl von CRM-Systemen D I P L O M A R B E I T zur Erlangung des Grades eines Diplom-Ökonomen der Wirtschaftswissenschaftlichen

Mehr

KREDIT-SCORING. Bestandteil der modernen Kreditvergabe. Eine Information der privaten Banken

KREDIT-SCORING. Bestandteil der modernen Kreditvergabe. Eine Information der privaten Banken 1 KREDIT-SCORING Bestandteil der modernen Kreditvergabe Berlin, Oktober 2006 fokus:verbraucher Eine Information der privaten Banken BANKENVERBAND Kredit-Scoring Bestandteil der modernen Kreditvergabe Der

Mehr

COMMERCIAL BANKING Sommersemester 2002 Wahrenburg / Raupach Aufgabenblatt 1. Aufgabenblatt 1

COMMERCIAL BANKING Sommersemester 2002 Wahrenburg / Raupach Aufgabenblatt 1. Aufgabenblatt 1 COMMERCIAL BANKING Sommersemester 2002 Wahrenburg / Raupach Aufgabenblatt Aufgabenblatt. (Präsentation zum Kreditscoring) 2. Sie haben einen Kredit an eine börsennotierte Firma XY vergeben. Bestimmen Sie

Mehr

Vom Chip zum Gehirn Elektronische Systeme zur Informationsverarbeitung

Vom Chip zum Gehirn Elektronische Systeme zur Informationsverarbeitung Vom Chip zum Gehirn Elektronische Systeme zur Informationsverarbeitung Johannes Schemmel Forschungsgruppe Electronic Vision(s) Lehrstuhl Prof. K. Meier Ruprecht-Karls-Universität Heidelberg Mitarbeiter:

Mehr

Finanzierung heute und morgen

Finanzierung heute und morgen Kreditsicherungsstrategien für das Gastgewerbe Finanzierung heute und morgen Die neue Partnerschaft zwischen Kunde und Bank Thomas Ochsmann Ulrich Schmidt So könnte sich mancher Kunde fühlen! Kreditnehmer

Mehr

Verursachungsgerechtes Kreditpricing: ein Muss? Michael F. Reiff

Verursachungsgerechtes Kreditpricing: ein Muss? Michael F. Reiff Verursachungsgerechtes Kreditpricing: ein Muss? Michael F. Reiff Im Kreditgeschäft mit Firmenkunden existieren keine Marktpreise, was zu fatalen Fehlentscheidungen bei der Preisgestaltung führen kann.

Mehr

Lehrstuhl für Betriebswirtschaftslehre mit Schwerpunkt Finanzierung. Klausur "Finanzmanagement" 14. März 2002

Lehrstuhl für Betriebswirtschaftslehre mit Schwerpunkt Finanzierung. Klausur Finanzmanagement 14. März 2002 1 Lehrstuhl für Betriebswirtschaftslehre mit Schwerpunkt Finanzierung Klausur "Finanzmanagement" 14. März 2002 Bearbeitungshinweise: - Die Gesamtbearbeitungsdauer beträgt 60 Minuten. - Schildern Sie ihren

Mehr

Delta-Gamma-Verfahren als Standard- Risikomodell für Lebensversicherer

Delta-Gamma-Verfahren als Standard- Risikomodell für Lebensversicherer Delta-Gamma-Verfahren als Standard- Risikomodell für Lebensversicherer 1 Einleitung Im Rahmen des SST wird teilweise vereinfachend angenommen, dass der Zusammenhang zwischen der Veränderung des risikotragenden

Mehr

Wie Ihre Bank faire Kreditentscheidungen trifft. Antworten zum Scoring

Wie Ihre Bank faire Kreditentscheidungen trifft. Antworten zum Scoring Wie Ihre Bank faire Kreditentscheidungen trifft Antworten zum Scoring Unsere Verantwortung Die Mitgliedsbanken des Bankenfachverbandes sind die Experten für Finanzierung. Sie vergeben Kredite verantwortungsvoll,

Mehr

Neue Kreditwürdigkeitsprüfung

Neue Kreditwürdigkeitsprüfung Bankinternes Rating 5.2 Kreditwürdigkeitsprüfung Seite 7 Neue Kreditwürdigkeitsprüfung Inhalt Bankinternes Rating-Verfahren Bankinterne Rating-Systeme Internes Rating nach Basel II Anforderungen an das

Mehr

Grundlagen quantitativer Sozialforschung Interferenzstatistische Datenanalyse in MS Excel

Grundlagen quantitativer Sozialforschung Interferenzstatistische Datenanalyse in MS Excel Grundlagen quantitativer Sozialforschung Interferenzstatistische Datenanalyse in MS Excel 16.11.01 MP1 - Grundlagen quantitativer Sozialforschung - (4) Datenanalyse 1 Gliederung Datenanalyse (inferenzstatistisch)

Mehr

BACHELORARBEIT. Möglichkeiten der (Teil-) Automation von Kreditentscheidungen. Frau Sanela Filipovic Ø <

BACHELORARBEIT. Möglichkeiten der (Teil-) Automation von Kreditentscheidungen. Frau Sanela Filipovic Ø < BACHELORARBEIT Frau Sanela Filipovic Ø < Möglichkeiten der (Teil-) Automation von Kreditentscheidungen Wien, 2012 Fakultät Wirtschaftswissenschaften BACHELORARBEIT Möglichkeiten der (Teil-) Automation

Mehr

Tabelle 6a: Deskriptive Statistiken der metrischen Variablen

Tabelle 6a: Deskriptive Statistiken der metrischen Variablen Ergebnisse 77 5 Ergebnisse Das folgende Kapitel widmet sich der statistischen Auswertung der Daten zur Ü- berprüfung der Hypothesen. Die hier verwendeten Daten wurden mit den in 4.3 beschriebenen Instrumenten

Mehr

Commercial Banking. Kreditgeschäft 2. Bedingte marginale und kumulative Ausfallwahrscheinlichkeit

Commercial Banking. Kreditgeschäft 2. Bedingte marginale und kumulative Ausfallwahrscheinlichkeit Commercial Banking Kreditgeschäft Bedingte marginale und kumulative Ausfallwahrscheinlichkeit Bedingte Marginale Ausfallwahrscheinlichkeit (BMAW t ) (Saunders: MMR ) prob (Ausfall in Periode t kein Ausfall

Mehr

9 Resümee. Resümee 216

9 Resümee. Resümee 216 Resümee 216 9 Resümee In der vorliegenden Arbeit werden verschiedene Methoden der Datenreduktion auf ihre Leistungsfähigkeit im sozialwissenschaftlichstatistischen Umfeld anhand eines konkreten Anwendungsfalls

Mehr

AUF SICHERHEIT BAUEN CREDITREFORM BONITÄTSINDEX

AUF SICHERHEIT BAUEN CREDITREFORM BONITÄTSINDEX AUF SICHERHEIT BAUEN CREDITREFORM BONITÄTSINDEX CREDITREFORM RISIKOMANAGEMENT Creditreform entwickelte ein Scoring (Punktbewertungs)-Verfahren, das eine Risikobestimmung des Kunden vornimmt. Im Kern werden

Mehr

Commercial Banking. Kreditportfoliosteuerung

Commercial Banking. Kreditportfoliosteuerung Commercial Banking Kreditportfoliosteuerung Dimensionen des Portfoliorisikos Risikomessung: Was ist Kreditrisiko? Marking to Market Veränderungen des Kreditportfolios: - Rating-Veränderung bzw. Spreadveränderung

Mehr

Analyse alt- und mittelpaläolithischer Steinartefaktinventare mittels Parallelkoordinatenplots

Analyse alt- und mittelpaläolithischer Steinartefaktinventare mittels Parallelkoordinatenplots Einleitung Analyse alt- und mittelpaläolithischer Steinartefaktinventare mittels Parallelkoordinatenplots von Irmela Herzog Im Rahmen der Herbsttagung der AG DANK (Datenanalyse und Numerische Klassifikation)

Mehr

Webergänzung zu Kapitel 10

Webergänzung zu Kapitel 10 Webergänzung zu Kapitel 10 10.1.4 Varianzanalyse (ANOVA: analysis of variance) Im Kapitel 10 haben wir uns hauptsächlich mit Forschungsbeispielen beschäftigt, die nur zwei Ergebnissätze hatten (entweder

Mehr

Künstliche Neuronale Netze als Verfahren der betrieblichen Entscheidungsunterstützung

Künstliche Neuronale Netze als Verfahren der betrieblichen Entscheidungsunterstützung Künstliche Neuronale Netze als Verfahren der betrieblichen Entscheidungsunterstützung Die Leistungsfähigkeit des menschlichen Gehirns in der Verarbeitung komplexer Signale, z.b. in der Mustererkennung

Mehr

Multiple Regression. Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren)

Multiple Regression. Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren) Multiple Regression 1 Was ist multiple lineare Regression? Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren) Annahme: Der Zusammenhang

Mehr

CLINICAL DECISION SUPPORT SYSTEMS

CLINICAL DECISION SUPPORT SYSTEMS CLINICAL DECISION SUPPORT SYSTEMS INHALTSVERZEICHNIS 1/2 Diagnosefindung Prävention Medikamente (Auswahl, Dosierung etc.) INHALTSVERZEICHNIS 2/2 Supervised, Unsupervised Bayes-Netzwerke Neuronale Netze

Mehr

1. Einleitung. 1.1. Ausgangssituation

1. Einleitung. 1.1. Ausgangssituation 1. Einleitung In der vorliegenden Arbeit wird untersucht, welche Faktoren den erfolgreichen Ausgang eines Supply-Chain-Projektes zwischen zwei Projektpartnern beeinflussen. Dazu werden zum einen mögliche

Mehr

Künstliche Neuronale Netze und Data Mining

Künstliche Neuronale Netze und Data Mining Künstliche Neuronale Netze und Data Mining Catherine Janson, icasus GmbH Heidelberg Abstract Der Begriff "künstliche Neuronale Netze" fasst Methoden der Informationstechnik zusammen, deren Entwicklung

Mehr

9. Schätzen und Testen bei unbekannter Varianz

9. Schätzen und Testen bei unbekannter Varianz 9. Schätzen und Testen bei unbekannter Varianz Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Schätzen und Testen bei unbekannter Varianz Wenn wir die Standardabweichung σ nicht kennen,

Mehr

Risikomanagement im Kreditgeschäft

Risikomanagement im Kreditgeschäft Bettina Schiller Dagmar Tytko Risikomanagement im Kreditgeschäft Grundlagen, neuere Entwicklungen und Anwendungsbeispiele 2001 Schäffer-Poeschel Verlag Stuttgart Inhaltsverzeichnis Abbildungsverzeichnis

Mehr

Matrikel-Nr.: Fachrichtung: Sem.-Zahl: Seminarschein soll ausgestellt werden über ABWL Integrationsseminar BBL

Matrikel-Nr.: Fachrichtung: Sem.-Zahl: Seminarschein soll ausgestellt werden über ABWL Integrationsseminar BBL Institut für Geld- und Kapitalverkehr der Universität Hamburg Prof. Dr. Hartmut Schmidt Integrationsseminar zur Allgemeinen Betriebswirtschaftslehre und Bankbetriebslehre Wintersemester 2002/2003 Zuständiger

Mehr

Machine Learning - Maschinen besser als das menschliche Gehirn?

Machine Learning - Maschinen besser als das menschliche Gehirn? Machine Learning - Maschinen besser als das menschliche Gehirn? Seminar Big Data Science Tobias Stähle 23. Mai 2014 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der

Mehr

Risiko und Symmetrie. Prof. Dr. Andrea Wirth

Risiko und Symmetrie. Prof. Dr. Andrea Wirth Risiko und Symmetrie Prof. Dr. Andrea Wirth Gliederung 1. Einleitung Was ist eigentlich Risiko? 2. Risiko Mathematische Grundlagen 3. Anwendungsbeispiele Wo genau liegt der Schmerz des Risikos? 4. Sie

Mehr

(künstliche) Neuronale Netze. (c) Till Hänisch 2003,2015, DHBW Heidenheim

(künstliche) Neuronale Netze. (c) Till Hänisch 2003,2015, DHBW Heidenheim (künstliche) Neuronale Netze (c) Till Hänisch 2003,2015, DHBW Heidenheim Literatur zusätzlich zum Lit. Verz. Michael Negnevitsky, Artificial Intelligence, Addison Wesley 2002 Aufbau des Gehirns Säugetiergehirn,

Mehr

Multinomiale logistische Regression

Multinomiale logistische Regression Multinomiale logistische Regression Die multinomiale logistische Regression dient zur Schätzung von Gruppenzugehörigkeiten bzw. einer entsprechenden Wahrscheinlichkeit hierfür, wobei als abhänginge Variable

Mehr

Lösungsvorschlag für das Übungsblatt 1. Aufgabe 1.

Lösungsvorschlag für das Übungsblatt 1. Aufgabe 1. Lösungsvorschlag für das Übungsblatt 1. Aufgabe 1. Zusammengefasst aus Ihren Beiträgen Wie bewerten sie das System ingesamt? Das Watson System verdeutlicht den Fortschritt der Künstlichen Intelligenz Forschung/Computerlinguistik/Informatik

Mehr

Algorithmische Modelle als neues Paradigma

Algorithmische Modelle als neues Paradigma Algorithmische Modelle als neues Paradigma Axel Schwer Seminar über Philosophische Grundlagen der Statistik, WS 2010/11 Betreuer: Prof. Dr. Thomas Augustin München, den 28. Januar 2011 1 / 29 LEO BREIMAN

Mehr

Go Lending. Das Pfandhaus - ein hundert Jahre altes Geschäft erobert das Internet!

Go Lending. Das Pfandhaus - ein hundert Jahre altes Geschäft erobert das Internet! Go Lending Das Pfandhaus - ein hundert Jahre altes Geschäft erobert das Internet! Das Pfandhausprinzip bares Geld gegen Belehnung eines Wertgegenstandes existiert seit Jahrhunderten als schnelle, risikolose

Mehr

Erfolg und Vermögensrückgänge angefertigt im Rahmen der Lehrveranstaltung Nachrichtentechnik von: Eric Hansen, eric-hansen@gmx.de am: 07.09.

Erfolg und Vermögensrückgänge angefertigt im Rahmen der Lehrveranstaltung Nachrichtentechnik von: Eric Hansen, eric-hansen@gmx.de am: 07.09. Abstract zum Thema Handelssysteme Erfolg und Vermögensrückgänge angefertigt im Rahmen der Lehrveranstaltung Nachrichtentechnik von: Eric Hansen, eric-hansen@gmx.de am: 07.09.01 Einleitung: Handelssysteme

Mehr

Inhaltsverzeichnis Kapitel 0 - Einführung und Grundlagen 11 Kapitel 1 - Renditen auf Finanzmärkten 37 Kapitel 2 - Risiko auf Finanzmärkten 61

Inhaltsverzeichnis Kapitel 0 - Einführung und Grundlagen 11 Kapitel 1 - Renditen auf Finanzmärkten 37 Kapitel 2 - Risiko auf Finanzmärkten 61 Inhaltsverzeichnis Kapitel 0 - Einführung und Grundlagen 11 0.1 Gegenstandsbereich der Finance als wissenschaftliche Disziplin 0.2 Kernthemen der Finance 0.3 Entwicklungsmerkmale der Finanzmärkte - 0.4

Mehr

Vielfalt im Bankenwesen? Nähe und Distanz in der KMU-Finanzierung dezentraler versus zentraler Banken

Vielfalt im Bankenwesen? Nähe und Distanz in der KMU-Finanzierung dezentraler versus zentraler Banken Franz Flögel Institute Arbeit und Technik Gelsenkirchen Katholische Universität Eichstätt-Ingolstadt floegel@iat.eu 5. Forschungswerkstatt Finanzgeographie 27.06.2014 Münster Vielfalt im Bankenwesen? Nähe

Mehr

TECHNIKEN. I. What if...? Analyse. 1. Was versteht man unter What if? -Analyse? Bei der What if? -Analyse (Was-Wenn-Analyse) werden Ideen generiert,

TECHNIKEN. I. What if...? Analyse. 1. Was versteht man unter What if? -Analyse? Bei der What if? -Analyse (Was-Wenn-Analyse) werden Ideen generiert, TECHNIKEN I. What if...? Analyse 1. Was versteht man unter What if? -Analyse? Bei der What if? -Analyse (Was-Wenn-Analyse) werden Ideen generiert, indem breit formulierte, kaum strukturierte Fragen gestellt

Mehr

Mit KI gegen SPAM. Proseminar Künstliche Intelligenz

Mit KI gegen SPAM. Proseminar Künstliche Intelligenz Mit KI gegen SPAM Proseminar Künstliche Intelligenz SS 2006 Florian Laib Ausblick Was ist SPAM? Warum SPAM-Filter? Naive Bayes-Verfahren Fallbasiertes Schließen Fallbasierte Filter TiMBL Vergleich der

Mehr

Prozesskostenrechnung in der Westfälischen Wilhelms-Bank

Prozesskostenrechnung in der Westfälischen Wilhelms-Bank Prozesskostenrechnung in der Westfälischen Wilhelms-Bank I. Der Fall Die Westfälische Wilhelms-Bank (WWB), die im Kreditgeschäft tätig ist, steht aufgrund der jüngsten Finanzkrise und des daraus resultierenden

Mehr

Sind Sachbezeichnungen als Domain-Namen rechtlich zulässig?

Sind Sachbezeichnungen als Domain-Namen rechtlich zulässig? Publiziert in SWITCHjournal 1/2002 Sind Sachbezeichnungen als Domain-Namen rechtlich zulässig? Dr. Ursula Widmer, Rechtsanwältin, Bern ursula.widmer@widmerpartners-lawyers.ch Im Internet werden von Unternehmen

Mehr

Herausforderungen des Continuous Auditing im Big Data Umfeld

Herausforderungen des Continuous Auditing im Big Data Umfeld Herausforderungen des Continuous Auditing im Big Data Umfeld Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science (B.Sc.) im Studiengang Wirtschaftswissenschaft der Wirtschaftswissenschaftlichen

Mehr

3 Projektmanagement. Auch hier lassen sich wieder grob kommerzielle und nicht kommerzielle Projekte unterscheiden.

3 Projektmanagement. Auch hier lassen sich wieder grob kommerzielle und nicht kommerzielle Projekte unterscheiden. 3 Projektmanagement Das Thema Projektmanagement kann man aus sehr unterschiedlichen Perspektiven angehen. Klar strukturiert mit Netzplänen und Controlling- Methoden oder teamorientiert mit Moderationstechniken

Mehr

Zusammenfassung der Umfrageergebnisse Customer Intelligence in Unternehmen 23.12.2010

Zusammenfassung der Umfrageergebnisse Customer Intelligence in Unternehmen 23.12.2010 Zusammenfassung der Umfrageergebnisse Customer Intelligence in Unternehmen 23.12.2010 Autoren: Alexander Schramm Marcus Mertens MuniConS GmbH Einleitung Unternehmen verfügen heute über viele wichtige Informationen

Mehr

VSA in der Praxis. Case Studies SGE Information & Investment Services AG, September 2011

VSA in der Praxis. Case Studies SGE Information & Investment Services AG, September 2011 VSA in der Praxis Case Studies SGE Information & Investment Services AG, September 2011 VSA in der Praxis Case Studies Fall 1: Vermögensgröße Family Office Kunde (50 M ) vs. Private Banking Kunde (250

Mehr

Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt!

Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt! Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt! 1 Einführung 2 Wahrscheinlichkeiten kurz gefasst 3 Zufallsvariablen und Verteilungen 4 Theoretische Verteilungen (Wahrscheinlichkeitsfunktion)

Mehr

Mit Daten Mehrwert schaffen. Graz - 15/05/2014 Sepp Puwein

Mit Daten Mehrwert schaffen. Graz - 15/05/2014 Sepp Puwein Mit Daten Mehrwert schaffen Graz - 15/05/2014 Agenda Daten, Daten, Daten Ablauf eines Credit Checks Scoring Produkt Neuheit: echeck 2 Daten, Daten, Daten Identifikation & Information Bonität Publikationen

Mehr

Generalthema: Kreditrisikomanagement Thema 3: Bonitätsbeurteilung mit linearer Regressionsanalyse. Gliederung

Generalthema: Kreditrisikomanagement Thema 3: Bonitätsbeurteilung mit linearer Regressionsanalyse. Gliederung Institut für Geld- und Kapitalverkehr der Universität Hamburg Prof. Dr. Hartmut Schmidt Integrationsseminar zur BBL und ABWL Wintersemester 2002/2003 Zuständiger Mitarbeiter: Dipl.-Kfm. Stefan Krohnsnest

Mehr

Neuerungen Analysis Services

Neuerungen Analysis Services Neuerungen Analysis Services Neuerungen Analysis Services Analysis Services ermöglicht Ihnen das Entwerfen, Erstellen und Visualisieren von Data Mining-Modellen. Diese Mining-Modelle können aus anderen

Mehr

Übungsserie Nr. 10 mit Lösungen

Übungsserie Nr. 10 mit Lösungen Übungsserie Nr. 10 mit Lösungen 1 Ein Untersuchungsdesign sieht einen multivariaten Vergleich einer Stichprobe von Frauen mit einer Stichprobe von Männern hinsichtlich der Merkmale X1, X2 und X3 vor (Codierung:

Mehr

Approximationsalgorithmen

Approximationsalgorithmen Ausarbeitung zum Thema Approximationsalgorithmen im Rahmen des Fachseminars 24. Juli 2009 Robert Bahmann robert.bahmann@gmail.com FH Wiesbaden Erstellt von: Robert Bahmann Zuletzt berarbeitet von: Robert

Mehr

Koeffizienten der Logitanalyse. Kurt Holm. Almo Statistik-System www.almo-statistik.de holm@almo-statistik.de kurt.holm@jku.at

Koeffizienten der Logitanalyse. Kurt Holm. Almo Statistik-System www.almo-statistik.de holm@almo-statistik.de kurt.holm@jku.at Koeffizienten der Logitanalyse Kurt Holm Almo Statistik-System www.almo-statistik.de holm@almo-statistik.de kurt.holm@jku.at 1 Kurt Holm Koeffizienten der Logitanalyse Eine häufig gestellte Frage lautet:

Mehr

Kapitel 4: Binäre Regression

Kapitel 4: Binäre Regression Kapitel 4: Binäre Regression Steffen Unkel (basierend auf Folien von Nora Fenske) Statistik III für Nebenfachstudierende WS 2013/2014 4.1 Motivation Ausgangssituation Gegeben sind Daten (y i, x i1,...,

Mehr

Ein Kurzaufsatz von Prof. Dr. Ottmar Schneck, www.ottmar-schneck.de

Ein Kurzaufsatz von Prof. Dr. Ottmar Schneck, www.ottmar-schneck.de Die Bewertung von Aktien mit Hilfe der Ein Kurzaufsatz von Prof. Dr. Ottmar Schneck, www.ottmar-schneck.de In letzter Zeit scheint es, als könne man der alten Weisheit, dass man über alles reden darf,

Mehr

Binäre abhängige Variablen

Binäre abhängige Variablen Binäre abhängige Variablen Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Einführung Oft wollen wir qualitative Variablen

Mehr

3. Entscheidungsbäume. Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002)

3. Entscheidungsbäume. Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002) 3. Entscheidungsbäume Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002) (aus Wilhelm 2001) Beispiel: (aus Böhm 2003) Wann sind Entscheidungsbäume

Mehr

Inhaltsverzeichnis. Regressionsanalyse. http://mesosworld.ch - Stand vom: 20.1.2010 1

Inhaltsverzeichnis. Regressionsanalyse. http://mesosworld.ch - Stand vom: 20.1.2010 1 Inhaltsverzeichnis Regressionsanalyse... 2 Lernhinweise... 2 Einführung... 2 Theorie (1-8)... 2 1. Allgemeine Beziehungen... 3 2. 'Best Fit'... 3 3. 'Ordinary Least Squares'... 4 4. Formel der Regressionskoeffizienten...

Mehr

Messsystemanalyse (MSA)

Messsystemanalyse (MSA) Messsystemanalyse (MSA) Inhaltsverzeichnis Ursachen & Auswirkungen von Messabweichungen Qualifikations- und Fähigkeitsnachweise Vorteile einer Fähigkeitsuntersuchung Anforderungen an das Messsystem Genauigkeit

Mehr

VR-Rating Agrar Grundlage zur risikogerechten Bepreisung im Agrargeschäft

VR-Rating Agrar Grundlage zur risikogerechten Bepreisung im Agrargeschäft Grundlage zur risikogerechten Bepreisung im Agrargeschäft Vortrag im Rahmen der gemeinsamen Veranstaltung der Westerwald Bank eg und des Bauern- und Winzerverband Rheinland-Nassau e.v. Hachenburg, Referent:

Mehr

Univariate/ multivariate Ansätze. Klaus D. Kubinger. Test- und Beratungsstelle. Effektgrößen

Univariate/ multivariate Ansätze. Klaus D. Kubinger. Test- und Beratungsstelle. Effektgrößen Univariate/ multivariate Ansätze Klaus D. Kubinger Effektgrößen Rasch, D. & Kubinger, K.D. (2006). Statistik für das Psychologiestudium Mit Softwareunter-stützung zur Planung und Auswertung von Untersuchungen

Mehr

ASP-Marktstudie in der Automobilzuliefererindustrie

ASP-Marktstudie in der Automobilzuliefererindustrie Fachhochschule Ingolstadt Seite 1 von 8 Gliederung 1 Vorstellung des Projekts 1.1 Projektorganisation 1.2 Zielsetzung der Untersuchung 1.3 Management Summary 2 Sekundärforschung 2.1 Was ist ASP? 2.1.1

Mehr

Mit welcher Strategie hast Du am Glücksrad Erfolg?

Mit welcher Strategie hast Du am Glücksrad Erfolg? Mit welcher Strategie hast Du am Glücksrad Erfolg? Kinderuni, Workshop an der TU Wien 24. Juli 2009, 10:30 11:30 Uhr Univ.-Prof. Dr. Uwe Schmock Forschungsgruppe Finanz- und Versicherungsmathematik Institut

Mehr

Vergleich von KreditRisk+ und KreditMetrics II Seminar Portfoliokreditrisiko

Vergleich von KreditRisk+ und KreditMetrics II Seminar Portfoliokreditrisiko Vergleich von KreditRisk+ und KreditMetrics II Seminar Portfoliokreditrisiko Jan Jescow Stoehr Gliederung 1. Einführung / Grundlagen 1.1 Ziel 1.2 CreditRisk+ und CreditMetrics 2. Kreditportfolio 2.1 Konstruktion

Mehr

Use-Cases. Bruno Blumenthal und Roger Meyer. 17. Juli 2003. Zusammenfassung

Use-Cases. Bruno Blumenthal und Roger Meyer. 17. Juli 2003. Zusammenfassung Use-Cases Bruno Blumenthal und Roger Meyer 17. Juli 2003 Zusammenfassung Dieses Dokument beschreibt Netzwerk-Szenarios für den Einsatz von NetWACS. Es soll als Grundlage bei der Definition des NetWACS

Mehr

STRATEGIE- UND RISIKOMANAGEMENT!

STRATEGIE- UND RISIKOMANAGEMENT! STRATEGIE- UND RISIKOMANAGEMENT Lagerstelle: Beratung und Verwaltung: V-Bank AG München Ingo Asalla GmbH WIE WIR INVESTIEREN Wir investieren in Fonds, die:¹ einen Track Record von 3 Jahren aufweisen. deren

Mehr

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002) 6. Bayes-Klassifikation (Schukat-Talamazzini 2002) (Böhm 2003) (Klawonn 2004) Der Satz von Bayes: Beweis: Klassifikation mittels des Satzes von Bayes (Klawonn 2004) Allgemeine Definition: Davon zu unterscheiden

Mehr

Zeichnen von Graphen. graph drawing

Zeichnen von Graphen. graph drawing Zeichnen von Graphen graph drawing WS 2006 / 2007 Gruppe: D_rot_Ala0607 Christian Becker 11042315 Eugen Plischke 11042351 Vadim Filippov 11042026 Gegeben sei ein Graph G = (V; E) Problemstellung V E =

Mehr

IT-basierte Erstellung von Nachhaltigkeitsberichten. Diplomarbeit

IT-basierte Erstellung von Nachhaltigkeitsberichten. Diplomarbeit IT-basierte Erstellung von Nachhaltigkeitsberichten Diplomarbeit zur Erlangung des Grades eines Diplom-Ökonomen der Wirtschaftswissenschaftlichen Fakultät der Leibniz Universität Hannover vorgelegt von

Mehr

www.easydatamining.com Analyse-Beispiel Banken

www.easydatamining.com Analyse-Beispiel Banken Data.Mining.Fox (DMF) von Easy.Data.Mining Eine beispielhafte Analyse für den Bereich Banken [0] Der Sinn & Zweck dieser Folien für Sie Einblick in die Welt des Data-Mining bei Easy.Data.Mining: Wie sieht

Mehr

Monte Carlo Simulation (Grundlagen)

Monte Carlo Simulation (Grundlagen) Der Titel des vorliegenden Beitrages wird bei den meisten Lesern vermutlich Assoziationen mit Roulette oder Black Jack hervorrufen. Allerdings haben das heutige Thema und die Spieltische nur den Namen

Mehr

Kredit-Rating. Interne Ratingverfahren der Banken und Sparkassen als Basis bonitätsabhängiger Bepreisung von Krediten

Kredit-Rating. Interne Ratingverfahren der Banken und Sparkassen als Basis bonitätsabhängiger Bepreisung von Krediten Kredit-Rating Interne Ratingverfahren der Banken und Sparkassen als Basis bonitätsabhängiger Bepreisung von Krediten Von der Wirtschaftswissenschaftlichen Fakultät der Universität Leipzig genehmigte DISSERTATION

Mehr

Mathematik-Dossier. Die lineare Funktion

Mathematik-Dossier. Die lineare Funktion Name: Mathematik-Dossier Die lineare Funktion Inhalt: Lineare Funktion Lösen von Gleichungssystemen und schneiden von Geraden Verwendung: Dieses Dossier dient der Repetition und Festigung innerhalb der

Mehr

Data Mining mit der SEMMA Methodik. Reinhard Strüby, SAS Institute Stephanie Freese, Herlitz PBS AG

Data Mining mit der SEMMA Methodik. Reinhard Strüby, SAS Institute Stephanie Freese, Herlitz PBS AG Data Mining mit der SEMMA Methodik Reinhard Strüby, SAS Institute Stephanie Freese, Herlitz PBS AG Data Mining Data Mining: Prozeß der Selektion, Exploration und Modellierung großer Datenmengen, um Information

Mehr

Seminar Text- und Datamining Datamining-Grundlagen

Seminar Text- und Datamining Datamining-Grundlagen Seminar Text- und Datamining Datamining-Grundlagen Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 23.05.2013 Gliederung 1 Klassifikationsprobleme 2 Evaluation

Mehr

Klausur Wirtschaftsmathematik Lösungshinweise

Klausur Wirtschaftsmathematik Lösungshinweise Klausur Wirtschaftsmathematik Lösungshinweise Prüfungsdatum: 27. Juni 2015 Prüfer: Etschberger Studiengang: Wirtschaftsingenieurwesen Aufgabe 1 16 Punkte Anton Arglos hat von seiner Großmutter 30 000 geschenkt

Mehr

Proseminar BWL, Finance

Proseminar BWL, Finance Proseminar BWL, Finance Kap. 1: Einführung - Informationseffizienzhypothese - Prof. Dr. Thorsten Poddig Lehrstuhl für Allgemeine Betriebswirtschaftslehre, insbes. Finanzwirtschaft Universität Bremen Hochschulring

Mehr

6 Architektur-Mittel (WOMIT)

6 Architektur-Mittel (WOMIT) 6 Architektur-Mittel (WOMIT) Abb. 6-1: Positionierung des Kapitels im Ordnungsrahmen. Dieses Kapitel befasst sich mit der WOMIT-Dimension des architektonischen Ordnungsrahmens, indem es grundlegende Konzepte

Mehr

Kommentierter SPSS-Ausdruck zur logistischen Regression

Kommentierter SPSS-Ausdruck zur logistischen Regression Daten: POK V AG 3 (POKV_AG3_V07.SAV) Kommentierter SPSS-Ausdruck zur logistischen Regression Fragestellung: Welchen Einfluss hat die Fachnähe und das Geschlecht auf die interpersonale Attraktion einer

Mehr

Klassische Risikomodelle

Klassische Risikomodelle Klassische Risikomodelle Kathrin Sachernegg 15. Jänner 2008 1 Inhaltsverzeichnis 1 Einführung 3 1.1 Begriffserklärung.................................. 3 2 Individuelles Risikomodell 3 2.1 Geschlossenes

Mehr

Internationale Finanzierung 6. Bewertung von Aktien

Internationale Finanzierung 6. Bewertung von Aktien Übersicht Kapitel 6: 6.1. Einführung 6.2. Aktienbewertung mittels Kennzahlen aus Rechnungswesen 6.3. Aktienbewertung unter Berücksichtigung der Wachstumschancen 6.4. Aktienbewertung mittels Dividenden

Mehr

(2) (x 2 1 + x 2 2 + + x 2 n)(y 2 1 + y 2 2 + + y 2 n) = z 2 1 + z 2 2 + + z 2 n

(2) (x 2 1 + x 2 2 + + x 2 n)(y 2 1 + y 2 2 + + y 2 n) = z 2 1 + z 2 2 + + z 2 n Über die Komposition der quadratischen Formen von beliebig vielen Variablen 1. (Nachrichten von der k. Gesellschaft der Wissenschaften zu Göttingen, Mathematisch-physikalische Klasse, 1898, S. 309 316.)

Mehr

16. Ministerialkongress

16. Ministerialkongress 16. Ministerialkongress 5a IT-Wertbeitrag Messbare Realität oder Jörg Wegner, Partner Berlin, 9. September 2011 Agenda 1 Einleitung 2 Methodik 3 Einzelne Ergebnisse 4 Zusammenfassende Ergebnisse 2011 BearingPoint

Mehr

KfW-Research. WirtschaftsObserver online.

KfW-Research. WirtschaftsObserver online. KfW-Research. WirtschaftsObserver online. Die Ratingkenntnisse von kleinen und großen Unternehmen - aktueller Stand und Entwicklung. Nr. 30, Dezember 2007. Die Ratingkenntnisse von kleinen und großen Unternehmen

Mehr

Multivariate Analysemethoden

Multivariate Analysemethoden Multivariate Analysemethoden 30.04.2014 Günter Meinhardt Johannes Gutenberg Universität Mainz Einführung Was sind multivariate Analysemethoden? Vorlesung Übung/Tut Prüfung Verfahrensdarstellung in Überblick

Mehr

Einfache Derivate. Stefan Raminger. 4. Dezember 2007. 2 Arten von Derivaten 3 2.1 Forward... 3 2.2 Future... 4 2.3 Optionen... 5

Einfache Derivate. Stefan Raminger. 4. Dezember 2007. 2 Arten von Derivaten 3 2.1 Forward... 3 2.2 Future... 4 2.3 Optionen... 5 Einfache Derivate Stefan Raminger 4. Dezember 2007 Inhaltsverzeichnis 1 Begriffsbestimmungen 1 2 Arten von Derivaten 3 2.1 Forward..................................... 3 2.2 Future......................................

Mehr

Statistische Verfahren für das Data Mining in einem Industrieprojekt

Statistische Verfahren für das Data Mining in einem Industrieprojekt Statistische Verfahren für das Data Mining in einem Industrieprojekt Thorsten Dickhaus Forschungszentrum Jülich GmbH Zentralinstitut für Angewandte Mathematik Telefon: 02461/61-4193 E-Mail: th.dickhaus@fz-juelich.de

Mehr

Intrahaushalts- Entscheidungsfindung in Europa

Intrahaushalts- Entscheidungsfindung in Europa Intrahaushalts- Entscheidungsfindung in Europa Workshop Feministischer ÖkonomInnen (FemÖk), 18.1.2013 Agenda Ausgangspunkte Black Box Haushalt Forschungsfragen Hypothesen Daten und Methode Exkurs: Cluster-Analyse

Mehr