Ergänzende und alternative Techniken zu Trusted Computing (TC-Erg./-A.) - Teil 1 -

Größe: px
Ab Seite anzeigen:

Download "Ergänzende und alternative Techniken zu Trusted Computing (TC-Erg./-A.) - Teil 1 -"

Transkript

1 Eine Studie im Auftrag des Bundesamtes für Sicherheit in der Informationstechnik (BSI) Ergänzende und alternative Techniken zu Trusted Computing (TC-Erg./-A.) - Teil 1 - Eine Analyse von Sicherheitstechniken als Ergänzung zu Trusted Computing Version 1.0 /

2 Zusammenfassung: Die vorliegende Studie Ergänzende und alternative Techniken zu Trusted Computing (TCErg./-A.) erläutert Sicherheitskonzepte, Sicherheitsmodelle und Vertrauensmodelle, die in informationsverarbeitenden Computersystemen verwendet werden. Diese werden anhand ihrer Unterschiede und ihrer Kombinationsmöglichkeiten miteinander verglichen und eingeordnet. Schwerpunkt dieser Studie ist das Konzept des Trusted Computings in bekannte Strukturen einzugliedern, das Verhältnis zwischen Trusted Computing und den klassischen Sicherheitstechniken, sowie mögliche und sinnvolle Kombinationen aus Trusted Computing und anderen Sicherheitstechniken zu untersuchen. Autoren: Thomas Quirin, Lothar Fritsch, Rani Husseiki Sirrix AG security technologies Lise-Meitner-Allee Bochum Deutschland Florian v. Samson Bundesamt für Sicherheit in der Informationstechnik (BSI) Postfach Bonn Deutschland Lizenzbedingungen: Diese Arbeit wird unter den Lizenzbedingungen der Creative Commons Lizenz Namensnennung - Keine Bearbeitung 3.0 (CCPL-by-ND 3.0) veröffentlicht. Im Detail bedeutet dies: Vervielfältigen: Sie dürfen das Werk vervielfältigen, verbreiten und öffentlich zugänglich machen. Namensnennung: Sie müssen den Namen des Autors/Rechteinhabers in der von ihm festgelegten Weise nennen (wodurch aber nicht der Eindruck entstehen darf, dass Sie oder die Nutzung des Werkes durch Sie entlohnt würden). Keine Bearbeitung: Dieses Werk darf nicht bearbeitet oder in anderer Weise verändert werden. Die komplette Lizenzvereinbarung befindet sich im Anhang

3 Inhaltsverzeichnis Einführung...6 Definitionen und Taxonomie Definition Konflikte Verbreitete Missverständnisse...11 Sicherheitskonzepte Mehrschichtige und multilaterale Sicherheitskonzepte Mehrschichtige Sicherheit - Multi Level Security (MLS) Multilaterale Sicherheit - Multilateral Security Regelbasiertebasierte und Benutzerbestimmbare Zugangskontrolle Sicherheitskonzepte in heutigen Betriebssystemen Mehrschichtige Sicherheit Regelbasierte Erzungene Zugangskontrolle - Mandatory Access Control Benutzerbestimmbare Zugriffskontrolle - Discretionary Access Control...16 Sicherheitsmodelle Zugangskontrolle, Informationsflusskontrolle und Type Enforcement Zugangskontrolle Informationsflusskontrolle Type Enforcement Grundlegende Sicherheitsmodelle Besitzerbasierte Sicherheitsrichtlinien Zugangskontrolllisten - Access Control Lists Vertraulichkeitsorientierte Modelle Zugangsmatrixmodell/Zugangskontrolllisten Gitterbasiertes Zugangskontrollmodell Dynamisches Zugangskontrollmodell (HRU) Einfache Sicherheitsplattformen Bell-LaPadula Modell Rollenbasierte Zugangskontrolle Chinese-Wall -Modell (Brewer-Nash) Integritätsorientierte Modelle Biba Modell Low-Watermark -Zugangskontrollmodell Clark-Wilson ( kommerzielle Integrität ) Sonstige Modelle British Medical Association -Sicherheitsmodell (BMA) Sicherheitsbereiche / Compartmented/Multi-Category Security (MCS) shype -Modell Sicherheitsmodelle in heutigen Betriebssystemen...42 Vertrauensmodelle Taxonomie von Vertrauensmodellen Vertrauen gegenüber Reputation

4 5.1.2 Vertrauensmodelle Objekte in einem Vertrauensmodell Subjekte in Vertrauensmodellen Vertrauen in verteilten Computersystemen Einführung von verteilten Vertrauensanforderungen Techniken für verteiltes Vertrauen Vertrauensbeziehungen Hierarchisches Vertrauensmodell Web of Trust Diskussion des Hierarchischen Vertrauens gegenüber Web of Trust Implementieren des Vertrauensmodells und des Vertrauensankers Zentrale vertrauenswürdige Dritte Vertrauenswürdige Dritte Vertrauensanker...57 Alternativen und Kombinationen Trusted Computing und seine Klassifizierung Die Trusted Computing Group (TCG) Trusted Computing Funktionen Vertrauenswürdige Computerarchitektur Betriebssysteme, die Trusted Computing unterstützen Kombination von Trusted Computing mit ähnlichen Sicherheitskonzepten Vertrauensanker Plattformintegrität mit Trusted Computing Verteiltes Vertrauen mit Trusted Computing Klassische Sicherheitsmodelle und Trusted Computing Herausforderungen Interoperabilität...72 Schlussfolgerung Entwicklungspfade von sicheren Computersystemen basierend auf Trusted Computing Klassische Sicherheitsmodelle Sicheres Anzeigeprogramm und sichere Ein-/Ausgabe Sicherer richtlinienbasierter Datenfluss Vertrauenswürdige Computersysteme Trusted Computing innerhalb eines Sicherheitskonzeptes Die Nutzung von Trusted Computing Funktionalitäten und Unterstützungen komplementärer oder alternativer Techniken...77 Literaturverzeichnis...80 Glossar...87 Anhang...96 Creative Commons Lizenz

5 Abbildungsverzeichnis Abbildung 2.1: Grundlegende Begriffe der IT-Sicherheit und ihre Beziehungen zueinander...9 Abbildung 4.1: Schalenmodell für Zugangskontrollbereiche auf Computersystemen...18 Abbildung 4.2: Schutz von Daten mittels Sticky Policies"...21 Abbildung 5.1: Direktes Vertrauen...46 Abbildung 5.2: Hierarchisches Vertrauen...47 Abbildung 5.3: Indirektes Vertrauen oder Web of Trust...48 Abbildung 7.1: Mögliche Entwicklungspfade des Trusted Computing...75 Abbildung 7.2: Trusted Computing, Alternativen und unterstützte Sicherheitstechniken...79 Tabellenverzeichnis Tabelle 3.1: Beispiele für Sicherheitsebenen: Sicherheitsüberprüfungsgesetz (SÜG), Tabelle 4.1: Die Implementierung von Sicherheitsmodellen nach [Wiki0001]

6 Kapitel 1 Einführung Die vorliegende Studie bietet eine Einführung in die Thematik von Sicherheitskonzepten, Sicherheitsmodellen und Trusted Computing. Die Zielgruppe sind Leser, die über grundlegende Kenntnisse der Informatik, aber nicht notwendigerweise über Kenntnisse im Bereich der IT-Sicherheit verfügen. Im Rahmen dieser Studie werden grundlegende Begriffe und Konzepte der Informationssicherheit, Zugangskontrolle und Sicherheitsziele erläutert. Weiterhin wird ein Überblick über Sicherheitsmodelle und ihre Vertrauensannahmen gegeben sowie Trusted Computing erläutert und in Beziehung mit Sicherheits- und Vertrauensmodellen gesetzt. Darüber hinaus werden Betriebssysteme angesprochen, die diese Sicherheitsmechanismen verwenden. Gleichzeitig werden Referenzen zu technischer und wissenschaftlicher Literatur gegeben, die die Inhalte der Studie abrunden. Die Bedeutung von sicheren Betriebssystemen hat als Basis für Anwendungsprogramme in den letzten Jahren stark zugenommen. Während immer komplexere Abläufe rund um die Informationsverarbeitung in private und öffentliche Umgebungen Einzug halten, wird der Informationsaustausch über das Internet abgewickelt. Damit sind diese Arbeitsabläufe einem Angriffspotential durch Schadprogramme (z. B. Viren, Würmer oder Trojaner) ausgesetzt. Als Konsequenz daraus ergibt sich ein erhöhter Bedarf, die Informationsflüsse zwischen miteinander vernetzten Plattformen zu sichern und zu kontrollieren. Um hier die Zugriffskontrolle auf eine einheitliche Basis zu stellen, sind in den letzten Jahrzehnten diverse Konzepte in Betriebssystemen implementiert worden, z. B. mehrschichtige Sicherheit (engl. Multi-Level Security, MLS), Compartmented Mode Security (CMS), Mandatory Access Control (MAC), Discretionary Access Control (DAC). Darüber hinaus wurden weitere Sicherheitsmodelle, wie z. B. Bell-LaPadula oder rollenbasierte Zugriffskontrolle (engl. Role-Based Access Control, RBAC) spezifiziert und auch implementiert. Derzeit werden in der Forschung weitere Sicherheitskonzepte vorgeschlagen und untersucht, wie z. B. multilaterale Sicherheit (Multilateral Security) und das shype-sicherheitsmodell. Gleichzeitig verändern Hardware-Erweiterungen, z. B. das Trusted Platform Module (TPM) der Trusted Computing Group (TCG), die Sichtweise auf das Thema Computersystemsicherheit. Diese Hardware-Erweiterungen haben einen erheblichen Einfluss auf die praktische Nutzbarkeit und Effektivität der genannten Sicherheitskonzepte. Viele der Entwicklungen sind aus dem Bereich der Sicherheitsmodelle und des Trusted Computing als FLOSS-Programme ( Free, Libre, Open Source Software ) verfügbar. Allerdings werden sie hauptsächlich in Spezialprogrammen eingesetzt. Daher werden in dieser Studie die folgenden Themen näher behandelt: 1. Analyse von bestehenden Sicherheitskonzepten sowie Sicherheits- und Vertrauensmodellen in Bezug auf ihre Unterschiede und ihre Kombinierbarkeit in der Praxis 2. Untersuchung möglicher Anwendungsprogrammfelder der Sicherheitskonzepte, Sicherheits- und Vertrauensmodelle sowie der entsprechenden Sicherheitsebenen hinsichtlich Effektivität in der Nutzung und in Kombinationen untereinander. 6

7 Einführung 3. Bewertung der genannten Sicherheitskonzepte, Sicherheits- und Vertrauensmodelle in freien Implementierungen1, wobei auf die praktische Anwendbarkeit und Effektivität des jeweiligen Programms geachtet wird. 1 Frei bezieht sich hier auf eine FLOSS-Lizenzierung, wie von der OpenSource-Initiative definiert. 7

8 Kapitel 2 Definitionen und Taxonomie In diesem Kapitel werden die Terminologien und Taxonomien aus dem Bereich der IT-Sicherheit2 erläutert, die im Zusammenhang mit dieser Studie verwendet werden. Die Bereiche der Sicherheitskonzepte, Sicherheitsmodelle und Vertrauensmodelle können für Verwirrung sorgen. In der Einleitung des aktuellen Kapitels werden diese drei Bereiche und andere relevante Fachbegriffe definiert, klassifiziert und ihre Unterschiede dargestellt. Anschließend werden weitere Details erläutert. Die Sicherheit von Daten, die auf Computersystemen vorgehalten werden, liegt im Fokus dieser Studie. Der Einfachheit halber betrachten wir in dieser Studie nur die drei Sicherheitseigenschaften Vertraulichkeit, Integrität und Authentizität3. Die weitere Sicherheitseigenschaft Verfügbarkeit [Rann1994] basiert auf einem anderen Ansatz und ist daher nicht im Fokus dieser Studie. 2.1 Definition Hier werden wichtige Begriffe und ihre Beziehung zueinander definiert und, falls erforderlich, mit Referenzen untermauert (siehe auch Abbildung 2.1). Die Begriffe werden alphabetisch eingeführt, wobei Querverweise ggf. auf andere Stellen verweisen. Die hier definierten Begriffe werden fett dargestellt. Als Grundlage der IT-Sicherheit können die Definitionen von Sicherheitskonzept, Sicherheitsmodell und Vertrauensmodell angesehen werden. Darüber hinaus sollte auch das Kapitel über Konflikte und Missverständnisse der IT-Sicherheit nicht außer Acht bleiben. In der IT-Sicherheit werden allgemein Datenobjekte betrachtet, die von Subjekten auf Grundlage von Sicherheitszielen geschützt werden sollen. Eine grundlegende Schutzmethode nennt man ein Sicherheitskonzept. Innerhalb des Konzepts implementieren ein oder mehrere bestimmte Sicherheitsmodelle die Mechanismen, die IT-Sicherheit durchsetzen. Aktion: siehe Operation. Integrität: Daten bleiben in ihrem ursprünglichen Zustand. Sie können ohne passende Autorisation nicht modifiziert oder gelöscht werden. Weitere Einzelheiten hierzu finden sich in [PfKo2001]. Objekt: Als Objekt wird eine Menge von Daten (etwa eine Datei, ein Datenbankeintrag oder ein Webobjekt) bezeichnet, die in einem Computersystem gespeichert wird. Die Handhabung von Objekten ist der Fokus von Sicherheitskonzepten und Sicherheitsmodellen. 2 Sicherheit in der Informationstechnik 3 Wird auch als Nachvollziehbarkeit oder Nicht-Abstreitbarkeit mit leicht unterschiedlicher Interpretation bezeichnet. 8

9 Definitionen und Taxonomie Abbildung 2.1: Grundlegende Begriffe der IT-Sicherheit und ihre Beziehungen zueinander Operationen: Der Begriff Operationen4 beinhaltet alle Operationen auf einem Objekt, die für die Sicherheit des Objektes relevant sind. Beispielsweise sind die Operationen wie lesen, schreiben, löschen, überschreiben, kopieren, verschieben, versenden und drucken (engl. read, write, delete, overwrite, copy, move, mail, print ). Richtlinie: siehe Sicherheitsrichtlinie. Sicherheitsanker: Ein Sicherheitsanker ist ein Mechanismus in einer Implementierung eines Sicherheitsmodells, der einen sicheren und vertrauenswürdigen Startpunkt für Vertrauensbeziehungen bietet. Dies kann beispielsweise ein manipulationssicherer Chip sein, der eine Startsoftware für einen Computer enthält. Sicherheitskonzept: Ein Ansatz ist, ein Computersystem derart zu strukturieren, dass die Sicherheit von Daten kontrolliert werden kann. Sicherheitsziel: Eine Spezifikation der Sicherheitseigenschaften, die ein Computer oder eine Datenbank besitzen sollte. Das ist ein wichtiger Teil eines Sicherheitsmodells. Typische Sicherheitsziele sind Vertraulichkeit, Integrität und Verfügbarkeit von Daten. Bei Operationen kann noch das Sicherheitsziel der Verbindlichkeit hinzugefügt werden. Nach der Spezifikation der Sicherheitsziele folgt eine genauere Analyse unter Beachtung der Nutzungsfälle. 4 Im Zusammenhang mit dieser Studie 9

10 Definitionen und Taxonomie Sicherheitsmodell: Ein detailliertes Modell, wie Sicherheitsrichtlinien definiert, implementiert und verwaltet werden können. Ein Sicherheitsmodell schließt Subjekte, Objekte, Operationen und Sicherheitsziele mit ein. Sicherheitsrichtlinie (engl. Security Policy ): Eine Menge an Regeln, die spezifiziert, welche Subjekte sicherheitsrelevante Operationen und Objekte beeinflussen oder ausführen dürfen. Subjekt: Eine Person (z. B. der Benutzer) oder ein Programm, das im Auftrag der Person arbeitet. Ein Subjekt arbeitet auf durch Sicherheitsrichtlinien geschützten Objekten. Subjekte sollten nicht mit Datensubjekten, wie sie in [PfKo2001] verwendet werden, verwechselt werden. Trusted Computing: Eine Spezifikation zu Plattformen und Sicherheitsprotokollen durch die Trusted Computing Group [TCG0001]. Es dient der Bereitstellung von hardwaregesicherten Komponenten und einer Menge von Algorithmen für Computersysteme, die einen Sicherheitsanker für den sicheren Systemstart und vertrauenswürdige Informationsverarbeitung aufbauen. Unbeobachtbarkeit: Hierbei handelt es sich um die Anforderung, dass nicht erkennbar ist, ob eine Kommunikation stattfindet oder bestimmte Daten vorhanden sind. Vertrauensmodell: Ein Vertrauensmodell ist eine Spezifikation der Vertrauenswürdigkeit technischer Komponenten in einem Sicherheitsmodell. Es dient der Herausstellung wichtiger Komponenten, die nicht versagen dürfen, sowie dazu, Hinweise mit Relevanz für die allgemeine Sicherheit zu geben. Beispielsweise muss bei einem passwortbasierten Computersystem das Programm, welches das Passwort mit der Datenbank abgleicht, vertrauenswürdig sein. Wenn es versagt, ist die Sicherheit eines Computersystems kompromittiert. Zugangskontrolle: Zugangskontrolle ist eine Technik zur Verwaltung der Zugangsrechte von Subjekten zu Daten oder Systemfunktionen. 2.2 Konflikte Viele der oben eingeführten Begriffe sind in der Praxis mehrdeutig. Die Definitionen wurden daher mit Bezug auf den Gegenstand dieser Studie ausgewählt. In Bezug auf Sicherheitsterminologie beziehen sich die Begriffe auf die Verwendung innerhalb des Bereichs der Informationssicherheit (engl. Information Security ). Es gibt ein anderes Sicherheitsfeld, das ebenfalls mit Sicherheit bezeichnet wird (engl. Safety ) und sich auf Zuverlässigkeit, Schutz vor Fehlern, Systemstabilität und Ähnliches spezialisiert. Dabei können gleiche Begriffe oder ähnliche Bezeichnungen mit anderer Bedeutung verwendet werden. Darüber hinaus können im Bereich Datenschutz und Privatsphäre im Internet (engl. OnlinePrivacy ) einige Begriffe anders verwendet werden. Falls diesbezüglich Zweifel auftreten, können in [PfKo2001] bestimmte Fachbegriffe aus dem Bereich des Datenschutzes nachgelesen werden. Eine sorgsame Prüfung ist erforderlich, falls Begriffe aus den Bereichen Sicherheitskonzept, Sicherheitsmodell, Vertrauensmodell und ihre Implementierungen in Betriebssystemen und Anwendungsprogrammen verwendet werden. Einige Quellen verwechseln diese Begriffe miteinander. Deshalb ist große Vorsicht geboten, wenn ein Autor Begriffe wie beispielsweise Angriffsmodelle und Bedrohungsmodelle in Artikeln verwendet. 10

11 Definitionen und Taxonomie 2.3 Verbreitete Missverständnisse Dieser Teil der Studie beschreibt und löst allgemeine Missverständnisse auf, die in der öffentlichen Debatte um Informationssicherheit anzutreffen sind. Einige dieser Missverständnisse haben großen Einfluss auf die Wahrnehmung der IT-Sicherheit und werden im Nachfolgenden zur Klassifizierung und Aufklärung aufgeführt. Digitales Rechtemanagement (DRM) und Trusted Computing: Ein modernes Konzept zur Computersicherheit ist Trusted Computing [Pear2002]. Trusted Computing bezieht sich auf die Spezifikation der Trusted Computing Group über die Unterstützung der Hardware für sichere Computersysteme. Dieser Ansatz verwendet einen Sicherheitsbaustein innerhalb der Rechner, welcher dem Betriebssystem die Prüfung ermöglicht, ob geladene Software verändert wurde. Es gab erhebliche Diskussionen über Trusted Computing, als Microsoft und andere Hersteller weitere mögliche Nutzungsfälle des Trusted Computing im Bereich der Medienkontrolle durch digitales Rechtemanagement diskutierten. Dabei sollte mittels Trusted Computing erzwungen werden, dass eine bestimmte Mediaplayersoftware verwendet wird, die bestimmte Nutzungsrechte durchsetzt. Dieses Konzept hat für eine große Zahl negativer Schlagzeilen gesorgt. Tenor war dabei die Befürchtung, dass nicht-konforme Computer vom Internet ausgeschlossen werden und dass Firmen die Kontrolle über Privatcomputer erlangen können. Diese negativen Debatten haften dem Begriff Trusted Computing teilweise noch immer an. Trusted Computing kann das sichere und korrekte Laden jeglicher Sicherheitssoftware garantieren. Welche Restriktionen damit genau verbunden sind, hängt vom verwendeten Betriebssystem sowie dem Administrator ab. Abschnitt 6.1 behandelt dieses Thema näher. Vertrauen ist ein häufig verwendeter Begriff im Bereich der IT-Sicherheit. Unglücklicherweise wird Vertrauen in Menschen oft mit Vertrauen in Sicherheitsmodelle oder Sicherheitssysteme verwechselt. In der IT-Sicherheit wird Vertrauen üblicherweise im technischen Sinne als Vertrauen in das spezifikationskonforme Funktionieren von IT verwendet. Beispielsweise das Vertrauen gegenüber einem Antivirenprogrammhersteller, der automatische Aktualisierungen der neuen Virus-Signaturen für ein Antivirenprogramm bereitstellt und sicherstellen muss, dass die zur Aktualisierung nötigen Daten nicht verfälscht wurden. Man geht normalerweise davon aus, dass Hersteller von Antivirenprogrammen ein großes Interesse daran haben, im Markt zu bleiben und daher ihre Software unter Sicherheitsaspekten entwerfen und entwickeln. Daraus leitet sich das folgende Vertrauensmodell für Anitvirenprogramme ab: Der Aktualisierungsdienst des Herstellers ist vertrauenswürdig, da der Hersteller in der freien Wirtschaft überleben will. Vertrauen in Menschen ist eine problematische Sache. Normalerweise muss man Menschen immer vertrauen. Sie können Informationen beabsichtigt oder unbeabsichtigt weiter geben, Bildschirme fotografieren, gedruckte Dokumente stehlen oder Daten in Computersystemen verändern. Daher besteht ein direkter Zusammenhang zwischen Vertrauensmodell und der Vertrauenswürdigkeit der technischen Infrastruktur. Mehr über Vertrauensmodelle findet sich in Kapitel 5. Zu beachten ist, dass Vertrauen manchmal mit Reputation Management verwechselt wird, welches sich auf Anwender einer Internet-Plattform fokussiert (siehe auch Kapitel 5.1). 11

12 Definitionen und Taxonomie Um Gene Spaffort zu zitieren: The only truly secure system is one that is powered off, cast in a block of concrete and sealed in a lead-lined room with armed guards. ( Das einzig wirklich sichere Computersystem ist abgeschaltet, eingeschlossen in Beton und steht von bewaffneten Wachen geschützt in einem mit Blei ausgegossenen Raum ) [Spaf1989]. Tatsächlich ist Sicherheit relativ. Forscher und Hollywood betrachten unknackbare Programme aus unterschiedlichen Blickwinkeln. In der Praxis lassen sich im Allgemeinen die meisten Sicherheitsmaßnahmen mit entsprechend großen finanziellen Mitteln und angemessener Zeit umgehen. Trotzdem hängt es stark von den individuellen Sicherheitsbedürfnissen ab, ob ein absolut unknackbares Sicherheitssystem gebraucht wird oder nicht. In der Sicherheitspraxis ist die Frage oft folgende: Wie lange sollen die Daten sicher sein?, was die Lage eher aus dem Blickwinkel der Versicherung betrachtet. Sicherheitsmaßnahmen sind dazu da, um den durch einen Angriff auf ein IT-System entstandenen Schaden zu minimieren - oder um den Angriff gegen ein Computersystem teurer zu machen, als den möglichen Nutzen den der Angreifer daraus ziehen kann. Beispielsweise wird niemand auf die Idee kommen, einen militärischen Sicherheitszaun um ein Erdbeerfeld zu errichten. Der Grund hierfür ist, dass auch ohne Sicherheitszaun der Aufwand Erdbeeren zu stehlen höher ist, als Erdbeeren für einen geringen Betrag legal zu erwerben. Daher ist die wichtige Erkenntnis folgende: Man muss den Wert der Information und das Risiko des unerlaubten Zuganges dazu kennen. Danach kann man erst entscheiden, welche Ressourcen aufgewendet werden, um diese Daten angemessen zu schützen. 12

13 Kapitel 3 Sicherheitskonzepte Dieses Kapitel liefert einen Überblick über bisher entwickelte generische Sicherheitskonzepte, die hier von Bedeutung sind. Es stellt Sicherheitskonzepte, ihre Annahmen und Nutzungsszenarien sowie relevante Implementierungen in Betriebssystemen vor. Darüber hinaus wird dargestellt, wie sich die IT-Landschaft weg von zentralisierten, hoch gesicherten Servern hin zu verteilten Computersystemen und fließenden Informationen entwickelt und wie sich dies auf die Sicherheitskonzepte auswirkt. 3.1 Mehrschichtige und multilaterale Sicherheitskonzepte Dieser Abschnitt präsentiert und vergleicht mehrschichtige und multilaterale Sicherheitskonzepte. Mehrschichtige Sicherheitskonzepte stammen ursprünglich aus militärischen und anderen hierarchisch aufgestellten Organisationen, in denen Vertraulichkeit oder Sicherheitsebenen für Sicherheitsentscheidungen verwendet werden. Multilaterale Sicherheitskonzepte definieren Sicherheitsrichtlinien gemäß einer Menge von Regeln. Sie können Sicherheitsregeln auf einer Ebene zwischen Individuen oder Rollen ausdrücken. Beide Konzepte werden nachfolgend eingeführt, einschließlich der wichtigsten Sicherheitsmodelle, welche die beiden Konzepte repräsentieren Mehrschichtige Sicherheit - Multi Level Security (MLS) Mehrschichtige Sicherheit implementiert eines von zwei Sicherheitszielen: Entweder Vertraulichkeit oder Integrität. Der Name ist abgeleitet von den vielen Schichten aus Privilegien, die von Subjekten für den Datenzugriff genutzt werden. MLS ist ein etabliertes und gut untersuchtes Sicherheitskonzept, das für öffentliche und militärische Verwaltung und ihre Bedürfnisse hinsichtlich Vertraulichkeit entwickelt wurde. Die Grundannahme ist, dass es Sicherheitsebenen von öffentlich ( Public ) bis streng geheim ( Top Secret ) gibt, die Dokumenten und Datenmengen zugeordnet werden. Der Zugang zu Dokumenten wird nur Benutzern, Programmen oder Computersystemen gewährt, die mindestens den gleichen (oder einen höheren) Sicherheitsstatus haben, als das Objekt, auf das zugegriffen wird. Solche Klassifizierungen gibt es in vielen Bereichen der Verwaltung und Regierung. Ein Beispiel wird in Tabelle 3.1 gezeigt. MLS zielt auf die Implementierung von Sicherheitsebenen in einem Computersystem in folgender Weise ab: Wahrung der Vertraulichkeit: Keine Information einer höheren Ebene kann aus einer tieferen Ebene eingesehen werden. Wahrung der Integrität: Kein Subjekt einer niedrigeren Ebene kann Daten mit einer höheren Klassifizierung schreiben. Diese beiden Eingenschaften lassen sich zusammenfassen zu: Kein Subjekt einer niedrigeren Ebene kann auf Daten mit einer höheren Klassifizierung zugreifen. 13

14 Sicherheitskonzepte STRENG GEHEIM GEHEIM VS-VERTRAULICH VS-NUR FÜR DEN DIENSTGEBRAUCH (Öffentlich) Tabelle 3.1: Beispiele für Sicherheitsebenen: Sicherheitsüberprüfungsgesetz (SÜG), 4 MLS wird in mehreren Sicherheitsmodellen genutzt und spezifiziert. Zu den wichtigsten Repräsentanten gehören die Modelle nach Bell-LaPadula [BeLa1973], Biba [Biba1977] und Lomac [Fras2000]. Sie werden im Kapitel zu Sicherheitsmodellen (Kapitel 4) näher betrachtet Multilaterale Sicherheit - Multilateral Security Multilaterale Sicherheit befasst sich im Gegensatz zu mehrschichtiger Sicherheit nicht mit der Reihenfolge der Sicherheitsebenen. Multilaterale Sicherheit befasst sich mit der Implementierung der Sicherheit zwischen unterschiedlichen Akteuren (Benutzer, Computersysteme und Prozesse), die im Vergleich zur mehrschichtigen Sicherheit in der gleichen Sicherheitsebene liegen können. Dazu wird die Beziehung zwischen unterschiedlichen Computersystemen untereinander in Bezug auf deren Sicherheitskriterien modelliert. Die Ziele der multilateralen Sicherheit können sehr komplex und teilweise gegensätzlich sein. Wichtige Modelle der multilateralen Sicherheit sind Clark-Wilson [ClWi1987], Compartment / Lattice [Sand1993], Chinese-Wall [BrNa1989] und BMA [Ande1996]. Diese werden im Kapitel über Sicherheitsmodelle (Kapitel 4) besprochen. 3.2 Regelbasiertebasierte und Benutzerbestimmbare Zugangskontrolle Dieser Abschnitt gibt einen Überblick über die grundlegenden Konzepte der Zugangskontrolle. Er fokussiert auf die traditionelle Unterscheidung zwischen der regelbasierten Zugangskontrolle (genannt Mandatory Access Control ) und der benutzerbestimmbaren Zugangskontrolle ( Discretionary Access Control ). Historisch bedingt haben die zwei Konzepte einen unterschiedlichen Sicherheitsansatz. Heutzutage betrachten die meisten Zugangskontrollsysteme Regeln sowie die persönliche Identität eines Subjektes. Regelbasierte Zugangskontrolle ( Mandatory Access Control, MAC) ist eine Art der Zugangskontrolle, die durch die Trusted Computer System Evaluation Criteria [TCSEC1985] als Mittel zur Einschränkung des Zugangs zu Objekten, basierend auf der Klassifizierung der in ihnen enthaltenen Informationen (was durch eine Kennzeichnung dargestellt wird) und der formalen Autorisierung, d. h. Freigabe von Subjekten zum Zugriff auf Informationen dieser Klassifizierung definiert wurde. 14

15 Sicherheitskonzepte Mandatory Access Control definiert Zugangskontrollrichtlinien für Objekte, ausgehend von dem Sicherheitsstatus der Objekte. Der Zugang wird gewährt, falls die Zugangsberechtigung der Subjekte mit den Maßgaben, mit denen die Objekte gekennzeichnet sind, übereinstimmt. Benutzerbestimmbare Zugangskontrolle ( Discretionary Access Control, DAC) ist auch durch die Trusted Computer System Evaluation Criteria [TCSEC1985] definiert als Mittel zur Einschränkung des Zugangs zu Objekten, basierend auf der Identität von Subjekten und/oder Gruppen, zu denen sie gehören. Die Kontrollen sind frei in dem Sinne, dass ein Subjekt mit bestimmten Zugangsrechten die Fähigkeit besitzt, diese Zugangsrechte (ggf. indirekt) an jedes andere Subjekt weiterzugeben (sofern nicht eingeschränkt durch Mandatory Access Control ). Discretionary Access Control wird üblicherweise als Gegensatz zu Mandatory Access Control angesehen, welche manchmal auch als Non-Discretionary Access Control bezeichnet wird. 3.3 Sicherheitskonzepte in heutigen Betriebssystemen Dieser Abschnitt behandelt allgemeine Architekturen (z. B. FLASK oder shype) für sichere Betriebssysteme. Er bietet eine Übersicht, die die Verwendung von Sicherheitskonzepten in heutigen Betriebssystemen aufzeigt, einschließlich SELinux und Trusted Solaris. Dabei werden SELinux und Linux verglichen, sowie andere Betriebssysteme besprochen. Die resultierende Liste kann als eine Kurzreferenz zur Sicherheitstechnik in der Praxis dienen Mehrschichtige Sicherheit Frei erhältliche Implementierungen von Betriebssystemen mit begrenzter MLSAnwendbarkeit beinhalten SE-( Security-Enhanced )-Linux (Linux mit erweiterten Sicherheitsfunktionen) und Trusted BSD. Sun Microsystems bietet Trusted Solaris an, eine kommerzielle Version des Solaris Betriebssystems, das Funktionen zur Sicherheitskennzeichnung von Daten enthält. Es ist allerdings nicht für MLS zugelassen. Frühere Versionen wurden mit TCSEC B1 bewertet (die für MLS niedrigste erlaubte Ebene), während neuere Versionen unter Common Criteria nach EAL4+, Controlled Access Protection Profile (CAPP) und Labeled Security Protection Profile (LSPP) evaluiert wurden. BAE-Systems bietet XTS-400, ein kommerzielles MLS-unterstützendes Betriebssystem, welches vom Hersteller als hochsicher bezeichnet wird. Frühere Versionen waren MLSfähig, was durch ihre Evaluierung gemäß TCSEC B3 bewiesen wurde, jedoch wurden neuere Versionen unter den Common Criteria EAL5+ evaluiert. Die genutzten Schutzprofile sind Controlled Access Protection Profile (CAPP) und Labeled Security Protection Profile (LSPP) beide auf der Ebene EAL3. IBM z/os Version 1 Release 5 und spätere Versionen bieten eine Unterstützung mehrschichtiger Sicherheit in z/os. Vorgesehen für die Verwendung zusammen mit dem Datenbanksystem DB2 Version 8, bietet z/os eine Lösung für mehrschichtige Sicherheit auf System Z Mainframes. Dazu wird die Möglichkeit geboten, in DB2 zeilenweise Sicherheitskennzeichnungen vorzunehmen. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) vergab an IBM im März 2006 das Zertifikat über EAL4+ für z/os 1.7 mit der RACF-Zusatzfunktionalität. 15

16 Sicherheitskonzepte Regelbasierte Erzungene Zugangskontrolle - Mandatory Access Control SELinux erweitert den Linux Betriebssystemkern um eine Architektur für Mandatory Access Control. Diese Funktionalität wurde im August 2003 in die Hauptlinie des Betriebssystemkerns eingefügt. Die RedHat Enterprise Linux Version 4 (und spätere Versionen) haben einen SELinux-fähigen Betriebssystemkern. SELinux benutzt die Linux Sicherheitsmodule ( Linux Security Modules, LSM) des Linux-Betriebssystemkerns 2.6. Die SUSE GmbH entwickelte eine MAC-Implementierung mit dem Namen AppArmor. Trusted Solaris von Sun verwendet einen verbindlichen und vom Betriebssystem durchgesetzten Zugangskontrollmechanismus, bei dem Freigaben und Bezeichnungen zur Durchsetzung einer Sicherheitsrichtlinie verwendet werden Benutzerbestimmbare Zugriffskontrolle - Discretionary Access Control Benutzerbestimmbare Zugriffskontrolle (engl. Discretionary Access Control, DAC) wurde in vielen Betriebssystemen implementiert. Hier sind insbesondere die Unix-artigen Betriebssysteme sowie diejenigen der WindowsNT-Familie zu nennen. 16

17 Kapitel 4 Sicherheitsmodelle Dieses Kapitel behandelt Sicherheitsmodelle, wobei der erste Abschnitt auf grundlegende Ansätze zur Datensicherheit eingeht und die folgenden Abschnitte spezifische Sicherheitsmodelle der wissenschaftlichen Literatur und Praxis zusammenfassen. Am Ende dieses Kapitels werden die Implementierungen der Sicherheitsmodelle in relevanten Betriebssystemen betrachtet. 4.1 Zugangskontrolle, Informationsflusskontrolle und Type Enforcement In diesem Abschnitt werden die grundlegenden Ansätze der Zugangskontrolle und ihre Unterschiede vorgestellt. Die drei Ansätze zur Zugangskontrolle (Schutz der Zugangsrechte von Daten), Informationsflusskontrolle (Schutz, wohin Daten bewegt werden können) und Type Enforcement (bei dem Objekte zu Typen gehören, die nur von Subjekten einer bestimmten Gruppe manipuliert werden können, die Rechte zu diesem Typ von Daten haben) werden besprochen und zusammengefasst. Darüber hinaus werden etablierte Modelle zu diesen drei Ansätzen vorgestellt und ihre Eigenschaften näher erläutert Zugangskontrolle Die Zugangskontrolle ist eine Technik, um Zugangsrechte zu Daten oder Systemfunktionen zu verwalten. Dies impliziert das Erstellen und Pflegen der Rechte von Subjekten, um auf Daten oder Systemressourcen zuzugreifen. Aus technischer Sicht kann die Zugangskontrolle das Recht eines Prozesses sein, um Zugang zu Daten zu erhalten, Programme zu starten oder Dienste auf anderen Computersystemen, Webseiten oder Datenbanken eines Computernetzes zu benutzen. Zugangskontrolle ist eine der ältesten Methoden der Computersicherheit. Üblicherweise wird davon ausgegangen, dass der Computer physikalisch vor dem Zugang durch nicht autorisierte Personen geschützt ist. Hieraus entstand eine unüberschaubare Anzahl an Zugangsberechtigungstechniken, die in allen Ebenen der Computersysteme eingesetzt werden. Zum besseren Verständnis wird nachfolgend ein Schalenmodell von Schutzbereichen genutzt, das ein IT-System von außen nach innen durchzieht. Ein Beispiel dafür ist in Abbildung 4.1 dargestellt. Im äußersten Bereich werden Zugangsmechanismen wie Passwörter, Single Sign On (Einmalanmeldung), Zugang durch Smartcards, Firewalls, sichere Bildschirme und weitere Maßnahmen als Schnittstellen zum Computer gezeigt. Je weiter man in tiefere Bereiche kommt, umso detaillierter und systemnaher wird die Zugangskontrolle. 17

18 Sicherheitsmodelle Abbildung 4.1: Schalenmodell für Zugangskontrollbereiche auf Computersystemen Zu beachten ist, dass einige der geschützten Ressourcen in unterschiedlichen Bereichen auf unterschiedliche Art und Weise gehandhabt werden: beispielsweise kann Speicher außerhalb des Betriebssystemkerns auf Basis von Nutzern oder Programmen verwaltet werden. Von der Hardwareseite her betrachtet, ist Speicherverwaltung die Durchsetzung einer geeigneten elektronischen Zugangskontrolle für den Datenfluss zwischen Chips. Zusätzlich können sich einige der Funktionen zu anderen Ebenen bewegen, sofern das Computersystem Teil eines verteilten Computersystems in einem Netz ist. Die meisten Aktivitäten der Zugangskontrolle haben mit Maßnahmen zu tun, die Zugang zu Subjekten gewähren. Mechanismen zur Zugangskontrolle beinhalten die folgenden drei Funktionalitäten: 1. Authentisierung: Unter Authentisierung versteht man eine Maßnahme zur Identifikation von Subjekten und Sicherung dieser Information. Dies reicht von einfachen Geheimnissen (etwa Passwörter oder Kenntnis einer IP-Adresse) bis hin zu beispielsweise biometrischen Überprüfungen. 2. Autorisieren: Der Zugang zu Daten oder Ressourcen wird durch Autorisieren geregelt. Dabei wird z. B. ein temporäres Passwort, ein kryptographischer Schlüssel oder eine andere Berechtigungsbeglaubigung genutzt, um den Zugang zu erhalten. 18

19 Sicherheitsmodelle 3. Audit: Die Erzeugung von Protokolldateien oder anderen Protokollen für Prüfungen wird als Auditzweck bezeichnet (Beispiele: Verantwortlichkeitsprüfung, Sicherheitsaudits oder Erkennung von Eindringlingen). Einige Sicherheitsmodelle, die in diesem Kapitel vorgestellt werden, beruhen hauptsächlich auf Zugangskontrolle, beispielsweise Verwaltung der Zugangsrechte. Sie werden in Kapitel 4.3 erläutert Informationsflusskontrolle Im Gegensatz zur Zugangskontrolle fokussieren einige Sicherheitsmodelle den Informationsfluss in oder aus einem Computersystem oder einem bestimmten Zustand. Dies ist ein wesentlicher Unterschied zur Zugangskontrolle, bei der die Formulierung von Zugangssicherheitsrichtlinien im Vordergrund steht. Bei der Informationsflusskontrolle werden die Sicherheitsrichtlinien dahingehend formuliert, dass die genauen sicherheitskritischen Aktionen definiert werden, die für die Ein- oder Ausgabe von Daten relevant sind. Sicherheitsrichtlinien regeln insbesondere die mögliche Übermittlung von Daten zwischen Computersystemen oder unterschiedlichen Sicherheitsbereichen. Die nachfolgend vorgestellten Modelle unterscheiden sich allerdings in ihren Ansätzen der Flusskontrolle. In der Informationsflusskontrolle wird oftmals davon ausgegangen, dass mehrere Zonen mit Sicherheitsstufen assoziiert werden können. Oftmals wird dabei auf eine Kontrolle in den Datenbewegungen von einer Zone in die andere abgezielt. Eine Netzfirewall ist ein Beispiel einer Technik zur Informationsflusskontrolle, die Sicherheitsregeln bei der Bewegung von Daten in einem Netz durchsetzt, etwa der öffentlichen Zone zur internen Zone. Ein weiteres Beispiel ist ein system, das Kennzeichnungen zur Vertraulichkeit von Daten auswertet, bevor die s weitergeleitet werden. Das Rushby-Modell Eines der ersten Informationsflussmodelle ist das von John Rushby [Rush1992], das die folgende Sicherheitsrichtlinien unterstützt: 1. Störfreiheit ( Noninterference ): ist ein formal nachweisbarer Zustand, in dem das Beobachten von Aktivitäten von einer Zone in eine andere nicht möglich ist. Ist dieser Zustand gegeben, sind keine versteckten Kanäle möglich. Störfreiheit wird als Relation von Gruppen, Benutzern und Befehlen dargestellt. Benutzer einer Gruppe G stören nicht die Benutzer der Gruppe G, wenn Befehle der Mitglieder von G nicht den Zustand, den G sieht, verändern. 2. Transitivität ( Transitivity ): bezieht sich auf den Informationsfluss zwischen den Objekten, A, B und C. Wenn sowohl zwischen A und B als auch zwischen B und C Informationen fließen können und daraus folgt, dass auch Informationen zwischen A und C fließen, ist Transitivität gegeben. 3. Kanalsteuerung ( Channel-Control ): ist die Verwendung einer Menge von Befehlen, die als Kanal bezeichnet wird, um Informationen zwischen störfreien Gruppen auszutauschen (Kommunikation). Das Rushby-Modell ist für Betriebssysteme oder Programmumgebungen wichtig, die auf virtuellen Maschinen basieren. 19

20 Sicherheitsmodelle Digitales Rechtemanagement Informationsflusskontrolle erlangte durch die Verfügbarkeit großer Bandbreiten bei Internetverbindungen großes Interesse. Insbesondere entwickelte die Medienindustrie ein starkes Interesse an dem Aufbau einer Kontrolle über die Verwendung von digitalen Medien, was an dem Modell des Digital Rights Management (digitales Rechtemanagement, DRM) endete. Hierbei ist eine technologische Basis gemeint, die die Verteilung, medialer Inhalte (z. B. Audio, Videos, Texte), sowie deren Abspieleinrichtungen (z. B. DVD-Spieler, PC, Handy und MP3-Spieler) einschließt, um die Sicherheitsrichtlinie des Herstellers und die Verbraucherlizenz bei der Nutzung der digitaler Inhalte durchzusetzen. Insbesondere ermöglicht DRM technisch die Durchsetzung eines Kopierschutzes und von Pay-per-View -Sicherheitsrichtlinien ( Bezahlfernsehen ). DRM verlangt eine Anzahl an anspruchsvollen kryptographischen Hilfsmitteln. Es baut normalerweise auf Hardware mit Schutz gegen Manipulationen auf. Genutzt werden Protokolle, die Wasserzeichen, Fingerabdruck-Techniken, Identitätsmanagement und Verschlüsselung mit Schlüsselverwaltung verwenden. DRM beschwor eine öffentliche Debatte über faire Verwendung, Informationskontrolle und Nutzungsrechte (engl. Copyright ) herauf. Hierbei ging es um Befürchtungen in Richtung einer totalen Kontrolle der Rechteinhaber über Privatrechner und Medienkonsum. In der Praxis wurden jedoch viele DRM-Verfahren gebrochen. Ein Kopierschutz auf CDs oder ähnlichen Medien hält typischerweise nicht lange. So werden DVDs mit PCs gelesen und anschließend digital verbreitet. Der erfolgreichste kommerzielle Online-Vertrieb für digitale Musik ist Apples itunes. Der Kopierschutz der dort erworbenen Lieder lässt sich jedoch mit kostenlos erhältlicher Software aus dem Internet entfernen. Die Entwicklung von sicheren DRM-Plattformen in allen Bereichen führt zu großen Kosten in der Herstellungskette der Medien, wie Lewis in [Lewi2003] bemerkte. Sticky Policies (anhaftende Sicherheitsrichtlinien) Ein zeitgenössischer Ansatz zur Informationsflusskontrolle ist das Modell der anhaftenden Sicherheitsrichtlinien (engl. Sticky Policies ) [CPB2003]. Die grundlegende Idee dabei ist, dass eine Sicherheitsrichtlinie an das passende Datenobjekt angeheftet wird. Solange das Datenobjekt dabei auf Rechnern mit sicherer Hardware, sicheren Betriebssystemen und Anwendungsprogrammen genutzt wird, kann das Datenobjekt nur gemäß der angehefteten Sicherheitsrichtlinie verwendet werden. Um ein intaktes Betriebssystem und die korrekte Anwendungssoftware zu garantieren, vertraut das Sticky Policy -Paradigma auf Trusted Computing [TCG0001] als eine sichere Hardwareplattform. Um Sicherheit zu erlangen, müssen Sticky Policies bei jedem Schritt zusammen mit den Daten verarbeitet werden, wie in Abbildung 4.2 dargestellt. Sticky Policies stellen einige Anforderungen. Um die Sicherheitsrichtlinie auf eine Art und Weise an den Daten zu befestigen, dass sie nicht mehr entfernt werden kann, sind fortschrittliche kryptographische Techniken erforderlich. Die komplette Infrastruktur muss auf Trusted Computing basieren. Wenn ein Datenbesitzer jemals eine Sicherheitsrichtlinie ändern will, erfordert es einen nicht unerheblichen Aufwand, um das Objekt zu aktualisieren. Das zugrunde liegende kryptographische Verfahren weist eine komplizierte Schlüsselverwaltung auf. 20

21 Sicherheitsmodelle Type Enforcement Type Enforcement (TE) ist eine Sicherheitsmethode, die Systemressourcen und Datenobjekte in Metagruppen einordnet, die Typen genannt werden. Gleichzeitig werden Subjekte in Domains übertragen. Die Sicherheitsrichtlinie definiert nun, welche Domain welche Aktion auf welchen Typ ausüben darf. Abbildung 4.2: Schutz von Daten mittels Sticky Policies" Type Enforcement organisiert ein Computersystem ähnlich wie eine Firma. Finanzdateien werden dem Typ Finanzen zugeordnet. Mitarbeiter von Buchhaltung und Controlling gehören demnach in die Domain Finanzabteilung. Die Sicherheitsrichtlinie erlaubt nur der Domain Finanzabteilung einen Zugang zum Typ Finanzen. Geschichte Type Enforcement wurde 1985 [BoKa1985] als eine Methode zur Implementierung von integeren Betriebssystemen (engl. Integrity Systems ) ohne vertrauenswürdige Benutzer eingeführt. Es kennzeichnet Objekte genauso wie Subjekte und spezifiziert den Zugang von Subjekten zu Objekten und Subjekten zu Subjekten in zwei Matrizen. Gekennzeichnete Subjekte wurden Domains genannt und gekennzeichnete Objekte nannte man Typen. Der Zugang von Subjekten an Objekte erfolgte mit Lesen, Schreiben und Ausführen. Type Enforcement wurde zuerst im Secure Ada Project (LOCK) implementiert und später bei TIS in Trusted XENIX verwendet. Domain and Type Enforcement (DTE) wurde erstmals 1991 vorgestellt [BrRo1991] und ist eine Erweiterung von TE, welche von vielen Forschern angepasst wurde [BSSW1995]. Im Gegensatz zur Darstellung mit zwei Matrizen wird die Spezifikation der Sicherheitsrichtlinien in Form einer intuitiven Sprache realisiert. Übergänge zwischen unterschiedlichen Domänen (engl. Domain-to-Domain transitions ) werden mittels Programmen abgewickelt, die quasi als Eingangspforten auf der Empfängerseite fungieren. Forscher der Information Assurance Research Group der NSA arbeiteten mit der Secure Computing Corporation (SCC), um eine starke, flexible Architektur für Mandatory Access Control, basierend auf Type Enforcement, zu entwickeln. Dieser Mechanismus wurde zuerst für das LOCK-System entwickelt. Die NSA und SCC entwickelten zwei Mach-basierte Prototypen der Ar21

22 Sicherheitsmodelle chitektur: DTMach und DTOS [Smal2000]. Später arbeiteten die NSA und SCC zusammen mit der Flux -Forschungsgruppe der Universität von Utah daran, die Architektur auf das Fluke Research OS zu übertragen. Dabei wurde die Architektur erweitert, um eine bessere Unterstützung für dynamische Sicherheitsrichtlinien zu bieten. Diese Erweiterung wurde FLASK genannt [Smal2000]. Die NSA hat die FLASK Architektur in das Linux-Betriebssystem als SELinux integriert, um die Technik einer größeren Entwickler- und Nutzergemeinde zur Verfügung zu stellen. Diskussion Domain und Type Enforcement basiert auf einer erweiterten Version des Type Enforcement (TE). Die wesentlichen Zusätze zum Originalmodell sind eine Spezifikationssprache für Sicherheitsrichtlinien, die auf einem hohen Abstraktionsniveau angesiedelt ist und ein lesbares Format für Attributwerte in der Laufzeit-Datenbank für Sicherheitsrichtlinien. Type Enforcement ist ein tabellenbasiertes Zugangskontrollmodell. Aktive Entitäten, die Subjekte, haben ein Attribut Domain, während passive Entitäten, die Objekte, ein Attribut Type besitzen. Mögliche Zugänge von Subjekten zu Objekten werden in dem Zugangsmodell nach Lesen, Schreiben, Ausführen und Übertragen eingruppiert. Eine globale Bereichs-Definitionstabelle (engl. Domain Definition Table, DDT) enthält die erlaubten Interaktionen für den Bereich und darüber hinaus Typen, die wiederum Zeilen und Spalten bilden. Jede Zelle enthält eine Menge an Zugangsmodellen. Subjekt-zu-Subjekt-Zugangskontrolle basiert auf einer globalen Bereichs-Interaktionstabelle (engl. Domain Interaction Table, DIT) mit Subjekten als Deskriptoren und einer Menge an Zugangsmodi wie Signalisieren, Erstellen oder Zerstören in den Zellen. Im Gegensatz zu dem originalen TE-Modell unterstützt DTE implizit die Pflege von Eigenschaften. Das bedeutet, dass Eigenschaften einer höheren Ebene eines Verzeichnisses in der Datenhierarchie gehalten und auf alle niedrigeren Ebenen vererbt werden, solange explizit keine anderen Eigenschaften definiert wurden. Auch die Spezifikation der Sprache erlaubt es, Typen bestimmten Objekten anhand ihrer Pfadpräfixen zuzuordnen. Dem initialen Prozess eines Betriebssystems wird eine vordefinierte initiale Domain zugewiesen. Jeder Prozess kann eine andere Domain betreten, indem er ein Programm ausführt, das wiederum an diese gebunden ist. Diese Programme werden Eingangspunkte (engl. Entrypoints ) genannt. Ein solcher Entrypoint kann ausgeführt werden, um explizit eine ihm zugehörige Domain zu betreten, wenn die Domain des Subjekts ausführbare Rechte auf der Zieldomain hat. Das automatische Zugangsrecht zu der Domain wählt automatisch diese Domain, wenn einer ihrer Eingangspunkte ausgeführt wird. Die User-Domain-Beziehung baut komplett auf Eingangspunkten (engl. Entrypoints ), wie zum Beispiel einer Eingabeaufforderung (engl. Command-Shell ), auf. Ein Anmeldeprogramm, welches DTE unterstützt, kann aus allen Domains auswählen, die mit einem Entrypoint assoziiert sind, um individuelle Kopien jeder Domain zu vermeiden. Bedeutung Der Hauptbeitrag von Type Enforcement zur Informationssicherheit ist seine Fähigkeit, das Risiko von stark privilegierten Prozessen zu reduzieren, z. B. auf einem Unix-System, das von einem Angreifer übernommen wurde. Type Enforcement kann dazu verwendet werden, um einen solchen Angriffsprozess dazu zu zwingen, sich der Typensicherheitsrichtlinie des Datenobjekts ent22

23 Sicherheitsmodelle sprechend zu verhalten, selbst wenn der Prozess normalerweise eine deutlich größere Macht über das Datenobjekt besitzt. Type Enforcement wurde in FLASK5, Microsofts Active Directory und SELinux implementiert. Type Enforcement ist eine eingetragene Handelsmarke der Secure Computing Corporation, die eine Firewall mit Type Enforcement ( Sidewinder G2 Security Appliance ) nach Common Criteria EAL4+ mit Basic und Medium Protection Profiles evaluiert hat. 4.2 Grundlegende Sicherheitsmodelle Die Modelle, die in diesem Abschnitt vorgestellt werden, sind bereits gut etabliert und leicht verständlich. Sie wurden in der einen oder anderen Form in nahezu allen Betriebssystemen von Mainframes bis hin zu Mobiltelefonen implementiert. Im Nachfolgenden werden die einzelnen Modelle vorgestellt, um die Unterschiede zu den fortgeschrittenen Sicherheitsmodellen besser heraustreten zu lassen Besitzerbasierte Sicherheitsrichtlinien Besitzerbasierte Sicherheitsrichtlinien sind Sicherheitsschemata, in denen der Besitzer eines Datenobjekts eine Sicherheitsrichtlinie definieren kann, die Zugangsrechte zu anderen Objekten gewährt oder verweigert. Geschichte Die meisten Betriebssysteme für Mehrbenutzersysteme setzten eine Form der besitzerbasierten Sicherheitsrichtlinien ein, um Gruppenarbeit zu ermöglichen. Diskussion Besitzerbasierte Sicherheitsrichtlinien können in Sicherheitsmodellen wie HRU (Harrison, Rurro, Ulman) formuliert werden. Bedeutung Besitzerbasierte Sicherheitsrichtlinien lassen sich in vielen heutigen Computersystemen wiederfinden, beispielsweise gemeinsame Arbeitsumgebungen oder Datenzugriff in lokalen Adhoc -Netzen. Besitzerbasierte Sicherheitsrichtlinien können in größeren Sicherheitsmodellen mit eingeschlossen werden, solange sie durch diese anderen Modelle ausgedrückt werden können Zugangskontrolllisten - Access Control Lists Zugangskontrolllisten ( Access Control Lists, ACL) sind eine der ältesten Formen eines Sicherheitsmodells. Dabei werden für jedes Subjekt in einer Liste die Objekte und Aktionen definiert, die ausgeführt werden dürfen. 5 FASK ist eine Sicherheitsarchitektur für Betriebssysteme, die Sicherheitsrichtlinien flexibel unterstützt. Es ist ein Akronym für Flux Advanced Security Kernel [SSLHAL1999]. Type Enforcement ist ein Kernframework in sicherheitsorientierten Betriebssystemen, wie dem Security-Enhanced Linux (SELinux) der NSA und Trusted BSD. 23

24 Sicherheitsmodelle Diskussion Zugangskontrolllisten gewähren Zugangsrechte. Sie formulieren eine bestimmte Sicherheitsrichtlinie für Objekte, Subjekte und Aktionen. Eine Zugangskontrollliste für eine Datei salaryfile könnte wie folgt aussehen: John salaryfile read Jane salaryfile read, write Ben salaryfile read, write, move, delete Hierbei ist Ben der Geschäftsführer mit der Erlaubnis, die Datei salaryfile zu verschieben oder zu löschen. Jane darf auf sie schreiben, sie ist die Sekretärin. John (als Buchhalter) darf sie nur lesen. Diese Art der Zugangskontrolle ist im Detail sehr wartungsintensiv bei Änderungen an Daten, Personal oder Zugangsregeln. Bedeutung ACLs sind allgegenwärtig. Man kann relativ sicher annehmen, dass sie nie aus Computersystemen verschwinden werden. Der Grund dafür liegt darin, dass ihr einfaches und intuitives Konzept leicht definiert und implementiert werden kann, beispielsweise in Prototypen oder Anwendungsprogrammen, die nicht für hohe Sicherheitsanforderungen entwickelt wurden. Beispiele von Zugangskontrolllisten in heutigen Computersystemen sind: Zugang zu Webservern: Die Dateien.htaccess und.htpasswords, die in vielen Web-servern zur Zugangskontrolle verwendet werden, bieten durch die Möglichkeit der Gruppendefinition Unterstützung für ACLs. Bei Webservern sind die Grenzen des ACL-Konzepts gut erkennbar. Ein großer Online-Verleger wird seine Zugangskontrolle für tausende seiner Kunden mit anderen Mechanismen als durch.htaccess -Dateien realisieren. Firewall und Routing-Equipment : Hier werden einfache Listen des erlaubten Datenverkehrs mit Quell- und Zieladresse (Subjekte) und Protokolle (Objekte) benutzt, um grundlegende Netzsicherheit zu konfigurieren. Zur komfortablen Verwendung von ACLs sind für den jeweiligen Anwendungsfall meist auch passende Managementprogramme verfügbar. Zusammenfassend lässt sich festhalten, dass ACLs durch den Einsatz von Werkzeugen zum Sicherheitsrichtlinienmanagement, die komplexe Listen bearbeiten können, sehr praktisch sind. 4.3 Vertraulichkeitsorientierte Modelle Dieser Abschnitt enthält eine Übersicht über Sicherheitsmodelle, die sich auf die Vertraulichkeit des Zugangs von Subjekten zu Datenobjekten in einem Betriebssystem befassen. Strenge Vertraulichkeit bedeutet hierbei, dass keine Daten gegenüber nicht autorisierten Subjekten offen gelegt werden. Die Modelle beinhalten teilweise genaue Regeln, wie eine Zugangsrichtlinie für unterschiedliche Subjekte oder Gruppen von Subjekten beschrieben wird. 24

25 Sicherheitsmodelle Unterschiedliche Ansätze zur Durchsetzung von Vertraulichkeitsregeln wurden entwickelt. Nachfolgend wird jeweils ihr Ansatz erläutert und ihre Haupteigenschaften zusammengefasst. Dabei wird mit den klassischen Modellen der statischen Zugangskontrolle begonnen und anschließend zu den mehr dynamischen Ansätzen und komplexeren Sicherheitsrichtlinien übergegangen Zugangsmatrixmodell/Zugangskontrolllisten Das Zugangsmatrixmodell und seine Instantiierung, die Zugangskontrollliste (ACL), ist eines der ältesten Sicherheitsmodelle. Es geht von einer Aufteilung des Computersystems in Datenobjekte, Subjekte und Operationen aus. Um festzustellen, ob ein bestimmtes Subjekt eine bestimmte Operation auf einem Objekt ausführen darf, zieht das Sicherheitsmodell die Berechtigungen in einer Zugangsmatrix oder Zugangskontrollliste zurate. Dort wird entweder eine Auflistung aller Objekte und aller Subjekte als Matrix mit allen möglichen Operationen oder eine Liste aller Objekte und Subjekte mit ihren spezifischen Sicherheitsrichtlinien dargestellt. ACL ist eine speicherschonende Darstellung der Matrix, die nur positive Einträge erlaubter Operationen enthält, wobei hier die ohnehin nicht erlaubten negativen Einträge weggelassen werden. Geschichte Sicherheit auf Basis von Zugangsmatrizen wurde 1971 [Lamp1971] eingeführt. Als intuitives Schema wurde es in vielen Bereichen, z. B. in Betriebssystemen wie Unix oder in der Zugangskontrolle für Datenbanken, verwendet. Es wird bis heute z. B. bei der Konfiguration von Firewalls oder beim Filtern unerwünschter s (engl. Spam ) eingesetzt. Diskussion Obwohl sie ein intuitives Modell ist, hat die Zugangsmatrix ein inhärentes Problem. Die Matrix repräsentiert den Status des Sicherheitsmodells zu einem ganz bestimmten Zeitpunkt. Bei jeder Änderung eines Benutzers, jeder Hinzunahme neuer Objekte oder Änderungen an der Sicherheitsrichtlinie muss die gesamte Matrix neu erstellt werden, was mühsam und fehleranfällig ist. Bedeutung Teile des Zugangsmatrixmodells existieren in Unix-Systemen. Einige Produkte, die auf Filter spezialisiert sind, wie Firewalls und Spam -Filter, erlauben die Konfiguration von Listen für Ausund Einschluss (engl. Black / White Lists ), die eigentlich ACLs sind. Bei Mobiltelefonen können Anruferlisten verwaltet werden, die ACLs von Anrufern darstellen, bezogen auf die Erreichbarkeit der Ressource Telefonbesitzer. Mit der Verbreitung von Instant Messaging, Voice over IP und web-basierten Communities erscheinen ACLs wieder als Buddylists oder Kontaktlisten, in denen der Grad der Kommunikation und Information bestimmt wird, den man mit anderen Teilnehmern eines Kommunikationssystems teilt. Bestehende Implementierungen von ortsbasierten Diensten im Bereich der Mobiltelefonie erfordern das Management von Zugangskontrollmatritzen der Telefonbenutzer [Snek2001]. Dabei wird vom Benutzer die Aktualisierung und Pflege seiner Matrix erwartet, welche Dienstleister die Erlaubnis 25

26 Sicherheitsmodelle haben, seine Position im Mobilfunknetz zu ermitteln. Die Anbieter bezeichnen dies als ein sicheres Modell der Privatsphäre, dem Benutzer jedoch bleibt das Problem des hohen Verwaltungsaufwandes Gitterbasiertes Zugangskontrollmodell In der Computersicherheit ist eine gitterbasierte Zugangskontrolle (engl. lattice-based access control, LBAC) eine komplexe Methode, um den Zugang zu Daten zu beschränken, basierend auf jeder Kombination von Objekten (wie Ressourcen, Computer und Anwendungsprogrammen) und Subjekten (wie Individuen, Gruppen oder Organisationen) [Sand1993]. In diesem Typ der Zugangskontrolle wird ein Gitter verwendet, um die Sicherheitsebenen zu definieren, die einem Objekt zugeordnet sind und zu denen ein Subjekt Zugang haben kann. Das bedeutet, man definiert eine partielle Ordnung der Sicherheitsebenen derart, dass jeweils zwei Sicherheitsebenen immer eine größte untere Schranke ( meet ) und kleinste obere Schranke ( join ) haben. Wenn zwei Objekte A und B kombiniert werden, um ein Objekt C zu bilden, wird dieses Objekt einer Sicherheitsebene zugewiesen, die durch die Verbindung der Ebenen A und B entsteht. Wenn zwei Subjekte gemeinsam Zugang zu sicheren Daten erlangen wollen, wird ihr Zugangslevel als meet der beiden Subjekte definiert. Ein Subjekt darf nur Zugang zu einem Objekt erhalten, wenn die Sicherheitsebene des Subjekts größer oder gleich der Ebene des Objektes ist, wie in der partiellen Ordnung des Gitters definiert. Geschichte Gitterbasierte Zugangskontrollmodelle wurden 1976 erstmals formal definiert [Denn1976]. Sie wurden für das komplexe Rechtemanagement entwickelt. Diskussion LBAC ist bekannt als eine spezifischere Menge an Zugangskontrollbeschränkungen und wird allgemeiner als rollenbasierte Zugangskontrolle bezeichnet. Sie erlaubt die Definition von komplexen Sicherheitsrichtlinien. LBAC ist eines der wenigen Modelle, das sich um die Erstellung des Sicherheitsstatus zusammengefügter Daten kümmert und führt deshalb zur Idee, das Data Life Cycle Management mit IT-Sicherheit zu versehen. Ein Gittermodell ist eine mathematische Struktur, die größte untere Schranken und kleinste obere Schranken für ein Paar aus Elementen wie Subjekte und Objekte definiert. Jedoch erfordert das Gittermodell komplexe Gitterstrukturen, die wiederum frei von Fehlern sein müssen. Zusätzlich muss das Gitter bei Veränderungen neu erstellt werden (z. B. nach dem Löschen von Benutzern oder dem Wechsel von Sicherheitsebenen). Bedeutung Die wahre Stärke des Gittermodells ist seine Fähigkeit, komplexe Informationsflüsse und zugehörige Sicherheitseigenschaften zu modellieren. In der wissenschaftlichen Literatur wurden zwei Nutzungsbereiche des Gittermodells identifiziert und veröffentlicht: 26

27 Sicherheitsmodelle Zugangskontrolle zu Dokumenten: Mit der Entwicklung des World Wide Web wurde der Zugang zu Dokumenten über Webserver für die Sicherheitsfachleute interessant [DrNe1998]. Strategien zur Handhabung der Zugangskontrolle im Lesen, Schreiben, Bewegen und Zusammenfügen von Dokumenten wurden entwickelt und als gitterbasiertes Sicherheitsmodell gestaltet. Sicherheitsrichtlinienmangement (engl. Policy Management ) für computerunterstützte Zusammenarbeit (engl. Computer supported cooperative work, CSCW): In Verallgemeinerung des obigen Themas sind CSWS-System Plattformen für computerbasierte Kommunikation, Dokumentmanagement und Gruppenzusammenarbeit (z. B. Verzeichnisse, Dateien, Nachrichten). Zum Modellieren von Zugangssicherheitsrichtlinien wurde das Gittermodell erfolgreich eingesetzt Dynamisches Zugangskontrollmodell (HRU) Das dynamische Zugangskontrollmodell erweitert das statische Konzept der Zugangskontrolllisten, Matrizen oder gitterbasierter Modelle durch die Fähigkeit der dynamischen Vergabe und Entfernung von Rechten. In statischen Zugangsmodellen ändert der Systemadministrator für eine Menge an Rechten die Liste oder Tabelle mit den Definitionen. Bei Änderungen der Bedingungen muss der Systemadministrator die Definitionen einiger Subjekte anpassen. Dies ist auf Plattformen mit vielen Benutzern ineffizient und fehleranfällig, was die Sicherheit kompromittieren kann. Die dynamische Zugangskontrolle bietet Mechanismen, um Sicherheitsprivilegien dynamisch zu anderen Subjekten zu delegieren, ohne dabei die Hilfe des Systemadministrators zu beanspruchen oder ohne eine Aktualisierung der Systemkonfiguration durchzuführen. Dieses Modell wurde nach seinen Erfindern Harrison, Rurro und Ulman HRU benannt [HaRU1976]. Geschichte Das dynamische Zugangskontrollmodell wurde 1976 durch Harrison, Rurro und Ulman eingeführt [HaRU1976]. Als Grundlage des Modells dient die Verwendung einer mathematischen Reduktion zur Überprüfung, ob eine neue Regel die Sicherheit eines Computersystems kompromittiert. Diskussion HRU beinhaltet grundlegende Befehle zur Beschreibung von Änderungen in Zugangskontrollmatrizen. Sie basiert auf sechs Basisoperationen: ENTER -Regel, DELETE -Regel, CREATE -Subjekt, DESTROY -Subjekt, CREATE -Objekt, DESTROY -Objekt. Durch die Verwendung von HRU können Subjekte Regeln mit der Delegation von Rechten in die Zugangskontrollmatrix eingeben. Harrison, Rurro und Ulman modellierten HRU als Automat. Sie zeigten, dass unter bestimmten Bedingungen die Maschine immer entscheiden kann, ob die Plattform sicher ist. Einer ihrer Hauptbeiträge war der Nachweis, dass unter bestimmten Bedingungen für ein Zugangskontrollmatrixsystem mit Delegieren algorithmisch nicht effizient entscheidbar ist, ob das Regelwerk sicher ist oder nicht. Der Grund liegt dabei in der Komplexität der resultierenden Regeln. 27

28 Sicherheitsmodelle Bedeutung HRU war ein wichtiger Beitrag zur Computersicherheit. Ihre nachgewiesenen Sicherheitsfunktionen und bekannten Schranken führten zu HRU-ähnlichen Implementierungen in Betriebssystemen, beispielsweise im Type Enforcement -Konzept, wo temporäre Privilegien gebraucht werden Einfache Sicherheitsplattformen Sicherheitsplattformen reflektieren eine einfache, plattformbasierte Klassifikation von Daten, wie z.b. anhand eines Mehrebenen-Schemas, wie in Abbildung 3.1 gezeigt. Die Ebenen werden mit Zugangsregeln verbunden, die definieren, wie ein Benutzer Zugang zu Dokumenten auf unterschiedlichen Ebenen erhalten kann. Beispielsweise impliziert ein bestimmter militärischer Rang Zugriff auf eine bestimmte Zugangsebene. Geschichte Sicherheitsebenen kommen aus dem Umgang mit militärischen Dokumenten. Die Ebenen korrespondieren normalerweise mit einer Hierarchie, in der die Position eines Subjekts in der Hierarchie auch die Zugangsebene des Dokuments definiert. Diskussion In einfachen Sicherheitsplattformen können viele Sicherheitsrichtlinien zur Zugangskontrolle definiert werden. Lesen (Vertraulichkeit) und Schreiben (Integrität) werden normalerweise getrennt behandelt. Probleme treten auf, falls sich die Ebene eines Dokuments beim Verbinden mit Informationen aus einer anderen Ebene ändert. Sichere Plattformen können jedoch den Lebenszyklus von Dokumenten nicht abbilden. Bedeutung Während die meisten Regierungen Dokumente nach Sicherheitsebenen einstufen, wurden viele Probleme in dem originalen Modell der Sicherheitsplattform gefunden. Nach Anderson [Ande2001] wurden Dokumente nach und nach in immer höhere Sicherheitsebenen eingestuft. Darüber hinaus schien der Sicherheitszugang von älteren Angestellten über die Jahre hinweg immer weiter ausgeweitet zu werden in Richtung höherer Sicherheitsstufen. Damit verwandelten sie sich in ein Sicherheitsrisiko, weil sie Zugang zu immer mehr geheimen Dokumenten erlangten. Eine Aufgabentrennung zwischen unterschiedlichen Arbeitsgruppen kann mit einfachen Sicherheitsplattformen nicht modelliert werden. Ermöglicht wurde dies durch eine Aufteilung in einzelne Sicherheitsbereiche (siehe Abschnitt 4.5.2). Das Bell-LaPadula Modell (Abschnitt 4.3.5) zielt hier auf eine Verbesserung ab Bell-LaPadula Modell Das Bell-LaPadula Modell (BLP) [BeLa1973] ist ein formales Modell zum Statusübergang einer Sicherheitsrichtlinie eines Computers. Es beschreibt eine Menge an Regeln zur Zugangskontrolle, die Sicherheitskennzeichnungen an Objekten und Freigaben für Subjekte verwenden. Das Modell geht davon aus, dass jeder Zugang zu Daten eines Computersystems durch Sicherheitszugangsfunktionen erfolgt, die Teil des Sicherheitssystems selbst sind. 28

29 Sicherheitsmodelle Geschichte Das Bell-LaPadula Modell wurde 1973 vorgestellt. Die Autoren formalisierten Computersysteme unter Verwendung der Systemtheorie und boten ein komplettes Modell, das Subjekte, Objekte, Sicherheitsebenen und Aktionen beinhaltet. Diskussion In diesem formalen Modell werden die Entitäten in einem Informationssystem in Subjekte und Objekte eingeteilt. Die Bezeichnung eines sicheren Status wird definiert, und es wird bewiesen, dass jede Umwandlung des Status die Sicherheit dadurch gewährt, indem von einem sicheren in einen anderen sicheren Status gewechselt wird. Dabei wird induktiv bewiesen, dass die Sicherheit eines Computersystems die Sicherheitszielsetzung erfüllt. Das Bell-LaPadula-Modell basiert auf dem Konzept eines Automaten (engl. State Machine ) mit einer Menge an erlaubten Zuständen. Der Übergang von einem Zustand zu einem anderen ist durch die Übergangsfunktion (engl. Transition Function ) definiert. Das Sicherheitsmodell ist auf Zugangskontrolle ausgerichtet und wird durch folgende Formulierung charakterisiert: Lesen in eine höhere Ebene verweigern, schreiben in eine tiefere Ebene verweigern (engl. no read up, no write down ). Mit Bell-LaPadula können Benutzer Inhalte oder Daten nur in oder oberhalb ihrer eigenen Sicherheitsebene erzeugen und Subjekte können den Inhalt nur in oder unter ihrer Sicherheitsebene lesen. Hierzu sind im Bell-LaPadula-Modell eine einfache Sicherheitseigenschaft und eine Sterneigenschaft (*) folgendermaßen definiert: 1. Die einfache Sicherheitseigenschaft definiert, dass ein Subjekt einer Sicherheitsebene kein Objekt einer höheren Ebene lesen kann (engl. no read-up ). 2. Die Sterneigenschaft (*) definiert, dass ein Subjekt einer Sicherheitsebene kein Objekt einer niedrigeren Sicherheitsebene schreiben kann (engl. no write-down ). Bedeutung Das Modell nach Bell-LaPadula hat das Modellieren von IT-Sicherheit seit seiner Vorstellung stark beeinflusst. Eine angepasste Implementierung im Mainframe Timesharing Operating System MULTICS6, die 1965 begonnen wurde, brachte das Modell erstmals in die Praxis. Bald wurde BellLaPadula durch die TCSEC Trusted Computer System Evaluation Criteria referenziert7. Heutige Betriebssysteme wie Windows NT/Vista und Trusted Solaris mit Evaluierung nach TCSEC implementieren Versionen des Modells (eine Liste der Betriebssysteme findet sich in [Bell2005]). Heutige Forschungsansätze basieren noch immer auf dem Bell-LaPadula-Modell. In [Snek2001] wird beispielsweise ein Modell einer Zugangsmatrix bei der Zugangskontrolle zu Ortsinformationen bei ortsbezogenen Diensten für Mobiltelefone mit dem BLP-Modell kombiniert. 6 Zur Geschichte von MULTICS, siehe Stand November Die Trusted Computer System Evaluation Criteria (TCSEC) wurden in den USA entwickelt und 1983 veröffentlicht, um Sicherheitseigenschaften von Computersystemen zu evaluieren. Sie werden auch aufgrund der Farbe des Heftes, in dem sie veröffentlicht wurden, als Orange book bezeichnet. 29

30 Sicherheitsmodelle Rollenbasierte Zugangskontrolle Die Rollenbasierte Zugangskontrolle (RBAC) hat einen einzigartigen Ansatz. Das grundlegende Konzept ist die Steuerung des Zuganges zu Objekten durch genau definierte Rollen. Deshalb ist nicht eine bestimmte Identität des Benutzers für die Zugangsentscheidung von Bedeutung, sondern seine Rolle. Das auf dem RBAC-Modell aufbauende Sicherheitsmanagement ist das Management der Möglichkeit von Subjekten, bestimmte Rollen anzunehmen. Subjekte werden Gruppen zugeordnet, Zugangsrechte werden nach Rollen gruppiert und die Verwendung von Ressourcen wird auf Benutzer beschränkt, die die jeweils zugehörige Rolle einnehmen können. Beispielsweise kann die Rolle eines Arztes in einem Krankenhaussystem die Erstellung von Diagnosen beinhalten, sowie Medikamente zu verordnen und Labortests anzuordnen. Die Rolle eines Forschers kann darauf beschränkt sein, anonymisierte medizinische Informationen für Studien zu sammeln. Eine Rollenhierarchie definiert Rollen, die eindeutige Attribute besitzen, die wiederum andere Rollen beinhalten können. Das bedeutet, dass eine Rolle möglicherweise Operationen beinhaltet, die auch einer anderen Rolle zugeordnet sind. Geschichte Die rollenbasierte Zugangskontrolle (RBAC) wurde 1992 in [FeKu1992] veröffentlicht. Diskussion RBAC erlaubt es einem Subjekt, viele Rollen zu haben. Eine Rolle kann durch unterschiedliche Subjekte angenommen werden. Eine Bedingung setzt eine einschränkende Regel auf das potentielle Vererben von gegensätzlichen Rollen. Das kann verwendet werden, um eine angemessene Trennung der einzelnen Aufgaben zu erreichen. Beispielsweise kann es derselben Person nicht erlaubt sein, ein Nutzerkonto für jemanden zu erstellen und gleichzeitig die Erlaubnis dieser Erstellung an die zweite Person weiter zu vererben. In einer Organisation, die Anforderungen an hunderte von Computersystemen und Anwendungsprogrammen stellt, wird die Verwendung von RBAC ohne eine hierarchische Erstellung von Rollen und Abgrenzungsprivilegien extrem komplex. Seit seiner ersten Veröffentlichung wurde das Modell immer weiterentwickelt. Seither gewann es in modernen Betriebssystemen stark an Bedeutung. Eine Referenz ist das Buch Role Based Access Control des Entwicklers [FKC2003]. Bedeutung Die Verwendung von RBAC zur Verwaltung von Nutzerrechten in einzelnen Betriebssystemen oder einem Anwendungsprogramm wird im Allgemeinen heutzutage als best practice angesehen. Viele Datenbanksysteme, unter ihnen Microsoft Active Directory, SELinux, FreeBSD, Solaris, Oracle DBMS, PostgreSQL 8.1, SAP R/3 und viele andere implementieren effektiv eine Form der RBAC. Unterschiedliche Organisationen experimentieren mit der Erstellung von RBAC-Spezifikationen. RBAC ist ein integrierter Bestandteil der Datenbanksprache SQL3 und des Sicherheitsmodells, das von Secure European System for Applications in a Multi-vendor Environment (SESAME) verbreitet wird. Zusätzlich verwendet die Sicherheitsspezifikation der Common Object Request Broker Architecture (COBRA) der Object Management Group (OMG) RBAC als Beispiel für einen Zugangskontrollmechanismus für die Verwendung zusammen mit der Distributed Object 30

31 Sicherheitsmodelle Technology der OMG. Laufende Entwicklungen im Bereich RBAC und entsprechender Implementierungen werden auf einer Webseite des US-amerikanischen National Institute of Standards and Technology NIST zusammengefasst und gepflegt [NIST0001] Chinese-Wall -Modell (Brewer-Nash) Das Chinese-Wall -Sicherheitsmodell [BrNa1989] wurde entwickelt, um kommerzielle Sicherheitsinteressen in geschäftlichen Datenbanken durchzusetzen. Die Annahme dabei ist, dass es innerhalb der Finanzindustrie Interessenkonflikte, Insiderwissen und Geschäftsgeheimnisse geben kann, wenn eine Firma Geschäftsbeziehungen zu Kunden unterhält, die in gegenseitigem Konkurrenzkampf stehen. Das Chinese-Wall -Modell stellt eine Chinesische Mauer zwischen sensiblen Informationen konkurrierender Kunden dar. Dazu werden Kundendaten unterschiedliche Geschäftsklassen zugeordnet und Subjekte werden an Datenmengen gebunden. Durch eine Menge an Regeln wird durchgesetzt, dass ein Subjekt keinen Zugang zu Daten einer Firma bekommt, wenn das Subject bereits Daten einer anderen konkurrierenden Firma zugeordnet ist. Geschichte Chinesische Mauern sind Trennmechanismen, die in Firmen verwendet werden, um Personen, die Investmententscheidungen treffen, von Personen, die Informationen besitzen, die diese Entscheidungen beeinflussen können, zu trennen. In den USA wurde dieser Ausdruck nach dem Börsenkrach von 1929 verwendet, als die Regierung der USA einen Erlass zur Trennung von Banken und Brokern verordnete. Anstatt einer Firma zu untersagen, sich in mehreren Geschäftsbereichen zu betätigen, erlaubte die Regierung die Implementierung von Maßnahmen nach der Chinese-Wall -Methode. Der Begriff Chinesische Mauer bezieht sich nach Wikipedia8 auf die Chinesische Mauer, ihr Ausmaß und ihre Effektivität, zwei Seiten voneinander zu trennen. Eine Alternativerklärung ist, dass der Begriff von chinesischen Stehwänden abgeleitet wurde, die zur temporären Abtrennung in Räumen verwendet wurden. Dieser Ursprung erscheint passend in der Verwendung für Organisationen wie juristische Kanzleien, die Schranken zwischen Büros oder Anwälten aufbauen, um sich vor Interessenkonflikten zu schützen. In der Computersicherheit ist das Chinese-Wall -Modell ein Sicherheitsmodell, bei dem Lese- und Schreibrechte auf Daten durch eine Klassifizierung der Daten in Interessenkonfliktklassen geschützt werden. Dies ist das Basismodell, das verwendet wird, um sowohl Geheimhaltung als auch Integrität von Daten zu gewährleisten. Die erste Veröffentlichung des Chinese-Wall -Modells erfolgte 1989 [BrNa1989]. Diskussion Die Eigenschaft der Aufteilung von Aufgaben wurde als inkompatibel zum Bell-LaPadula Modell in [BrNa1989] erkannt. Jedoch schlagen die Autoren eine Erweiterung des Clark-Wilson-Modells vor, das wiederum die Sicherheitsrichtlinie der Chinese-Wall implementiert. 8 Siehe 31

32 Sicherheitsmodelle Das Modell enthält: Regeln zum Schutz vor Interessenkonflikten. Eine formale Beschreibung der normalen kommerziellen Praktiken zur Unterlassung von Mitteilungen. Die Idee, dass ein professioneller Arbeiter sich nicht mit unterschiedlichen Klienten befasst, die zueinander in Konkurrenz stehen, dass er also nicht wegen der Verwendung von Insiderwissen belastet werden kann. Ähnlich zum Bell-LaPadula-Modell hat das Chinese-Wall -Modell zwei Zugangskontrollregeln, die formal ausgedrückt werden können. Informell kann man die Regeln folgendermaßen angeben: 1. Die einfache Sicherheitseigenschaft legt fest, dass: ein Subjekt S nur auf die Daten von C zugreifen kann, falls: a) S schon auf die Daten von C zugegriffen hat. b) S noch keinen Zugang zu Daten von einem Konkurrenten von C erhalten hat. 2. Die *-(Stern)-Eigenschaft legt fest, dass S nur Daten von C schreiben kann, falls S keine Daten anderer Firmen lesen kann. Bedeutung Sicherheitsforscher sehen das Chinese-Wall -Modell eher nicht als eigenständiges Modell, sondern als ein Regelwerk, das bei der Erstellung eines Sicherheitssystems verwendet wird. Dennoch ist die Funktion für viele Geschäftsumgebungen fundamental, etwa in der Finanzwelt, der Beratung und im Gesundheitswesen. Die Implementierung der Chinese-Wall -Sicherheitsrichtlinien ist sehr anwendungsabhängig. 4.4 Integritätsorientierte Modelle Dieser Abschnitt präsentiert und bespricht integritätsorientierte Sicherheitsmodelle. Neben Vertraulichkeit wird ein Schutz vor unerlaubter Manipulation, Löschung oder anderen Formen des Umgangs mit Daten in Nutzungsszenarien gefordert. Aus diesem Grund wurden integritätsorientierte Sicherheitsmodelle entwickelt. Die meisten Modelle befassen sich mit Schreibrechten entsprechend einer Hierarchie in einer Organisation, beispielsweise in der öffentlichen Verwaltung oder im Militär. Weiter unten werden die drei integritätsorientierten Modelle Biba, Low-Watermark und Clark-Wilson eingeführt und miteinander verglichen. Ihre Grundannahme geht davon aus, dass jemand, der in der Hierarchie höher gestellt ist, damit auch ein kleineres Risiko für die Integrität eines Dokumentes darstellt als eine Person in einer niedrigeren Position Biba Modell Das Sicherheitsmodell von Biba sichert die Datenintegrität durch das Prüfen einer Sicherheitsrichtlinie beim Schreiben von Daten [Biba1977]. Es ist ein formales Regelwerk mit Zustandsübergängen, das eine Menge an Regeln zur Zugangskontrolle beschreibt, die zur Sicherstellung der Datenintegrität entworfen wurden. 32

33 Sicherheitsmodelle Geschichte Das Biba-Modell wurde 1977 von Ken Biba vorgestellt. Es dient dem Schutz der Daten vor unerlaubter Manipulation. Diskussion Das Biba-Modell wird hier mit dem Bell-LaPadula-Modell verglichen. Während das BLP-Modell Vertraulichkeit dadurch ermöglicht, dass den Daten nur die Bewegung aufwärts oder innerhalb derselben Sicherheitsebene erlaubt wird, garantiert das Biba-Modell, dass keine in niedrigere Sicherheitsklassen eingruppierten Subjekte Daten in eine höhere Sicherheitsebene bewegen können. Ähnlich zum Bell-LaPadula-Modell definiert das Biba-Modell eine einfache Sicherheitseigenschaft (engl. Simple Security Property ) und eine *-(Stern)-Eigenschaft. In diesem Fall ist es allerdings umgekehrt im Vergleich zu Bell-LaPadula. 1. Die einfache Sicherheitseigenschaft legt fest, dass ein Subjekt einer bestimmten Ebene der Integrität kein Objekt einer niedrigeren Integritätsebene lesen darf ( no read down ). 2. Die *-(Stern)-Sicherheitseigenschaft legt fest, dass ein Subjekt einer gegebenen Integritätsebene nicht auf ein Objekt in einer höheren Integritätsebene schreiben darf ( no write up ). Das Biba-Modell wird oft als write-down -Modell bezeichnet. Bedeutung Das Biba-Modell war für militärische und Verwaltungsanwendungen von Bedeutung. Heute können Sicherheitsrichtlinien nach Biba in einigen speziellen Umgebungen wie Tabellen zur Konfiguration von Firewalls oder medizinischen Einrichtungen bedeutsam sein. Wird ein Computersystem neu gestartet, darf es keine Konfigurationsdaten aus einer Datei mit niedrigerer Sicherheitsstufe lesen. Schreibt ein Benutzer eine Konfigurationsdatei, ist es ihm nicht erlaubt, sie in eine Konfigurationsdatei mit höherer Sicherheitsstufe zu schreiben Low-Watermark -Zugangskontrollmodell Low-Watermark ist ein Name für viele integritätsorientierte Modelle, die vereinfacht dargestellt dafür sorgen, dass beim Schreiben auf Daten diese in die niedrigst mögliche Sicherheitsebene eingestuft werden. Das Low-Watermark-Model steht in Beziehung zum Biba-Modell. Im Gegensatz zu Biba, in dem keine Write-up -Regel oder Read-down -Regel vorhanden ist, wird jedoch im Low-Watermark -Modell Read-down zugelassen, jedoch wird das Objekt temporär in die Ebene des niedriger eingestuften Subjekts eingeordnet. Eine Unterscheidung von Subject-LowWatermark und Object-Low-Watermark besagt, welche beteiligten Entitäten auf die jeweilige Integritätsebene herabgestuft werden. Geschichte Das Biba-Modell kann als subjektzentriertes Low-Watermark -Modell betrachtet werden. Dieser Idee folgend wurden viele Erweiterungen veröffentlicht. Das Linux-Betriebssystem implementiert eine Form von Low-Watermark. 33

34 Sicherheitsmodelle Diskussion Low-Watermark -Ansätze können Sicherheitsprobleme auf eine niedrigere Sicherheitsebene begrenzen oder diese Probleme vermeiden. Das resultierende Konzept ist ähnlich dem Type Enforcement, das Sicherheitsprivilegien auf eine niedrigere Stufe reduziert. Üblicherweise orientieren sich Low-Watermark -Ansätze an Mehrebenen-Strukturen, was dazu führt, dass ihre Sicherheitsrichtlinien eine geringere Komplexität aufweisen. Low-Watermark -Modelle weisen jedoch die gleichen praktischen Probleme auf, die auch das Biba-Modell hat. Sobald die Daten in unterschiedlichen Ebenen klassifiziert sind, ist eine Änderung der Ebene von Subjekten oder Objekten sowie eine Anpassung der Sicherheitsrichtlinien oftmals komplex. Bedeutung Low-Watermark -Ansätze werden in Betriebssystemen als ein Schutzmechanismus gegen Schadprogramme eingesetzt. Beispielsweise ist LOMAC ein dynamisch ladbares Sicherheitsmodul für das Linux-Betriebssystem, das Low-Watermark Mandatory Access Control (MAC) zum Schutz der Integrität eines Prozesses verwendet, wie auch zum Schutz vor Viren, trojanischen Pferden, bösartigen Anwendern an anderen Computersystemen und kompromittierten Dämonen auf Netzservern. Nach [Spar2000] teilt LOMAC Daten und Prozesse in zwei unterschiedlichen Ebenen auf: Einmal geladen spaltet LOMAC das Betriebssystem in zwei konzeptionelle Ebenen der Integrität auf: hoch und niedrig. Der Teil hoher Integrität enthält alle Prozesse und Dateien, die vor bösartigem Programmen und Benutzern anderer Computersysteme geschützt werden sollen: Kernserver (z. B. kflushd), die Systembinaries (/bin/*, /lib/*), die Systemkonfigurationsdateien (/etc/*) sowie alle kritischen Daten (z. B. eine Webseite). Der Teil niedriger Integrität enthält die Prozesse, die mit anderen Benutzern oder dem Computersystem ( Remote Login Sessions, Web-Clients/Server, Mail Delivery Agents ) interagieren müssen, sowie die Dateien, die sie aus dem Netz beziehen (Webinhalte, mit/ohne Anhang). Dies ist, verglichen mit Biba, eine relativ einfache Sicherheitsrichtlinie. Für einen genaueren Einblick in die Verfügbarkeit von Implementierungen von Low-Watermark wird auf die Abhandlung von Safford und Zohar [SaZo2004] verwiesen Clark-Wilson ( kommerzielle Integrität ) Das Clark-Wilson-Integritätsmodell erlaubt es, die Integritätssicherheitsrichtline für ein informationsverarbeitendes Computersystem zu spezifizieren. Das Modell wurde im Kontext von Banksystemen entwickelt und 1987 von David Clark und David Wilson in [ClWi1987] formalisiert. Das Ziel war die Entwicklung eines Modells und die Formalisierung des Begriffs der Integrität von Information sowie der Schutz von Daten sowohl vor allgemeinen Fehlern, als auch vor böswilligen Veränderungen. Im Clark-Wilson-Modell wird Integrität durch eine Menge an Bedingungen definiert. Daten sind in einem gültigen Zustand, wenn sie diese Bedingungen erfüllen. Wohldefinierte Umformungen bewegen das Sicherheitssystem von einem gültigen Zustand in einen anderen, und eine Integritätssicherheitsrichtlinie beschreibt, wie Datenelemente bei dem Wechsel gültig gehalten werden sollen. 34

35 Sicherheitsmodelle Geschichte Der Ursprung des Modells von Clark-Wilson, welches in Buchhaltungssystemen bereits praktisch angewendet wurde, bevor es durch Clark und Wilson in ihrem Artikel [ClWi1987] formalisiert wurde, wird in [ClWi2007] wie folgt beschrieben: Dieser Artikel entwickelt das Modell als eine Möglichkeit, die Notation von Informationsintegrität zu formalisieren, insbesondere im Vergleich zu den Anforderungen der mehrschichtigen Sicherheitssysteme (MLS), die im Orange Book beschrieben werden. Clark und Wilson argumentieren, dass bestehende Integritätsmodelle wie Bella-LaPadula ( Read-down / Write-up ) und Biba ( Read-up / Write-down ) besser für die Durchsetzung von Vertraulichkeit geeignet seien, als für die Informationsintegrität. Die Bell-LaPadula und Biba-Modelle sind nützlicher z. B. in militärischen Strukturen, um vor dem Diebstahl von Daten oder der Beschädigung der Informationsintegrität zu schützen. Im Gegensatz dazu ist Clark-Wilson einfacher für Geschäfts- und Industrieprozesse anwendbar, in welchen die Integrität des Informationsgehalts in jeder Ebene von höchstem Rang ist (obwohl die Autoren betonen, dass alle drei Modelle offensichtlich von Regierungs- und Industrie-Organisationen verwendet werden). Diskussion Das Clark-Wilson-Integritätsmodell ist ein Integritätsmodell, das auf bekannten und bewährten Buchhaltungsmethoden basiert. Dabei werden Daten in zwei Ebenen eingeordnet: 1. eingeschränkte Datenelemente (engl. Constrained Data Item, CDI) 2. uneingeschränkte Datenelemente (engl. Unconstrained Data Item, UDI) Zugang zu CDIs kann durch Umformungsprozeduren (engl. Transformation Procedures, TP) exklusiv gewonnen werden. Die Integrität von CDIs wird durch Integritätsprüfungsprozeduren (engl. Integrity Verification Procedures, IVP) geprüft. Es handelt sich hierbei nicht um ein formales Modell, sondern um eine Menge an Regeln, die folgendermaßen definiert werden können: Subjekte müssen autorisiert werden. TPs müssen Integrität erhalten. Die Aufgaben müssen durch die Sicherheitsrichtlinie getrennt werden. Clark-Wilson ist kein mehrschichtiges Sicherheitsmodell, kann jedoch beispielsweise mit Biba kombiniert werden. Es lenkte die Aufmerksamkeit in Richtung alternativer Sicherheitsmodelle, nicht nur auf MLS-Modelle nach militärischem Vorbild. Probleme sind: Die Implementierung von IVPs und TPs für komplexe Sicherheitssysteme ist schwierig. Die interne Transaktion garantiert nicht, dass die Transaktion korrekt war (allerdings ist ein Auditing möglich). Grundlage des Modells ist der Begriff einer Beziehung zwischen einem autorisierten Auftraggeber (zum Beispiel ein Benutzer) und einer Menge an Programmen (etwa TPs), die auf einer Menge von Datenelementen (etwa UDIs und CDIs) operieren. Das Modell muss ebenfalls sicherstellen, dass unterschiedliche Entitäten für die Manipulation der Beziehung zwischen Auftraggeber, Transaktionen und Datenelementen verantwortlich sind. Um dies zu verdeutlichen, kann folgendes kurzes Beispiel betrachtet werden: Ein Benutzer, der eine Beziehung beglaubigen oder erstellen kann, sollte nicht in der Lage sein, ein Programm auszuführen, das in dieser Beziehung spezifiziert wurde. 35

36 Sicherheitsmodelle Das Modell besteht aus zwei Mengen von Regeln: Zertifikatsregeln (engl. Certification Rules, C) und Durchsetzungsregeln (engl. Enforcement Rules, E). Diese Regeln sichern die externe und interne Integrität der Datenelemente. Die Regeln des Modells zur Durchsetzung und Überprüfung definieren Datenelemente und Prozesse, welche die Basis für eine Integritätssicherheitsrichtlinie bereitstellen. Die Grundlage des Modells basiert auf einer Notationsform für Transaktionen. Eine wohlgeformte Transaktion ist eine Reihe von Operationen, die ein Sicherheitssystem von einem konsistenten Zustand in einen anderen konsistenten Zustand transformieren. In diesem Modell befasst sich die Integritätssicherheitsrichtlinie mit der Integrität der Transaktion. Das Prinzip der Teilung von Aufgaben erfordert es, dass der Beglaubiger einer Transaktion und der Implementierer unterschiedliche Entitäten sind. Das Modell enthält unterschiedliche Konstruktionen, die sowohl Dateneinheiten als auch Prozesse repräsentieren, die auf diesen Daten operieren. Der zentrale Datentyp im Clark-Wilson-Modell ist ein eingeschränktes Datenelement. Ein Integritäts-Prüfungsablauf (engl. Integrity Verification Procedure, IVP) garantiert, dass alle eingeschränkten Datenelemente in einem bestimmten Zustand gültig sind. Transaktionen, die die Integritätssicherheitsrichtline durchsetzen, werden durch Transformationsabläufe (engl. Transformation Procedures, TPs) repräsentiert. Ein TP nimmt als Eingabe ein eingeschränktes oder ein uneingeschränktes Datenelement und liefert ein eingeschränktes Datenelement zurück. Ein TP muss den Systemstatus von einem gültigen Zustand in einen weiteren gültigen Zustand überführen. Uneingeschränkte Daten Elemente (UDIs) stellen Eingaben an das Sicherheitssystem dar (z. B. von einem Nutzer oder Angreifer). Ein TP muss garantieren, dass es alle möglichen Werte eines uneingeschränkten Datenelementes in ein sicheres eingeschränktes Datenelement umwandelt. Das Biba-Modell im Vergleich zu Clark-Wilson Beide Modelle haben Integritätsebenen, allerdings besitzt nur das Clark-Wilson-Modell zwei Ebenen für Objekte (CDIs und UDIs) und zwei Ebenen für Subjekte (TPs und andere Prozeduren). Das Biba-Modell bietet jedoch kein Konzept zur Überprüfung. Ebenfalls gibt es keinen Mechanismus zur Prüfung von Entitäten, denen vertraut werden muss. Das Biba-Modell kann das Clark-Wilson-Modell nicht emulieren, umgekehrt kann allerdings das Clark-Wilson-Modell das Biba-Modell durch eine passende Wahl der TPs in den erlaubten Tripeln emulieren. Bedeutung Der Clark-Wilson-Ansatz wurde so angepasst, dass er auf Unix- oder Windows NT-Systemen arbeitet. Einige Modelle für Datenbankintegrität basieren auf dem Clark-Wilson-Modell. 36

37 Sicherheitsmodelle 4.5 Sonstige Modelle Einige Modelle passen in keine der bisher vorgestellten Kategorien, auch nicht durch eine Erweiterung, Modifizierung oder Kombination unter ihnen. Dieser Abschnitt beschreibt deshalb wichtige Sicherheitsmodelle, die nicht in die oben genannten Kategorien einzuordnen sind. Besondere Eigenschaften dieser Modelle werden dabei hervorgehoben British Medical Association -Sicherheitsmodell (BMA) Geschichte Das BMA-Modell entstand nach einer langen Debatte zwischen der britischen Regierung, professionellen Hilfsorganisationen und Sicherheitsexperten. Ein langwieriger Kommunikationsprozess war nötig, um von einer Sichtweise analog zu militärischer Perimeterabsicherung zu einem Ansatz mit multilateraler Sicherheit für medizinische Informationssysteme zu gelangen. Das BMA-Modell analysiert ausführlich Rollen, Verantwortlichkeiten und den (medizinischen) Informationsfluss in IT-Systemen, die von unterschiedlichen Subjekten im Gesundheitswesen verwendet werden. Das Modell wurde 1996 in [Ande1996] beschrieben. Diskussion Das BMA-Modell folgt den Prinzipien, die in [Ande2001] beschrieben werden: Prinzip 1 - Zugangskontrolle: Jede identifizierbare klinische Information muss mit einer Zugangskontrollliste versehen sein, welche die Personen oder Gruppen von Personen enthält, die sie lesen oder die Daten eintragen dürfen. Das Zugangskontrollsystem muss jeden, der nicht auf der Zugangskontrollliste steht, davon abhalten, in irgendeiner Weise Zugang zu der Information zu erhalten. Prinzip 2 - Öffnen einer Information: Ein Klinikmitarbeiter darf eine Informationseinheit öffnen, sofern er und der jeweilige Patient auf der Zugangskontrollliste stehen. Dort, wo ein Patient referenziert wird, kann er die Informationseinheit öffnen, sofern der Patient selbst und der (die) referenzierenden Klinikmitarbeiter auf der Zugangskontrollliste stehen. Prinzip 3 - Kontrolle: Ein Klinikmitarbeiter auf der Zugangskontrollliste muss als Verantwortlicher eingetragen sein. Nur er darf die Zugangskontrollliste abändern und, nur er darf andere Ärzte, Pfleger etc. hinzufügen. Prinzip 4 - Zustimmung und Benachrichtigung: Der verantwortliche Klinikmitarbeiter muss dem Patienten mitteilen, welche Namen auf der Zugangskontrollliste seines Berichtes erscheinen, sobald diese geöffnet wird. Zudem muss er den Patienten über anschließende Änderungen und im Falle einer Übertragung der Verantwortlichkeit informieren. Die Genehmigung des Patienten muss immer eingeholt werden, außer in Notfällen oder im Fall festgelegter Ausnahmen. Prinzip 5 - Nachhaltigkeit: Niemand darf die Möglichkeit haben, klinische Daten vor Ablauf einer festgelegten Zeit zu löschen. 37

38 Sicherheitsmodelle Prinzip 6 - Zuordnung: Jeglicher Zugang zu klinischen Berichten muss mit dem Namen des zugreifenden Subjekts im Bericht eingetragen werden, zusätzlich Uhrzeit und Datum. Ein Auditprotokoll über alle Löschungen muss geführt werden. Prinzip 7 - Informationsfluss: Informationen, die auf einen Bericht A zurückgehen, dürfen genau dann in einen Bericht B aufgenommen werden, wenn die Zugangskontrollliste von B eine Teilmenge derjenigen von A ist. Prinzip 8 - Zusammenführungskontrolle: Es muss effektive Maßnahmen zum Schutz vor der Zusammenführung von persönlichen Gesundheitsdaten geben. Insbesondere Patienten Benachrichtigungen erhalten, falls eine Person, der es erlaubt ist, der Zugangskontrollliste etwas anzufügen, bereits Zugang zu sehr vielen Gesundheitsinformationen besitzt. Prinzip 9 - Trusted Computing Base : Computersysteme, die persönliche Gesundheitsdaten verarbeiten, müssen ein Teilsystem haben, das die o.g. Prinzipien effektiv umsetzt. Seine Effektivität muss durch unabhängige Experten überprüft werden. Bedeutung Das BMA-Modell war eines der ersten umfangreich spezifizierten Modelle, das die Sichtweise weg von einem militärisch orientierten Schutzmodell bewegte. Es bietet ein anwendungszentriertes, multilaterales Sicherheitsmodell, das Arbeitsflüsse, ein Bedrohungsmodell und einen Schutzmechanismus für den Anwendungsprogrammbereich betrachtet. Die BMA-Sicherheitsrichtlinie wird sowohl im Forschungsbereich als auch nach Anderson [Ande2001] in klinischen Umgebungen eingesetzt. Die Formulierung und Ausarbeitung seiner Sicherheitsrichtlinien sind nach der gleichen Quelle in Arbeit Sicherheitsbereiche / Compartmented/Multi-Category Security (MCS) Das Konzept der Sicherheitsbereiche basiert auf einer Philosophie der Aufgabentrennung ( Separation of Duty ). Hierbei werden Objekte in Sicherheitsbereichs der gleichen Zugänglichkeit eingeteilt. Ein Subjekt wird an ein Sicherheitsbereiche gebunden und darf nur Zugang zu Objekten aus demselben Sicherheitsbereich erhalten. Geschichte Nach Anderson [Ande2001] wurden Sicherheitsbereiche wahrscheinlich schon lange von Geheimdiensten verwendet. Die strenge Aufteilung von Kenntnissen in verantwortliche Sicherheitsbereiche schützte Agenten und Geheimnisse. Diskussion Sicherheitsbereiche erstellen zwischen Gruppen von Datenobjekten sehr harte Grenzen. Allerdings müssen die Gruppen definiert werden. Probleme entstehen, wenn entweder die Trennung der Daten aufgrund von Überlappungen der Daten nicht fehlerfrei durchführbar ist oder wegen der Beteiligung eines Subjekts in unterschiedlichen Sicherheitsbereiche. 38

39 Sicherheitsmodelle Bedeutung Sicherheitsbereiche allein sind heute selten anzutreffen. Die Chinese-Wall -Sicherheitsrichtlinie kann als ein Algorithmus angesehen werden, der dynamisch neue Sicherheitsbereiche erstellt und die Mitgliedschaft eines Subjekts zu ihnen definiert. Manche Forscher erweitern das Gittersicherheitsmodell um Kompartmentkennzeichnungen und verwenden es unter dem Begriff Compartmented Security shype -Modell shype [shype] ist eine Hypervisor-Sicherheitsarchitektur, die bei IBM Research entwickelt wurde. Ein Hypervisor ist eine Virtualisierungsplattform, die es erlaubt, mehrere Betriebssysteme gleichzeitig auf einer Computerhardware ablaufen zu lassen [Wiki0004]. Die Hypervisor-Technik hat eine lange Tradition im Bereich der Betriebssysteme. Nach IBM 9 ist das Hauptziel die Bereitstellung einer Basis für Serverplattformen, die folgende Funktionen bereitstellen (Zitat nach [shype]): Starke Isolation, Mediated Sharing und Kommunikation zwischen virtuellen Maschinen10: Diese Eigenschaften werden durch einen Mechanismus zur flexiblen Zugangskontrolle durchgesetzt. Dieser Mechanismus kann vorgeschriebene Sicherheitsrichtlinien, wie mehrschichtige Sicherheit, rollenbasierte Zugangskontrolle und Type Enforcement durchsetzen. Integritätsüberprüfung und Garantien für den Hypervisor und seine virtuellen Maschinen: Wir erweitern die Spezifikation der Trusted Computing Group um hypervisorbasierte Serverplattformen. Unser Ziel ist es hierbei, sicheres oder authentisiertes Starten für die Hypervisorplattform, die virtuellen Maschinen und optional für die Gastbetriebssysteme sowie die in den virtuellen Maschinen ablaufenden Anwendungsprogramme zu garantieren. Um eine große Zahl an virtuellen Maschinen zu unterstützen, haben wir eine virtuelle TPM-Architektur entwickelt, die wir auf dem FLOSS-Hypervisor Xen umgesetzt haben. Ressourcenkontrolle und garantierte Buchführung: Alle Ressourcen werden strikt abgerechnet. Einfache Ressourcen sind z. B. Speicher und CPU-Zyklen. Ein ausführlicheres Ressourcenmanagement ist für die Kontrolle der Netzbandbreite nötig, beispielsweise zur Begrenzung der Bandbreite zu einer virtuellen Maschine. Sichere Dienste: shype bietet eine grundlegende Infrastruktur zur Auflösung von Diensten, wie das Management von Sicherheitsrichtlinien oder verteiltes Auditing in kleinere und leichter zu handhabende, geschützte Ausführungsumgebungen, wodurch die systemweite Nutzung und Sicherheit ihrer Dienste ermöglicht wird. 9 Siehe 10 Eines der Designprinzipien hierbei ist, dass Sicherheit durch die Isolation der Anwendungsprogramme mittels jeweils einer seperaten sicheren virtuellen Maschine erreicht wird. 39

40 Sicherheitsmodelle IBM hat im Bereich der FLOSS-Software eine kleine Sicherheitserweiterung des Hypervisors Xen entwickelt. Sie erlaubt es Administratoren, einfache Sicherheitsrichtlinien zu definieren (derzeit gemäß einem der Modelle Chinese-Wall und Type Enforcement ), die die Fähigkeiten zur Kontrolle und Mehrfachbenutzung von virtuellen Maschinen erlauben, die simultan auf einem einfachen Xen-System laufen. Geschichte Der erste Hypervisor war CP-40 von IBM, ein Forschungsprojekt, das im Januar 1967 entstand und zur ersten Version des CP/CMS-Betriebssystems von IBM wurde. Die weitere Entwicklung der Mainframe -Computer bestand aus Implementierungen und Erweiterungen dieser Technik, auf der Betriebssystemkerne von IBMs Hochverfügbarkeits- Mainframe -Servern, beispielsweise S/360 und S/370, basieren. Diskussion shype ist das Ergebnis von jahrzehntelanger Erfahrung auf Seiten IBMs, was verlässliche Serversysteme, Betriebssysteme und ihre Sicherheitsbelange angeht. Die komplette Virtualisierung von Hardware unterstützt viele Sicherheitsfunktionen, angefangen bei der strikten Trennung der Anwendungsprogramme und Daten, bis hin zur höheren Robustheit der Plattform gegen Fehlfunktionen durch ein einzelnes fehlerhaftes Programm. shype bietet Sicherheitsfunktionen und Schnittstellen, welche die Implementierungen von Sicherheitsmodellen basierend auf der Verlässlichkeit von Hypervisorsystemen ermöglichen. Jedoch benötigt shype einen starken Schutz gegen sehr gut ausgestattete Angreifer und zusätzliche Hardewareunterstützung, um die Betriebssysteme zu schützen. Ein Hypervisorsystem führt zu einem höheren Aufwand des Systemadministrators, da mehrere Instanzen eines oder mehrerer Betriebssysteme und die zugehörigen Sicherheitsumgebungen administriert werden müssen. Bedeutung Im Allgemeinen ist die Hypervisortechnik am Markt gut etabliert. Die Hauptanbieter im UNIX-Bereich, einschließlich Sun Microsystems, HP, IBM und SGI verkauften virtualisierte Hardware schon seit Ende der 90er Jahre. Typischerweise handelt es sich dabei um leistungsstarke Computersysteme (Großrechner). Es gibt zwei Arten der Virtualisierung: Vollvirtualisierung und Paravirtualisierung. Bei der Vollvirtualisierung wird das Gastbetriebssystem nicht modifiziert. Weiterhin hat es keine Kenntnis darüber, dass es in einer Virtualisierungsumgebung läuft. Wird Paravirtualisierung verwendet, muss das Gastbetriebssystem auf die Virtualisierungsumgebung angepasst werden. Das Betriebssystem ist in diesem Fall Teil der Virtualisierungsebene und kann dadurch gezielt optimiert werden. Paravirtualisierung kann aufgrund der erweiterten Optimierungsmöglichkeiten, eine höhere Performance erreichen als Vollvirtualisierung. Mehrere Betriebssysteme wurden angepasst, um als Gastbetriebssystem auf Suns Logical Domains Hypervisor zu laufen. Gegen Ende 2006 wurden Solaris, Linux (Ubuntu und Gentoo) und FreeBSD auf den Hypervisor portiert (die alle simultan auf dem gleichen Prozessor als paravirtualisierte, unabhängige Gastbetriebssysteme laufen können). 40

41 Sicherheitsmodelle Ähnliche Trends wurden auf -x86/x64-plattformen gesehen, wo Virtualisierungsanstrengungen durch FLOSS-Projekte wie Xen, VirtualBox. Und KVM ( Kernel Virtual Machine ) angestoßen wurden. Da sich diese Techniken in großen Serversystemen bis hin zur Verwendung in DesktopPCs finden, werden sie in dem folgenden Abschnitt beschrieben. Proprietäre Programme, die virtuelle Maschinen bereitstellen, sind beispielsweise VMware und deren zugehöriges Hypervisor-Konzept. Einige dieser Virtualisierungssysteme können mit der durch shype hinzugefügten Sicherheitsfunktionalität eine hohe Sicherheit liefern. Anbieter / Implementierung Zugrundeliegendes Modell Betriebssystem Evaluierung NSA, Red Hat / SELinux Bell-LaPadula GNU/Linux keine Free BSD Foundation / Trusted BSD BiBa, LoMAC Trusted BSD keine - / Rule Set Based Access Control Bell-LaPadula (RSBAC) GNU/Linux keine Sun Microsystems / Trusted Bell-LaPadula Solaris Trusted Solaris EAL4+ Microsoft / Windows Vista Windows Vista keine BiBa BiBa, Lattice, BellUnisys / OS 2200 LaPadula, ClarkOS 2200 Wilson TCSEC B1 Argus Systems / Pitbull LX ITSEC E3, TCSEC F-B1 Lattice AIX, Sun Solaris, Linux Tabelle 4.1: Die Implementierung von Sicherheitsmodellen nach [Wiki0001] 41

42 Sicherheitsmodelle 4.6 Sicherheitsmodelle in heutigen Betriebssystemen Dieser Abschnitt präsentiert eine kommentierte Tabelle, die wesentliche Implementierungen von Sicherheitsmodellen enthält. Obwohl einige historisch wichtige Sicherheitssysteme erwähnt werden, spezialisiert sich die Tabelle auf die heutigen, öffentlich erhältlichen Betriebssysteme, die entweder kommerziell oder frei verfügbar sind. Allgemein kann man die Implementierungen von Sicherheitsmodellen in zugelassene und nicht zugelassene Implementierungen einteilen. Zugelassene Implementierungen wurden erfolgreich daraufhin untersucht, einen bestimmten Katalog an IT-Sicherheitskriterien zu erfüllen (etwa TCSEC, [TCSEC1985], ITSEC [ITSEC1991] oder Common Criteria [CC1996]). 42

43 Kapitel 5 Vertrauensmodelle Dieses Kapitel stellt eine Einführung in den Zweck eines Vertrauensmodells, seine Funktionalitäten und Anforderungen sowie die zugehörigen Nutzungsfälle dar. Zentralisiertes Vertrauen und verteiltes Vertrauen sind zwei grundlegende Bezeichnungen, die im Folgenden näher erläutert werden. 5.1 Taxonomie von Vertrauensmodellen Dieses Unterkapitel führt Vertrauensmodelle ein. Vertrauen ist ein zentraler, jedoch doppeldeutiger Begriff in der IT-Sicherheit. Ein Vertrauensmodell ist ein wichtiger Teil in jedem IT-Sicherheitskonzept. Es definiert den vertrauenswürdigen Teil eines Computersystems und die Regeln, nach denen dieses Vertrauen von einer Systemkomponente zur anderen weitergegeben wird. Dieses Kapitel behandelt Fragen der Art: Was ist Vertrauen in der IT-Sicherheit? Wem oder was soll man vertrauen? Was sind die Kategorien eines Vertrauensmodells? Was sind Modellbeispiele zu jeder Kategorie? Die Übertragung von Vertrauen wird genauso eingeführt, wie die Einstufung von Vertrauensebenen. Darüber hinaus werden durch einige Beispiele die Folgen von unterschiedlichen Vertrauensmodellen illustrieren Vertrauen gegenüber Reputation Vertrauen in der IT-Sicherheit liest sich immer als Vertrauen in das korrekte Funktionieren einer technischen Komponente, die sehr wichtig für die Sicherheit eines Computersystems ist. Diese Definition wurde in den 1990er Jahren in einigen wissenschaftlichen Arbeiten über Vertrauens-Management in IT-Systemen und verteilten Computersystemen geprägt. Im Mittelpunkt der Arbeit stand die Authentisierung vom Computersystemen und Software, um deren Vertrauenswürdigkeit zu erhöhen. Mit dem Aufschwung des elektronischen Handels (engl. E-Commerce ) in den späten 1990er Jahren und bis in das einundzwanzigste Jahrhundert hinein wurden viele Erkenntnisse über Vertrauen in den E-Commerce veröffentlicht. Hier war die Interpretation von Vertrauen entweder das Vertrauen der Kunden in ein E-Commerce -Websystem oder das Vertrauen einer Internetfirma in die Beziehungen zu ihren Kunden. Dabei bewegte sich das Vertrauenselement weg vom technologischen Fokus in das Risikomanagement, hin zur finanziellen Sicherheit und zum Betrugsmanagement. Steigende Bedeutung von Peer-to-Peer -Diensten und Web Gemeinschaftsplattformen (engl. Community Platforms ) führte schließlich zu einer Neudefinition von Vertrauen als ein Peer -kontrolliertes, gemeinschaftsbasiertes Vertrauen in das ehrliche Verhalten von Leuten in der Gemeinschaft. Es wird von Wissenschaftlern eher als Reputationsmanagement denn als Vertrauensmanagement bezeichnet. In unserer Studie betrachten wir Vertrauen als Vertrauen in die korrekte Funktionsweise einer technischen Komponente, die wichtig für die Sicherheit eines Computersystems ist, wobei korrekt nichts anderes spezifikationskonform bedeutet. 43

44 Vertrauensmodelle Vertrauensmodelle Die Terminologie, die in Vertrauensmodellen verwendet wird, ist ähnlich der in Sicherheitsmodellen. Es gibt Objekte und Subjekte, wobei Subjekte Individuen, Organisationen oder IT-Komponenten (Hardware, Software) sein können. Vertrauen wird durch ein Konzept weitergegeben. Zur Weitergabe werden beispielsweise Techniken zur Authentisierung durch kryptographische Protokolle genutzt. Zur Umsetzung werden kryptographische Schlüssel in Vertrauensmodellen benötigt, mit denen Zertifikate erzeugt werden. Schlüssel verwendet man als Teil von Zertifikaten. Vertrauensmetriken sind Methoden, die ein Maß für Vertrauen in unterschiedlichen Systemeigenschaften liefern. Es existieren viele Methoden und Ansätze. Die Reichweite geht dabei vom einfachen Zählen bis hin zu Wahrscheinlichkeitsberechnungen. Vertrauensmetriken werden der Vollständigkeit halber erwähnt, jedoch in diesem Text nicht detaillierter besprochen. Vertrauensmodelle Vertrauensmodelle sind Modelle, die beschreiben, wie Sicherheit dazu verwendet wird, um Bedrohungen eines Computersystems abzuwehren. Nach dem ITU-T X.509 Standard, Sektion , wird Vertrauen wie folgt definiert: Eine Entität vertraut einer anderen Entität, falls die erste Entität die Annahme für das Verhalten der zweiten Entität hat und die zweite Entität sich exakt so verhält, wie die Erste es erwartet. Vertrauensmodelle unterstützen damit die Entscheidung über das Verhalten einer anderen Systemkomponente. Jedes Sicherheitsmodell wird einige Vertrauensannahmen in die Funktionsfähigkeit der eingebauten Sicherheitsfunktionalitäten haben. Beispielsweise wird die korrekte Funktionsweise von kryptographischen Algorithmen für ihre Nutzung angenommen. Der Kryptographie selbst wird in Bezug auf ihre Funktionalität vertraut. Ein anderes Beispiel ist die CPU in einem Rechner. Normalerweise gilt die Annahme, dass die CPU kein Programm oder Quelltext böswillig verändert oder löscht. Auch ihr wird vertraut, d. h. dass sie wie spezifiziert funktioniert. Der grundlegende Ansatz von einem Vertrauensmodell ist der Aufbau von Vertrauen in wichtige Systemfunktionen. Um zu einer fundamentalen Idee zu gelangen, wie man Vertrauen in ein Computersystem einbringt, sind aus Sicht eines Entwicklers z. B. folgende Fragen zu klären: Was sind die spezifischen Mechanismen, die notwendig sind, um einem bestimmten Bedrohungsprofil entgegen zu wirken? Wie die implizite oder explizite Überprüfung der Identität einer Entität oder die notwendigen Charakteristika für ein bestimmtes Ereignis oder eine Transaktion erscheinen? Wo ist das Vertrauensmodell verankert und wie stark ist diese Verankerung? Das Modellieren von Vertrauen ist ein von Sicherheitsarchitekten durchgeführter Prozess, in welchem ein Bedrohungsprofil zu einem Vertrauensmodell erstellt wird, welches auf einer von Anwendungsfällen geleiteten Datenflussanalyse basiert. Das Ergebnis beinhaltet Informationen über Bedrohungen, Schwachstellen und Risiken einer IT-Architektur. Ferner identifiziert Vertrauensmodellierung die spezifischen Mechanismen, die notwendig sind, um einem spezifischen Bedrohungsprofil entgegenzutreten. 44

45 Vertrauensmodelle Der Zweck eines Vertrauensmodells ist es, einem spezifischen Bedrohungsprofil entgegenzutreten. Ein Bedrohungsprofil ist eine Menge aus Bedrohungen und Schwachstellen, die durch eine von Nutzungsfällen geleitete Datenflussanalyse für eine bestimmte Organisation identifiziert wurde. Hauptsächlich identifiziert ein Bedrohungsprofil wahrscheinliche Angriffe und ihre Ziele. Die für eine Organisation oder einen Fall wichtige Vertrauensebene kann sich von der Vertrauensebene einer anderen Organisation oder eines anderen Falles unterscheiden. Beispielsweise kann sich die Vertrauensebene, die eine Organisation bei der Authentisierung eines Benutzers benötigt, in bestimmten Fällen unterscheiden. Daher gibt es keine allgemeingültige Lösung, und Vertrauen muss für jeden Nutzungsfall explizit definiert werden. Die Anforderungen an das Vertrauen müssen an einen bestimmten Bedrohungsfall und dessen Schadensausmaß, dem eine Organisation gegenübersteht, angepasst werden. Es muss einen Ansatzpunkt dafür geben, um Beglaubigungen (engl. Credentials ) für Identitäten zu erstellen. Eine allgemeine Form einer solchen Beglaubigung nennt man ein Zertifikat. Ein Zertifikat wird mit Hilfe von kryptographischen Algorithmen erstellt. Es enthält einen öffentlichen Schlüssel, der zu dem geheimen Schlüssel des Zertifikatsbesitzers passt. Ein Zertifikat wird durch eine Zertifizierungsstelle mit einer digitalen Signatur signiert, um die Vertrauenswürdigkeit gegenüber Dritten zu gewährleisten. Vertrauen entsteht nicht spontan. Es erfordert einen methodischen Aufbau an Beglaubigungen und stetigen Überprüfungen. Falls die einfache Existenz von Daten, Zugangsrechten oder die Zugänglichkeit einer Quelle direkt vorliegt, kann Vertrauen direkt vorgefunden werden. Beispielsweise kann einem auf einem Bürocomputer installierten Textverarbeitungsprogramm implizit vertraut werden. Es ist installiert und für Benutzer zugänglich, da man ihm vertraut, korrekt zu funktionieren und annimmt, dass es keine Bedrohung für die Plattform darstellt oder Sicherheitsrichtlinien übertritt. Vertrauensverbreitung (engl. Trust Propagation ) ist ein Ansatz, in dem Vertrauen nicht implizit in einem Vertrauensmodell enthalten ist, jedoch durch eine weitere Entität gesichert werden kann. Eine einfache Form der Trust Propagation ist die Verwendung von Passwörtern, um sich an einem Rechner einzuloggen. Der Besitz des Passwortes zeigt dem Computersystem, dass der Systemadministrator dem Benutzer vertraut. Allgemein gibt es drei Wege um Trust Propagation durch Entitäten in einem Computersystem zu erreichen: 1. Direktes Vertrauen: Eine Entität A und eine Entität B kennen sich gegenseitig (etwa weil sie durch den gleichen Hersteller programmiert wurden). Dies bildet eine direkte Vertrauenskette. 45

46 Vertrauensmodelle Abbildung 5.1: Direktes Vertrauen: Beide Entitäten kennen sich gegenseitig und bilden eine Vertrauensbeziehung. 2. Hierarchisches Vertrauen (auch transitives Vertrauen): Eine Hierarchie von Vertrauen wird gebildet. Eine zentrale Entität, die Zertifizierungsstelle (CA), erstellt für alle vertrauenswürdigen Entitäten Vertrauensbescheinigung z. B. Zertifikate. Die Mitglieder der gleichen Vertrauenshierarchie können sich gegenseitig durch die Überprüfung ihrer Zertifikate erkennen. Dieser Ansatz gleicht der Idee hinter ID-Karten oder Clubkarten. Wer diese besitzt, dem wird der Zugang gewährt. 3. Indirektes Vertrauen oder Netz des Vertrauens (engl. Web of Trust ) (auch spontanes Vertrauen): Indirektes Vertrauen ähnelt dem sozialen Ansatz der Menschen bezüglich Vertrauen. Dabei erstellen Entitäten sich gegenseitig Beglaubigungen, falls sie sich gegenseitig vertrauen. Wenn jede Entität Beglaubigungen für viele andere Entitäten erstellt, entsteht ein Web of Trust. Die Entität, die Vertrauen zu einer anderen Entität sucht, kann eine Liste von Beglaubigungen für die gesuchte Entität von dieser direkt oder von einem Zertifikatsserver erhalten. 46

47 Vertrauensmodelle Abbildung 5.2: Hierarchisches Vertrauen: Entitäten vertrauen sich gegenseitig, basierend auf einer unter ihnen definierten Hierarchie. Die Unterscheidung zwischen hierarchischem Vertrauen und indirektem Vertrauen ist nicht immer klar. In hierarchischen Vertrauenssystemen kann gegenseitig zertifiziert und Brücken zwischen den einzelnen Hierarchien gebaut werden. Ebenso können individuelle Teile des Web of Trust wie eine Hierarchie aussehen, sobald es eine stark verbundene Entität gibt, der viele andere Entitäten direkt vertrauen. Eine wichtige Funktionalität bei hierarchischen Vertrauenssystemen ist, dass es nach Definition genau eine zentrale Entität gibt. 47

48 Vertrauensmodelle Abbildung 5.3: Indirektes Vertrauen oder Web of Trust : Ein Netz aus Beziehungen bildet Vertrauen durch mehrere indirekte Beziehungen und individuelle Vertrauenspräferenzen. Lokales Vertrauen gegenüber verteiltem Vertrauen Eine andere wichtige Unterscheidung im Bereich der Vertrauensmodelle ist der Unterschied zwischen lokalem und verteiltem Vertrauen. Lokales Vertrauen bezieht sich auf ein Computersystem, in dem alle vertrauenswürdigen Entitäten sich innerhalb der Systemgrenzen befinden. Dabei können viele vertrauenswürdige Beziehungen mit direkten Vertrauensverbindungen aufgebaut werden. Die Komponenten von Betriebssystemen können sich gegenseitig mittels Prüfsummen überprüfen. Benutzer können sich mittels biometrischem Fingerabdruckscan authentisieren. Bei lokalen Vertrauensmodellen ist die wichtigste Frage, wie die Komponenten lokal gegen Manipulation oder Fehlfunktion abgesichert werden können. Lokale Vertrauensmodelle behandeln hauptsächlich: ein sicheres Speichern von wichtigen Schlüsseln und Zertifikaten Schutz von Programmen, Konfigurationsdateien, Passwortlisten, etc. Zugangskontrollprivilegien im Computersystem Trennung von Benutzern oder Bereichen auf einem Computersystem Schnittstellen von Computersystemen 48

49 Vertrauensmodelle Verteiltes Vertrauen stellt sich anderen Herausforderungen, die das Modell betrachten muss. In einem verteilten Netz, möglicherweise mit mobilen Komponenten wie Notebooks, erstellen die Entitäten Datenverbindungen durch ein nicht vertrauenswürdiges Netz. Kommunikationspartner, Remote-Login, Datenübertragungen und auch die Remote-Login -Daten müssen behandelt werden. Um unbefugten Zugang zu Daten zu erhalten, wird ein Angreifer einen Angriff auf die Datenfernübertragung einem physikalischen Einbruch in ein Rechenzentrum bevorzugen. In verteilten Vertrauensmodellen wird der Fokus auf folgende Punkte gelegt: die Gültigkeit einer anderen Entität das Sichern der Kommunikation über nicht vertrauenswürdige Kanäle die Administration von Schlüsseln und Beglaubigungen sowie deren sichere Verteilung an andere Entitäten die Überprüfung von anderen Benutzern Im Unterkapitel wird Vertrauen in verteilten Computersystemen eingehender behandelt Objekte in einem Vertrauensmodell Ein Vertrauensmodell umfasst viele Entitäten in einem Konzept. Objekte in einem Vertrauensmodell sind alle Arten von Komponenten, Softwaremodulen, Hardwaremodulen oder Beglaubigungen, die wichtige Teile des Sicherheitsmodells darstellen. Diese Darstellung orientiert sich an den Bereichen, die in Abbildung 4.1 im Kapitel über die Zugangskontrolle eingeführt wurden, und beginnt mit dem innersten Bereich, der Hardware. Hardware-Bereich Im Hardwarebereich definiert das Vertrauensmodell, welchen Hardwareobjekten auf welcher Ebene vertraut werden kann und wie mit Risiken umgegangen wird. Beispielsweise können folgende Fragen bei sicherheitskritischer Betrachtung gestellt werden: Löscht eine Festplatte die Daten tatsächlich, wenn eine Datei gelöscht wird, oder sollte der Datenträger physikalisch zerstört werden, sobald er aus dem Computersystem entfernt wird? Kann dem Prozessor, der Funktionsweise des Mainboards oder den Schnittstellen vertraut werden? Könnte beispielsweise das BIOS der Grafikkarte bösartigen Quelltext enthalten, der Daten auf dem Bildschirm manipuliert? Kann man die Strahlung des Bildschirms abfangen und damit Erkenntnisse über den Bildschirminhalt erhalten? Bei welchen Schwachstellen kann durch die Verwendung von Sicherheitshardware vorgesorgt werden, wie z. B. durch kryptographische Module, Smartcards oder eine vertrauenswürdige Plattform? Was passiert mit den vertrauenswürdigen Beziehungen in einem Computersystem, wenn eine Hardwarekomponente nicht mehr vertrauenswürdig arbeitet? Für die Zusicherung der Hardwarefunktionalität gibt es mehrere Zertifizierungsschemata. Die Evaluierung oder Zertifizierung nach ITSEC oder Common Criteria kann in mehreren Stufen der Untersuchungstiefe durchgeführt werden. Jedoch wird diese Evaluierung für einen bestimmten Nut49

50 Vertrauensmodelle zungsfall mit seinen spezifischen Annahmen zu Vertrauen und Sicherheit durchgeführt. Beispielsweise kann es wertlos sein, einem kryptographischen Modul zu trauen, falls ein autorisierter Benutzer einem nicht-autorisierten Benutzer Zugang zu einem Computer ermöglicht, was dazu führt, dass dieser nun das kryptographische Modul benutzen kann. Eine sichere Autorisierung der Benutzer muss in den Bedingungen des Zertifikates gefordert werden. Das Austauschen, Reparieren oder Aktualisieren von Hardwarekomponenten kann zu Problemen führen. Die alten Vertrauensbeziehungen in einem Computersystem können zerstört oder geändert werden. Bei Wartungen durch Techniker wird z. B. Zugang zu dem Sicherheitskern der Hardware gewährleistet. Daher sind Wartungsarbeiten oftmals vertrauenskritisch, vor allem bei hohen Vertrauensanforderungen [Ande1999]. Deshalb sollen Vertrauensmodelle und Sicherheitsrichtlinien nicht nur die bestmögliche Hardwarekonfiguration spezifizieren, sondern auch Alternativen für Wartungsarbeiten und andere Maßnahmen bereitstellen. Softwarebereich Nachdem die Hardware eines Computersystems arbeitsbereit ist, muss das Betriebssystem für die Benutzer und die notwendigen Anwendungsprogramme gestartet werden. Ein Urlader (engl. Bootloader ) lädt das initiale Startprogramm in den Systemspeicher (es ist auf einem Chip gespeichert, einem Sektor der Festplatte oder auch einem USB-Stick). Der Bootloader überzeugt sich vom initialen Status der Hardware und lädt das Betriebssystem. Bootloader, BIOS und vergleichbare Komponenten sind sehr wichtig im Vertrauensmodell: Sie sind die Software, die alles Nachfolgende beeinflussen kann. Sie besitzen meist direkten Zugang zu Computerressourcen, was zur Folge hat, dass diese Komponenten sehr gut vor Manipulationen geschützt werden müssen. Nach dem Bootloader wird das Betriebssystem gestartet. Da das Betriebssystem die meisten Daten sowie die Ausführung der Anwendungsprogramme kontrolliert, müssen hier die Vertrauensbeziehungen garantiert und überprüft werden, was nicht einfach zu erreichen ist. Anwendungsprogramme sind ebenso zu betrachten: Anwendungsprogramme sollen die Sicherheit nicht kompromittieren dürfen, etwa durch unsichere Kommunikation mit anderen Computersystemen oder durch das Laden von Programmen in den Computer, wodurch letztendlich Viren installiert werden können. Es wird generell empfohlen, die verschiedenen Softwareschichten hinsichtlich ihrer Bedeutung im Bedrohungsmodell oder Vertrauensmodell zu untersuchen. Beispielhafte Fragen für die Spezifikation des Vertrauensmodells sind: Kann ein Programm das BIOS manipulieren? Wer darf unter welchen Bedingungen das Betriebssystem verändern im Sinne von Korrigieren oder Aktualisieren? Wie lange darf das Betriebssystem ohne eine Aktualisierung beschrieben werden? Wo und wie speichern und schützen Anwendungsprogramme anwendungsspezifische kryptographische Schlüssel? Kann Schadsoftware Zugang zu diesen erhalten? 50

51 Vertrauensmodelle Kryptographische Schlüssel Kryptographische Schlüssel spielen eine bedeutende Rolle im Vertrauensmanagement. Da diese Schlüssel nur eine geringe Größe aufweisen, können sie leicht kopiert und entwendet werden. Die sichere Installation, Speichern und Verwendung von kryptographischen Schlüsseln ist für ein Vertrauensmodell essentiell. Sie können durch Hardware oder durch Software geschützt und verarbeitet werden. Abhängig vom Risiko des Einsatzes und der benötigten Sicherheitsebene ist ein Hardwarebasierter Schutz der Schlüssel unvermeidbar. Man kann folgende Hierarchie in der Sicherheit der Schlüsselverwaltung aufstellen (eine höhere Zahl bedeutet eine geringere Sicherheit): 1. Schlüssel werden nur auf Hardware zur Schlüsselverwaltung ( Hardware Security Module, HSM z. B. TPM, Smartcard) erstellt, gespeichert und verarbeitet. 2. Schlüssel werden in gesicherten Bereichen der Hardware gespeichert, aber von der CPU verarbeitet und daher temporär in den Speicher geladen. 3. Schlüssel werden in verschlüsselter Form auf einem Massenspeicher gespeichert, aber von der CPU ver- und entschlüsselt, verarbeitet und daher temporär in den Speicher geladen. 4. Schlüssel liegen unverschlüsselt auf einem Massenspeicher. Eine Verwendung hochsicheren kryptographischen Modulen ist jedoch nicht sinnvoll, wenn andere Sicherheitsrichtlinien den einfachen Zugang zu diesen Modulen erlauben, wie in [Ande1999] im Falle der kompromittierten Geldautomaten Subjekte in Vertrauensmodellen Subjekte in Vertrauensmodellen sind Benutzer eines Computersystems oder abstrakte Entitäten, die nach einer bestimmten Rolle handeln. Dabei ist eine allgemeine Unterscheidung im lokalen wie auch im verteilten Falle hilfreich. Im Umgang mit Subjekten befasst sich ein Vertrauensmodell mit der Authentisierung und Autorisierung von Benutzern, die Zugang zu einem Computersystem erhalten. Der Zugang zu einem Computersystem bezieht sich nicht immer auf dessen direkte Benutzung, sondern auch auf die Möglichkeit, Zugang zu der Hardware des Computersystems zu haben, z. B. durch Systemadministratoren oder anderes Wartungspersonal. Wenn die Annahme aufgestellt wird, dass der Computer mit der Smartcard, die den geheimen Schlüssel der Firma enthält, sicher ist, da er in einem Tresor sicher verwahrt wird, wird immer implizit angenommen, dass die Person, die den Tresorschlüssel besitzt, vertrauenswürdig ist, was jedoch explizit modelliert werden sollte. Eine hilfreiche Unterscheidung ist die zwischen guter und bösartiger Verwendung eines Konzeptes. Ein bösartiger Benutzer versucht, Privilegien und Gelegenheiten auszunutzen, um die Sicherheitsrichtlinien zu überschreiten. Ein typischer Schutz gegen bösartiges Verhalten ist die Deaktivierung der USB-Ports am PC, sodass Daten nicht mittels USB-Datenträger entwendet werden können. Wenn jedoch ein vertrauenswürdiger Benutzer schlicht vergisst, seine Ausdrucke aus dem Drucker zu holen, ist dies schwierig in einem Vertrauensmodell zu betrachten. Entitäten sind Computer, Systemprozesse oder Dienste, die Teil des Computersystems sind. Entitäten handeln nicht zwingend im Interesse des realen Benutzers. Sie führen schlicht eine Aufgabe des Computersystems aus. Z. B. können regelmäßige Sicherungen von Massenspeichern durch eine Entität Backup Process (Sicherungsprozess) durchgeführt werden. Wenn diese Entität Leserechte 51

52 Vertrauensmodelle auf einem Teil der Festplatte mit Geheimnissen besitzt, können diese Geheimnisse leicht auf ein Magnetband geschrieben werden, welches wiederum leicht zu stehlen ist. Die Entität Backup Process verlangt ähnliche Beachtung wie ein Benutzer, der Zugang zu dem Computersystem besitzt. Sollte die Autorisierung oder Verschlüsselung durch eine andere Entität erfolgen, muss diese Vertrauensbeziehung zusätzlich geprüft werden, um systemweites Vertrauen gewährleisten zu können. 5.2 Vertrauen in verteilten Computersystemen Die Erweiterung von einem lokalen Netz zu einem verteilten Computersystem erfordert eine Neudefinition des Vertrauensmodells, welches für das Sicherheitsmodell verwendet wird. Während alle vertrauenswürdigen Komponenten in einem lokalen Netz Gegenstände der physikalischen Sicherheit, genauso wie der lokalen administrativen Kontrolle sind, kann man einem fremden Computersystem nicht per Definition vertrauen. Eine Art Vertrauensbeglaubigung (engl. Trust Certification ) wird zur Unterscheidung eines vertrauenswürdigen von einem nicht vertrauenswürdigen Computersystem benötigt. Mechanismen zum Aufbau von Vertrauen in fremden Computersystemen werden in diesem Unterkapitel erläutert, wie etwa Zertifikate und Integritätsüberprüfung (engl. Remote Attestation ) Einführung von verteilten Vertrauensanforderungen Wie zuvor erwähnt, erfordert Vertrauen in verteilten Computersystemen unterschiedliche Ansätze, im Gegensatz zu lokalem Vertrauen in einfachen Computersystemen. Eigenschaften verteilter Computersysteme sind: Mehrere Maschinen: Teile eines Computersystems sind lokal verfügbar, laufen aber auf anderen Maschinen. Externe Benutzer: Benutzer an verteilten Maschinen müssen identifiziert und autorisiert werden. Nicht vertrauenswürdige Kommunikationsnetze: Öffentliche, private oder unsichere Netze können für Systemverbindungen verwendet werden. (mögliche) Mobilität: Teile eines Computersystems sind mobil (z. B. mit GPRS/UMTS), nicht dauerhaft angeschaltet und haben wechselnde Netzcharakteristika. Ad-hoc -Zusammenschlüsse: Teile eines Computersystems können lokale Ad-hoc Verbindungen mit anderen Computersystemen eingehen (z. B. Drucken mit Infrarotverbindung, Datenaustausch via Bluetooth). Ansammlung an Webdiensten: Ein Dienst wird aus modularen Webdiensten zusammengesetzt, die leicht auszutauschen sind, ohne dabei das komplette Anwendungsprogramm umzustellen. Überall vorhandene Interaktionen mit Umgebungssystemen: Die Komponenten eines Computersystems interagieren mit einer computerisierten Umgebung (z. B. ein Mobiltelefon wird fortwährend die Position des Benutzers über die umgebenden Mobilfunkstationen übermitteln, solange es nicht ausgeschaltet ist). 52

53 Vertrauensmodelle Im Gegensatz zu verteilten Computersystemen stellen lokale Netze höhere Anforderungen an die Autorisierung. Zentrale Blöcke von verteilten Vertrauensmodellen sind folgende: Sichere Netzverbindungen: Herkömmlicherweise werden für sichere Netzverbindungen Protokolle wie SSL, TLS oder IPSec verwendet. Manchmal kann Unbeobachtbarkeit gefordert sein, was jedoch schwer zu implementieren ist. Fernbeglaubigungen: eine Plattform, bei der sich Benutzer und Entitäten per Netzverbindung identifizieren können. Externe Integrität: Ein Mechanismus, um die Integrität der Software von anderen Computersystemen zu prüfen, bringt Wissen über die Software auf anderen Computersystemen. Gewährleistung der Verfügbarkeit: Schutz vor Denial-of-Service -Angriffen bzw. die Erreichbarkeit wichtiger Computersysteme Techniken für verteiltes Vertrauen Schlüsselmanagement ist die zentrale Maßnahme für Vertrauen in verteilten Computersystemen. Kryptographische Schlüssel und Algorithmen werden für viele Prozesse zur Erschaffung von Vertrauen gebraucht. Man verwendet sie für sichere Verbindungen, zur Benutzerauthentisierung, Überprüfung der Integrität und Identifizierung von anderen Computersystemen. Schlüsselmanagement basiert auf einer Public Key Infrastructure (PKI), bei der öffentliche Schlüssel offen verteilt werden können, die anschließend von anderen zur Verschlüsselung und Überprüfung verwendet werden können. Eine PKI hat mindestens eine Beglaubigungsinstanz (engl. Certificate Authority, CA), welche Zertifikate ausstellt. Diese Zertifikate enthalten öffentliche Schlüssel und zusätzliche Daten, signiert von der CA. Zertifikate können in kryptographischen Protokollen verwendet werden, um sichere Kanäle zur Kommunikation aufzubauen, Daten zu signieren, Daten zu verschlüsseln sowie um Entitäten zu authentisieren. Zertifikate können in vielerlei Hinsicht dazu verwendet werden, in einem verteilten Computersystem Vertrauen zu erzeugen. Beispiele hierfür sind: Aufbau sicherer Kommunikationskanäle Authentisierung von weiteren Entitäten (z. B. Benutzeridentitäten) Autorisierung von Aktionen Überprüfung der Integrität von Daten oder Programmen Erstellung von sicheren Evaluierungsanforderungen Jedoch ist das Absichern eines verteilten Computersystems, welches sichere und vertrauenswürdige Hardware, Betriebssysteme und Anwendungsprogramme verwendet, die auf Basis von Zertifikaten authentisiert werden, eine schwierige Angelegenheit: Jede Installation und jeder Änderung einer Komponente könnte ein neues Zertifikat erfordern. Dieses müsste wiederum in einem verteilten Computersystem weiterverbreitet bzw. den anderen Entitäten zugänglich gemacht werden. Die Remote Attestation (Integritätsüberprüfung) ist eine wichtige Technik für Vertrauen in verteilten Computersystemen. Remote Attestation (RA) stellt die Fähigkeit bereit, die Hardware- und Softwarekonfiguration von einem fremden Computer sicher zu kennen. Dies ist ein auf Kryptogra53

54 Vertrauensmodelle phie basierender Ansatz, der durch Trusted Computing Verbreitung gefunden hat. Die Basis ist eine Hardware-Unterstützung für die Überprüfung Software (beschrieben in Kapitel 6.1) sowie Software, die den Status eines anderen Computersystems überprüfen kann. Werden hierbei Zertifikate und Signaturen verwendet, so können von einem beteiligten Computersystem keine falschen Softwarekonfigurationen unbemerkt übermittelt werden. Während diese Fähigkeiten viel Kritik durch Aktivisten gegen digitale Rechteverwaltung erhalten hat, wurden die Vorzüge ebenso mit großem Einsatz präsentiert. Ein Computersystem, das Remote Attestation verwendet, kann überprüfen, ob z. B. ein anderer Computer tatsächlich eine bestimmte Version eines Web Shop -Anwendungssystems installiert hat. 5.3 Vertrauensbeziehungen Vertrauen kann als eine Beziehung zwischen Computersystemen ausgedrückt werden, wie dies beispielsweise zwischen Menschen oft durch ein soziales Netzwerk und gegenseitige Verantwortung aufgebaut wird oder es Autoritäten in Hierarchien gibt. Dieses Unterkapitel ist eine Einführung in die zwei grundlegenden Ansätze für den Aufbau von Vertrauensbeziehungen: Netz des Vertrauens (indem eine Querüberprüfung von vertrauenden Entitäten durchgeführt wird) und hierarchisches Vertrauen (indem Vertrauensbeziehungen gemäß einer zentralen Entität in einer Hierarchie aufgebaut werden). Die Ergebnisse dieser Ansätze werden analysiert und besprochen Hierarchisches Vertrauensmodell Das hierarchische Vertrauensmodell erfordert die Erstellung und Überprüfung aller Zertifikate durch eine CA. Um korrekt zu funktionieren, ist Vertrauen in die CA erforderlich. Dies wiederum ist der Grund für die harten Sicherheitsanforderungen, die an CAs gestellt werden, die elektronische Signaturzertifikate erstellen, welche in der Europäischen Union nach dem Signaturgesetz rechtlich verbindlich sind. Die CA stellt signierte Zertifikate aus, d. h., sie baut eine Vertrauensbeziehung mit dem Eigentümer der Zertifikate auf. Normalerweise wird der hierarchische Ansatz für zentralisierte Computersysteme benutzt und spiegelt eine organisatorische Hierarchie wieder. Alle Mitglieder, die versuchen, den Besitzer eines Zertifikats auf seine Vertrauenswürdigkeit hin zu überprüfen, überprüfen, ob dieser ein von ihrer CA gültiges Zertifikat besitzt. Vertrauen kann in diesem Modell dadurch fortgepflanzt werden, dass Sub-CAs eingeführt werden, denen es erlaubt ist, Zertifikate für Entitäten zu erstellen (z. B. eine Abteilung kann ihre eigenen Zertifikate erstellen). Die Sub-CA wird ein signiertes Zertifikat der zentralen CA besitzen und damit eine vertrauenswürdige Beziehung zur zentralen CA aufbauen. Ein Zertifikat von der Sub-CA wird mit dieser verkettet und wird bei Verwendung direkt zur CA weitergeleitet. Ein offenes Problem bleibt: Woher weiß der Integritätsüberprüfer, dass eine Sub-CA existiert und wie kann er die Vertrauensbeziehung zur zentralen CA überprüfen? Zu diesem Zweck haben CAs ein Zertifikatsverzeichnis, das verwendet wird, um Zertifikate nachzuschlagen. Wenn ein Integritätsüberprüfer ein Zertifikat mit einer unbekannten Signatur einer CA erhält, kann er im Verzeichnis prüfen, ob dieses von einer Sub-CA ist, die seiner zentralen CA bekannt ist. Falls dies der Fall ist, kann er ebenfalls das Zertifikat prüfen, welches die Vertrauensbeziehung zwischen Sub-CA und CA aufbaut. 54

55 Vertrauensmodelle Ein letzter wichtiger Punkt ist der Widerruf von Zertifikaten. Um eine Vertrauensbeziehung zu beenden, wird das jeweilige Zertifikat als widerrufen (engl. revoked ) im Verzeichnis der jeweiligen CA markiert und/oder auf die Zertifikatswiderrufsliste (engl. Certificate Revocation List, CRL) der CA gesetzt Web of Trust Das Web of Trust -Modell zielt darauf ab, ein dezentralisierter Ansatz zu sein. Als Ausgangspunkt von Vertrauen wird eine vertrauenswürdige Instanz (engl. Introducer ) benötigt, die somit eine vertrauenswürdige Entität ist. Ein Web of Trust hat viele vertrauenswürdige Instanzen. Die Rolle eines Introducers ist es, einer anderen Entität im Web of Trust Vertrauen auszusprechen. Sei A ein Introducer und B die Entität, der neu Vertrauen durch A ausgesprochen werden soll, funktioniert dies durch A s Beglaubigung von B s öffentlichem Schlüssel. Dazu signiert A das Zertifikat von B. Wenn man sich A als eine zentrale CA ohne weitere Introducers vorstellt, so sieht dies auf den ersten Blick fast wie das hierarchische Vertrauensmodell aus. Es kann jedoch beliebig viele Introducer geben, da jede Entität als vertrauenswürdige Instanz agieren kann. Das Ergebnis ist ein Netz von quervernetzten Vertrauensbeziehungen von Entitäten mit vielen direkten und indirekten Vertrauensbeziehungen. Weil jedoch eine zentrale CA mit der Autorität Vertrauen zu erstellen fehlt, muss jeder Teilnehmer im Web of Trust darüber entscheiden, wer die vertrauenswürdigen Instanzen sind. Dies geschieht, indem jedem Introducer in jedem persönlichen Schlüsselordner der Entitäten ein Vertrauenslevel zugewiesen wird. Zertifikatswiderrufe erfolgen beim Web of Trust durch einen spezielles Widerrufs- Signaturen (so zu sagen Entglaubigungen ), die der Zertifikatsaussteller (meist die Entität selbst) erstellen und über das Netz der OpenPGP- Keyserver verteilen kann. Das Konzept des Web of Trust wurde durch die PGP-Verschlüsselungs-Software eingeführt und später in der OpenPGP-Spezifikation dokumentiert. In vielen Nachfolgern wie PGPi und insbesondere GnuPG/GPG ( GNU Privacy Guard [GNUP2004]) wurde OpenPGP implementiert Diskussion des Hierarchischen Vertrauens gegenüber Web of Trust Das Hierarchische Vertrauensmodell bildet eine starke, zentralisierte Kontrolle über die Vertrauensbeziehungen. Bei Verwendung von Verzeichnissen können sehr große Strukturen oder Sammlungen aus Entitäten entstehen, welche durch die CA zertifiziert werden. Der Vorteil für Integritätsüberprüfer in hierarchischen Vertrauensmodellen ist die Tatsache, dass sie nur das jeweilige Verzeichnis prüfen müssen, ob ein vertrauenswürdiger Pfad zur CA vorhanden ist, in dem Zertifikate miteinander verkettet werden. Die Verbindung zur zentralen CA muss aufgebaut und daraufhin überprüft werden, dass kein Zertifikat im Pfad zur CA ungültig ist. Der Nachteil dieser hierarchischen Herangehensweise ist ihre Zentralität. Es gibt einen verwundbaren Punkt, die CA. Wenn das Zertifikat der CA kompromittiert oder das Verzeichnis manipuliert wurde, sind die gesamten Vertrauensbeziehungen wertlos, und alle Zertifikate müssten neu erstellt werden. Wenn ein Verzeichnisserver nicht verfügbar ist, ist keine Überprüfung möglich. Auch kann der Widerruf von Zertifikaten in großen Strukturen mit vielen Zertifikaten großen Aufwand verursachen. Man stelle sich ein Programm auf Notebooks vor, welches mittels eines Zertifikats einer 55

56 Vertrauensmodelle CA signiert ist. Wenn dieses Programm einen Fehler aufweist, welcher dazu führt, dass dem Programm nicht mehr vertraut wird und daher das Zertifikat widerrufen wird, müssen alle Notebooks online gehen und die CA konsultieren, bevor die IT-Infrastruktur als Ganzes wieder als sicher betrachtet werden kann. Mit dem Web of Trust wird der zentralisierte Aspekt vermieden. Auch dieser Ansatz hat Vor- und Nachteile. Es ist wenig bis gar keine zentrale Verwaltung möglich, wenn das Web of Trust Vertrauensebenen zu jeder Datenbank eines teilnehmenden Introducers pflegt. Das Web of Trust hat keinen zentralen verwundbaren Punkt wie eine CA. Die Entscheidung, ob ein Introducer vertrauenswürdig ist oder diesem nicht länger vertraut werden kann, ist kein einfach zu lösendes Problem. Ein Informationskanal ist erforderlich mit all seinen Problemen bezüglich der Vertraulichkeit und Integrität. Das Web of Trust funktioniert am besten mit vielen direkten Vertrauensbeziehungen und einer zentralen Zertifikatswiderrufsliste (CRL). 5.4 Implementieren des Vertrauensmodells und des Vertrauensankers Dieser letzte Abschnitt über Vertrauen in IT-Systemen behandelt Implementierungen von Vertrauensmodellen. Neben der Definition der vertrauenswürdigen Teile eines Computersystems in einem Vertrauensmodell ist ebenso die Implementierung dieser für die Qualität des ganzen Sicherheitssystems verantwortlich. Wichtig ist hier der Vertrauensanker, welcher der erste sichere Teil des Konzeptes ist, denn auf diesen bauen alle weiteren Sicherheitsmechanismen auf (vergleichbar mit dem Fundament in einem großen Gebäude - es muss stabil und stark genug sein, um ein Gebäude dauerhaft zu tragen) Zentrale vertrauenswürdige Dritte Dieser Ansatz basiert auf dem hierarchischen Vertrauensmodell. Eine zentrale CA ist für die Ausstellung von Zertifikaten und deren Widerruf verantwortlich. Alle Entitäten überprüfen Zertifikate vor ihrer Benutzung. Ein weitverbreitetes Beispiel für einen zentralisierten Ansatz sind die SSL-Serverzertifikate von Webservern. Webbrowser haben eine eingebaute Liste von CA-Zertifikaten (weitere CA-Zertifikate können nachträglich installiert werden). Wenn eine Webseite ein SSL-Zertifikat benötigt, dass von einer dieser CAs ausgestellt ist, wird der Webbrowser automatisch die Vertrauensbeziehung prüfen und ggf. und eine verschlüsselte Verbindung aufbauen. Zertifikate sind oftmals Datenstrukturen im X.509-Format. X.509-Zertifikate entsprechen dem internationalen ITU-T X.509-Standard. Deshalb können X.509-Zertifikate, die durch ein Programm erstellt wurden, durch jedes Anwendungsprogramm, das zu X.509 kompatibel ist, verwendet werden. Leider haben in der Praxis mehrere Firmen ihre eigenen Erweiterungen zu X.509 implementiert, die nicht alle zueinander kompatibel sind. Ein Zertifikat erfordert eine Institution, die überprüft, ob ein öffentlicher Schlüssel und der Name des Schlüsseleigentümers zusammengehören. Bei X.509-Zertifikaten ist dieser Überprüfer immer eine CA oder ein von der CA autorisierter Überprüfer. Ein X.509-Zertifikat ist eine Sammlung von Informationen über einen Benutzer oder ein Gerät und dessen zugehörigen öffentlichen Schlüssel. Der X.509-Standard beschreibt, welche Informationen in das Zertifikat einfließen und wie diese zu codieren sind. 56

57 Vertrauensmodelle Die Sicherheit und Verlässlichkeit der CA und ihres Verzeichnisses ist kritisch für die praktische Sicherheit des zentralisierten Ansatzes. Die CA muss zu jeder Zeit zum Zweck der Zertifikatsüberprüfung erreichbar sein. Wo ein hohes Maß an Vertrauen in die Zertifikate erwartet wird, wird die CA in einem Hochsicherheitsrechenzentrum untergebracht. Sie wird redundant an unterschiedlichen, gleichermaßen vertrauenswürdigen Stellen aufgebaut und verfügbar gehalten, für den Fall, dass eines der Rechenzentren versagt. Ein praktisches Beispiel hierfür sind die CAs für rechtsverbindliche digitale Signaturen Vertrauenswürdige Dritte Ein verteilter Vertrauensansatz basiert auf der Verteilung von sicherer Hardware mit Zertifikaten und Schlüsseln in vernetzten Computersystemen. Dabei werden mehr oder weniger direkte Vertrauensbeziehungen durch die installierten Zertifikate in hardwarebasierten Sicherheitsmodulen aufgebaut. Ein Sicherheitsmodul ist eine spezielle Hardware (engl. Hardware Security Module, HSM), die zur Kryptographie und sicheren Speichern von z. B. Schlüsseln verwendet wird. Sie ist üblicherweise z. B. durch den Zusatz von Chemikalien gegen Manipulation geschützt, die einen wichtigen Teil des Sicherheitsmoduls bei dem Versuch zerstört, dieses zu öffnen. Alternativ besteht die Möglichkeit, wichtige elektrische Teile, die zur Funktion notwendig sind, in das Gehäuse zu integrieren. Die Sicherheitsmodule sind Komponenten der Entitäten. Die Kooperation der verteilten Entitäten wird unter Verwendung der Sicherheitsmodule und ihrer Zertifikate gewährleistet. Praktische Beispiele sind Geldautomaten, die mit Sicherheitsmodulen ausgestattet sind oder Geräte für verschlüsseltes Bezahlfernsehen. Sobald ein Problem auftritt, das die Rücknahme von Schlüsseln oder den Austausch von sicherheitsrelevanten Elementen erfordert, muss oftmals das Sicherheitsmodul durch den Hersteller ausgetauscht oder aktualisiert werden. Bei Geldautomaten wird das Sicherheitsmodul ausgetauscht. Geräte für Bezahlfernsehen hingegen erhalten eine neue Smartcard mit neuen Schlüsseln und Kryptoalgorithmen Vertrauensanker Vertrauensanker sind öffentliche Schlüssel und dazugehörige Informationen, denen eine Programmanwendung oder ein Computersystem direkt vertraut, um digitale Signaturen zu überprüfen. Die Originalität (Echtheit) einer Entität ist der Ursprung aller Vertrauensmodelle. Dies führt zu der Situation, dass alle Entitäten, bevor sie sich vertrauen, von der Identität der anderen Entität überzeugt sein müssen, bevor sie mit dieser kommunizieren und Transaktionen durchführen. Der Grad des Vertrauens, der erforderlich ist, um die andere Entität zu überzeugen, sollte in einer öffentlichen Sicherheitsrichtlinie spezifiziert werden. Wie der Name impliziert, tritt die originale Authentisierung einer Entität nur einmal am Beginn einer Vertrauensbeziehung auf. Bei der originalen Authentisierung einer Entität wird eine Beglaubigung (ein Zertifikat) erstellt, die durch eine verbundene Entität überprüft oder referenziert werden kann. Um einen verlässlichen Prozess zur Überprüfung der Authentisierung zu ermöglichen, müssen Beglaubigungen eindeutig und an eine Entität gebunden sein. Zudem sollte ein abgestimmtes und standardisiertes Format für Vertrauensbescheinigungen vorhanden sein, genauso wie für die zum Prüfen verwendeten Protokolle. 57

58 Vertrauensmodelle Das Zertifikat einer Entität ist ein kritischer Teil der Vertrauenskette und für Angreifer ein lohnenswertes Ziel. Wie zuvor erläutert, ist der private Schlüssel der zentralen CA in einem hierarchischen Vertrauensmodell extrem kritisch. Der private Schlüssel der CA muss geschützt werden, andernfalls könnte ein Angreifer Zertifikate ausstellen und eine korrupte CA aufbauen. Eine verbreitete Technik zur Sicherung eines Vertrauensankers ist die Aufbewahrung des Vertrauensankers in einem Sicherheitsmodul (HSM), z. B. in einer Smartcard oder durch Einbettung des Vertrauensankers in der Computerplattform (z. B. TPM). Verbreitete Probleme bei der Verwendung von Vertrauensankern sind: die Verwaltung der Lebenszyklen von Vertrauensankern (wie sie aktualisiert, verteilt und widerrufen werden) die Pflege mehrerer Vertrauensanker in einer verteilten Infrastruktur die zum Speichern der Vertrauensanker verwendete Hardware wird durch den technischen Fortschritt unsicher 58

59 Kapitel 6 Alternativen und Kombinationen Dieser Abschnitt präsentiert alternative Konzepte und entstehende Sicherheitstechniken. Der Fokus liegt insbesondere auf Trusted Computing, einer aus Hard- und Software bestehenden Architektur, die eine vertrauenswürdige Plattform bietet. Diese wird im Folgenden eingeführt und erläutert. Dazu werden mögliche Kombinationen beschrieben, die Trusted Computing verwenden und die im vorherigen Kapitel beschriebenen Sicherheitskonzepte und Modelle verfeinern. Viele der in Kapitel 4 vorgestellten Sicherheitsmodelle können durch die Verwendung von Trusted Computing in einem vertrauenswürdigen Computersystem verankert werden. Beispiele und Limitierungen für diesen Ansatz werden in diesem Kapitel ebenso aufgezeigt. 6.1 Trusted Computing und seine Klassifizierung Als eine Entwicklung in der IT-Sicherheit hat Trusted Computing (manchmal mit Bezug auf sichere Plattformen, engl. Trusted Platforms ) die Schlagzeilen gefüllt mit kontroversen Debatten über Freiheiten im Zusammenhang mit der Nutzung von Computern. Wie in Unterkapitel 2.3 erwähnt, hat das Potenzial des Trusted Computing zur Bildung eines Sicherheitsankers und damit die verbundene Umsetzung von Sicherheitsmodellen zu einer sehr emotionalen Mediendebatte geführt. Dieses Unterkapitel ist eine Einführung in das Konzept des Trusted Computing nach der Spezifikation der Trusted Computing Group [TCG0001]. Es werden grundlegende Modelle und Funktionalitäten eingeführt sowie Beispiele bereitgestellt. Auch wird eine kurze Übersicht über Betriebssysteme gegeben, die Trusted Computing unterstützen Die Trusted Computing Group (TCG) Die Trusted Computing Group entwickelte sich aus der Trusted Computing Platform Alliance (TCPA), welche ein Arbeitsgruppe Industrie-Konsortium war, das sich mit der Entwicklung von Sicherheitsmechanismen auf Computerplattformen beschäftigte. Gründungsmitglieder waren Compaq (heute ein Teil von Hewlett-Packard), Hewlett-Packard, IBM, Intel und Microsoft im Januar Im Oktober 1999 veröffentlichte die TCPA eine vorläufige Spezifikation und eröffnete anderen Unternehmen die Möglichkeit, an nicht öffentlichen Arbeitstreffen teilzunehmen. Im August 2000 wurde die erste öffentliche Version der TCPA-Spezifikation zur Kommentierung freigegeben und wurde als TCPA-Spezifikation 1.0 im Februar 2001 veröffentlicht. Diese Spezifikation war Plattformunabhängig und definierte die wesentlichen Funktionen, die durch ein sicheres Plattform Modul (engl. Trusted Platform Module, TPM) gegeben sein müssen. Die TPM-Arbeitsgruppe der TCPA, die im Februar 2001 gegründet wurde, überarbeitete die Spezifikation hinsichtlich der Anforderungen an die praktischen Implementierungen und die Fehlerkorrektur. Das führte zu der TCPA TPM-Spezifikation 1.1, die im August 2001 veröffentlicht wurde. Viele Anforderungen an eine Trusted Computing Platform, die nicht in Hardware implementiert werden, wurden in andere TCPA-Spezifikationen verschoben. 59

60 Alternativen und Kombinationen Im September 2001 veröffentlichte die TCPA PC Specific -Arbeitsgruppe ihre erste Spezifikation. Diese Arbeitsgruppe wurde zum Entwurf einer Spezifikation für x86-computerplattformen gegründet. Der nächste Meilenstein war die TCPA TPM-Spezifikation 1.1b, welche im Mai 2002 herausgegeben wurde. Im April 2003 wurde die TCPA in eine nicht kommerzielle Organisation, die Trusted Computing Group (TCG), umgewandelt. Die TCG übernahm alle TCPA-Spezifikationen und setzte ihre Entwicklung fort. Zusätzlich zur PC Specific -Arbeitsgruppe und der TPM-Arbeitsgruppe, welche von der TCPA übernommen wurden, gründete die TCG weitere Arbeitsgruppen. Diese befassen sich mit der Entwicklung von Spezifikationen für mobile Geräte, Server, Speichersysteme, Infrastrukturen zu Trusted Computing, TCG-Software-Umgebung (engl. TCG Software Stack, TSS) und sichere Netzverbindungen (engl. Trusted Network Connect, TNC). Im November 2003 wurde die letzte bedeutende Veränderung an der TCG-Spezifikation als TPM Main Specification 1.2 veröffentlicht. Sie beschreibt unter anderem die Plattform-unabhängigen Funktionalitäten, die ein TPM zur Verfügung stellen muss. Im Jahr 2007 hatte die TCG mehr als 130 Mitglieder, einschließlich Anbietern von Rechnern und deren Komponenten, Anbietern von Software und Herstellern von Netzkomponenten. Aktivitäten Die TCG Work Groups (Arbeitsgruppen), die sich jeweils mit unterschiedlichen Aspekten des Trusted Computing befassen, erstellen die TCG-Spezifikationen. Im Folgenden werden die wichtigsten Arbeitsgruppen näher erläutert11: TCG: Die Trusted Computing Group (TCG) ist eine nicht kommerzielle Organisation, die gegründet wurde, um Spezifikationen für hardwarebasierte Trusted Computing Sicherheitstechniken zu entwickeln, zu definieren und als öffentliche Spezifikationen zu publizieren. Hierzu zählen Computerhardware sowie plattformübergreifende Softwareschnittstellen. TCG-Spezifikationen sollen es ermöglichen, sichere Umgebungen zu realisieren, ohne jedoch Kompromisse in den Bereichen Funktionalität, Integrität, Privatsphäre und Persönlichkeitsrechte eingehen zu müssen. Das wichtigste Ziel ist es, Benutzern zu ermöglichen ihre vertraulichen Daten wie z. B. Passwörter und kryptographische Schlüssel gegen Softwareangriffe oder Hardware-Diebstahl zu schützen. TPM: Aufgabe der TPM Work Group ist es, die Spezifikationen des Trusted Platform Module (TPM) zu erstellen. Die Definition der TPM-Architektur kommt aus dem Trusted Computing Umfeld, während die TPM Work Group die Implementierung der Architektur definiert. TSS: Die TSS Work Group definiert die Schnittstellen für Anwendungsprogrammhersteller, die das TPM nutzen. Die Arbeitsgruppe erstellt eine herstellerunabhängige Spezifikation, die herstellerspezifische Hardware-Unterschiede abstrahiert, wodurch es den Anwendungsprogrammherstellern ermöglicht wird, unabhängig von der verwendeten Hardware oder dem Betriebssystem zu entwickeln. Der TSS stellt zudem Werkzeuge bereit, um mit dem TPM im eigenen Computer zu kommunizieren. PC Client: Die PC Client Work Group bietet allgemeine Funktionalitäten und Schnittstellen an. Sie schafft grundlegende Sicherheitsvoraussetzungen auf Computersystemen, die über einen Vertrauensanker verfügen, sodass für diese eine eigene Vertrauenskette aufgebaut werden kann. 11 Übersetzung von der TCG-Webseite (http://www.trustedcomputinggroup.org/about_tcg/tcg_workgroups) 60

61 Alternativen und Kombinationen Darüber hinaus koordiniert diese Arbeitsgruppe den Informationsaustausch zwischen der TPM Work Group und anderen TCG-Arbeitsgruppen, um wichtige mögliche Designkriterien zu publizieren, die Arbeitsgruppen-übergreifende Bedeutung haben. Die PC Client Work Group befasst sich nicht mit Bereichen der TPM-Funktionalität, der TPM-Sicherheit, des Datenschutzes oder auch den Schnittstellen (ausgenommen der Schnittstellen, die sich zwischen dem Betriebssystem und der Plattformumgebung (engl. Pre-OS Environment ) befinden, die von der Plattform zur Verfügung gestellt werden. Server: Die Aufgabe der Server Work Group ist es Definitionen, Spezifikationen, Anleitungen und technische Voraussetzungen bereitzustellen, die die Implementierungen von TCG-Technik in Servern betreffen. Mobile Phone: Die Mobile Phone Work Group arbeitet an der Anpassung des TCG-Konzeptes für mobile Geräte. Die Arbeitsgruppe erweitert die Spezifikationen der TCG um Spezifiaktionen, die spezielle Eigenschaften von mobilen Endgeräten, wie z. B. wechselnde Netzanbindung, eingeschränkte Ressourcen oder auch spezielle Nutzungsmodelle berücksichtigen. Infrastructure: Die Infrastructure Work Group arbeitet an der Erweiterung und Integration der TCG-Spezifikationen für die Bereiche Internet- und Intranet-Infrastrukturen, um unterschiedliche Geschäftsmodelle in offenen heterogenen Plattformumgebungen zu ermöglichen. Festlegungen betreffend Repräsentation und Schnittstellen von Informationen sind notwendig, um vertrauenswürdige Entscheidungen zu treffen, die Einfluss auf bestehende Infrastrukturen und zugehörige Infrastrukturstandards nehmen. Überlegungen werden für Repräsentationen von Vertrauensankern, Vertrauensketten, Schlüsselverwaltungen (engl. Key Lifecycle Services ), und Beziehungen, die Sicherheitsrichtlinien verwenden, gemacht. Die Arbeitsgruppe legt Rahmenbedingungen, Schnittstellen und Bedingungen fest, um Probleme in der Infrastruktur zu überwinden. TNC: Die Trusted Network Connect (TNC) Arbeitsgruppe hat eine offene Architektur zur Integritätsüberprüfung via Rechnernetze spezifiziert und veröffentlicht. Die TNC-Architektur ermöglicht es Administratoren aktiver Netzkomponenten, Sicherheitsrichtlinien während oder nach Herstellung einer Netzverbindung durchzusetzen. Storage: Die Storage Work Group arbeitet basierend auf existierenden TCG-Techniken und Philosophien und widmet sich der Entwicklung von Spezifikationen für die Sicherheit von Massenspeichersystemen. Ein Ziel ist es, Spezifikationen zu erstellen, so dass technikunabhängige Sicherheitsdienste oberhalb eines Festplattenadapters definiert werden können, welche z. B. ATA, Serial ATA, SCSI, FibreChannel, USB-Sticks, IEEE 1394, Network Attached Storage (NAS) oder Wechsel-Medien umfassen, aber nicht auf diese beschränkt sind. Diese Arbeitsgruppe der TCG arbeitet mit anderen Industrieorganisationen zur Spezifizierung von Massenspeichern zusammen, um den Einflussbereich der TCG-Technik zu vergrößern. 61

62 Alternativen und Kombinationen Trusted Computing Funktionen Integrity Measurement, überprüfbares und vertrauenswürdiges Starten Die Integritätsmessung (engl. Integrity Measurement ) ist eine der grundlegenden Mechanismen des Trusted Computing. Integrity Measurement bedeutet, den Zustand eines Computers oder eines Geräts unter gesicherten Bedingungen zu berechnen und abzuspeichern. Die Integritätsmessung während des Startens einer Plattform wird als Vertrauenswürdiges Starten (engl. Trusted Boot 12) bezeichnet. Es ist eine Methode, bei der sicher protokolliert wird, welche Software auf welchen Computerkomponenten gestartet wird. Der Startvorgang selbst wird nicht beeinflusst. Nachdem die Startsequenz beendet ist, können diese Protokolle zur Überprüfung des Systemzustandes verwendet werden. Zu beachten ist, Trusted Boot garantiert in keiner Weise, dass das Gerät sich in einem sicheren Zustand befindet. Es stellt sein Protokoll zur Verfügung und ermöglicht es weiterer Software, dieses zu nutzen. Durch die Hilfe der Protokolleinträge ist es möglich, den lokalen Gerätestatus einer weiteren Entität mitzuteilen. Durch die Analyse der Protokolle können nun andere Entitäten über die Vertrauenswürdigkeit eines Computersystems entscheiden. Dieser Ansatz ist für sichere offene Plattformen nützlich, welche auf viele Arten modifiziert werden können. Das Konzept des Trusted Boot wurde durch Arbaugh et. al. in [ArFaSm97] lange vor der TCGSpezifikation eingeführt13. Heute erhältliche Formen des Trusted Boot erfordern neue Hardware oder unterstützen nur mangelhaft nicht vertrauenswürdige Anwendungsprogramme. Es gibt eine weitere Art und Weise, ein Computersystem in vertrauenswürdiger Weise zu starten, die Sicheres Starten (engl. Secure Boot ) genannt wird. Sicheres Starten prüft ein auszuführendes Programm noch bevor es gestartet wird anhand von Sicherheitsrichtlinien und vermeidet so, dass unerlaubte Software auf dem Gerät gestartet wird. Die Sicherheitsrichtlinien umfassen das Identifizierungsmerkmal von autorisierter Software, wobei Prüfsummen als Identifikationsmerkmal verwendet werden können. Wenn kein passendes Identifikationsmerkmal (Prüfsumme) in der Liste der Sicherheitsrichtlinien gefunden wird, wird der Startvorgang abgebrochen. Gewöhnlich wird diese Technik dazu verwendet, um lokal abzusichern, dass sich die Plattform in einem sicheren Zustand befindet, jedoch nicht, um das Identifikationsmerkmal einer anderen Plattform zu beweisen. Die Technik des sicheren Startens kann dazu verwendet werden, um sichere geschlossene Plattformen aufzubauen, die nur eine beschränkte Menge an ausführbarer Software besitzen. Formen des sicheren Startens sind schon über 15 Jahre bekannt Eine dritte Methode zur Überprüfung ob ausführbare Programme vertrauenswürdig sind, wird durch die Signierung des ausführbaren Programms realisiert. Die meisten Implementierungen zur Signierung ausführbarer Programme, liefern einen Mechanismus zur digitalen Signatur, um die Identität des Autors oder Herstellers sicher zu stellen. Hiervon abhängig kann ein Benutzer oder eine Software entscheiden, ob die Quelle vertrauenswürdig ist und ob das Programm modifiziert wurde. Proof-Carrying Code ist eine Technik, die eine sichere Ausführung von nicht vertrauenswürdiger Software garantiert. Der Autor des Programms fügt Informationen (genannt Annotationen) in das Programm ein. Er generiert einen Beweis, dass er die vorgegebenen Sicherheitsrichtlinien einhält. Der Empfänger erstellt eine Menge von Sicherheitsrichtlinien, die von dem Programm eingehalten werden sollen. Mit einem Überprüfungswerkzeug kann der Empfänger feststellen, ob das Programm mit dem von Autor generierten Beweis, seine Sicherheitsrichtlinien erfüllt. Passt das Pro12 Trusted Boot wird gelegentlich als Beglaubigtes Starten (engl. Authenticated Boot ) bezeichnet 13 Dort wurde sie Beglaubigtes Starten (engl. Authenticated Boot ) gegenüber Sicheres Starten (engl. Secure Boot ) genannt. 62

63 Alternativen und Kombinationen gramm nicht zu dem Beweis und werden vorgegebene Sicherheitsrichtlinien vom Autor oder werden die Sicherheitsrichtlinien des Empfängers nicht eingehalten, schlägt die Überprüfung fehl. Das Programm kann durch den Empfänger ausgeführt werden, wenn die Überprüfung des Programms erfolgreich durchgeführt wurde. Jede Verfälschung der Software oder Änderungen an den Annotationen kann auf diesem Weg durch den Empfänger bemerkt werden. Die erwähnten Methoden können kombiniert werden. Nach der Messung der Integrität werden die Ergebnisse an eine andere Plattform zur Überprüfung gesendet. Wenn die Plattform in einem ungültigen Zustand ist, könnte der Integritätsüberprüfer der anderen Plattform eine Nachbesserung initiieren. Mit dieser muss die Plattform aktualisiert werden. Danach startet sie die Integritätsmessung neu, bis sie in einem gültigen Zustand ist. Wenn eine Startsequenz überprüft wird (entfernt oder lokal), ist somit sichergestellt, dass Komponenten der Plattform nicht emuliert werden können, dass also eine bestimmte Hardware mit einem bestimmten Betriebssystem und bestimmten Anwendungsprogrammen tatsächlich in dem identifizierten Gerät läuft. Binding, Sealing und Attestation Ein Vertrauensanker kann Methoden zum Binden (engl. Binding ) von Daten an eine bestimmte Plattform bereitstellen, die aus spezifischer Hardware und auf ihr ausgeführter Software besteht. Dies kann durch kryptographische Operationen realisiert werden, die in einer geschützten Hardware-Umgebung ausgeführt und gespeichert werden. Innerhalb der TCG-Spezifikation ist das Plattformzertifikat zur Überprüfung der Vertrauenswürdigkeit der Plattform essentiell und kann ebenso zur Authentisierung verwendet werden. Dieses Zertifikat ist die Wurzel für weitere Zertifikate dieser Plattform. Das Verschließen (engl. Sealing ) erlaubt es, den Zugang zu sensiblen Daten auf ein Computersystem mit dedizierter Hardware- und Software-Konfiguration einzuschränken. Die Technik des verschlossenen Speicherns basiert auf einem Schlüssel, der partiell durch die Identität der Software generiert wird, die den Schlüssel erfordert. Darüber hinaus stellt die Identität des Gerätes, welches die Software ausführt, den zweiten Anteil des Schlüssels dar. Folglich müssen diese Schlüssel nicht gespeichert werden, da sie erstellt werden können, wann immer sie benötigt werden. Wenn ein anderes Programm als das, welches die Verschlüsselung durchgeführt hat, versucht, diese Daten zu entschlüsseln, wird dies nicht funktionieren, da der verwendete Schlüssel ein anderer ist als der originale. Das folgt aus den unterschiedlichen Identifizierungsmerkmalen der Software, welche die Daten verschließt : Konsequenterweise sind die erzeugten Schlüssel unterschiedlich. Ein vergleichbarer Nutzungsfall liegt vor, wenn verschlüsselte Daten zu einem anderen Computer transferiert werden und dort versucht wird, diese zu entschlüsseln, was nicht möglich ist. Somit sind beispielsweise s auf einem eigenen Computer lesbar, auf einem anderen jedoch nicht. Mit Hilfe von verschlossenem Speichern kann nicht verhindert werden, dass vertrauliche Daten zu anderen Computersystemen kopiert werden, jedoch wird verhindert, dass die Daten dort entschlüsselt werden können. Durch die Verwendung von Integritätsüberprüfung (engl. Attestation ) ist es möglich, den Status der Hardware oder Software einer anderen Plattform zu überprüfen. Deshalb werden die Ergebnisse der Integritätsmessung, d. h. die Prüfsummen, welche die Software und Hardware eines Computers charakterisieren, mit einem AIK-Schlüssel (siehe Unterkapitel 6.1.3) des TPMs dieser Plattform signiert. Die signierten Integritätsmesswerte können durch eine andere Plattform überprüft werden, ohne dass die prüfende Plattform Zugriff auf die zu überprüfende Plattform benötigt. Das Zertifikat des öffentlichen AIK-Schlüssels wird zusammen mit den signierten Integritätsmesswerten versandt. Um die Überprüfung der Authentizität dieser Messwerte, 63

64 Alternativen und Kombinationen die den verwendeten Schlüssel als vertrauenswürdig zu akkreditieren ermöglichen, werden diese zusammen mit den signierten beglaubigten Integritätsmesswerten versandt. Eine Integritätsüberprüfung kann direkt oder durch einen vertrauenswürdigen Dritten (engl. Trusted Third Party, TTP) ausgeführt werden, der die Plattform als vertrauenswürdig einstuft. Plattformen können sich jedoch nicht selbst prüfen, sondern nur von einer anderen Plattform überprüft werden. Ein vertrauenswürdiger Dritter (engl. Trusted Third Party, TTP) prüft die Integritätsmesswerte eines Gerätes. Sind sie gültig, bestätigt die TTP die Integritätsmesswerte als vertrauenswürdig, wodurch die Plattform als vertrauenswürdig eingestuft werden kann. Direkte anonyme Beglaubigung (engl. Direct Anonymous Attestation, DAA) ohne Verwendung einer TTP ist eine weitere Technik der Beglaubigung. Es kann bewiesen werden, dass ein gültiges Zertifikat existieren kann, ohne es zu enthüllen. Also können Zertifikate anonym generiert werden. Gruppensignaturschemata erlauben es, dass jedes Mitglied der Gruppe im Namen der Gruppe signieren kann. Dies unterstützt die Anonymität der Gruppenmitglieder und liefert eine gültige Signatur. Eine dritte Technik zur Überprüfung, ob ausführbare Programme vertrauenswürdig sind, wird durch die Signierung des ausführbaren Programms realisiert. Die meisten Implementierungen zur Signierung ausführbarer Programme, liefern einen Mechanismus zur digitalen Signatur, um die Identität des Autors oder Herstellers sicher zu stellen. Hiervon abhängig kann ein Benutzer oder eine Software entscheiden, ob die Quelle vertrauenswürdig ist und ob das Programm modifiziert wurde. Proof-Carrying Code ist eine Technik, die eine sichere Ausführung von nicht vertrauenswürdiger Software garantiert. Der Autor des Programms fügt Informationen (genannt Annotationen) in das Programm ein. Er generiert einen Beweis, dass er die vorgegebenen Sicherheitsrichtlinien einhält. Der Empfänger erstellt eine Menge von Sicherheitsrichtlinien, die von dem Programm eingehalten werden sollen. Mit einem Überprüfungswerkzeug kann der Empfänger feststellen, ob das Programm mit dem vom Autor generierten Beweis seine Sicherheitsrichtlinien erfüllt. Passt das Programm nicht zu dem Beweis und werden vorgegebene Sicherheitsrichtlinien vom Autor oder die Sicherheitsrichtlinien des Empfängers nicht eingehalten, schlägt die Überprüfung fehl. Das Programm kann durch den Empfänger ausgeführt werden, wenn die Überprüfung des Programms erfolgreich durchgeführt wurde. Jede Verfälschung der Software oder Änderungen an den Annotationen kann auf diesem Weg durch den Empfänger bemerkt werden Vertrauenswürdige Computerarchitektur Dieser Abschnitt gibt einen kurzen Überblick über die wichtigsten Funktionalitäten einschließlich der Integritätsüberprüfung (engl. Attestation ) und des Verschließens (engl. Sealing ) der Spezifikationen 1.1b und 1.2 der TCG. Die primären Komponenten der Spezifikation der TCG sind das: Trusted Platform Module (TPM) und ein geschütztes pre-bios14 (auch bezeichnet als Vertrauensanker zur Integritätsmessung ; engl. Core Root of Trust for Measurement, CRTM). 14 Das BIOS regelt das Starten des Computersystems durch die Initialisierung der Hardware und das Laden des Urladers / Bootloaders 64

65 Alternativen und Kombinationen Trusted Platform Module (TPM) Spezifikationsübersicht Die Spezifikation des TPM ist der Hauptteil der TCG-Spezifikation. Sie definiert alle plattformunabhängigen Aspekte und Funktionen, die von einer vertrauenswürdigen Plattform bereitgestellt werden müssen. Alle plattformspezifischen Aspekte wurden zu den plattformspezifischen Dokumenten ausgelagert, wie der PC Client Specification. Komponenten Die TCG-Spezifikation schreibt nicht vor, dass ein TPM in Hardware implementiert werden muss. Die meisten TPM-Implementierungen befinden sich aber in Hardware. Das TPM bietet einen RSAAlgorithmus zur Schlüsselerzeugung, kryptographische Funktionen wie Signieren und Überprüfung durch asymmetrische Kryptographie, einen Zufallszahlengenerator (engl. Random Number Generator, RNG), einen nicht flüchtigen Speicher und die Prüfsummenfunktion SHA-115. Hardware-Sicherheitsmodule (HSM) wie ein TPMs können mit Smartcards verglichen werden, die eine CPU, Speicher und Anwendungssoftware enthalten. Es wird angenommen, dass der Chip sicher (vgl. Abschnitt 3.1.2) in der Plattform (z. B. auf dem Motherboard) befestigt ist, so dass Manipulation oder Entfernung bemerkbar sind. Den Funktionalitäten eines TPMs muss vertraut werden. Dieses Vertrauen soll durch die Evaluierung nach Common Criteria gestärkt werden. TPM Schlüsselarten und Berechtigungsbeglaubigung Ein TPM enthält einen Vertrauensanker für Datenspeicher (engl. Root of Trust for Storage (RTS) oder auch Storage Root Key (SRK)), der Daten mithilfe des TPM schützt. Der RTS verwaltet einen kleinen flüchtigen Speicher innerhalb des TPMs, der dazu verwendet wird, um derzeitig verwendete Schlüssel zu speichern ( Key Slots ). Nicht verwendete Schlüssel können mit dem Speicherwurzelschlüssel (engl. Storage Root Key ) verschlüsselt und aus dem TPM-Chip verschoben werden, z. B. auf eine Festplatte, was zu einer Schlüsselhierarchie mit dem SRK als Wurzel führt. Die Key Slots des TPM werden durch einen vertrauenswürdigen Dienst außerhalb des TPMs verwaltet, welcher Schlüsselzwischenspeicher Verwalter (engl. Key Cache Manager, KCM) genannt wird. Jeder durch ein TPM geschützter Schlüssel wird mit unterschiedlichen Attributen gespeichert, die den Typ des Schlüssels und seinen Verwendungszweck beinhalten. Die Attributwerte werden bei der jeweiligen Schlüsselerzeugung generiert und können nachträglich nicht mehr verändert werden. Storage Root Key Der Storage Root Key (SRK) wird dazu verwendet, um TPM-geschützte Schlüssel so zu verschlüsseln, dass sie außerhalb des TPMs aufbewahrt werden können. Dies erzeugt eine Schlüsselhierarchie auf einem Speichermedium, wie beispielsweise einer Festplatte. Der SRK kann das TPM nicht verlassen (da er ein nicht migrierbarer Schlüssel ist; ein NMK) und wird bei der Inbesitznahme der Plattform (engl. Take Ownership ) erzeugt. Er kann bei einer erneuten Inbesitznahme der Plattform neu erzeugt werden, was allerdings die gesamte alte Schlüsselhierarchie zerstört, und somit sowohl alle Storage Keys wie auch die damit verschlüsselten Daten unbrauchbar macht. 15 Siehe 65

66 Alternativen und Kombinationen Endorsement-Key Jedes TPM wird mit einem eingebauten nicht-migrierbaren Schlüssel, dem so genannten Endorsement Key (EK) ausgeliefert, welcher beim Herstellungsprozess innerhalb oder außerhalb des TPMs generiert wurde. Eingebaut meint, dass es unmöglich ist, diesen Schlüssel des TPMs zu löschen oder zu kopieren. Dadurch kann das TPM und die zugehörige Plattform eindeutig identifiziert werden. Die Entität, die den EK erzeugt, erzeugt eine Berechtigungsbeglaubigung (engl. Endorsement Credential ), welche den Beweis liefert, dass der EK ordentlich erstellt und in einem echten TPM integriert wurde. Neben den zwei oben beschriebenen Schlüsseln kann ein TPM vier unterschiedliche Arten von asymmetrischen Schlüsseln erzeugen: Migratable Keys : Migrierbare Schlüssel (engl. Migratable Keys, MK) sind kryptographische Schlüssel, denen nur durch die Beteiligten vertraut wird, die sie erstellt haben (also die Plattformbenutzer). Eine dritte Stelle hat keinerlei Garantie darüber, dass so ein Schlüssel tatsächlich auf dem TPM erzeugt wurde. Non-migratable Keys : Im Gegensatz zu den MKs garantieren nicht-migrierbare Schlüssel (engl. Non-migratable Keys, NMK) sich innerhalb der TPM-geschützten Umgebung zu befinden. Es können damit nur kryptografische Operationen innerhalb des TPMs durchgeführt werden. Certified-migratable Keys : Überprüfbar migrierbare Schlüssel (engl. Certified-migratable Keys, CMK) wurden in der Version 1.2 der TCG-Spezifikation eingeführt und erlauben eine flexiblere Schlüsselhandhabung. Die Entscheidung ob migriert wird und die Migration selbst, wird an zwei vertrauenswürdige Entitäten delegiert, die durch den Besitzer des TPMs nach der Erstellung des CMK gewählt werden. Die Autorität der Migrationsauswahl (engl. Migration-Selection Authority, MSA) kontrolliert die Migration des Schlüssels, handhabt den migrierten Schlüssel aber selbst nicht. Im Gegensatz dazu handhabt die Autorität der Migration (engl. Migration Authority, MA) die Migration des Schlüssels. Um einen CMK zu einer anderen Plattform zu migrieren, erwartet das TPM ein Zertifikat einer MSA mit der Aussage, dass der zu migrierende Schlüssel durch die MA in ein anderes TPM transferiert werden kann. Attestation Identity Keys : Identitätsschlüssel für die Integritätsüberprüfung (engl. Attestation Identity Keys, AIK) sind nicht-migrierbare Signaturschlüssel und bieten Pseudonymität der Plattform. AIKs werden lokal durch ein TPM erstellt. Der öffentliche Teil wird durch eine Privatsphäre schützende CA (engl. Privacy Certification Authority, Privacy CA) mit der Bedeutung beglaubigt, dass dieser Signaturschlüssel sich tatsächlich unter der Kontrolle eines sicheren TPMs befindet. Um das Problem zu bewältigen, dass diese Stelle Transaktionen einer bestimmte Plattform verfolgen kann, definiert Version 1.2 der TCG-Spezifikation ein direktes anonymes Beglaubigungsprotokoll (engl. Direct Anonymous Attestation, DAA) welches die Privacy CA nicht benötigt. AIKs können zur Integritätsüberprüfung einer spezifischen Plattformkonfiguration verwendet werden (vgl ). Eine Plattform kann mehrere AIKs besitzen, um Pseudonymität zu ermöglichen. Um AIKs zu erzeugen, sind Bestätigungs-, Konformitätsund Plattform-Beglaubigung (engl. -Credentials ), welche mit der Plattform geliefert werden, der EK und die Autorisation durch den Plattformbesitzer erforderlich. 66

67 Alternativen und Kombinationen TPM Vertrauensbeglaubigung Eine vertrauenswürdige Plattform wird mit Vertrauensbeglaubigungen (digitalen Zertifikaten) ausgeliefert, die eine Aussage darüber treffen, dass ihre Komponenten unter Einhaltung der TCGSpezifikationen konstruiert wurden. Endorsement Credential : Wie schon erwähnt, solle die Berechtigungsbeglaubigung (engl. Endorsement Credential ) einen Beweis dazu liefern, dass der Endorsement Key (EK) ordentlich erzeugt und in ein echtes TPM eingebettet wurde. Dieses wird durch die Entität angefertigt, die den EK erzeugte. Diese Berechtigungsbeglaubigung enthält den Namen des TPMHerstellers, die TPM-Seriennummer, die TPM-Version und den öffentlichen Teil des EK. Der Endorsement Key (EK) ist ein RSA-Schlüsselpaar, das zum Ver- und Entschlüsseln verwendet wird, um einen Beweis der Identität einer Plattform zur Erstellung von AIKs zu liefern. Conformance Credential : Die Konformitätsbeglaubigung (engl. Conformance Credential ) wird ausgestellt, für Plattformen, die einen TPM enthalten. Sie soll aufzeigen, dass der vertrauenswürdige Basisblock (engl. Trusted Building Block (TBB)) und dessen Implementierung der Prüfung vertrauenswürdig ist. Die Konformitätsbeglaubigung enthält keine sensiblen Informationen oder Informationen, die dazu verwendet werden können, eine spezifische Plattform eindeutig zu identifizieren. Platform Credential : Die Plattform-Vertrauensbeglaubigung (engl. Platform Credential ) wird durch den Plattformhersteller, Anbieter oder eine unabhängige Entität erteilt. Sie solle aufzeigen, dass die Plattform ein TPM, wie durch das Endorsement Credential beschrieben, sowie einen TBB, wie durch das Conformance Credential beschrieben, enthält. Die Plattform-Vertrauensbeglaubigung enthält den Namen des Herstellers der Plattform, die Plattform-Modellnummer und -Modellversion und Referenzen auf das Endorsement Credential und die Conformance Credentials. Das Platform Credential ist kritisch bezüglich der Privatsphäre, da es Informationen enthält, die zur eindeutigen Identifizierung einer spezifischen Plattform verwendet werden können. TCG Software Stack Der TCG Software Stack (TSS) ist eine plattformunabhängige Schnittstelle, um TPM-Funktionen benutzen zu können. Der TSS ermöglicht die Erstellung von Schnittstellen für bestehende kryptographische APIs wie z. B. MS-CAPI8 oder PKCS#119. Dies ermöglicht für Anwendungsprogramme eine TPM-Unterstützung, die diese APIs verwenden. Um die Funktionen eines TPMs vollständig nutzen zu können, müssen Anwendungsprogramme den TSS direkt unterstützen Betriebssysteme, die Trusted Computing unterstützen Microsoft Windows Vista Microsoft Corporation [Micr2007] ist ein Gründungsmitglied der TCPA. Das Betriebssystem Windows Vista kann ein TPM 1.2 zur Partitionsverschlüsselung (genannt BitLocker16) nutzen. 16 Siehe mspx 67

68 Alternativen und Kombinationen Im Mai 2007 kündigten Microsoft und die TCG die Interoperabilität mehrerer Protokolle an, die eine Integritätsüberprüfung erlaubt (bei der TCG TNC genannt und NAP bei Microsoft). Unterhalb der Anwendungsprogrammebene enthält Vista Microsoft17 zufolge eine TPM-Management-API, welche TPM Base Service (TBS) genannt wird. Ihre Funktionalitäten werden von Microsoft18 wie folgt beschrieben: effektives Teilen von begrenzten TPM-Ressourcen, wie Key Slots, Authorization Session Slots und Transport Slots priorisierter und synchronisierter Zugang zu TPM-Ressourcen zwischen mehreren Instanzen von TPM Core Services (TCS) angemessenes Management von TPM-Ressourcen über Energiezustände Schutz der TPM Core Services (TCS) vor dem Zugang zu TPM-Befehlen, die beschränkt werden sollen, entweder wegen Einschränkung der Plattform oder administrativer Anforderungen Xen Xen ist ein virtueller Maschinenverwalter (engl. Virtual Machine Monitor (VMM)), der von der Universität Cambridge entwickelt wurde und unter der GNU General Public License (GPL) verbreitet wird. Xen kann mehrere Gastbetriebssysteme in virtuellen Maschinen (VM) ausführen. Xen regelt den Zugriff auf die Ressourcen, wie den Prozessor, Hauptspeicher und Ein-/Ausgabe für die Gastsysteme. IBM Research integrierte die Sicherheitsarchitektur shype in Xen. shype bietet eine flexible Durchsetzung der Zugangskontrolle zur strikten Trennung und Kontrolle über die Aufteilung der Hardware-Ressourcen und der Kommunikation zwischen unterschiedlichen VMS. Da ein TPM nicht dafür entwickelt wurde, gleichzeitig von mehreren Betriebssystemen benutzt zu werden, entwickelt IBM eine virtuelle TPM-Architektur, um TPM-Unterstützung für alle Betriebssysteme zu bieten, die auf Xen laufen. Um dies zu realisieren, wurde die Menge an TPMKommandos, die in der TCG 1.2 Spezifikation definiert werden, durch Kommandos erweitert, welche mehrere logische Instanzen von TPMs ermöglichen, die durch Gastbetriebssysteme transparent verwendet werden können. Damit kann eine Software, die beabsichtigt ein TPM zu benutzen, ohne eine Änderung weiterarbeiten, wenn sie auf Xen ausgeführt wird. PERSEUS-Architektur und Turaya Sicherheitskern Das PERSEUS-Projekt stellt eine offene Plattform zur Verfügung, die die Realisierung einer multilateralen Sicherheitsbasis für Trusted Computing bietet. Es ist beabsichtigt, einen weiten Bereich an Hardware-Plattformen wie PC, PDA und eingebetteten Computersystemen zu unterstützen. PERSEUS verwendet einen Mikrokern, der nur elementare Funktionen wie Prozessmanagement, Speichermanagement und Interprozesskommunikation enthält und damit die sicherheitsrelevanten Teile der Betriebssystemkomponenten minimiert, was eine formale Überprüfung seiner Implementierung erlaubt. Die PERSEUS-Architektur realisiert sicherheitskritische Anwendungsprogramme wie digitale Signaturen oder DRM-Anwendungsprogramme und konventionelle Betriebssysteme als ge17 Siehe c25c56af mspx 18 Siehe 68

69 Alternativen und Kombinationen trennte Prozesse, die nur miteinander oder mit den Rechnerkomponenten kommunizieren können, wenn der PERSEUS-Sicherheitskern dabei involviert wird. PERSEUS ermöglicht die Realisierung von Richtliniendurchsetzung (engl. Policy Enforcement ), d. h. z. B. die Durchsetzung von DRM oder die Möglichkeit des Zuganges zu kostenpflichtigen Informationsdiensten; gleichzeitig wird aber verhindert, dass Anbieter mehr private Informationen über den Benutzer sammeln, als nötig ist, um den Dienst zur Verfügung zu stellen. Damit kann PERSEUS als eine Basis für DRM-Lösungen dienen und bietet Sicherheit im Sicherheitsbereichsmodus, um den Zugang zu einem Dokument außerhalb des erforderlichen Arbeitsflusses zu verwehren. PERSEUS kann ebenfalls dazu verwendet werden, ein sicheres Mehrbenutzersystem zu realisieren, welches unterschiedliche isolierte Dienste wie einen Webserver, eine Datenbank oder eine Firewall parallel auf der gleichen Hardware laufen lassen kann. Die Sicherheitssoftwareschicht PERSEUS setzt auf einem L4-Mikrokern auf, welcher an der Universität Karlsruhe und der Technischen Universität Dresden entwickelt wurde. Über dem L4-Mikrokern sind ein Ressourcenmanagement und eine Zugangskontrollschicht platziert, welche die Verteilung von den Ressourcen der Rechnerkomponenten zu dem konventionellen Betriebssystem und allen sicherheitrelevanten Anwendungsprogrammen darüber regeln. PERSEUS bietet auch einen vertrauenswürdigen Urlader (engl. Bootloader ), der als Trusted Computing-unterstützende Version des GRUB ( Grand Unified Bootloader ) implementiert wurde, um sicher zu stellen, dass eine spezifische Betriebssystemkonfiguration gestartet wird. Eine sichere Benutzerschnittstelle (engl. Secure GUI ) bietet vertrauenswürdige Schnittstellen zwischen dem Anwender und sicheren Anwendungsprogrammen. Der Anwendungsprogrammmanager von PERSEUS sichert die kontrollierte Installation und Aktualisierung von Software. Konventionelle Betriebssysteme lassen normalerweise Anwendungsprogramme mit den gleichen Rechten der Benutzer ablaufen, welche diese gestartet haben. Dies führt dazu, dass Anwendungsprogramme mit mehr Privilegien laufen, als sie tatsächlich benötigen. Der Anwendungsprogrammmanager von PERSEUS minimiert Privilegien von Anwendungsprogrammen. Turaya Turaya ist die vermarktete Fassung der Sicherheitssoftwareschicht PERSEUS auf einem L4-Microkern. 6.2 Kombination von Trusted Computing mit ähnlichen Sicherheitskonzepten Der vorhergehende Abschnitt führte Trusted Computing (TC) als ein Konzept ein, das Sicherheit verankert und Vertrauen aufbaut. Diese Eigenschaften sind eine wichtige Grundlage für die in Kapitel 4 eingeführten Sicherheitsmodelle. Der nächste Abschnitt zeigt auf, wie die beschriebenen Sicherheitsmodelle mit Trusted Computing kombiniert werden können. Herausforderungen zu diesem Ansatz, wie etwa die Grenzen eines vertrauenswürdigen Computersystems und die Besonderheiten des Schlüsselmanagements in Trusted Computing werden in diesem Abschnitt abschließend behandelt. 69

70 Alternativen und Kombinationen Vertrauensanker Der grundlegende Vertrauensanker im Trusted Computing ist das TPM. Um einen verwendbaren Vertrauensanker zu erstellen, muss nicht nur ein TPM in einer Plattform vorhanden sein, sondern es muss auch ihre korrekte Nutzung in den Startroutinen der Plattform (CRTM) erfolgen. Auf dieser Basis können entsprechende Beglaubigungen (Zertifikate) ausgestellt werden Plattformintegrität mit Trusted Computing Die Eigenschaft von TC, überprüfbar eine Plattform zu starten (engl. to boot ) zu können, schafft eine Umgebung, in der das Laden und Starten von Software auf einem Computersystem überprüft und durchgesetzt werden kann. Diese Eigenschaft stellt sicher, dass auf einem Computer eine bestimmte Software-Konfiguration nach dem Startvorgang läuft. Softwareintegrität beruht üblicherweise auf dieser Annahme. Während Ansätze wie Type Enforcement (vgl. Abschnitt 4.1.3) und Hypervisor (siehe 4.5.3) versuchen, Anwendungsprogramme zu isolieren, kann eine TC-basierte Integritätskontrolle eine höhere Anwendungsprogrammsicherheit bringen. Mithilfe eines sicheren Ladevorgangs (der wiederum durch den Bootloader unter Verwendung des TPM-Vertrauensankers überprüft wird) werden alle Teile des Betriebssystems und der Software nach dem Laden überprüft. Konfigurationsdateien, Richtlinien oder Anwendungsprogrammdaten können die sichere Ladefunktion durchlaufen. Auf diese Art erkennt das Computersystem den Integritätszustand aller Komponenten, Anwendungsprogramme und falls nötig, der zugehörigen Daten. Vertrauensentscheidungen können auf dem beim Laden vorliegenden Plattform-Zuständen aufbauen und getroffen werden. Ein praktisches Beispiel hierfür könnte ein PC in einem Privathaushalt sein. Heutzutage teilen sich die meisten Anwendungsprogramme Daten untereinander. Textverarbeitung, Homebanking, , Spiele, Anwendungsprogramme aus dem Internet usw. können auf die Daten der jeweilig anderen Programme zugreifen. Viele der Angriffe durch bösartige Programme wie Viren, Trojaner, Spyware und automatisiertes Phishing funktionieren durch das Manipulieren von Programmteilen, eines Anwendungsprogramms oder des Betriebssystems. In einer durch Integritätskontrolle geschützten Plattform könnte man sich folgendes Szenario vorstellen. Unter Kombination mit dem Isolations- / Hypervisoransatz würde ein Computer nach dem Urladen ( Booten ) mehrere virtuelle Maschinen starten. Eine virtuelle Maschine ist beispielsweise eine vertrauenswürdige Umgebung, die nur Anwendungsprogrammen mit absoluter Integrität die Ausführung oder den Zugang zu kritischen Daten erlaubt. Hier könnte eine Homebanking-Software oder Programme zum Signieren von Dokumenten installiert werden. Eine zweite virtuelle Maschine stellt Speicherplatz zur Installation von Programmen und zum Testen von neuen Anwendungsprogrammen der mittleren Vertrauensebene bereit. Diese Umgebung erlaubt bei Integritätsverletzungen nur nach einer expliziten Benutzerprüfung Zugang zu kritischen Daten. Auf dieser mittleren Vertrauensebene kann experimentiert werden, aber Verletzungen der Sicherheitsrichtlinien werden durch das Sicherheitssystem berichtet. Eine dritte virtuelle Maschine wäre eine Spielwiese, auf der alles erlaubt ist. Hier ist kein Zugang zu lokalen Daten außerhalb der virtuellen Maschine möglich. Beliebige heruntergeladene Software oder Aktive Inhalte dürfen dort ablaufen. Durch die 70

71 Alternativen und Kombinationen Verwendung des TPM und dem darauf aufbauenden sicheren Ladevorgang kann das Betriebssystem immer zu einer vertrauenswürdigen virtuellen Maschine wechseln, falls es Aktionen durchführen will, die eine höhere Sicherheit erfordern Verteiltes Vertrauen mit Trusted Computing Integritätsüberprüfungen, die auf Trusted Computing und einem Vertrauensanker basieren, können für das Vertrauensmanagement in verteilten Computersystemen von wichtiger Bedeutung sein. Zu beachten ist, dass verteilte Computersysteme aus einer Ansammlung an entfernbaren Geräten (wie USB-Sticks oder Festplatten) bis hin zu einem Netz aus GRID-Rechnern oder Webservern und Datenbanken bestehen können. Der Aufbau von verteiltem Vertrauen beruht auf der Verbindung der einzelnen Geräte untereinander. Grundsätzlich funktioniert dies durch den Einsatz eines Schlüssels oder eines Zertifikates, das in dem TPM eines jeden Gerätes gespeichert ist. Durch die Protokolle zur Integritätsüberprüfung können Geräte / Computer sich gegenseitig davon überzeugen, dass sie zur gleichen Vertrauenszone gehören. Diese Funktionalität ist eine Erweiterung von heutigen Protokollen, die Zertifikate und Schlüssel zur Vertrauenserzeugung verwenden, beispielsweise für X.509-Zertifikate für Single Sign On zur Authentisierung, welche auch auf Smartcards abgelegt werden können. Was durch Trusted Computing hinzukommt, ist ein sicheres Speichern der Zertifikate und ein hardwaregeschützter, standardisierter Vertrauensanker für das Prüfungsschema in allen Teilen des verteilten Computersystems. Der Hauptnutzen der Verwendung von Trusted Computing hierfür sind interoperable Verfahren für den Vertrauensanker und die Integritätsüberprüfung Klassische Sicherheitsmodelle und Trusted Computing Viele der klassischen Sicherheitsmodelle werden als Softwarekomponenten in Betriebssystemen oder Datenbankprogrammen implementiert. Ein verbreitetes Konzept ist, eine Entscheidungsinstanz (engl. Reference Monitor ) zur Zugriffskontrolle einzusetzen. Diese Entscheidungsinstanz ist ein Softwaremodul, das kritische Funktionen in einem Sicherheitssystem durchführt. Die meisten der Sicherheitsmodelle, die in dieser Studie vorgestellt werden, verwenden eine solche Entscheidungsinstanz, beispielsweise für den Datenzugang oder für das Gewähren von weiterführenden Privilegien. Bei der Erweiterung oder Kombination der klassischen Sicherheitsmodelle mit Trusted Computing ist die Entscheidungsinstanz eine anzupassende Schlüsselkomponente, um einen Vorteil aus dem TPM zu ziehen. Die Entscheidungsinstanz kann mit dem TPM und dem sicheren Ladevorgang in mehreren Arten zusammenarbeiten: Durchsetzung von Richtlinien zur Programmintegrität Durchsetzung von Richtlinien zur Datenintegrität Absicherung der Integrität von Identitäten, Vertrauensbescheinigungen und Schlüsseln Durch die Erweiterung um die Entscheidungsinstanz können Modelle wie Typ-Durchsetzung (engl. Type Enforcement ) eine Anwendungsprogrammintegrität verlässlich vor ihrem Zugriff auf eine höhere Sicherheitsebene überprüfen. Durch das Hinzufügen von Trusted Computing zu einem klassischen Sicherheitsmodell erwartet 71

72 Alternativen und Kombinationen man eine Steigerung der Robustheit und Effektivität des klassischen Sicherheitsmodells. Auch kann ihre Funktionalität durch sicheres Laden, Integritätskontrolle und Integritätsüberprüfung erweitert werden Herausforderungen Obwohl die grundlegenden Spezifikationen und die Hardware-Integration von Trusted Computing heute schon abgeschlossen sind, bleiben Herausforderungen für ihre Weiterentwicklung bestehen. Diese Herausforderungen werden in den folgenden Abschnitten zusammengefasst Interoperabilität Da die effektive Verwendung von Trusted Computing in Kombination mit anderen Sicherheitsmaßnahmen in Betriebssystemen und Anwendungsprogrammen nach Erweiterungen verlangt, müssen Protokolle und Prozeduren für die interoperable Verwendung von Trusted Computing gefunden werden. Es bleibt abzuwarten, wie schnell die Anbieter von Betriebssystemen bereit sind, interoperable Sicherheitsmodelle zu implementieren, sowie einheitliche Schnittstellen für die Integritätsüberprüfung und generische Methoden für die Kontrolle der Integrität, Konfiguration, Schlüsselverwaltung usw.. Kritische Masse Jede neue Technik, die erfolgreich sein soll, muss eine kritische Masse auf dem Markt erreichen. Wie in der Diffusionstheorie beschrieben [Roge2003], muss eine große Zahl an sogenannten early Adopters Kenntnisse über die Nützlichkeit der neuen Sicherheitstechnik verbreiten. Nur wenn ein anfänglicher Erfolg bei einer normalerweise kostenintensiven Einführung gelingt, ist auch die Chance auf einen breiten Einsatz gegeben. Oftmals erfordert dies bei Produkten in der Informationstechnik starke Netzwerkeffekte. Netzwerkeffekte können nur aufgebaut werden, wenn viele Anbieter gemeinsam neue Plattformen unterstützen. Dies kann durch offene Schnittstellen und offene Spezifikationen erreicht werden. Flexibilität und Verwaltung der Schlüssel Wenn viele Trusted Computing-Plattformen eingesetzt werden, rücken die Flexibilität der sicheren Maschinen und die Schlüsselverwaltung ins Blickfeld. Eine der Kernanforderungen von Verbraucherorganisationen ist die Möglichkeit, einen Computer so zu starten, dass er nicht durch andere Computersysteme kontrolliert werden kann. Dies führt notwendigerweise zu Plattformen mit vielen alternativen Konfigurationen unterschiedlicher Freiheitsgrade. Anstatt der Konfiguration eines einzigen PCs zu verwalten, muss der Benutzer die Administration von mehreren virtuellen Maschinen übernehmen. Dies erfordert Kenntnis und Praxis, was die Verbreitung verlangsamt. Eine andere wichtige Frage ist die der Schlüsselverwaltung in großen Infrastrukturen, welche auf Trusted Computing-Plattformen basieren. Um eine globale Infrastruktur der Integritätsüberprüfung zu ermöglichen, ist nicht nur eine interoperierende Computer- und Softwarebasis nötig, sondern 72

73 Alternativen und Kombinationen auch eine Möglichkeit, mit einer Menge an überprüfbaren Werten der Systemkonfiguration, der Zertifikate, der Schlüssel und mit anderen Vertrauensbeglaubigung umzugehen, die in dieser Infrastruktur verwendet werden. Monopole und Oligopole Die letzte Herausforderung ist die der Wettbewerbsaufsicht. Schon sehr früh in der Einführung von Trusted Computing entstand die Gefahr der Bildung von monopolisierenden Kräften oder die verhängnisvolle Festlegung auf bestimmte Plattformen, Anbieter oder Techniken. Dies führt normalerweise zu Preissteigerungen, weniger Wettbewerb und behindert Innovationen. Eine Maßnahme, die in diesem Fall hilfreich ist, ist die Entwicklung von offenen Schnittstellen und Lösungen, beispielsweise durch offene Standards, FLOSS-Entwicklungen oder notfalls durch staatliche Regulierung. Der Einsatz von Trusted Computing sollte deshalb mit großer Sorgfalt vorgenommen werden. Unterschiedliche Schnittstellen in der Infrastruktur, die den Austausch von Komponenten erlauben, müssen betrachtet werden. Beispielsweise sollte es eine Schnittstelle geben, die das Betriebssystem von der vertrauenswürdigen Plattform trennt (z. B. ein Hypervisor). Das Gleiche könnte mit der Schlüsselverwaltung und der Integritätsüberprüfung gemacht werden. 73

74 Kapitel 7 Schlussfolgerung Dieses Kapitel fasst die Ergebnisse der Studie hinsichtlich der Kombination der klassischen Sicherheitsmodelle mit Trusted Computing zusammen. Es analysiert die Anwendbarkeit, die Reife und die Verfügbarkeit der Technik und bietet einen Überblick über neue Entwicklungen. Um die Analyse der klassischen Sicherheitsmethoden und neuer Konzepte abzuschließen, befasst sich dieser Abschnitt mit der Sicherheit von Computersystemen mit hardwarebasierten Vertrauensankern. Dieser Abschnitt nennt exemplarisch Trends der Entwicklungen, die auf Trusted Computing basieren. Er zeigt auch den Platz der Trusted Computing-Komponenten und Funktionalitäten mit anderen unterstützenden oder alternativen Konzepten, Modellen und Mechanismen innerhalb des Bereiches der sicherheitskritischen Nutzung. 7.1 Entwicklungspfade von sicheren Computersystemen basierend auf Trusted Computing Wie in erläutert, bietet Trusted Computing die Möglichkeit des Aufbaus eines Vertrauensankers, welche die Wurzel einer Vertrauenskette zwischen dem Hardware Security Module (HSM, z. B. TPM) und der Plattform ist, sowie einem Mechanismus der Richtliniendurchsetzung. Dies erlaubt einen Nutzungsbereich, den wir in vier Kategorien einteilen. Abbildung 7.1 zeigt welche die möglichen Entwicklungspfade von Trusted Computing sind Klassische Sicherheitsmodelle Mandatory Access Control (MAC) und Discretionary Access Control (DAC), mehrschichtige Sicherheit ( Multilevel Security, MLS), Chinesische Mauer ( Chinese Wall ), Type Enforcement und Spaltung der Aufgaben ( Rule Set Based Access Control, RBAC) basieren alle auf dem Konzept einer Zugangskontrollmatrix mit unterschiedlichen Eigenschaften und erlaubten Operationen. Der Matrix liegt normalerweise eine Sicherheitsrichtlinie zugrunde, die wiederum Mechanismen zur Durchsetzung der Sicherheitsrichtlinie benötigt. Üblicherweise ist hier eine weitere Entscheidungsinstanz nötig, die die laufenden Operationen nicht vertrauenswürdiger Programm überprüft, ob diese den gegebenen Sicherheitsrichtlinien entsprechen. Die Vertrauenswürdigkeit der Entscheidungsinstanz ist damit entscheidend für die Durchsetzung einer solchen Zugangskontrollrichtlinie in dem ausführenden Computersystem verantwortlich. 74

75 Schlussfolgerung Abbildung 7.1: Mögliche Entwicklungspfade des Trusted Computing 75

76 Schlussfolgerung Ein TPM-basierter Vertrauensanker kann dabei helfen, Vertrauen in Mechanismen der Richtliniendurchsetzung, z. B. Vertrauen gegenüber einem Überwachungsprogramm aufzubauen. Ist die Vertrauenswürdigkeit eines Überwachungsprogramms durch seine Integrität garantiert, die dadurch erreicht werden kann, dass das Überwachungsprogramm mit dem zum Vertrauensanker gehörenden privaten Schlüssel signiert wird. Beispielsweise kann eine Plattform, welche ein TPM als Vertrauensanker besitzt, eine Prüfsumme des Überwachungsprogramms erzeugen und diese per Integritätsüberprüfung an andere Computersysteme senden. Letzteres kann die Integrität der Entscheidungsinstanz basierend auf dem Vertrauensanker überprüfen, was dem anderen Computersystem erlaubt, dem auf dieser Plattform laufenden Überwachungsprogramm und damit verbunden wiederum der Durchsetzung des Zugangskontrollmodells zu vertrauen Sicheres Anzeigeprogramm und sichere Ein-/Ausgabe Diese Kategorie umfasst die sichere Ein-/Ausgabe eines Anwendungsprogramms und zieht unterschiedliche, zu diesem Zweck genutzte Peripheriegeräte wie Bildschirme, Tastaturen und Fingerabdruckscanner in Betracht. Ein auf Trusted Computing basierter Ansatz wird eine Benutzerschnittstelle unterstützen, die der vollständigen Kontrolle der Trusted Computing Base (TCB) unterliegt. Die TCB selbst ist durch eine auf der Vertrauenskette basierten Integritätsprüfung überprüfbar, die bis zum Vertrauensanker führt Sicherer richtlinienbasierter Datenfluss Diese Kategorie, die zuvor als Informationsflusskontrolle betrachtet wurde, kann durch einen TPMbasierten Vertrauensanker beträchtlich erweitert werden. Ähnlich dem Überwachungsprogramm, baut der richtlinienbasierte Datenfluss auf einem Richtliniendurchsetzungsmechanismus auf. Dies können Durchsetzer (engl. Enforcer ) von Zugriffsbeschränkungen einer Softwareanwendung sein, wie im Falle von DRM oder Sticky Policies (Richtlinien, die für bestimmte Datensätze gelten) oder Überprüfer der Integrität für sichere Softwareaktualisierung. Diese Durchsetzer oder Überprüfer können ihrerseits wiederum Subjekte einer Integritätsüberprüfung sein, welche auf Zertifikaten basiert, die mit einem privaten Schlüssel im TPM generiert werden. Deshalb kann eine andere Plattform die Vertrauenswürdigkeit der Mechanismen überprüfen, die auf der lokalen Plattform ausgeführt werden. Das erlaubt einer entfernten Plattform, Daten an die lokale Plattform des Benutzers zu senden und dabei sicherzustellen, dass die verwendeten Richtlinien korrekt durchgesetzt werden, die den Datenfluss kontrollieren. Anwendungsmöglichkeiten dieses Schemas sind Bezahlfernsehen, Softwareverleih und kopiergeschützte Medien. Das hat für Inhalte-Anbieter, welche die Kontrolle über die Verwendung ihrer Produkte durch die Konsumenten durchsetzen möchten, entscheidende Vorteile Vertrauenswürdige Computersysteme Diese Kategorie beinhaltet alle Szenarien, die eine Integritätsüberprüfung von Software auf einer anderen Plattform ermöglichen. Dies erlaubt eine Plattform eine Aussage zu treffen über das Verhalten des korrespondierenden Computersystems, aber auch jedes Programm, das der Benutzer der Plattform nutzt. Das TPM als die Wurzel der Vertrauensverankerung kann ein gültiges Integritätsüberprüfungszertifikat ausstellen, das die Software, die auf der Plattform läuft, identifziert. Die Vertrauenswürdigkeit der Plattform bezüglich seines Verhaltens wird an den Vertrauensanker gebunden. Übliche Anwendungsfälle sind die Prüfung von Softwareintegrität, die 76

77 Schlussfolgerung Absicherung der Fälschungssicherheit, vertrauenswürdige Plattformkonfigurationen, sowie eine zusätzliche sichere Authentisierung der Benutzer auf dem Computersystem, die Auswertung von Audit-Logs und die Unterstützung der forensischen Analyse. 7.2 Trusted Computing innerhalb eines Sicherheitskonzeptes Trusted Computing kann eine große Rolle bei der Herstellung von Sicherheit in einem Computersystem spielen. Durch die Bereitstellung eines Vertrauensankers sichert es die Vertrauenswürdigkeit der Implementierung des Vertrauensmodells. Anders dargestellt unterstützt Trusted Computing ein Sicherheitskonzept, welches die Implementierung des Vertrauensmodells durch einen TPM-basierten Vertrauensanker absichert. Beispielsweise ist das Erreichen eines Sicherheitsziels, wie der Vertrauenswürdigkeit, direkt abhängig von dem Sicherheitsmodell, welches definiert, wo die Verschlüsselung angewendet werden soll. Das Sicherheitsmodell selbst hängt vom Vertrauensmodell ab. Es leitet sich von dessen Spezifikation und der Vertrauenswürdigkeit seiner technischen Komponenten ab. Deshalb verbessert die Integration der Trusted Computing-Technik in Computersystemen das Sicherheitskonzept durch die vertrauenswürdige, kostengünstige und vielseitige Lösung des TPM-basierten Vertrauensankers. Trusted Computing ist nicht nur auf einen Vertrauensanker beschränkt. Tatsächlich spielen Funktionen, die auf Trusted Computing basieren, wie etwa Attestation, Sealing, oder Trusted Boot (basiert auf CRTM), eine wichtige Rolle bei dem Aufbau von Vertrauen in andere Computersysteme, ihrer Komponenten oder deren Verhalten. 7.3 Die Nutzung von Trusted Computing Funktionalitäten und Unterstützungen komplementärer oder alternativer Techniken Die Abbildung 7.2 gibt eine Übersicht über die Eignung der Sicherheitskonzepte, Modelle, Mechanismen und Hardware-Komponenten, die in dieser Studie erwähnt werden für mehrere Anwendnungsszenarien. Sie werden nach ihren Nutzungsfällen und Trusted Computing unterstützenden Funktionen kategorisiert. Die für Trusted Computing relevanten Nutzungsfälle sind Informationsflusskontrolle, Datenzugangskontrolle, sichere elektronische Signaturen, Schutz medialer Inhalte (DRM), sichere virtuelle Maschinen, sichere Authentisierung und vertrauenswürdige Software. Trusted Computing unterstützt Funktionalitäten, wie Vertrauenswürdigkeit zwischen Computersystemen, das Durchsetzen von Sicherheitsrichtlinien und sichere Ein-/Ausgabe, die je nach Bereich unterschiedlich wichtig sein können. Sicherheitsmodelle, Mechanismen oder Komponenten sind einer bestimmten Trusted Computing unterstützenden Funktionalität innerhalb eines relevanten Nutzungsfalls zugeordnet. Die Elemente in dieser Abbildung sind nicht nur Trusted Computing-Komponenten oder Funktionalitäten, sondern auch unabhängige Modelle, Mechanismen und Konzepte, die diese Komponenten oder Funktionalitäten unterstützen. Beispielsweise kann der Schutz medialer Inhalte (engl. Digital Rights/Restrictions Management, DRM) als Anwendungsbereich von unterschiedlichen Funktionen profitieren, die durch Trusted Computing unterstützt werden. Entfernte Vertrauenswürdigkeit ist eine wichtige Funktionalität, auf der basiert, dass ein Medienanbieter auf ein bestimmtes Verhalten einer Benutzerplattform vertrauen kann, welches zum Schutz von Inhalten gewünscht ist, damit diese nicht an unautorisierte 77

78 Schlussfolgerung Benutzer verteilt werden. Insbesondere ist die Integritätsüberprüfungsfunktionalität, die durch Trusted Computing bereitgestellt wird, für den Schutz medialer Inhalte bedeutsam. Mit der Integritätsüberprüfung kann ein Benutzer die Konfiguration und Eigenschaften dieser Plattform dem Anbieter berichten, der sie mit definierten Werten vergleicht. Der Anbieter überzeugt sich vom Verhalten der Benutzerplattform und kann auf diese Weise einen zuverlässigen Schutz der medialen Inhalte gewährleisten. Das Integritätsüberprüfungs-Zertifikat selbst kann nur auf dem Attestation Identity Key (AIK) basierend überprüft werden, der exklusiv zu einem bestimmten TPM gehört. Deshalb stellt ein in die Benutzerplattform integriertes TPM den Vertrauensanker seiner Plattform dar. Es wird eine fein abstufbare Zugangskontrolle zu Medieninhalten mit der Durchsetzung einer bestimmten Richtlinie auf der Benutzerplattform erreicht. Richtliniendurchsetzung ist damit notwendig und kann in diesem Fall durch Sicherheitskonzepte erreicht werden, die auf Sticky Policy oder DRM-Implementierungen basieren. Ein Trusted Viewer (sicheres Anzeigeprogramm) ist zum Schutz von Medieninhalten vor einem Abfangen und Manipulieren der Ein-/Ausgabe notwendig. Dies kann durch das Einbinden von grundlegenden Sicherheitsfunktionalitäten des Trusted Viewers in die Trusted Computing Base garantiert werden (deren Integritätsmesswerte zur Überprüfung gespeichert werden). Diese Kombination der Sicherheitsmechanismen, Modelle und Komponenten, werden in der Kategorie Schutz medialer Inhalte in Abbildung 7.2 repräsentiert. Ein anderes Beispiel ist die Datenzugriffskontrolle (engl. Data Access Control ). Sie zeigt, wie die durch Trusted Computing unterstützten Funktionalitäten auch durch alternative Mechanismen realisiert werden können. In diesem Fall kann die Vertrauensverankerung durch die Verwendung von Smartcards umgesetzt werden. Dabei ist Authentizität und Autorisation des Benutzers das ultimative Sicherheitsziel, das Vertrauenswürdigkeit erfordert. Darüber hinaus wird Richtliniendurchsetzung durch Sicherheitsmodelle wie Bell-LaPadula oder Chinesische Mauer ( Chinese Wall ) realisiert. Die Kombination von Trusted Computing-Komponenten und anderen Mechanismen oder Konzepten kann eine hohe Sicherheitsebene erreichen, wie im Falle von sicheren virtuellen Maschinen (VMs), die auf der Isolation der virtuellen Maschinen, sowie eines TPM als Vertrauensanker und der Integritätsüberprüfung der Konfiguration der virtuellen Maschine durch eine andere Plattform, basiert. Deshalb sind alternative Lösungen zu Trusted Computing hauptsächlich solche, die Vertrauenswürdigkeit von technischen Komponenten behandeln. Meist wird ein hardwarebasiertes Sicherheitsmodul (engl. Hardware Security Module, HSM) bei diesem Ziel benutzt: Trusted Computing ist die am weitesten verbreitete, relevante und offen spezifizierte Technik in diesem Bereich. 78

79 Schlussfolgerung Abbildung 7.2: Trusted Computing, Alternativen und unterstützte Sicherheitstechniken 79

IT-Sicherheit. 1. Einführung und organisatorische Sicherheit. 2. Datenschutz und Nicht-technische Datensicherheit. 3. Identity Management

IT-Sicherheit. 1. Einführung und organisatorische Sicherheit. 2. Datenschutz und Nicht-technische Datensicherheit. 3. Identity Management IT-Sicherheit 1. Einführung und organisatorische Sicherheit 2. Datenschutz und Nicht-technische Datensicherheit 3. Identity Management 4. Angewandte IT Sicherheit 5. Praktische IT Sicherheit 1. Einführung

Mehr

Anwendungen. Tom Vogt.

Anwendungen. Tom Vogt. <tom@lemuria.org> Security Enhanced Linux Einführung Architektur Anwendungen Tom Vogt Der Autor beschäftigt sich seit ca. 10 Jahren mit Linux. hat an verschiedensten Free Software Projekten mitgearbeitet,

Mehr

Smart Meter Gateway: Informationsflusskontrolle und Datenschutz mittels Security Kernel Framework

Smart Meter Gateway: Informationsflusskontrolle und Datenschutz mittels Security Kernel Framework it-sa 2012 Nürnberg, 16.10.2012 Smart Meter Gateway: Informationsflusskontrolle und Datenschutz mittels Security Kernel Framework Michael Gröne Sirrix AG security technologies Agenda Sicherheitsanforderungen

Mehr

Dynamische Web-Anwendung

Dynamische Web-Anwendung Dynamische Web-Anwendung Christiane Lacmago Seminar Betriebssysteme und Sicherheit Universität Dortmund WS 02/03 Gliederung Einleitung Definition und Erläuterung Probleme der Sicherheit Ziele des Computersysteme

Mehr

Seminar Grid-Computing. Oktay Tugan, WS 2006/07 SICHERHEIT

Seminar Grid-Computing. Oktay Tugan, WS 2006/07 SICHERHEIT Seminar Grid-Computing Oktay Tugan, WS 2006/07 SICHERHEIT Überblick Motivation Sicherheitsfunktionen und Schwierigkeiten Anforderungen Beispiel GSI Weitere Sicherheitsmechanismen Gesellschaftliche Probleme

Mehr

AUS DER WELT DES TRUSTED COMPUTING: TURAYA der Airbag für Betriebssysteme

AUS DER WELT DES TRUSTED COMPUTING: TURAYA der Airbag für Betriebssysteme AUS DER WELT DES TRUSTED COMPUTING: TURAYA der Airbag für Betriebssysteme EMSCB / TURAYA AUF EINEN BLICK Das Forschungs- und Entwicklungsprojekt EMSCB (European Multilaterally Secure Computing Base) stellt

Mehr

Dipl.-Ök. Thorben Sandner Institut für Wirtschaftsinformatik Leibniz Universität Hannover. sandner@iwi.uni-hannover.de

Dipl.-Ök. Thorben Sandner Institut für Wirtschaftsinformatik Leibniz Universität Hannover. sandner@iwi.uni-hannover.de 09. Juni 2009 Dipl.-Ök. Thorben Sandner sandner@iwi.uni-hannover.de Definition Sicherheit Sicherheit bezeichnet den Zustand des Sicherseins vor Gefahr oder Schaden bzw. einen Zustand, in dem Schutz vor

Mehr

DriveLock in Terminalserver Umgebungen

DriveLock in Terminalserver Umgebungen DriveLock in Terminalserver Umgebungen Technischer Artikel CenterTools Software GmbH 2011 Copyright Die in diesen Unterlagen enthaltenen Angaben und Daten, einschließlich URLs und anderen Verweisen auf

Mehr

IT Sicherheit: Bewertungskriterien

IT Sicherheit: Bewertungskriterien Dr. Christian Rathgeb IT-Sicherheit, Kapitel 8 / 18.12.2014 1/27 IT Sicherheit: Bewertungskriterien Dr. Christian Rathgeb Hochschule Darmstadt, CASED, da/sec Security Group 18.12.2014 Dr. Christian Rathgeb

Mehr

Sicherheitsaspekte unter Windows 2000

Sicherheitsaspekte unter Windows 2000 Sicherheitsaspekte unter Windows 2000 Margarete Kudak Sascha Wiebesiek 1 Inhalt 1. Sicherheit 1.1 Definition von Sicherheit 1.2 C2 - Sicherheitsnorm 1.3 Active Directory 2. Sicherheitslücken 3. Verschlüsselung

Mehr

Sicherheitstechnische Qualifizierung (SQ), Version 10.0 Security Assurance Level SEAL-3

Sicherheitstechnische Qualifizierung (SQ), Version 10.0 Security Assurance Level SEAL-3 Die Zertifizierungsstelle der TÜV Informationstechnik GmbH bescheinigt hiermit dem Unternehmen Agfa HealthCare GmbH Konrad-Zuse-Platz 1-3 53227 Bonn für das IT-System IMPAX/web.Access die Erfüllung aller

Mehr

Trusted Network Connect. Networking Academy Day 19.04.2008

Trusted Network Connect. Networking Academy Day 19.04.2008 Trusted Network Connect Networking Academy Day 19.04.2008 Dipl.-Inf. Stephan Gitz Roadmap Ziele der Informationssicherheit Herausforderungen der Informationssicherheit Angriffsvektoren

Mehr

Vorlesung Sicherheit

Vorlesung Sicherheit Vorlesung Sicherheit Dennis Hofheinz IKS, KIT 01.07.2013 1 / 31 Überblick 1 Zugriffskontrolle Das Bell-LaPadula-Modell Das Chinese-Wall-Modell Zusammenfassung 2 Analyse größerer Systeme Motivation Der

Mehr

http://dic Schutzprofile für Datenschutzgerechte Informationsflusskontrolle Roland Vogt

http://dic Schutzprofile für Datenschutzgerechte Informationsflusskontrolle Roland Vogt http://dic dic.dfki.de/ 1 Schutzprofile für Datenschutzgerechte Informationsflusskontrolle Roland Vogt Deutsches Forschungszentrum für Künstliche Intelligenz (DFKI GmbH) Prüfstelle für IT-Sicherheit 2

Mehr

Sicherheitsplattform Turaya live. Enterprise Rights Management mit Trusted Computing. Niklas Heibel

Sicherheitsplattform Turaya live. Enterprise Rights Management mit Trusted Computing. Niklas Heibel gefördert durch das Sicherheitsplattform Turaya live Enterprise Rights Management mit Trusted Computing Niklas Heibel Niklas. Heibel (at) internet sicherheit. de Institut für Internet-Sicherheit Fachhochschule

Mehr

Datensicherheit. Vorlesung 1: 10.4.2015. Sommersemester 2015 h_da. Heiko Weber, Lehrbeauftragter

Datensicherheit. Vorlesung 1: 10.4.2015. Sommersemester 2015 h_da. Heiko Weber, Lehrbeauftragter Datensicherheit Vorlesung 1: 10.4.2015 Sommersemester 2015 h_da, Lehrbeauftragter Nachklausur IT- und Medientechnik Freitag, 24. April 2015 12.15 13.45 Uhr Raum A10/001 Allgemeines zur Vorlesung die Folien

Mehr

Sicherheitstechnische Qualifizierung (SQ), Version 10.0 Security Assurance Level SEAL-5

Sicherheitstechnische Qualifizierung (SQ), Version 10.0 Security Assurance Level SEAL-5 Die Zertifizierungsstelle der TÜV Informationstechnik GmbH bescheinigt hiermit dem Unternehmen SLA Software Logistik Artland GmbH Friedrichstraße 30 49610 Quakenbrück für das IT-System Meat Integrity Solution

Mehr

Beuth Hochschule BEUTH HOCHSCHULE FÜR TECHNIK BERLIN University of Applied Sciences

Beuth Hochschule BEUTH HOCHSCHULE FÜR TECHNIK BERLIN University of Applied Sciences Beuth Hochschule BEUTH HOCHSCHULE FÜR TECHNIK BERLIN University of Applied Sciences WISSENSCHAFTLICHE WEITERBILDUNG Fernstudium Industrial Engineering Produktions- und Betriebstechnik Kurseinheit 98 und

Mehr

Sicherheitstechnische Qualifizierung (SQ), Version 10.0 Security Assurance Level SEAL-3

Sicherheitstechnische Qualifizierung (SQ), Version 10.0 Security Assurance Level SEAL-3 Die Zertifizierungsstelle der TÜV Informationstechnik GmbH bescheinigt hiermit dem Unternehmen RWE Effizienz GmbH Flamingoweg 1 44139 Dortmund für das IT-System RWE eoperate IT Services die Erfüllung aller

Mehr

Federated Identity Management

Federated Identity Management Federated Identity Management Verwendung von SAML, Liberty und XACML in einem Inter Campus Szenario d.marinescu@gmx.de 1 Fachbereich Informatik Inhalt Grundlagen Analyse Design Implementierung Demo Zusammenfassung

Mehr

Eine umfassende Unternehmenslösung für die private und berufliche Nutzung

Eine umfassende Unternehmenslösung für die private und berufliche Nutzung Eine umfassende Unternehmenslösung für die private und berufliche Nutzung Mobile Security Lösung für Unternehmen Einführung in Samsung KNOX DIE TECHNOLOGIE HINTER SAMSUNG KNOX Samsung KNOX ist eine Android-basierte

Mehr

Windows Vista Sicherheitsfeatures der neuen Microsoft Windows Client Plattform

Windows Vista Sicherheitsfeatures der neuen Microsoft Windows Client Plattform Windows Vista Sicherheitsfeatures der neuen Microsoft Windows Client Plattform Roland Taschler Roland Taschler MCSE MCT Windows Exchange - Security Security Experience mehr Vertrauen und Kontrolle Sicher

Mehr

Virtuelle Sicherheit

Virtuelle Sicherheit Virtuelle Sicherheit Mandatory Access Control und TPM in XEN c 2007 Ralf Spenneberg OpenSource Training Ralf Spenneberg Webereistr. 1 48565 Steinfurt http://www.opensource-training.de http://www.os-t.de

Mehr

Network Access Control für Remote Access: Best Practice Technical Paper

Network Access Control für Remote Access: Best Practice Technical Paper Network Access Control für Remote Access: Best Practice Technical Paper Stand Mai 2010 Haftungsausschluss Die in diesem Dokument enthaltenen Informationen können ohne Vorankündigung geändert werden und

Mehr

Sicherheit in unternehmensübergreifenden Wertschöpfungsketten

Sicherheit in unternehmensübergreifenden Wertschöpfungsketten DEEN NNOVATION W CHSTUM Die Hightech-Strategie für Deutschland Sicherheit in unternehmensübergreifenden Wertschöpfungsketten Technical Showcase des Software-Clusters Softwareinnovationen für das digitale

Mehr

SEP Antrittsvortrag. Vertrauenswürdige Network Access Control basierend auf Integritätsmesswerten mit EAP TNC

SEP Antrittsvortrag. Vertrauenswürdige Network Access Control basierend auf Integritätsmesswerten mit EAP TNC Lehrstuhl Netzarchitekturen und Netzdienste Institut für Informatik Technische Universität München SEP Antrittsvortrag Vertrauenswürdige Network Access Control basierend auf Integritätsmesswerten mit EAP

Mehr

HOB Remote Desktop VPN

HOB Remote Desktop VPN HOB GmbH & Co. KG Schwadermühlstr. 3 90556 Cadolzburg Tel: 09103 / 715-0 Fax: 09103 / 715-271 E-Mail: support@hob.de Internet: www.hob.de HOB Remote Desktop VPN Sicherer Zugang mobiler Anwender und Geschäftspartner

Mehr

Sicherheit integrierter Gebäudesysteme - Bedrohungsszenarien, Lösungsansätze - Markus Ullmann

Sicherheit integrierter Gebäudesysteme - Bedrohungsszenarien, Lösungsansätze - Markus Ullmann Sicherheit integrierter Gebäudesysteme - Bedrohungsszenarien, Lösungsansätze - Markus Ullmann Bundesamt für Sicherheit in der Informationstechnik (BSI) Connected Living 2013 Agenda Studie: Integrierte

Mehr

Sicherheit. Seminar Grid-Computing Prof. Dr. Fuhr Universität Duisburg-Essen. basierend auf den Artikeln

Sicherheit. Seminar Grid-Computing Prof. Dr. Fuhr Universität Duisburg-Essen. basierend auf den Artikeln Seminar Grid-Computing Prof. Dr. Fuhr Universität Duisburg-Essen Sicherheit Peter Seydel,, SS 2004 basierend auf den Artikeln A Security Architecture for Computational Grids von Ian Foster, Carl Kesselman,,

Mehr

shype: Hypervisor Security Architecture

shype: Hypervisor Security Architecture BSI Sicherheitskongress 2005 shype: Hypervisor Security Architecture Reiner Sailer Secure Systems Department IBM T. J. Watson Research Center, NY IBM May 2005 2002 IBM Corporation 2005 IBM Corporation

Mehr

Digital Rights Management in der Praxis

Digital Rights Management in der Praxis 3 Gerald Fränkl Digital Rights Management in der Praxis Hintergründe, Instrumente, Perspektiven, (und) Mythen VDM VERLAG DR. MÜLLER 4 - Bibliografische Information der Deutschen Bibliothek: Die Deutsche

Mehr

IT-Dienstleistungszentrum Berlin

IT-Dienstleistungszentrum Berlin IT-Dienstleistungszentrum Berlin»Private Cloud für das Land Berlin«25.11.2010, Kai Osterhage IT-Sicherheitsbeauftragter des ITDZ Berlin Moderne n für die Verwaltung. Private Cloud Computing Private Cloud

Mehr

PRAXISLEITFADEN DATENSICHERHEIT UND DATENSCHUTZ EINE GEFAHR, DIE MAN KENNT, IST KEINE GEFAHR MEHR.

PRAXISLEITFADEN DATENSICHERHEIT UND DATENSCHUTZ EINE GEFAHR, DIE MAN KENNT, IST KEINE GEFAHR MEHR. PRAXISLEITFADEN DATENSICHERHEIT UND DATENSCHUTZ EINE GEFAHR, DIE MAN KENNT, IST KEINE GEFAHR MEHR. Hans Joachim von Zieten DATEN DAS WICHTIGSTE GUT Daten und Informationen sind ein wichtiges, ja sogar

Mehr

Sicherheitstechnische Qualifizierung (SQ), Version 10.0 Security Assurance Level SEAL-3

Sicherheitstechnische Qualifizierung (SQ), Version 10.0 Security Assurance Level SEAL-3 Die Zertifizierungsstelle der TÜV Informationstechnik GmbH bescheinigt hiermit dem Unternehmen Deutsche Telekom AG Products & Innovation T-Online-Allee 1 64295 Darmstadt für das IT-System Developer Garden

Mehr

LANCOM Systems. Standortvernetzung NEU

LANCOM Systems. Standortvernetzung NEU LANCOM Systems Hochsichere Standortvernetzung NEU Hochsichere Standortvernetzung [...] Geheimdienste werten in ungeahntem Ausmaß deutsche Mails, Telefongespräche und Kurznachrichten aus. Unternehmen befürchten

Mehr

Verteilte Systeme. Sicherheit. Prof. Dr. Oliver Haase

Verteilte Systeme. Sicherheit. Prof. Dr. Oliver Haase Verteilte Systeme Sicherheit Prof. Dr. Oliver Haase 1 Einführung weitere Anforderung neben Verlässlichkeit (zur Erinnerung: Verfügbarkeit, Zuverlässigkeit, Funktionssicherheit (Safety) und Wartbarkeit)

Mehr

Use-Cases. Bruno Blumenthal und Roger Meyer. 17. Juli 2003. Zusammenfassung

Use-Cases. Bruno Blumenthal und Roger Meyer. 17. Juli 2003. Zusammenfassung Use-Cases Bruno Blumenthal und Roger Meyer 17. Juli 2003 Zusammenfassung Dieses Dokument beschreibt Netzwerk-Szenarios für den Einsatz von NetWACS. Es soll als Grundlage bei der Definition des NetWACS

Mehr

Über die Folgen eines durchgängigen DRM für Bildung und Wissenschaft

Über die Folgen eines durchgängigen DRM für Bildung und Wissenschaft Über die Folgen eines durchgängigen DRM für Bildung und Wissenschaft Hamburg, den 24. November 2006 Architektur eines DRMS Digital Rights Management (DRM) DRM bezeichnet den Einsatz der zur Verfügung stehenden

Mehr

Mitglied der: KNX Association OPC Foundation BACnet Interest Group Europe. Dokumentversion: 1.0.2

Mitglied der: KNX Association OPC Foundation BACnet Interest Group Europe. Dokumentversion: 1.0.2 Mitglied der: KNX Association OPC Foundation BACnet Interest Group Europe Dokumentversion: 1.0.2 Inhaltsverzeichnis 1. System Überblick 4 2. Windows Firewall Konfiguration 5 2.1. Erlauben von DCOM Kommunikation

Mehr

BSI-Mindestsicherheitsanforderungen an Cloud-Computing-Anbieter

BSI-Mindestsicherheitsanforderungen an Cloud-Computing-Anbieter BSI-Mindestsicherheitsanforderungen an Cloud-Computing-Anbieter Alex Didier Essoh und Dr. Clemens Doubrava EuroCloud Deutschland_eco e.v. Köln 02.02.2011 Ziel Ziel des BSI ist es, gemeinsam mit den Marktteilnehmern

Mehr

Mit Trusted Computing zur mobilen Sicherheit der Zukunft Malte Hesse Hesse (at) internet-sicherheit.de

Mit Trusted Computing zur mobilen Sicherheit der Zukunft Malte Hesse Hesse (at) internet-sicherheit.de Mit Trusted Computing zur mobilen Sicherheit der Zukunft Malte Hesse Hesse (at) internet-sicherheit.de Institut für Internet-Sicherheit https://www.internet-sicherheit.de Fachhochschule Gelsenkirchen Herausforderung:

Mehr

Prinzipiell wird bei IP-basierenden VPNs zwischen zwei unterschiedlichen Ansätzen unterschieden:

Prinzipiell wird bei IP-basierenden VPNs zwischen zwei unterschiedlichen Ansätzen unterschieden: Abkürzung für "Virtual Private Network" ein VPN ist ein Netzwerk bestehend aus virtuellen Verbindungen (z.b. Internet), über die nicht öffentliche bzw. firmeninterne Daten sicher übertragen werden. Die

Mehr

OCG IT-Security. OCG IT-Security 2.0. Lernzielkatalog. Syllabus Version

OCG IT-Security. OCG IT-Security 2.0. Lernzielkatalog. Syllabus Version OCG IT-Security OCG IT-Security Lernzielkatalog 2.0 Syllabus Version Österreichische Computer Gesellschaft Wollzeile 1-3, 1010 Wien Tel: + 43 1 512 02 35-0 Fax: + 43 1 512 02 35-9 E-Mail: ocg@ocg.at Web:

Mehr

P2P - Sicherheit Georg Lukas 2003-12-03 Seminar "Kommunikation in P2P-Netzen"

P2P - Sicherheit Georg Lukas 2003-12-03 Seminar Kommunikation in P2P-Netzen P2P - Sicherheit Georg Lukas 2003-12-03 Seminar "Kommunikation in P2P-Netzen" Ziele des Vortrags Sicherheit auf Konzept-Ebene Kommunikationsprotokolle Datenspeicherung Resistenz gegen Störungen, Angriffe,

Mehr

Sicherheitsplattform Turaya

Sicherheitsplattform Turaya Gefördert durch das Ruhr-Universität Bochum Sicherheitsplattform Turaya Der Airbag für Betriebssysteme Prof. Dr. Norbert Pohlmann Institut für Internet-Sicherheit Fachhochschule Gelsenkirchen www.internet-sicherheit.de

Mehr

Das Wichtigste im Überblick 3 Sicherheit der Inhalte Sicherheit der Benutzeroberfläche Sicherheit der Infrastruktur.

Das Wichtigste im Überblick 3 Sicherheit der Inhalte Sicherheit der Benutzeroberfläche Sicherheit der Infrastruktur. MIKOGO SICHERHEIT Inhaltsverzeichnis Das Wichtigste im Überblick 3 Sicherheit der Inhalte Sicherheit der Benutzeroberfläche Sicherheit der Infrastruktur Seite 2. Im Einzelnen 4 Komponenten der Applikation

Mehr

Welche Sicherheit brauchen die Unterehmen?

Welche Sicherheit brauchen die Unterehmen? Welche Sicherheit brauchen die Unterehmen? Ammar Alkassar Vorstand Sirrix AG IuK-Tag NRW 20. November 2014 ı Bochum Ursprünge BMWi-Studie in der Spitzenforschung zur IT-Sicherheit bei Industrie 4.0 Gegründet

Mehr

Handbuch für ios 1.4 1

Handbuch für ios 1.4 1 Handbuch für ios 1.4 1 Inhaltsverzeichnis 1. Leistungsumfang... 3 1.1 Über Boxcryptor Classic... 3 1.2 Über dieses Handbuch... 4 2. Installation... 5 3. Grundfunktionen... 6 3.1. Einrichtung von Boxcryptor

Mehr

Endpoint Security. Where trust begins and ends. SINN GmbH Andreas Fleischmann Technischer Leiter. www.s-inn.de

Endpoint Security. Where trust begins and ends. SINN GmbH Andreas Fleischmann Technischer Leiter. www.s-inn.de Endpoint Security Where trust begins and ends SINN GmbH Andreas Fleischmann Technischer Leiter www.s-inn.de Herausforderung für die IT Wer befindet sich im Netzwerk? Welcher Benutzer? Mit welchem Gerät?

Mehr

ISSS Security Lunch - Cloud Computing

ISSS Security Lunch - Cloud Computing ISSS Security Lunch - Cloud Computing Technische Lösungsansätze Insert Andreas Your Kröhnert Name Insert Technical Your Account Title Manager Insert 6. Dezember Date 2010 The Cloud Unternehmensgrenzen

Mehr

Turaya Anwendungsbeispiele

Turaya Anwendungsbeispiele gefördert durch das Ruhr-Universität Bochum Turaya Anwendungsbeispiele Projekte, Erfahrungen und Piloten Markus Linnemann Niklas Heibel Prof. Dr. Norbert Pohlmann Institut für Internet-Sicherheit Fachhochschule

Mehr

Security in Computer Architecture Am Beispiel der AEGIS Architektur

Security in Computer Architecture Am Beispiel der AEGIS Architektur Sandro Schwarz E-mail: sschwarz@informatik.hu-berlin.de Seminar: Spezielle Probleme von Echtzeitsystemen Security in Computer Architecture Am Beispiel der AEGIS Architektur Inhaltsverzeichnis 1. Einführung

Mehr

GeoShop Netzwerkhandbuch

GeoShop Netzwerkhandbuch Technoparkstrasse 1 8005 Zürich Tel.: 044 / 350 10 10 Fax.: 044 / 350 10 19 GeoShop Netzwerkhandbuch Zusammenfassung Diese Dokumentation beschreibt die Einbindung des GeoShop in bestehende Netzwerkumgebungen.

Mehr

Embedded UICC Konzept und Zertifzierbarkeit

Embedded UICC Konzept und Zertifzierbarkeit Embedded UICC Konzept und Zertifzierbarkeit Jens Oberender SRC Security Research & Consulting GmbH 4./5. Februar 2015 Fraunhofer Darmstadt Agenda 1. Einsatzszenario (e)uicc 2. Motivation 3. Rollenmodell

Mehr

BeamYourScreen Sicherheit

BeamYourScreen Sicherheit BeamYourScreen Sicherheit Inhalt BeamYourScreen Sicherheit... 1 Das Wichtigste im Überblick... 3 Sicherheit der Inhalte... 3 Sicherheit der Benutzeroberfläche... 3 Sicherheit der Infrastruktur... 3 Im

Mehr

Das Plus an Unternehmenssicherheit

Das Plus an Unternehmenssicherheit Out-of-The-Box Client Security Das Plus an Unternehmenssicherheit ic Compas TrustedDesk Logon+ Rundum geschützt mit sicheren Lösungen für PC-Zugang, Dateiverschlüsselung, Datenkommunikation und Single

Mehr

HÄRTUNG VON WEB-APPLIKATIONEN MIT OPEN-SOURCE-SOFTWARE. Münchener Open-Source-Treffen, Florian Maier, 23.05.2014

HÄRTUNG VON WEB-APPLIKATIONEN MIT OPEN-SOURCE-SOFTWARE. Münchener Open-Source-Treffen, Florian Maier, 23.05.2014 HÄRTUNG VON WEB-APPLIKATIONEN MIT OPEN-SOURCE-SOFTWARE Münchener Open-Source-Treffen, Florian Maier, 23.05.2014 ÜBER MICH 34 Jahre, verheiratet Open Source Enthusiast seit 1997 Beruflich seit 2001 Sicherheit,

Mehr

Anlage 3 Verfahrensbeschreibung

Anlage 3 Verfahrensbeschreibung Anlage 3 Verfahrensbeschreibung Stand September 2015 1 INHALTSVERZEICHNIS 1 EINLEITUNG... 2 2 SYSTEMVORAUSSETZUNGEN... 3 2.1 Technische Voraussetzung beim Kunden... 3 2.2 Ausstattung des Clients... 3 3

Mehr

Open Source. Eine kleine Geschichte zum Konzept der freien Software

Open Source. Eine kleine Geschichte zum Konzept der freien Software Open Source Eine kleine Geschichte zum Konzept der freien Software Open Source Definition (1) Freie Weitergabe Die Lizenz darf niemanden darin hindern, die Software zu verkaufen oder sie mit anderer Software

Mehr

Christian J. Dietrich. 9. Kryptotag

Christian J. Dietrich. 9. Kryptotag Extended Access Control (epa epa) Christian J. Dietrich 2008-11-10 9. Kryptotag Inhalt 1. Einleitung 2. Der elektronische Personalausweis 3. Die Authentisierungsfunktion im Detail 4. Kurzvorstellung der

Mehr

Mobile Security Smartphones

Mobile Security Smartphones Mobile Security Smartphones Schmelztiegel privater und geschäftlicher Aktivitäten eberhard@keyon.ch V1.1 2011 by keyon (www.keyon.ch) Über Keyon Warum Smartphones Welcher Nutzen wird vom Unternehmen erwartet?

Mehr

Karlsruher IT-Sicherheitsinitiative - 26. April 2001. "For your eyes only" Sichere E-Mail in Unternehmen. Dr. Dörte Neundorf neundorf@secorvo.

Karlsruher IT-Sicherheitsinitiative - 26. April 2001. For your eyes only Sichere E-Mail in Unternehmen. Dr. Dörte Neundorf neundorf@secorvo. Karlsruher IT-Sicherheitsinitiative - 26. April 2001 "For your eyes only" Sichere E-Mail in Unternehmen Dr. Dörte Neundorf neundorf@secorvo.de Secorvo Security Consulting GmbH Albert-Nestler-Straße 9 D-76131

Mehr

Kapitel. Sicherheit. Seite. Kapitel. Sicherheit. Workplace & WebSphere Domino & Notes

Kapitel. Sicherheit. Seite. Kapitel. Sicherheit. Workplace & WebSphere Domino & Notes Sicherheit 99 9 Sicherheit 7. Ergänzungslieferung 02/2007 Ein ITP-Handbuch 9 Sicherheit 9 Moderne Anwendungen müssen einer Vielzahl von Anforderungen gerecht werden. Mit dem Siegeszug der IT in die Geschäftswelt

Mehr

Unterrichtseinheit 9

Unterrichtseinheit 9 Unterrichtseinheit 9 Sicherheitsrichtlinien werden verwendet, um die Sicherheit im Netzwerk zu verstärken. Die effizienteste Möglichkeit zum Implementieren dieser, stellt die Verwendung von Sicherheitsvorlagen

Mehr

Samsung präsentiert KNOX

Samsung präsentiert KNOX Samsung präsentiert KNOX SAMSUNG KNOX-TECHNOLOGIE Bei Samsung KNOX handelt es sich um eine neuartige Lösung auf Android-Basis, mit der die Sicherheit der aktuellen Open-Source-Android-Plattform verbessert

Mehr

Theoretisches Seminar/Skiseminar im Wintersemester 2014/15. Themen

Theoretisches Seminar/Skiseminar im Wintersemester 2014/15. Themen FAKULTÄT FÜR WIRTSCHAFTSWISSENSCHAFTEN Lehrstuhl für Wirtschaftsinformatik I Informationssysteme Prof. Dr. Günther Pernul Theoretisches Seminar/Skiseminar im Wintersemester 2014/15 Auch im Wintersemester

Mehr

Relationale Datenbanken Datenbankgrundlagen

Relationale Datenbanken Datenbankgrundlagen Datenbanksystem Ein Datenbanksystem (DBS) 1 ist ein System zur elektronischen Datenverwaltung. Die wesentliche Aufgabe eines DBS ist es, große Datenmengen effizient, widerspruchsfrei und dauerhaft zu speichern

Mehr

Die Sicherheit Ihres Praxisverwaltungssystems

Die Sicherheit Ihres Praxisverwaltungssystems Die Sicherheit Ihres Praxisverwaltungssystems Was Sie im Umgang mit EDV-Anlagen und Onlinediensten beachten sollten Gefahren bei Sicherheitslücken Ihr Praxisbetrieb ist in hohem Maße abhängig von Ihrem

Mehr

Web Service Security

Web Service Security Hochschule für Angewandte Wissenschaften Hamburg Fachbereich Elektrotechnik und Informatik SS 2005 Masterstudiengang Anwendungen I Kai von Luck Web Service Security Thies Rubarth rubart_t@informatik.haw-hamburg.de

Mehr

IT-Sicherheit. Abteilung IT/2 Informationstechnologie. Dr. Robert Kristöfl. 3. Dezember 2010

IT-Sicherheit. Abteilung IT/2 Informationstechnologie. Dr. Robert Kristöfl. 3. Dezember 2010 IT-Sicherheit Abteilung IT/2 Informationstechnologie Dr. Robert Kristöfl 1 3. Dezember 2010 Begriffsdefinitionen Safety / Funktionssicherheit: stellt sicher, dass sich ein IT-System konform zur erwarteten

Mehr

Android, ios und Windows Phone dominieren zurzeit den Markt für mobile Firmware, wesentlich kleiner ist der Marktanteil von Blackberry OS10.

Android, ios und Windows Phone dominieren zurzeit den Markt für mobile Firmware, wesentlich kleiner ist der Marktanteil von Blackberry OS10. Zahlen und Fakten. Firmware Mit Firmware wird bei mobilen Endgeräten der Anteil des Betriebssystems bezeichnet, der auf die Hardware in dem Gerät angepasst ist und mit dem Gerät durch Laden in einen Flash-Speicher

Mehr

Identity Management (Übung) Übung zur Vorlesung Betrieb Komplexer IT-Systeme (BKITS)

Identity Management (Übung) Übung zur Vorlesung Betrieb Komplexer IT-Systeme (BKITS) Identity Management (Übung) Übung zur Vorlesung Betrieb Komplexer IT-Systeme (BKITS) Ziele dieser Übung Wiederholung des Identity Management Modells Kurzvorstellung: RBAC Vorstellung des Systems RSBAC

Mehr

Online Help StruxureWare Data Center Expert

Online Help StruxureWare Data Center Expert Online Help StruxureWare Data Center Expert Version 7.2.7 Virtuelle StruxureWare Data Center Expert-Appliance Der StruxureWare Data Center Expert-7.2-Server ist als virtuelle Appliance verfügbar, die auf

Mehr

Daten sichern mit Carbon Copy Cloner

Daten sichern mit Carbon Copy Cloner Daten sichern mit Carbon Copy Cloner unter Mac OS X 10.5 (Leopard) http://verbraucher-sicher-online.de/ August 2009 (ki) In dieser Anleitung zeigen wir Ihnen, wie sie mit dem Programm Carbon Copy Cloner

Mehr

Sicherheit von multifunktionalen Druckern

Sicherheit von multifunktionalen Druckern Sicherheit von multifunktionalen Druckern sichere Netzwerkintegration & sicheres Drucken Dr. Hans-Werner Stottmeister, ToshibaTec BITKOM AK Document & Print Management Solutions Frankfurt, 27.November

Mehr

Installationsanleitung

Installationsanleitung Avira Secure Backup Installationsanleitung Warenzeichen und Copyright Warenzeichen Windows ist ein registriertes Warenzeichen der Microsoft Corporation in den Vereinigten Staaten und anderen Ländern. Alle

Mehr

Personal Firewall (PFW) und Virenscanner. Präsentation von Gunawati A.-Tillmann, Miguel Lopez und Andreas Angelkorte

Personal Firewall (PFW) und Virenscanner. Präsentation von Gunawati A.-Tillmann, Miguel Lopez und Andreas Angelkorte Personal Firewall (PFW) und Virenscanner Präsentation von Gunawati A.-Tillmann, Miguel Lopez und Andreas Angelkorte Gliederung Personal Firewall Virenscanner 1. Zweck einer Firewall 2. Funktionsweise einer

Mehr

1 Einleitung... 1 1.1 Motivation... 1 1.2 ZieledesBuches... 2 1.3 GliederungdesBuches... 3

1 Einleitung... 1 1.1 Motivation... 1 1.2 ZieledesBuches... 2 1.3 GliederungdesBuches... 3 Inhaltsverzeichnis 1 Einleitung... 1 1.1 Motivation... 1 1.2 ZieledesBuches... 2 1.3 GliederungdesBuches... 3 2 Grundlagen... 5 2.1 CPU-Ringe... 5 2.2 Verwendung der CPU-Ringe.... 7 2.3 VirtualisierungunddieCPU-Ringe...

Mehr

Neue Konzepte für Mobile Security Von Sicherheitskernen zu Work-Life Balance

Neue Konzepte für Mobile Security Von Sicherheitskernen zu Work-Life Balance 2013 ı Classification: PUBLIC Neue Konzepte für Mobile Security Von Sicherheitskernen zu Work-Life Balance Christian Stüble 13. Deutscher IT-Sicherheitskongress, 14. 16. Mai 2013, Bad Godesberg Was will

Mehr

Anforderungskatalog. zur Bewertung und Zertifizierung mobiler Apps: Check your App / Datenschutz. Version 1.5 Stand 5.

Anforderungskatalog. zur Bewertung und Zertifizierung mobiler Apps: Check your App / Datenschutz. Version 1.5 Stand 5. Anforderungskatalog zur Bewertung und Zertifizierung mobiler Apps: Check your App / Datenschutz Version 1.5 Stand 5. September 2013 Der Anforderungskatalog nebst Anlagen und der entsprechende Inhalt sind

Mehr

Seminar "Smarte Objekte und smarte Umgebungen" Identity Management

Seminar Smarte Objekte und smarte Umgebungen Identity Management Seminar "Smarte Objekte und smarte Umgebungen" Identity Management Teil1: Einführung und die ideale Sicht Systeme aus der Forschung (Bettina Polasek) Teil2: Die angewandte Sicht - Industrielle Systeme

Mehr

Sicherheit von Smartphone-Betriebssystemen im Vergleich. Andreas Jansche Gerhard Klostermeier

Sicherheit von Smartphone-Betriebssystemen im Vergleich. Andreas Jansche Gerhard Klostermeier Sicherheit von Smartphone-Betriebssystemen im Vergleich Andreas Jansche Gerhard Klostermeier 1 / 24 Inhalt ios Sicherheitsmechanismen allgemein Sicherheits-APIs weitere Features Probleme Android Architektur

Mehr

GeoXACML und SAML. Ubiquitous Protected Geographic Information. Dr. Andreas Matheus Universität der Bundeswehr München Andreas.Matheus@unibw.

GeoXACML und SAML. Ubiquitous Protected Geographic Information. Dr. Andreas Matheus Universität der Bundeswehr München Andreas.Matheus@unibw. GeoXACML und SAML Ubiquitous Protected Geographic Information Dr. Andreas Matheus Universität der Bundeswehr München Andreas.Matheus@unibw.de Was erwartet Sie in diesem Vortrag? Einleitung OpenGIS Web

Mehr

IT-Security on Cloud Computing

IT-Security on Cloud Computing Abbildung 1: IT-Sicherheit des Cloud Computing Name, Vorname: Ebert, Philipp Geb.: 23.06.1993 Studiengang: Angewandte Informatik, 3. FS Beruf: IT-Systemelektroniker Abgabedatum: 08.12.2014 Kurzfassung

Mehr

IT-basierte Erstellung von Nachhaltigkeitsberichten. Diplomarbeit

IT-basierte Erstellung von Nachhaltigkeitsberichten. Diplomarbeit IT-basierte Erstellung von Nachhaltigkeitsberichten Diplomarbeit zur Erlangung des Grades eines Diplom-Ökonomen der Wirtschaftswissenschaftlichen Fakultät der Leibniz Universität Hannover vorgelegt von

Mehr

Securing SOAP e-services

Securing SOAP e-services Securing SOAP e-services Nilson Reyes Sommersemester 2004 aus: E. Damiani, S. De Capitani di Vermercati, S. Paraboschi, P. Samarati, Securing SOAP e-sservices, IJIS, Ausgabe 1 (2002), S.110-115. Gliederung

Mehr

IT-Sicherheit. Informationssicherheit: IT-Sicherheit bzw. IT-Risikomanagement

IT-Sicherheit. Informationssicherheit: IT-Sicherheit bzw. IT-Risikomanagement IT-Sicherheit Informationssicherheit: Schutz aller Informationen im Unternehmen elektronisch gespeicherte Daten Informationen in nichtelektronischer Form z.b. auf Papier Expertenwissen, in den Köpfen der

Mehr

Windows Server 2012 R2

Windows Server 2012 R2 Windows Server 2012 R2 Eine Übersicht Raúl B. Heiduk (rh@pobox.com) www.digicomp.ch 1 Inhalt der Präsentation Die wichtigsten Neuerungen Active Directory PowerShell 4.0 Hyper-V Demos Fragen und Antworten

Mehr

dvv.virtuelle Poststelle

dvv.virtuelle Poststelle Allgemeine Information zu unseren Angeboten über die dvv.virtuelle Poststelle 1 Ausgangssituation Der Einsatz von E-Mail als Kommunikations-Medium ist in der öffentlichen Verwaltung längst selbstverständliche

Mehr

WINDOWS APPLIKATIONEN UNTER LINUX/UNIX SECURE REMOTE ACCESS

WINDOWS APPLIKATIONEN UNTER LINUX/UNIX SECURE REMOTE ACCESS WINDOWS APPLIKATIONEN UNTER LINUX/UNIX SECURE REMOTE ACCESS Dipl.-Ing. Swen Baumann Produktmanager, HOB GmbH & Co. KG April 2005 Historie 2004 40 Jahre HOB Es begann mit Mainframes dann kamen die PCs das

Mehr

Dateisysteme mit Plugin-Funktion

Dateisysteme mit Plugin-Funktion Dateisysteme mit Plugin-Funktion Basierend auf Reiser 4 unter Linux http://llugb.amsee.de/logo.gif Ausgearbeitet und vorgetragen von Michael Berger 1/23 Agenda Die Idee Dateisysteme mit Plugin-Funktion

Mehr

Üblicherweise unterscheidet man zwischen der Strategie (policy) und dem Mechanismus (mechanism).

Üblicherweise unterscheidet man zwischen der Strategie (policy) und dem Mechanismus (mechanism). 3 Maßnahmen 3.0 Sicherheitsstrategien und Mechanismen Üblicherweise unterscheidet man zwischen der Strategie (policy) und dem Mechanismus (mechanism). Die Strategie spezifiziert, welche Maßnahmen (z.b.zugriffe)

Mehr

Einordnung, Zielsetzung und Klassifikation von Penetrationstests

Einordnung, Zielsetzung und Klassifikation von Penetrationstests Einordnung, Zielsetzung und Klassifikation von Penetrationstests Vortrag zur Vorlesung Sicherheit in Netzen Marco Spina 12 Jan 2005 1 Inhalt (1) Penetrationstest Definitionen Nach Bundesamt für Sicherheit

Mehr

Aufbau eines virtuellen privaten Netzes mit Peer-to-Peer-Technologie

Aufbau eines virtuellen privaten Netzes mit Peer-to-Peer-Technologie Aufbau eines virtuellen privaten Netzes mit Peer-to-Peer-Technologie Wolfgang Ginolas Fachhochschule Wedel 21. September 2009 Wolfgang Ginolas (Fachhochschule Wedel) 21. September 2009 1 / 14 Einleitung

Mehr

Grundlagen und Strategien der End Client Security

Grundlagen und Strategien der End Client Security Grundlagen und Strategien der End Client Security Make IT 2010, Gelsenkirchen Neue Herausforderungen an die Sicherheit Sebastian Feld feld @ internet-sicherheit. de Institut für Internet-Sicherheit https://www.internet-sicherheit.de

Mehr

Mindeststandard des BSI nach 8 Abs. 1 Satz 1 BSIG für den Einsatz des SSL/TLS-Protokolls in der Bundesverwaltung

Mindeststandard des BSI nach 8 Abs. 1 Satz 1 BSIG für den Einsatz des SSL/TLS-Protokolls in der Bundesverwaltung Mindeststandard des BSI nach 8 Abs. 1 Satz 1 BSIG für den Einsatz des SSL/TLS-Protokolls in der Bundesverwaltung Bundesamt für Sicherheit in der Informationstechnik Postfach 20 03 63 53133 Bonn Tel.: +49

Mehr

Kompatibilität von Microsoft Exchange Server mit den Microsoft Windows Server-Betriebssystemen

Kompatibilität von Microsoft Exchange Server mit den Microsoft Windows Server-Betriebssystemen Kompatibilität von Microsoft Exchange Server mit den Microsoft Windows Server-Betriebssystemen Whitepaper Veröffentlicht: April 2003 Inhalt Einleitung...2 Änderungen in Windows Server 2003 mit Auswirkungen

Mehr

Datensicherheit und Co. IHK Potsdam, 22.05.2013

Datensicherheit und Co. IHK Potsdam, 22.05.2013 Datensicherheit und Co. IHK Potsdam, 22.05.2013 Aktuelles 25.04.2013/ 17:18 Gefälschte Bank-Mails verteilen Trojaner für Android Hacker-Angriff Bonn (dpa/tmn) - Android-Smartphones stehen gerade im Visier

Mehr

Microsoft ISA Server 2006

Microsoft ISA Server 2006 Microsoft ISA Server 2006 Leitfaden für Installation, Einrichtung und Wartung ISBN 3-446-40963-7 Leseprobe Weitere Informationen oder Bestellungen unter http://www.hanser.de/3-446-40963-7 sowie im Buchhandel

Mehr

Herausforderungen für sichere mobile Architekturen. Alexander von Gernler

Herausforderungen für sichere mobile Architekturen. Alexander von Gernler <Alexander Gernler@genua.de> Herausforderungen für sichere mobile Architekturen Alexander von Gernler Innovation Forum Smart Mobile Apps Konferenzzentrum München, 07. Dezember 2011 GeNUA und der Referent

Mehr