Storage Cluster mit Ceph



Ähnliche Dokumente
Btfs das Dateisystem der Zukunft?

Dynamische Änderung von Ressourcen in OpenStack

owncloud Unternehmensdaten sicher in eigener Hand

Ausrollen von Multi-Tier-Applikationen mit Docker

Migration einer bestehenden Umgebung in eine private Cloud mit OpenStack

SDN mit OpenStack Neutron & Arista EOS

Systemmanagement mit Puppet und Foreman

OpenStack bei der SAP SE

Intern: Ceph Kurzeinführung in die verteile Storage-Lösung

MongoDB Big Data mit Open Source

Linux Kernel Live Patching mit kpatch und kgraft

Private IaaS Cloud mit OpenStack. Sebastian Zielenski Linux/Unix Consultant & Trainer B1 Systems GmbH zielenski@b1-systems.de

Ceph. Distributed Storage Julian mino Klinck GPN

Systemmanagement mit Puppet und Foreman

B1 Systems GmbH - Linux/Open Source Consulting, Training, Support & Development

Orchestrierung einer Private Cloud mit OpenStack Heat

OpenStack Automatisiertes Bereitstellen von Instanzen

Cloud Computing mit OpenStack

Systemmanagement mit Puppet und Foreman

Softwarepaketierung und Continuous Integration bei Airbus Defence and Space

OPENNEBULA ALS OPEN SOURCE CLOUD VIRTUALISIERUNGSLÖSUNG

Open Source Data Center Virtualisierung mit OpenNebula LinuxTag Berlin. Bernd Erk

Open Source Data Center Virtualisierung mit OpenNebula CeBIT Bernd Erk

IT-Effizienzworkshop bei New Vision GmbH Entry und Midrange Disksysteme

Eine eigene Linux-Distribution für den Raspberry Pi mit Yocto

Keep your SAN simple Spiegeln stag Replizieren

Hochverfügbare Virtualisierung mit Open Source

Systemmanagement mit Puppet und Foreman

Softwarepaketierung und Continuous Integration bei Airbus Defence and Space

Powershell DSC Oliver Ryf

Hochverfügbarkeit mit Windows Server vnext. Carsten Rachfahl Microsoft Hyper-V MVP

Infrastructure as a Service (IaaS) Solutions for Online Game Service Provision

Dateisysteme und Datenverwaltung in der Cloud

Solaris Cluster. Dipl. Inform. Torsten Kasch Bielefeld.DE> 8. Januar 2008

B1 Thin Client Management bei der Fraport AG

Cloud Computing mit OpenStack

SANsymphony V R9. Andre Lahrmann. Copyright 2012 DataCore Software Corp. All Rights Reserved.

FileLock FLEXIBLE SKALIERBARE KOSTENEFFIZIENTE HARDWARE- UNABHÄNGIGE LÖSUNGEN ZUR LANG-ZEIT DATENARCHIVIERUNG YOUR DATA.

TSM-Client unter RedHat/CentOS-Linux einrichten

Virtual System Cluster: Freie Wahl mit Open Source

THEMA: SAS ADMINISTRATION LEICHT GEMACHT MIT SAS 9.4 ALLE SYSTEME IM BLICK" ANKE FLEISCHER

Session Storage im Zend Server Cluster Manager

Microsoft Azure Fundamentals MOC 10979

Ceph Erasure Coding und weitere neue Features

OpenStack in der Praxis

Lernkurven, Stolpersteine und andere Hürden Erfahrungsbericht einer Ceph-Cluster Implementation

WISSENSWERTES ÜBER WINDOWS SCALE-OUT FILE SERVER

MailUtilities: Remote Deployment - Einführung

IBM Software Demos Tivoli Provisioning Manager for OS Deployment

Entwicklungsumgebungen mit Vagrant

Clustering mit Shared Storage. Ing. Peter-Paul Witta

Storage as a Service - STaaS

Btrfs. Linux-Dateisystem der Zukunft? Thomas Schöbel 1 / 20

Verfügbarkeit von Applikationen und Failover Szenarien. Winfried Wojtenek.

LVM und ZFS reloaded

LabTech RMM. Integration von Teamviewer. Vertraulich nur für den internen Gebrauch

PVFS (Parallel Virtual File System)

Intergraph Geospatial 2014 Download, Installation und Lizenzierung

Aufbau und Anwendung eines objektbasierten Speichersystems. guug Frühjahrsfachgespräch Christian Schubert

OTRS - Nagios Integration. Jens Bothe Senior Consultant, OTRS AG

DevOps bei den ID Build-Automatisierung statt Silo-Betrieb

PostgreSQL in großen Installationen

Vorstellung SimpliVity. Tristan P. Andres Senior IT Consultant

Um DynDNS zu konfigurieren, muss ausschließlich folgendes Menü konfiguriert werden:

Bewertung der Methoden zur Sicherung von virtuellen Maschinen (VMware, Hyper-V) Ein Erfahrungsbericht

Storage Management und Archivierung

Konfiguration Management System. Konfiguration Management System. Versionierung Parallele Entwicklung Workspace

SAP NetWeaver Gateway. 2013

Mit Clustertechnik zu mehr Verfügbarkeit:

Portal for ArcGIS - Eine Einführung

2. ERSTELLEN VON APPS MIT DEM ADT PLUGIN VON ECLIPSE

Unternehmen-IT sicher in der Public Cloud

Frederik Wagner Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften

Lizenzen auschecken. Was ist zu tun?

Entwicklungsumgebungen. Packer, Vagrant, Puppet. Alexander Pacnik Mannheim,

Clustered Storage. Ceph und Gluster im Vergleich

Lokale Installation von DotNetNuke 4 ohne IIS

IBM Spectrum Protect (TSM Family) Strategy and Directions

Umbenennen eines NetWorker 7.x Servers (UNIX/ Linux)

Zeitlich abhängig von OWB?

GlusterFS Storage für die Cloud. Thomas Halinka CustomSol

Die Plattform für Ihre Datenfabrik unabhängig von Ort und Zeit

Zend PHP Cloud Application Platform

Installation SQL- Server 2012 Single Node

Sichere Netze mit OpenVPN Open Source VPN in Theorie und Praxis

PoINT Storage Manager Installation

Anlegen eines SendAs/RecieveAs Benutzer unter Exchange 2003, 2007 und 2010

Folgende Voraussetzungen für die Konfiguration müssen erfüllt sein:

Webcast-Serie IT Transformation in die Cloud, Teil 1. Public Cloud - mit Best-Practice-Beispiel hetras GmbH - Henning von Kielpinski, ConSol* GmbH

Deployment Deployment Seite 1 / 25

HMK Open Day 28. Januar 2009 Kronberg. Hierarchisches Storage Management mit SUN SAM-FS

TimeMachine. Installation und Konfiguration. Version 1.4. Stand Dokument: installcentos.odt

Elasticsearch aus OPS-Sicht Teil1. Markus Rodi Karlsruhe,

Optimieren Sie Ihre Speicherinfrastruktur mit intelligenter Storage Management Software

Virtual Elastic Services

1. IPSec Verbindung zwischen 2 Gateways mit dynamischen IP Adressen

MOUNT10 StoragePlatform Console

Transkript:

Storage Cluster mit Ceph CeBIT 2015 20. März 2015 Michel Rode Linux/Unix Consultant & Trainer B1 Systems GmbH rode@b1-systems.de B1 Systems GmbH - Linux/Open Source Consulting, Training, Support & Development

Vorstellung B1 Systems gegründet 2004 primär Linux/Open Source-Themen national & international tätig über 60 Mitarbeiter unabhängig von Soft- und Hardware-Herstellern Leistungsangebot: Beratung & Consulting Support Entwicklung Training Betrieb Lösungen dezentrale Strukturen B1 Systems GmbH Storage Cluster mit Ceph 2 / 47

Schwerpunkte Virtualisierung (XEN, KVM & RHEV) Systemmanagement (Spacewalk, Red Hat Satellite, SUSE Manager) Konfigurationsmanagement (Puppet & Chef) Monitoring (Nagios & Icinga) IaaS Cloud (OpenStack & SUSE Cloud & RDO) Hochverfügbarkeit (Pacemaker) Shared Storage (GPFS, OCFS2, DRBD & CEPH) Dateiaustausch (owncloud) Paketierung (Open Build Service) Administratoren oder Entwickler zur Unterstützung des Teams vor Ort B1 Systems GmbH Storage Cluster mit Ceph 3 / 47

Storage Cluster B1 Systems GmbH Storage Cluster mit Ceph 4 / 47

Was sind Storage Cluster? hochverfügbare Systeme verteilte Standorte skalierbar (mehr oder weniger) Problem: Häufig Vendor-Lock-In B1 Systems GmbH Storage Cluster mit Ceph 5 / 47

Beispiele 1/2 Dell PowerVault IBM SVC Netapp Metro Cluster Netapp Clustered Ontap... B1 Systems GmbH Storage Cluster mit Ceph 6 / 47

Beispiele 2/2 AWS S3 Rackspace Files Google Cloud Storage Microsoft Azure B1 Systems GmbH Storage Cluster mit Ceph 7 / 47

Alternativen DRBD CEPH... B1 Systems GmbH Storage Cluster mit Ceph 8 / 47

Was ist Ceph? B1 Systems GmbH Storage Cluster mit Ceph 9 / 47

Was ist Ceph? Storage Cluster (Distributed Object Store) Open Source (LGPL) Object/Block/File Storage B1 Systems GmbH Storage Cluster mit Ceph 10 / 47

Ziele bei der Entwicklung von Ceph kein SPOF (Single Point of Failure) hohe Skalierbarkeit gute Parallelisierung B1 Systems GmbH Storage Cluster mit Ceph 11 / 47

Block Storage Block Storage selber: Files werden gesplittet Blocks jeweils eigene Adresse keine Metadata B1 Systems GmbH Storage Cluster mit Ceph 12 / 47

Block Storage RADOS Block Device/RBD Integration in KVM OpenStack SUSE OpenStack Cloud Proxmox resizeable images read-only snapshots revert to snapshots B1 Systems GmbH Storage Cluster mit Ceph 13 / 47

Object Storage Data Bilder bis Manuals bis Videos Metadata Kontextinformationen für die Daten Index/Identifier natürlich unique! B1 Systems GmbH Storage Cluster mit Ceph 14 / 47

Object vs Block Quelle: http://www.druva.com/wp-content/uploads/ Screen-Shot-2014-08-18-at-11.02.02-AM-500x276.png B1 Systems GmbH Storage Cluster mit Ceph 15 / 47

File Storage Stronger data safety for mission-critical applications POSIX-konform automatisches Verteilen bessere Performance! CephFS B1 Systems GmbH Storage Cluster mit Ceph 16 / 47

Gateway/RGW RESTful API Interface für OpenStack Swift Amazon S3 B1 Systems GmbH Storage Cluster mit Ceph 17 / 47

Aufbau von Ceph B1 Systems GmbH Storage Cluster mit Ceph 18 / 47

Aufbau von Ceph Object Storage Device OSD Monitor MON Metadata Server MDS B1 Systems GmbH Storage Cluster mit Ceph 19 / 47

Aufbau B1 Systems GmbH Storage Cluster mit Ceph 20 / 47

Funktionsweise von Ceph B1 Systems GmbH Storage Cluster mit Ceph 21 / 47

Funktionsweise von Ceph automatisches Verteilen und Replizieren der Daten RAID-0 CRUSH Map Client kommuniziert direkt mit allen Systemen im Cluster B1 Systems GmbH Storage Cluster mit Ceph 22 / 47

Funktionsweise von Ceph B1 Systems GmbH Storage Cluster mit Ceph 23 / 47

ceph-mon Ceph Monitor Daemon Map aktive/inaktive Nodes mindestens 1 hochverfügbar! mit Paxos zum Quorum (2/3, 3/5) B1 Systems GmbH Storage Cluster mit Ceph 24 / 47

ceph-osd Ceph Object Storage Daemon 1/4 kann und darf ausfallen mindestens drei Knoten paralleler Zugriff CRUSH-Map B1 Systems GmbH Storage Cluster mit Ceph 25 / 47

ceph-osd Ceph Object Storage Daemon 2/4 Object File Disk Tabelle ID Binary Metadata 1234 100101 name1 value1 4321 010010 name2 value2 Semantik liegt beim Client ID ist eindeutig B1 Systems GmbH Storage Cluster mit Ceph 26 / 47

ceph-osd Ceph Object Storage Daemon 3/4 Dateisystem: Test-Umgebungen: BTRFS ZFS Produktiv-Systeme: ext3 (kleine Umgebung) XFS (Enterprise-Umgebung) B1 Systems GmbH Storage Cluster mit Ceph 27 / 47

ceph-osd Ceph Object Storage Daemon 4/4 Daten werden erst in Journal geschrieben Tipp: 4 OSD pro SSD B1 Systems GmbH Storage Cluster mit Ceph 28 / 47

ceph-mds Ceph Metadata Server Daemon speichert Inodes und Directories erforderlich für CephFS kein separater Speicher B1 Systems GmbH Storage Cluster mit Ceph 29 / 47

CRUSH Maps CRUSH Controlled Replication Under Scalable Hashing Datei (oid) Objekt (pgid) PGs CRUSH (pgid) osd1,osd2 Jeder mit Jedem! Platzierungsregeln Quelle: http://www.sebastien-han.fr/ images/ceph-data-placement.jpg B1 Systems GmbH Storage Cluster mit Ceph 30 / 47

War das alles? Erasure Coding Tiering Federation Chef Calamari B1 Systems GmbH Storage Cluster mit Ceph 31 / 47

Calamari B1 Systems GmbH Storage Cluster mit Ceph 32 / 47

Getting Started B1 Systems GmbH Storage Cluster mit Ceph 33 / 47

Getting Started Der Weg zum Ceph-Cluster ceph-deploy Sandbox ok Produktion nogo oder händisch Was noch? OSD tree Pools B1 Systems GmbH Storage Cluster mit Ceph 34 / 47

Release VS Client Fehlermeldung: Feature mismatch ceph osd crush tunables legacy B1 Systems GmbH Storage Cluster mit Ceph 35 / 47

Mini-Howto B1 Systems GmbH Storage Cluster mit Ceph 36 / 47

Schritt 1 Initiale Konfiguration erstellen $ ceph-deploy new <mons> [ceph_deploy.new][debug ] Creating new cluster named ceph [ceph_deploy.new][debug ] Resolving host ceph01 [ceph_deploy.new][debug ] Monitor ceph01 at 192.168.122.191 [ceph_deploy.new][info ] making sure passwordless SSH succeeds [ceph_deploy.new][debug ] Monitor initial members are [ ceph01 ] [ceph_deploy.new][debug ] Monitor addrs are [ 192.168.122.191 ] [ceph_deploy.new][debug ] Creating a random mon key... [ceph_deploy.new][debug ] Writing initial config to ceph.conf... [ceph_deploy.new][debug ] Writing monitor keyring to ceph.mon.keyring... B1 Systems GmbH Storage Cluster mit Ceph 37 / 47

Schritt 2 Pakete installieren $ ceph-deploy install <nodes> [ceph_deploy.install][info ] Distro info: Fedora 20 Heisenbug [ceph01][info ] installing ceph on ceph01 [ceph01][info ] Running command: rpm --import \ https://ceph.com/git/?p=ceph.git;a=blob_plain;f=keys/release.asc [ceph01][info ] Running command: rpm -Uvh --replacepkgs --force --quiet \ http://ceph.com/rpm-firefly/fc20/noarch/ceph-release-1-0.fc20.noarch.rpm [...] [ceph01][info ] Running command: yum -y -q install ceph [ceph01][info ] Running command: ceph --version [ceph01][debug ] ceph version 0.81 (8de9501df275a5fe29f2c64cb44f195130e4a8fc) [ceph_deploy.install][debug ] Detecting platform for host ceph02... B1 Systems GmbH Storage Cluster mit Ceph 38 / 47

Schritt 3 Monitor(e) erstellen 1/3 $ ceph-deploy mon create-initial [ceph_deploy.mon][debug ] Deploying mon, cluster ceph hosts ceph01 [ceph_deploy.mon][debug ] detecting platform for host ceph01... [...] [ceph_deploy.mon][info ] distro info: Fedora 20 Heisenbug [ceph01][debug ] determining if provided host has same hostname in remote [ceph01][debug ] write cluster configuration to /etc/ceph/{cluster}.conf [ceph01][debug ] create the mon path if it does not exist [ceph01][debug ] checking for done path: /var/lib/ceph/mon/ceph-ceph01/done [ceph01][debug ] create a done file to avoid re-doing the mon deployment [ceph01][debug ] create the init path if it does not exist [ceph01][debug ] locating the service executable... [...] B1 Systems GmbH Storage Cluster mit Ceph 39 / 47

Schritt 3 Monitor(e) erstellen 2/3 $ ceph-deploy mon create-initial [...] [ceph01][info ] Running command: /usr/sbin/service ceph -c /etc/ceph/ceph.conf start mon.ceph01 [ceph01][debug ] === mon.ceph01 === [ceph01][debug ] Starting Ceph mon.ceph01 on ceph01... [ceph01][debug ] Starting ceph-create-keys on ceph01... [ceph01][info ] Running command: ceph --cluster=ceph --admin-daemon /var/run/ceph/ceph-mon.ceph01.asok mon_status [ceph01][debug ] ********************************************** [ceph01][debug ] status for monitor: mon.ceph01 [...] B1 Systems GmbH Storage Cluster mit Ceph 40 / 47

Schritt 3 Monitor(e) erstellen 3/3 $ ceph-deploy mon create-initial [...] [ceph01][debug ] "mons": [ [ceph01][debug ] { [ceph01][debug ] "addr": "192.168.122.191:6789/0", [ceph01][debug ] "name": "ceph01", [ceph01][debug ] "rank": 0 [ceph01][debug ] } [ceph01][debug ] ] [ceph01][debug ] }, [...] [ceph_deploy.mon][info ] mon.ceph01 monitor has reached quorum! [ceph_deploy.mon][info ] Running gatherkeys... B1 Systems GmbH Storage Cluster mit Ceph 41 / 47

Schritt 4 Verzeichnisse anlegen $ mkdir /var/local/osdx B1 Systems GmbH Storage Cluster mit Ceph 42 / 47

Schritt 5 OSD prepare $ ceph-deploy osd prepare ceph01:/var/loca/ceph01 ceph02... [ceph_deploy.conf][debug ] found configuration file at: /root/.cephdeploy.conf [ceph_deploy.cli][info ] Invoked (1.5.11): /usr/bin/ceph-deploy osd prepare ceph01:/var/local/osd1 ceph02:/var/local/osd2 ceph03:/var/local/osd3 [ceph_deploy.osd][debug ] Preparing cluster ceph disks ceph01:/var/local/osd1: ceph02:/var/local/osd2: ceph03:/var/local/osd3: [ceph01][debug ] write cluster configuration to /etc/ceph/{cluster}.conf [ceph01][info ] Running command: udevadm trigger --subsystem-match=block --action=add [ceph_deploy.osd][debug ] Preparing host ceph01 disk /var/local/osd1 journal None activate False [ceph01][info ] Running command: ceph-disk -v prepare --fs-type xfs --cluster ceph -- /var/local/osd1 [ceph01][warnin] DEBUG:ceph-disk:Preparing osd data dir /var/local/osd1 [ceph01][info ] checking OSD status... [ceph01][info ] Running command: ceph --cluster=ceph osd stat --format=json [ceph_deploy.osd][debug ] Host ceph01 is now ready for osd use. B1 Systems GmbH Storage Cluster mit Ceph 43 / 47

Schritt 6 OSD activate $ ceph-deploy osd activate ceph01:/var/loca/ceph01 ceph02... [ceph_deploy.osd][debug ] Activating cluster ceph disks ceph01:/var/local/osd1: ceph02:/var/local/osd2: ceph03:/var/local/osd3: [ceph01][info ] Running command: ceph-disk -v activate --mark-init sysvinit --mount /var/local/osd1 [ceph01][debug ] === osd.0 === [ceph01][debug ] Starting Ceph osd.0 on ceph01... [ceph01][debug ] starting osd.0 at :/0 osd_data /var/lib/ceph/osd/ceph-0 /var/lib/ceph/osd/ceph-0/journal [ceph01][warnin] DEBUG:ceph-disk:Cluster uuid is 1d6a5501-5b8f-4a3a-8c92-... [ceph01][warnin] DEBUG:ceph-disk:Cluster name is ceph [ceph01][warnin] DEBUG:ceph-disk:OSD uuid is 3e05a33e-785d-41d3-8d4b-... [ceph01][warnin] DEBUG:ceph-disk:OSD id is 0 [ceph01][warnin] DEBUG:ceph-disk:Marking with init system sysvinit [ceph01][warnin] DEBUG:ceph-disk:ceph osd.0 data dir is ready at /var/local/osd1 [ceph01][warnin] DEBUG:ceph-disk:Creating symlink /var/lib/ceph/osd/ceph-0 -> /var/local/osd1 [ceph01][warnin] DEBUG:ceph-disk:Starting ceph osd.0... [ceph01][warnin] create-or-move updating item name osd.0 weight 0.01 at location {host=ceph01,root=default} to crush map B1 Systems GmbH Storage Cluster mit Ceph 44 / 47

Schritt 7 Deploy Adminkeys $ ceph-deploy admin <nodes> B1 Systems GmbH Storage Cluster mit Ceph 45 / 47

Schritt 8 Check Health $ ceph -s cluster 8ae29b47-245a-4ef6-a5cc-d5d5fb7417bd health HEALTH_OK monmap e1: 1 mons at {ceph01=192.168.122.191:6789/0}, election epoch 1, quorum 0 ceph01 osdmap e22: 3 osds: 3 up, 3 in pgmap v40: 192 pgs, 3 pools, 0 bytes data, 0 objects 19478 MB used, 5314 MB / 26191 MB avail 192 active+clean B1 Systems GmbH Storage Cluster mit Ceph 46 / 47

Vielen Dank für Ihre Aufmerksamkeit! Bei weiteren Fragen wenden Sie sich bitte an info@b1-systems.de oder +49 (0)8457-931096. Besuchen Sie uns auch hier auf der CeBIT, Halle 6, H16/312. B1 Systems GmbH - Linux/Open Source Consulting, Training, Support & Development