PDF-Download

Schulung Software Defined Storage mit CEPH - kompakt (S1920)

Skalierbarkeit und Flexibilität von traditionellen Storage-Clustern stoßen heute längst an ihre Grenzen. Im Gegensatz zu proprietären Storage-Lösungen  bietet CEPH eine offene Plattform ("Software Defined Storage"), die nahezu unlimitierte Skalierbarkeit auf kostengünstiger
Hardware  ermöglicht, ebenso das unverzichtbare Storage-Tiering  (Hot/Cold-Expensive/Cheap-Storage), um Speicherplatz höchsteffizient zu  nutzen.
Per RADOS-Block-Device (RBD) können beispielsweise virtuelle Maschinen (ohne Cluster-FS zur Live Migration) oder skalierbarer Storage direkt zur Verfügung gestellt werden. CEPH/RBD lässt sich perfekt per NFS/iSCSI exportieren, und für maximale HA nahtlos in Pacemaker-Cluster integrieren. Per RADOS-Gateway (Ceph Object Gateway) können CEPH-Cluster S3-/Swift -kompatiblen Cloud-Storage anbieten, und Anforderungen an reine Cluster-Filesysteme werden mit CephFS bedient.
CEPH, die skalierbarste Software Defined Storage -Lösung, wird längst in zahlreichen Produktivumgebungen internationaler Unternehmen erfolgreich eingesetzt. Nahezu alle Linux Enterprise Cloud-Lösungen (SUSE/Red Hat) basieren auf CEPH.

Buchungsmöglichkeiten

Firmenschulung Anfragen
Inhouse-Schulung Anfragen
Individualschulung Anfragen

Preis

Auf Anfrage

Dauer

4 Tage. Die vorgeschlagene Dauer kann Ihren Bedürfnissen angepasst werden.

Schulungs-Ziel

Dieses Seminar bietet einen detaillierten und kompakten Einblick in Enterprise-Klasse des "Software Defined Storage" mit CEPH unter Linux. Es werden die Konfiguration, Administration, sowie praktische Einsatzszenarien beleuchtet. Hinzu kommen etliche konkrete Praxisszenarien, Designfragen, detaillierte Betrachtungen und Beispiele zum Design von Crushmaps, zur optimalen Datenverteilung im Cluster, des Erasure Codings und dem damit realisierbaren Storage-Tiering (Hot-/Cold-Storage), Setup eines Rados-Gateways für eine eigene Cloud-Storage-Lösung a la 'Dropbox' oder 'Google Drive', sowie zahlreiche weitere Praxisbeispiele, Best Practices, Debugging, Troubleshooting-Tipps und vieles mehr.

Wer sollte teilnehmen

Administratoren und Systembetreuer, die CEPH - Storage Cluster einrichten und professionell administrieren möchten. Solide Vorkenntnisse in den Bereichen "Linux-System- und Netzwerk-Administration" sollten vorhanden sein, grundlegende Vorkenntnisse im Bereich Clustering sind von Vorteil. 

Inhalt

  • CEPH-Basics 
    • Geschichtliche Entwicklung, Aufbau des Systems
    • Die Kernbausteine von CEPH und ihre Funktionen: RBD - das RADOS Block Device, RGW- das RADOS-Gateway (Ceph Object Gateway) und CephFS
    • CEPH in den gängigen Linux-Distributionen
    • Software Defined Storage vs. herkömmliche Storage Cluster
    • CEPH-Cluster im Detail : OSD (Object Storage Daemons), MDS (Metadata Server) und MON (die Ceph-Monitore)
    • Das richtige Filesystem für die OSD-Nodes
  • CEPH-Setup 
    • Hardware Recommendations 
    • Erforderliche Pakete / Repositories, Installation
    • Grundlegendes Setup eines 3 Node-Ceph-Clusters
    • Automatisiertes Deployment über multiple Nodes mit ceph-deploy, Pre-Flight Checks, systemd-Integration
    • Stolpersteine und Debugging 
  • CEPH-Cluster: Administration und Tools 
    • CEPH-Daemons: ceph-osd, ceph-mds und ceph-mon
    • CEPH-Kommandozeilen-Tools: ceph, rbd, rados und mehr
    • Pools und Images unter CEPH erzeugen und verwalten, Snapshot-Management, Cloning, Best Practices
    • Cluster-Health und Status der OSD, MDS und MONs überwachen
    • ACLs und Keyrings verwalten
    • Client-Mounts
    • Daten-Replikation und Failover, Ändern des Replikationslevels
    • Storage-Erweiterung: CEPH-Nodes / OSDs online hinzufügen 
    • Einführung zu Crushmaps
  • Fortgeschrittene Administration und Konzepte
    • Die Disponenten: PG (Placement Groups)  in Theorie und Praxis, Optimale Anzahl der PGs berechnen 
    • Crushmaps per CLI manipulieren
    • Crushmaps im Detail: Buckets, Tunables, Rulesets und mehr
    • Crushmaps für reale, redundante Topologien planen und umsetzen
    • Manuelle Crushmap-Bearbeitung: Auslesen, Dekompilieren, anpassen und re-implementieren von Crushmaps
    • Sicherstellung der Redundanz: Auf welchem OSD wird ein bestimmtes Objekt gespeichert? 
    • Storage-/Cache-Tiering und Erasure Coding ("Raid 5") im Ceph-Cluster
    • Aufbau eines Tiering Modells mit Replicated und Erasure coded Pools, Policies für Object Movement ('hot' <-> 'cold' Data)
    • Erasure Code Profile im Detail: Data und Coding Chunks
    • Explizite Zuweisung von OSDs an bestimmte Pools (Replicated/Erasure) unter Berücksichtigung der  räumlichen Redundanz 
  • Management von CEPH-Clustern und konkrete Einsatzszenarien
    • NFS over RBD
    • RBD-Integration in Corosync/Pacemaker-Cluster 
    • CEPH als hochverfügbares RBD/NFS Storage Backend für ESXi/vSphere 
    • iSCSI over RBD 
    • CephFS
    • ceph-radosgw: Cloud-Storage mit Client-Zugriff a la 'Dropbox' / 'Google Drive' 
    • Troubleshooting / Best Practices
    • Performance-relevante Betrachtungen 
    • Monitoring Lösungen im Überblick: Calamari, OpenATTIC und Alternativen
  • The Road Ahead: 
    • SES (SUSE Enterprise Storage) vs Red Hat Ceph Storage
    • Ceph vs. Gluster vs. Quobyte
    • Ceph Kraken 11.x mit Bluestore (stable)
    • Ceph und Docker

Schulungszeiten und Teilnehmerzahl

Teilnehmerzahl:min. 1, max. 6 Personen

Schulungszeiten: 4 Tage, 09:00-16:00

Ort der Schulung: GFU-Schulungszentrum Köln oder bei Ihnen als Inhouse-Schulung

Haben Sie Fragen?
  • 0221 82 80 90
  • Chat offline
Empfangsdamen der GFU