PDF-Download

Schulung CEPH - Scale-Out-Storage-Cluster / Software Defined Storage (Advanced Administration) (S1788)

Skalierbarkeit  und Flexibilität von traditionellen Storage-Clustern stoßen bereits  heute an ihre Grenzen. Im Gegensatz zu proprietären Storage-Lösungen  bietet CEPH eine offene Plattform
("Software Defined Storage"), die nahezu unlimitierte Skalierbarkeit auf kostengünstiger
Hardware  ermöglicht, ebenso das unverzichtbare Storage-Tiering  (Hot/Cold-Expensive/Cheap-Storage), um Speicherplatz höchsteffizient zu  nutzen.
Per  RADOS-Block-Device (RBD) können virtuelle Maschinen (ohne Cluster-FS  zur Live Migration) direkt zur Verfügung gestellt werden. Per  RADOS-Gateway können CEPH-Cluster
S3-/Swift -kompatiblen Cloud-Storage anbieten, Cluster-FS werden per CephFS bedient.
CEPH/RBD  lässt sich perfekt per NFS/iSCSI exportieren, und für maximale HA  nahtlos in Pacemaker-Cluster integrieren. CEPH, die skalierbarste  Software Defined Storage -Lösung,
wird  längst in zahlreichen Produktivumgebungen internationaler Unternehmen  erfolgreich eingesetzt. Nahezu alle Linux Enterprise Cloud-Lösungen  (SUSE/Red Hat) basieren auf CEPH.

Buchungsmöglichkeiten

Firmenschulung Anfragen
Inhouse-Schulung Anfragen
Individualschulung Anfragen

Preis

Auf Anfrage

Dauer

4 Tage. Die vorgeschlagene Dauer kann Ihren Bedürfnissen angepasst werden.

Schulungs-Ziel

Dieses Seminar bietet einen sehr detaillierten Einblick in Enterprise-Klasse des "Software Defined Storage" mit CEPH unter Linux. Es werden die Konfiguration, Administration, sowie praktische Einsatzszenarien beleuchtet. Hinzu kommen etliche konkrete Praxisszenarien, Designfragen, detaillierte Betrachtungen und Beispiele zum Design von Crushmaps, zur optimalen Datenverteilung im Cluster, des Erasure Codings und dem damit realisierbaren Storage-Tiering (Hot-/Cold-Storage), Setup eines Rados-Gateways für eine eigene Cloud-Storage-Lösung a la 'Dropbox' oder 'Google drive', sowie zahlreiche weitere Praxisbeispiele, Best Practices, Debugging, Troubleshooting-Tipps und vieles mehr

Wer sollte teilnehmen

Administratoren und Systembetreuer, die CEPH - Storage Cluster einrichten und professionell administrieren möchten.  
Sehr gute Vorkenntnisse in den Bereichen "Linux-System- und Netzwerk-Administration" sollten vorhanden sein, ebenso Vorkenntnisse im Bereich HA-Clustering. Die Teilnehmer sollten zuvor das Seminar CEPH - Scale-Out-Cluster / Software Defined Storage (Basic  Administration) besucht haben oder einen vergleichbaren Kenntnisstand aufweisen können.

Inhalt

  • CEPH-Basics 
    • Kurze Einführung
    • RBD, RADOS-Gateway und CephFS
    • CEPH in den gängigen Linux-Distributionen, die optimale Ceph-Plattform
    • Vorteile gegenüber traditionellen Cluster-Storage Konzepten
    • OSD (Object Storage Device), MDS (Metadata Server) und MON (der Ceph-Monitor) in der Übersicht
    • Das richtige Filesystem für die OSD-Nodes
    • Ceph-Kernel-Module, Auto-Load
  • CEPH-Setup 
    • Hardware Recommendations und Design-Strategien
    • Erforderliche Pakete / Repositories, Priorities für Ceph und OS-Repos
    • Zeitsynchro: NTPD in realen und virtuellen Cluster-Nodes 
    • Installation der Pakete, Setup eines 3 Node-Ceph-Clusters mit CEPH 9.x 'Infernalis'
    • Automatisiertes Deployment über multiple Nodes mit ceph-deploy, Pre-Flight Checks
    • Stolpersteine und Debugging 
  • Administration, System-Integration und Tools 
    • CEPH-Daemons: ceph-osd, ceph-mds und ceph-mon
    • systemd-Integration für Auto-Respawning: Best Practices und zukünftige Strategien
    • CEPH-Kommandozeilen-Tools: ceph, rbd, rados - welches Tool für welchen Zweck
    • Cluster-Health und Status der OSD, MDS und MONs überwachen
    • Fortgeschrittene Verwaltung von Pools und Images, Snapshot-Management, Cloning, Best Practices
    • ACLs und Keyrings verwalten
    • Native Client-Mounts
    • Daten-Replikation und Failover, Ändern des Replikationslevels
    • Troubleshooting: Recover OSD, MDS, MON or PG Failures
    • Storage-Erweiterung: CEPH-Nodes online hinzufügen 
    • Selektives Addieren von weiteren OSDs, MDSs und MONs
  • Fortgeschrittene Administration und Konzepte
    • Die Disponenten: PG (Placement Groups)  in Theorie und Praxis, Optimale Anzahl der PGs berechnen 
    • Crushmaps per CLI manipulieren
    • Crushmaps im Detail: Buckets, tunables, Rulesets und mehr
    • Crushmaps für reale, redundante Topologien planen und umsetzen
    • Manuelle Crushmap-Bearbeitung: Auslesen, Dekompilieren, anpassen und re-implementieren von Crushmaps
    • Sicherstellung der Redundanz: Auf welchem OSD wird ein bestimmtes Objekt gespeichert? 
    • Storage-/Cache-Tiering und Erasure Coding ("Raid 5") im Ceph-Cluster
    • Aufbau eines Tiering Modells mit Replicated und Erasure coded Pools
    • Policies für Object Movement ('hot' <-> 'cold' Data)
    • Erasure code Profiles im Detail: Data und Coding Chunks
    • Explizite Zuweisung von OSDs an bestimmte Pools (Replicated/Erasure) unter Berücksichtigung der  räumlichen Redundanz: Cache-/Fastpool (SSD) <-> Slowpool (normal Disks) mit spezieller Crushmap 
  • Management von CEPH-Clustern und konkrete Praxis-Einsatzszenarien
    • "Pure"- Storage
      • NFS over RBD
      • CEPH/RBD-Integration in Corosync/Pacemaker-Cluster 
      • CEPH als hochverfügbares RBD/NFS Storage Backend für ESXi/vSphere 
      • Ceph/RBD als iSCSI Target mit LIO, Target CLI, mögliche Cluster-Integration
    • CEPH und die Cloud: das Rados Gateway / Ceph Object Gateway
      • CivetWeb statt Apache in CEPH 9.x 'Infernalis'
      • Setup-Test per curl und https
      • Rados Gateway Administration: S3 und Swift-User
      • Client-Zugriff a la 'Dropbox' / 'Google Drive' 
      • Debugging 
    • KVM/Libvirt
      • Direktes Deployment von VMs auf RADOS
      • Migration von libvirt KVMs auf RADOS  (RBD)
      • Hot-Failover / Live-Migration von VMs im CEPH-Cluster
      • Konzeptionelle Betrachtung:  Überwachung von Applikationen in KVM-VMs per Pacemaker-Remote
    • Performance-relevante Betrachtungen 
  • Weitergehende Betrachtungen und Konzepte
    • The Road Ahead: Software Defined Storage, Inktank/RH Ceph Enterprise, SES (SUSE Enterprise Storage), Red Hat Ceph Storage...
    • Monitoring Lösungen: Calamari, Kraken, ceph-dash

Schulungszeiten und Teilnehmerzahl

Teilnehmerzahl:min. 1, max. 6 Personen

Schulungszeiten: 4 Tage, 09:00-16:00

Ort der Schulung: GFU-Schulungszentrum Köln oder bei Ihnen als Inhouse-Schulung

Haben Sie Fragen?

  • 0221 82 80 90
  • Chat offline
Drei Frauen