PDF

Schulung Software Defined Storage mit CEPH - kompakt

4 Tage / S1920

Schulungsmöglichkeiten

Inhouse-/Firmenschulung

  • 4 Tage - anpassbar
  • Termin nach Wunsch
  • Preis nach Angebot
  • In Ihrem Hause oder bei der GFU

Inhalte werden auf Wunsch an die Anforderungen Ihres Teams angepasst.

Individualschulung

  • 4 Tage - anpassbar
  • Termin nach Wunsch
  • Preis nach Angebot
  • In Ihrem Hause oder bei der GFU

1 Teilnehmer = max. Fokus aufs Fachliche und max. Raum für individuelle Fragen.

Beschreibung

Skalierbarkeit und Flexibilität von traditionellen Storage-Clustern stoßen heute längst an ihre Grenzen. Im Gegensatz zu proprietären Storage-Lösungen  bietet CEPH eine offene Plattform ("Software Defined Storage"), die nahezu unlimitierte Skalierbarkeit auf kostengünstiger
Hardware  ermöglicht, ebenso das unverzichtbare Storage-Tiering  (Hot/Cold-Expensive/Cheap-Storage), um Speicherplatz höchsteffizient zu  nutzen.
Per RADOS-Block-Device (RBD) können beispielsweise virtuelle Maschinen (ohne Cluster-FS zur Live Migration) oder skalierbarer Storage direkt zur Verfügung gestellt werden. CEPH/RBD lässt sich perfekt per NFS/iSCSI exportieren, und für maximale HA nahtlos in Pacemaker-Cluster integrieren. Per RADOS-Gateway (Ceph Object Gateway) können CEPH-Cluster S3-/Swift -kompatiblen Cloud-Storage anbieten, und Anforderungen an reine Cluster-Filesysteme werden mit CephFS bedient.
CEPH, die skalierbarste Software Defined Storage -Lösung, wird längst in zahlreichen Produktivumgebungen internationaler Unternehmen erfolgreich eingesetzt. Nahezu alle Linux Enterprise Cloud-Lösungen (SUSE/Red Hat) basieren auf CEPH.

Schulungsziel

Dieses Seminar bietet einen detaillierten und kompakten Einblick in Enterprise-Klasse des "Software Defined Storage" mit CEPH unter Linux. Es werden die Konfiguration, Administration, sowie praktische Einsatzszenarien beleuchtet. Hinzu kommen etliche konkrete Praxisszenarien, Designfragen, detaillierte Betrachtungen und Beispiele zum Design von Crushmaps, zur optimalen Datenverteilung im Cluster, des Erasure Codings und dem damit realisierbaren Storage-Tiering (Hot-/Cold-Storage), Setup eines Rados-Gateways für eine eigene Cloud-Storage-Lösung a la 'Dropbox' oder 'Google Drive', sowie zahlreiche weitere Praxisbeispiele, Best Practices, Debugging, Troubleshooting-Tipps und vieles mehr.

Details

  • CEPH-Basics 
    • Geschichtliche Entwicklung, Aufbau des Systems
    • Die Kernbausteine von CEPH und ihre Funktionen: RBD - das RADOS Block Device, RGW- das RADOS-Gateway (Ceph Object Gateway) und CephFS
    • CEPH in den gängigen Linux-Distributionen
    • Software Defined Storage vs. herkömmliche Storage Cluster
    • CEPH-Cluster im Detail : OSD (Object Storage Daemons), MDS (Metadata Server) und MON (die Ceph-Monitore)
    • Das richtige Filesystem für die OSD-Nodes
  • CEPH-Setup 
    • Hardware Recommendations 
    • Erforderliche Pakete / Repositories, Installation
    • Grundlegendes Setup eines 3 Node-Ceph-Clusters
    • Automatisiertes Deployment über multiple Nodes mit ceph-deploy, Pre-Flight Checks, systemd-Integration
    • Stolpersteine und Debugging 
  • CEPH-Cluster: Administration und Tools 
    • CEPH-Daemons: ceph-osd, ceph-mds und ceph-mon
    • CEPH-Kommandozeilen-Tools: ceph, rbd, rados und mehr
    • Pools und Images unter CEPH erzeugen und verwalten, Snapshot-Management, Cloning, Best Practices
    • Cluster-Health und Status der OSD, MDS und MONs überwachen
    • ACLs und Keyrings verwalten
    • Client-Mounts
    • Daten-Replikation und Failover, Ändern des Replikationslevels
    • Storage-Erweiterung: CEPH-Nodes / OSDs online hinzufügen 
    • Einführung zu Crushmaps
  • Fortgeschrittene Administration und Konzepte
    • Die Disponenten: PG (Placement Groups)  in Theorie und Praxis, Optimale Anzahl der PGs berechnen 
    • Crushmaps per CLI manipulieren
    • Crushmaps im Detail: Buckets, Tunables, Rulesets und mehr
    • Crushmaps für reale, redundante Topologien planen und umsetzen
    • Manuelle Crushmap-Bearbeitung: Auslesen, Dekompilieren, anpassen und re-implementieren von Crushmaps
    • Sicherstellung der Redundanz: Auf welchem OSD wird ein bestimmtes Objekt gespeichert? 
    • Storage-/Cache-Tiering und Erasure Coding ("Raid 5") im Ceph-Cluster
    • Aufbau eines Tiering Modells mit Replicated und Erasure coded Pools, Policies für Object Movement ('hot' <-> 'cold' Data)
    • Erasure Code Profile im Detail: Data und Coding Chunks
    • Explizite Zuweisung von OSDs an bestimmte Pools (Replicated/Erasure) unter Berücksichtigung der  räumlichen Redundanz 
  • Management von CEPH-Clustern und konkrete Einsatzszenarien
    • NFS over RBD
    • RBD-Integration in Corosync/Pacemaker-Cluster 
    • CEPH als hochverfügbares RBD/NFS Storage Backend für ESXi/vSphere 
    • iSCSI over RBD 
    • CephFS
    • ceph-radosgw: Cloud-Storage mit Client-Zugriff a la 'Dropbox' / 'Google Drive' 
    • Troubleshooting / Best Practices
    • Performance-relevante Betrachtungen 
    • Monitoring Lösungen im Überblick: Calamari, OpenATTIC und Alternativen
  • The Road Ahead: 
    • SES (SUSE Enterprise Storage) vs Red Hat Ceph Storage
    • Ceph vs. Gluster vs. Quobyte
    • Ceph Kraken 11.x mit Bluestore (stable)
    • Ceph und Docker

Administratoren und Systembetreuer, die CEPH - Storage Cluster einrichten und professionell administrieren möchten. Solide Vorkenntnisse in den Bereichen "Linux-System- und Netzwerk-Administration" sollten vorhanden sein, grundlegende Vorkenntnisse im Bereich Clustering sind von Vorteil. 


Lernmethode: Ausgewogene Mischung aus Theorie und Praxis
Unterlagen: Seminarunterlagen / Fachbuch zum Seminar inklusive, das man nach Rücksprache mit dem Trainer individuell auswählen kann
Arbeitsplatz: PC/VMs für jeden Teilnehmer
Hochwertige und performante Hardware
Große, höhenverstellbare Bildschirme
Zugang zu Ihrem Firmennetz erlaubt
Lernumgebung: Frische Systeme für jeden Kurs in Abstimmung mit dem Seminarleiter
Arbeitsmaterialien: Din A4 Block, Notizblock, Kugelschreiber, USB-Stick, Textmarker, Post-its
Teilnahmezertifikat: Wird am Ende des Seminars ausgehändigt, inkl. Inhaltsverzeichnis
Teilnehmerzahl: min. 1, max. 6 Personen
Schulungszeiten: 4 Tage - anpassbar, 09:00 - 16:00 Uhr
Ort der Schulung: GFU Schulungszentrum

GFU Schulungszentrum
Am Grauen Stein 27
51105 Köln-Deutz
oder europaweit bei Ihnen als Inhouse-Schulung
Räumlichkeiten: Helle und modern ausgestattete Räume mit perfekter Infrastruktur
Catering: Frühstück, Snacks und Getränke ganztägig, Mittagessen im eigenen Restaurant, täglich 6 Menüs, auch vegetarisch
Barrierefreiheit: Das GFU-Schulungszentrum(Am Grauen Stein 27) ist barrierefrei
Rechnungsstellung: Erst nach dem erfolgreichen Seminar. Keine Vorkasse.
Stornierung: Kostenfrei bis zu 3 Wochen vor dem Seminartermin

Kundenbewertungen

Zu diesem Seminar wurden noch keine Bewertungen abgegeben.

Buchungsmöglichkeiten

Firmenschulung

GFU Schulungszentrum

Anfragen

Inhouse-Schulung

In Ihrem Hause
Auswählen
Wo soll Ihre Schulung stattfinden?
  • Europaweit
  • GFU Schulungszentrum
  • Berlin
  • Bremen
  • Düsseldorf
  • Dortmund
  • Dresden
  • Frankfurt
  • Hamburg
  • Hannover
  • Köln
  • Leipzig
  • Mannheim
  • München
  • Nürnberg
  • Stuttgart
Weiterer Ort:

Anfragen

Individualschulung

Auswählen
Wo soll Ihre Schulung stattfinden?
  • Europaweit
  • GFU Schulungszentrum
  • Berlin
  • Bremen
  • Düsseldorf
  • Dortmund
  • Dresden
  • Frankfurt
  • Hamburg
  • Hannover
  • Köln
  • Leipzig
  • Mannheim
  • München
  • Nürnberg
  • Stuttgart
Weiterer Ort:

Anfragen
Haben Sie Fragen?
  • 0221 82 80 90
  • Chat offline
Empfangsdamen der GFU