PDF-Download

Schulung Software Defined Storage mit CEPH - kompakt (S1920)

Skalierbarkeit und Flexibilität von traditionellen Storage-Clustern stoßen heute längst an ihre Grenzen. Im Gegensatz zu proprietären Storage-Lösungen  bietet CEPH eine offene Plattform ("Software Defined Storage"), die nahezu unlimitierte Skalierbarkeit auf kostengünstiger
Hardware  ermöglicht, ebenso das unverzichtbare Storage-Tiering  (Hot/Cold-Expensive/Cheap-Storage), um Speicherplatz höchsteffizient zu  nutzen.
Per RADOS-Block-Device (RBD) können beispielsweise virtuelle Maschinen (ohne Cluster-FS zur Live Migration) oder skalierbarer Storage direkt zur Verfügung gestellt werden. CEPH/RBD lässt sich perfekt per NFS/iSCSI exportieren, und für maximale HA nahtlos in Pacemaker-Cluster integrieren. Per RADOS-Gateway (Ceph Object Gateway) können CEPH-Cluster S3-/Swift -kompatiblen Cloud-Storage anbieten, und Anforderungen an reine Cluster-Filesysteme werden mit CephFS bedient.
CEPH, die skalierbarste Software Defined Storage -Lösung, wird längst in zahlreichen Produktivumgebungen internationaler Unternehmen erfolgreich eingesetzt. Nahezu alle Linux Enterprise Cloud-Lösungen (SUSE/Red Hat) basieren auf CEPH.

Offene Termine

18.12.-21.12.2017
4 Tage | 2.170,00
Köln   
Noch frei
Buchen Vormerken
Kein passender Termin? Termin
vorschlagen
Buchen ohne Risiko:
  • Keine Vorkasse
  • Kostenloses Storno bis zum Vortag des Seminars
  • Rechnung nach erfolgreichem Seminar
  • Garantierter Termin und Veranstaltungsort
  • Preise zzgl. Mehrwertsteuer
  • Der dritte Mitarbeiter nimmt kostenlos teil

Weitere Buchungsmöglichkeiten

Firmenschulung Anfragen
Inhouse-Schulung Anfragen
Individualschulung Anfragen

Schulungs-Ziel

Dieses Seminar bietet einen detaillierten und kompakten Einblick in Enterprise-Klasse des "Software Defined Storage" mit CEPH unter Linux. Es werden die Konfiguration, Administration, sowie praktische Einsatzszenarien beleuchtet. Hinzu kommen etliche konkrete Praxisszenarien, Designfragen, detaillierte Betrachtungen und Beispiele zum Design von Crushmaps, zur optimalen Datenverteilung im Cluster, des Erasure Codings und dem damit realisierbaren Storage-Tiering (Hot-/Cold-Storage), Setup eines Rados-Gateways für eine eigene Cloud-Storage-Lösung a la 'Dropbox' oder 'Google Drive', sowie zahlreiche weitere Praxisbeispiele, Best Practices, Debugging, Troubleshooting-Tipps und vieles mehr.

Wer sollte teilnehmen

Administratoren und Systembetreuer, die CEPH - Storage Cluster einrichten und professionell administrieren möchten. Solide Vorkenntnisse in den Bereichen "Linux-System- und Netzwerk-Administration" sollten vorhanden sein, grundlegende Vorkenntnisse im Bereich Clustering sind von Vorteil. 

Inhalt

  • CEPH-Basics 
    • Geschichtliche Entwicklung, Aufbau des Systems
    • Die Kernbausteine von CEPH und ihre Funktionen: RBD - das RADOS Block Device, RGW- das RADOS-Gateway (Ceph Object Gateway) und CephFS
    • CEPH in den gängigen Linux-Distributionen
    • Software Defined Storage vs. herkömmliche Storage Cluster
    • CEPH-Cluster im Detail : OSD (Object Storage Daemons), MDS (Metadata Server) und MON (die Ceph-Monitore)
    • Das richtige Filesystem für die OSD-Nodes
  • CEPH-Setup 
    • Hardware Recommendations 
    • Erforderliche Pakete / Repositories, Installation
    • Grundlegendes Setup eines 3 Node-Ceph-Clusters
    • Automatisiertes Deployment über multiple Nodes mit ceph-deploy, Pre-Flight Checks, systemd-Integration
    • Stolpersteine und Debugging 
  • CEPH-Cluster: Administration und Tools 
    • CEPH-Daemons: ceph-osd, ceph-mds und ceph-mon
    • CEPH-Kommandozeilen-Tools: ceph, rbd, rados und mehr
    • Pools und Images unter CEPH erzeugen und verwalten, Snapshot-Management, Cloning, Best Practices
    • Cluster-Health und Status der OSD, MDS und MONs überwachen
    • ACLs und Keyrings verwalten
    • Client-Mounts
    • Daten-Replikation und Failover, Ändern des Replikationslevels
    • Storage-Erweiterung: CEPH-Nodes / OSDs online hinzufügen 
    • Einführung zu Crushmaps
  • Fortgeschrittene Administration und Konzepte
    • Die Disponenten: PG (Placement Groups)  in Theorie und Praxis, Optimale Anzahl der PGs berechnen 
    • Crushmaps per CLI manipulieren
    • Crushmaps im Detail: Buckets, Tunables, Rulesets und mehr
    • Crushmaps für reale, redundante Topologien planen und umsetzen
    • Manuelle Crushmap-Bearbeitung: Auslesen, Dekompilieren, anpassen und re-implementieren von Crushmaps
    • Sicherstellung der Redundanz: Auf welchem OSD wird ein bestimmtes Objekt gespeichert? 
    • Storage-/Cache-Tiering und Erasure Coding ("Raid 5") im Ceph-Cluster
    • Aufbau eines Tiering Modells mit Replicated und Erasure coded Pools, Policies für Object Movement ('hot' <-> 'cold' Data)
    • Erasure Code Profile im Detail: Data und Coding Chunks
    • Explizite Zuweisung von OSDs an bestimmte Pools (Replicated/Erasure) unter Berücksichtigung der  räumlichen Redundanz 
  • Management von CEPH-Clustern und konkrete Einsatzszenarien
    • NFS over RBD
    • RBD-Integration in Corosync/Pacemaker-Cluster 
    • CEPH als hochverfügbares RBD/NFS Storage Backend für ESXi/vSphere 
    • iSCSI over RBD 
    • CephFS
    • ceph-radosgw: Cloud-Storage mit Client-Zugriff a la 'Dropbox' / 'Google Drive' 
    • Troubleshooting / Best Practices
    • Performance-relevante Betrachtungen 
    • Monitoring Lösungen im Überblick: Calamari, OpenATTIC und Alternativen
  • The Road Ahead: 
    • SES (SUSE Enterprise Storage) vs Red Hat Ceph Storage
    • Ceph vs. Gluster vs. Quobyte
    • Ceph Kraken 11.x mit Bluestore (stable)
    • Ceph und Docker

Schulungszeiten und Teilnehmerzahl

Teilnehmerzahl:min. 1, max. 6 Personen

Schulungszeiten: 4 Tage, 1. Tag 10:00 - 17:00 Uhr, Folgetage 09:00 - 16:00 Uhr

Ort der Schulung: GFU-Schulungszentrum Köln oder bei Ihnen als Inhouse-Schulung

Offene Termine

18.12.-21.12.2017
4 Tage | 2.170,00
Köln   
Noch frei
Buchen Vormerken
Kein passender Termin? Termin
vorschlagen
Buchen ohne Risiko:
  • Keine Vorkasse
  • Kostenloses Storno bis zum Vortag des Seminars
  • Rechnung nach erfolgreichem Seminar
  • Garantierter Termin und Veranstaltungsort
  • Preise zzgl. Mehrwertsteuer
  • Der dritte Mitarbeiter nimmt kostenlos teil

Weitere Buchungsmöglichkeiten

Firmenschulung Anfragen
Inhouse-Schulung Anfragen
Individualschulung Anfragen


Ein Team eines Unternehmens will zeitgleich den Lehrgang Software Defined Storage mit CEPH - kompakt reservieren

An dieser Stelle kann ein kundenspezifisches Training zur Augabenstellung Software Defined Storage mit CEPH - kompakt angebracht sein. Die Agenda der Schulung kann dabei in Abstimmung mit den Dozenten ausgebaut oder abgerundet werden.

Haben die Seminarbesucher schon Praxis in Software Defined Storage mit CEPH - kompakt, sollte der Anfang entfallen. Eine kundenspezifische Weiterbildung lohnt sich ab drei Seminarbesuchern. Die Firmen-Schulungen zum Thema Software Defined Storage mit CEPH - kompakt finden manchmal in der Umgebung von Münster, München, Bielefeld, Leipzig, Hannover, Duisburg, Bonn, Berlin, Stuttgart, Hamburg, Dresden, Düsseldorf, Frankfurt, Essen, Dortmund, Nürnberg, Wuppertal, Bremen, Bochum und Köln am Rhein in NRW statt.

Inhouse-Schulungen zu Software Defined Storage mit CEPH - kompakt bundesweit

  • Freie und Hansestadt Hamburg Stadtstaat
  • Schulungs-Schwerpunkt: CEPH-Basics  Geschichtliche Entwicklung, Aufbau des Systems | Ceph und Docker
  • Landeshauptstadt Stuttgart von Baden-Württemberg
  • Schulungs-Schwerpunkt: Daten-Replikation und Failover, Ändern des Replikationslevels | CEPH-Cluster im Detail : OSD (Object Storage Daemons), MDS (Metadata Server) und MON (die Ceph-Monitore)
  • Bundeshauptstadt Berlin Stadtstaat
  • Schulungs-Schwerpunkt: Aufbau eines Tiering Modells mit Replicated und Erasure coded Pools, Policies für Object Movement ('hot' <-> 'cold' Data) | Automatisiertes Deployment über multiple Nodes mit ceph-deploy, Pre-Flight Checks, systemd-Integration
  • Landeshaupt München von Bayern
  • Schulungs-Schwerpunkt: Sicherstellung der Redundanz: Auf welchem OSD wird ein bestimmtes Objekt gespeichert?  | Erforderliche Pakete / Repositories, Installation
  • Frankfurt am Main in Hessen
  • Schulungs-Schwerpunkt: Storage-Erweiterung: CEPH-Nodes / OSDs online hinzufügen |Troubleshooting / Best Practices
  • Köln am Rhein
  • Schulungs-Schwerpunkt: Manuelle Crushmap-Bearbeitung: Auslesen, Dekompilieren, anpassen und re-implementieren von Crushmaps | Ceph vs. Gluster vs. Quobyte
  • Hansestadt Bremen Stadtstaat
  • Schulungs-Schwerpunkt: Crushmaps im Detail: Buckets, Tunables, Rulesets und mehr | Erasure Code Profile im Detail: Data und Coding Chunks
  • Landeshauptstadt von Nordrhein-Westfalen Düsseldorf am Rhein
  • Schulungs-Schwerpunkt: The Road Ahead:  SES (SUSE Enterprise Storage) vs Red Hat Ceph Storage|CEPH-Kommandozeilen-Tools: ceph, rbd, rados und mehr

Wenn alle Teilnehmer einheitlich damit einverstanden sind, kann die Software Defined Storage mit CEPH - kompakt Schulung hinsichtlich "Client-Mounts" gekürzt werden und im Gegenzug wird "Cluster-Health und Status der OSD, MDS und MONs überwachen" ausfühlicher thematisiert oder vice-versa.

Welche Seminare ergänzen Software Defined Storage mit CEPH - kompakt?

Eine gute Basis findet sich in Linux Server Advanced Administration mit

  • Multiple Samba 4 Server, Replikation 
  • OpenSource-Storage-Anbindung für ESXi / vSphere
  • Cluster-Health, Client-Mounts
  • Cluster-Dateisysteme und Locking-Mechanismen

Empfehlenswert ist auch eine Schulung von „Red Hat Enterprise Linux 7 (RHEL 7.2): Advanced Administration - Kompakt“ mit dem Unterrichtsstoff von

  • Troubleshooting und Best Practices for Debugging
  • Windows-Active-Directory-Services mit Samba 4  Einführung in die Funktionsweise von Samba 4 (S4) in Version 4.3
  • System Storage Manager
  • Samba-Client-Tools, Domain Join von Windows-Clients

Für Inhouse-Schulungen ist das Thema „Linux / Unix Einführung“ mit dem Unterrichtsgegenstand Elementare Mechanismen: Wildcards, Quoting, Ausgabeumlenkung, Pipes und Zugriffs- und Eigentumsrechte Interpretieren und Ändern von Zugriffsrechten geeignet.

Für Erfahrene Anwender passt auch eine Sicherheit von Linux Workstation - Professionelle Absicherung und sicherer Betrieb in der Praxis Schulung. In diesem Training werden vor allen Dingen

  • SELinux
  • Sicherheitsmitteilungen der Distribution
  • Die Wahl guter Passphrasen
  • Logs beobachten
besprochen.

Haben Sie Fragen?
  • 0221 82 80 90
  • Chat offline
Empfangsdamen der GFU