PDF-Download

Schulung CEPH - Scale-Out-Storage-Cluster / Software Defined Storage (Basic Administration) (S1585)
4.8 von 5 Sternen
4 Kundenbewertungen

Skalierbarkeit und Flexibilität von traditionellen Storage-Clustern stoßen bereits heute an ihre Grenzen. Im Gegensatz zu proprietären Storage-Lösungen bietet CEPH eine offene Plattform
("Software Defined Storage"), die nahezu unlimitierte Skalierbarkeit auf kostengünstiger
Hardware ermöglicht, ebenso das unverzichtbare Storage-Tiering (Hot/Cold-Expensive/Cheap-Storage), um Speicherplatz höchsteffizient zu nutzen.
Per RADOS-Block-Device (RBD) können virtuelle Maschinen (ohne Cluster-FS zur Live Migration) direkt zur Verfügung gestellt werden. Per RADOS-Gateway können CEPH-Cluster
S3-/Swift -kompatiblen Cloud-Storage anbieten, Cluster-FS werden per CephFS bedient.
CEPH/RBD lässt sich perfekt per NFS/iSCSI exportieren, und für maximale HA nahtlos in Pacemaker-Cluster integrieren. CEPH, die skalierbarste Software Defined Storage -Lösung,
wird längst in zahlreichen Produktivumgebungen internationaler Unternehmen erfolgreich eingesetzt. Nahezu alle Linux Enterprise Cloud-Lösungen (SUSE/Red Hat) basieren auf CEPH.

Buchungsmöglichkeiten

Firmenschulung Anfragen
Inhouse-Schulung Anfragen
Individualschulung Anfragen

Preis

Auf Anfrage

Dauer

3 Tage. Die vorgeschlagene Dauer kann Ihren Bedürfnissen angepasst werden.

Schulungs-Ziel

Dieses Seminar bietet einen grundlegenden, fundierten Einblick in Enterprise-Klasse des "Software Defined Storage" mit CEPH unter Linux. Es werden die Konfiguration, Administration, sowie ausgewählte praktische Einsatzszenarien beleuchtet.

Wer sollte teilnehmen

Administratoren und Systembetreuer, die CEPH - Storage Cluster einrichten und professionell administrieren möchten. Gute Vorkenntnisse in den Bereichen "Linux-System- und Netzwerk-Administration" sollten vorhanden sein, grundlegende Vorkenntnisse im Bereich Clustering sind von Vorteil.

Inhalt

  • CEPH-Basics 
    • Geschichtliche Entwicklung
    • Aufbau des Systems
    • Die Kernbausteine von CEPH und ihre Funktionen: RBD - das RADOS Block Device, das RADOS-Gateway und CephFS
    • CEPH in den gängigen Linux-Distributionen
    • Neue Konzepte des Distributed Storage Clusterings mit CEPH -  Vorteile gegenüber traditionellen Cluster-Storage Konzepten
    • Die 3 Kernkomponenten des CEPH-Clusters : OSD (Object Storage Device), MDS (Metadata Server) und MON (der Ceph-Monitor)
    • Das richtige Filesystem für die OSD-Nodes
  • CEPH-Setup 
    • Hardware Recommendations 
    • Erforderliche Pakete / Repositories
    • Zeitsynchro: NTPD in realen und virtuellen Cluster-Nodes 
    • Installation und grundlegende Konfigurationsdirektiven 
    • Grundlegendes Setup eines 3 Node-Ceph-Clusters mit CEPH 9.x 'Infernalis'
    • Automatisiertes Deployment über multiple Nodes mit ceph-deploy, Pre-Flight Checks
    • systemd-Integration der CEPH-Daemons
    • Stolpersteine und Debugging 
  • CEPH-Cluster: Administration und Tools 
    • CEPH-Daemons: ceph-osd, ceph-mds und ceph-mon
    • CEPH-Kommandozeilen-Tools
    • Pools unter CEPH erzeugen und verwalten, Snapshots
    • Cluster-Health und Status der OSD, MDS und MONs überwachen
    • Client-Mounts
    • Daten-Replikation und Failover, Ändern des Replikationslevels
    • Einführung zu Crushmaps
    • Troubleshooting: Gecrashtes  OSD recovern
  • Management von CEPH-Clustern und konkrete Einsatzszenarien
    • Storage-Erweiterung: CEPH-Nodes online hinzufügen 
    • NFS over RBD
    • CEPH/RBD-Integration in Corosync/Pacemaker-Cluster 
    • Strategien für Cluster-Integrationen (OSD-Auto-Respawning via systemd + RBD Mapppings per OCF)
    • CEPH als hochverfügbares RBD/NFS Storage Backend für ESXi/vSphere 
    • Performance-relevante Betrachtungen 
    • Troubleshooting / Best Practices
  • Weitergehende konzeptionelle Betrachtungen:
    • CEPH und die Cloud: das Rados Gateway
    • The Road Ahead



Einen aufbauenden Kurs finden Sie hier: 
CEPH - Scale-Out-Cluster / Software Defined Storage (Advanced Administration)

und für Entscheider: 
CEPH - Scale-Out-Cluster / Software Defined Storage (für Entscheider)

Schulungszeiten und Teilnehmerzahl

Teilnehmerzahl:min. 1, max. 6 Personen

Schulungszeiten: 3 Tage, 09:00-16:00

Ort der Schulung: GFU-Schulungszentrum Köln oder bei Ihnen als Inhouse-Schulung

Kundenbewertungen

5/5
Bewertung von Holger T.

Perfekter Service durch Shuttle zwischen Hotel und Seminargebäude. Für organisatorische Fragen standen immer freundliche Ansrepchpartner zur Verfügung. Gute Hardwaresausstattung. Ruhige und angenehme Umgebung, die eine volle Konzentration auf den Inhalt des Kurses ermöglicht. Die Verpflegung am Mittag war durch die TÜV-Kantne mehr als ausreichend, auch in den Pausen stand immer eine ausreichende Auswahl an Kaffee und Energiespendern zur Verfügung.

5/5
Bewertung von Kim-Norman S.

Sehr gutes und interessantes Thema/Seminar.
Der Dozent war sehr fitt.
Das Thema liefert so viel Stoff, dass man auch locker eine 5-Tage Schulung daraus machen könnte.

Alles in allem kann ich die Schulung uneingeschränkt empfehlen.

4/5
Bewertung von Holger T.

Als Resultat des Kurses wurden Aspekte beleuchtet, die den produktiven Einsatz bei unseren eigenen Kunden derzeit eher unwahrscheinlich machen. Leider konnten im Kurs nicht alle ankgekündigten Aspekte angesprochen werden (z.B. Ceph-Samba-Integration). Meine Beurteilung endete auch deshalb "nur" bei Gut, da leider sehr wenige Kurteilnehmer vorhanden waren und damit kaum Erfahrungen aus der Praxis diskutiert werden konnten. Dies kann allerdings kaum dem Referenten angelastet werden!

5/5
Bewertung von Kim-Norman S.

Der Dozent ist sehr gut.
Das Thema ist allerdings für einen 3 Tages Kurs fast zu kurz. Man könnte locker auf 5-Tage erweitern.
Ich kann diese Schulung nur empfehlen!!!

Haben Sie Fragen?

Gerne beraten wir Sie persönlich per E-Mail oder Telefon.

Nicole Döhring

Kathrin
Gerstmann

Petra
Humartus

Ilona
Dick