
Schulung CEPH - Scale-Out-Storage-Cluster / Software Defined Storage (Basic Administration)
Schulungsformen
Inhouse-/Firmenschulung
- 3 Tage - anpassbar
- Termin nach Wunsch
- Preis nach Angebot
- In Ihrem Hause oder bei der GFU
Inhalte werden auf Wunsch an die Anforderungen Ihres Teams angepasst.
Unverbindlich anfragenIndividualschulung
- 3 Tage - anpassbar
- Termin nach Wunsch
- Preis nach Angebot
- In Ihrem Hause oder bei der GFU
1 Teilnehmer = max. Fokus aufs Fachliche und max. Raum für individuelle Fragen.
Unverbindlich anfragenBeschreibung
("Software Defined Storage"), die nahezu unlimitierte Skalierbarkeit auf kostengünstiger
Hardware ermöglicht, ebenso das unverzichtbare Storage-Tiering (Hot/Cold-Expensive/Cheap-Storage), um Speicherplatz höchsteffizient zu nutzen.
Per RADOS-Block-Device (RBD) können virtuelle Maschinen (ohne Cluster-FS zur Live Migration) direkt zur Verfügung gestellt werden. Per RADOS-Gateway können CEPH-Cluster
S3-/Swift -kompatiblen Cloud-Storage anbieten, Cluster-FS werden per CephFS bedient.
CEPH/RBD lässt sich perfekt per NFS/iSCSI exportieren, und für maximale HA nahtlos in Pacemaker-Cluster integrieren. CEPH, die skalierbarste Software Defined Storage -Lösung,
wird längst in zahlreichen Produktivumgebungen internationaler Unternehmen erfolgreich eingesetzt. Nahezu alle Linux Enterprise Cloud-Lösungen (SUSE/Red Hat) basieren auf CEPH.
Schulungsziel
Dieses Seminar bietet einen grundlegenden, fundierten Einblick in Enterprise-Klasse des "Software Defined Storage" mit CEPH unter Linux. Es werden die Konfiguration, Administration, sowie ausgewählte praktische Einsatzszenarien beleuchtet.
Details
Wer teilnehmen sollte
Administratoren und Systembetreuer, die CEPH - Storage Cluster einrichten und professionell administrieren möchten. Gute Vorkenntnisse in den Bereichen "Linux-System- und Netzwerk-Administration" sollten vorhanden sein, grundlegende Vorkenntnisse im Bereich Clustering sind von Vorteil.
Ihre Schulung
- Lernmethode:
- Ausgewogene Mischung aus Theorie und Praxis
- Unterlagen:
- Seminarunterlagen oder Fachbuch zum Seminar inklusive, das man nach Rücksprache mit dem Trainer individuell auswählen kann
- Arbeitsplatz:
- PC/VMs für jeden Teilnehmer
Hochwertige und performante Hardware
Große, höhenverstellbare Bildschirme
Zugang zu Ihrem Firmennetz erlaubt - Lernumgebung:
- Neu aufgesetzte Systeme für jeden Kurs in Abstimmung mit dem Seminarleiter.
- Arbeitsmaterialien:
- Din A4 Block, Notizblock, Kugelschreiber, USB-Stick, Textmarker, Post-its
- Teilnahmebescheinigung:
- Wird am Ende des Seminars ausgehändigt, inkl. Inhaltsverzeichnis
Organisation
- Teilnehmerzahl:
- min. 1, max. 6 Personen
- Schulungszeiten:
- 3 Tage - anpassbar, 09:00 - 16:00 Uhr
- Ort der Schulung:
GFU Schulungszentrum
Am Grauen Stein 27
51105 Köln-Deutzoder europaweit bei Ihnen als Inhouse-Schulung- Räumlichkeiten:
- Helle und modern ausgestattete Räume mit perfekter Infrastruktur
- Catering:
- Frühstück, Snacks und Getränke ganztägig, Mittagessen im eigenen Restaurant, täglich 6 Menüs, auch vegetarisch
- Barrierefreiheit:
- Das GFU-Schulungszentrum(Am Grauen Stein 27) ist barrierefrei
Buchen ohne Risiko
- Rechnungsstellung:
- Erst nach dem erfolgreichen Seminar. Keine Vorkasse.
- Stornierung:
- Kostenfrei bis zu 3 Wochen vor dem Seminartermin
Kostenfreie Services
Inhalt
- CEPH-Basics
- Geschichtliche Entwicklung
- Aufbau des Systems
- Die Kernbausteine von CEPH und ihre Funktionen: RBD - das RADOS Block Device, das RADOS-Gateway und CephFS
- CEPH in den gängigen Linux-Distributionen
- Neue Konzepte des Distributed Storage Clusterings mit CEPH - Vorteile gegenüber traditionellen Cluster-Storage Konzepten
- Die 3 Kernkomponenten des CEPH-Clusters : OSD (Object Storage Device), MDS (Metadata Server) und MON (der Ceph-Monitor)
- Das richtige Filesystem für die OSD-Nodes
- CEPH-Setup
- Hardware Recommendations
- Erforderliche Pakete / Repositories
- Zeitsynchro: NTPD in realen und virtuellen Cluster-Nodes
- Installation und grundlegende Konfigurationsdirektiven
- Grundlegendes Setup eines 3 Node-Ceph-Clusters mit CEPH 9.x 'Infernalis'
- Automatisiertes Deployment über multiple Nodes mit ceph-deploy, Pre-Flight Checks
- systemd-Integration der CEPH-Daemons
- Stolpersteine und Debugging
- CEPH-Cluster: Administration und Tools
- CEPH-Daemons: ceph-osd, ceph-mds und ceph-mon
- CEPH-Kommandozeilen-Tools
- Pools unter CEPH erzeugen und verwalten, Snapshots
- Cluster-Health und Status der OSD, MDS und MONs überwachen
- Client-Mounts
- Daten-Replikation und Failover, Ändern des Replikationslevels
- Einführung zu Crushmaps
- Troubleshooting: Gecrashtes OSD recovern
- Management von CEPH-Clustern und konkrete Einsatzszenarien
- Storage-Erweiterung: CEPH-Nodes online hinzufügen
- NFS over RBD
- CEPH/RBD-Integration in Corosync/Pacemaker-Cluster
- Strategien für Cluster-Integrationen (OSD-Auto-Respawning via systemd + RBD Mapppings per OCF)
- CEPH als hochverfügbares RBD/NFS Storage Backend für ESXi/vSphere
- Performance-relevante Betrachtungen
- Troubleshooting / Best Practices
- Weitergehende konzeptionelle Betrachtungen:
- CEPH und die Cloud: das Rados Gateway
- The Road Ahead
CEPH - Scale-Out-Cluster / Software Defined Storage (Advanced Administration)
und für Entscheider:
CEPH - Scale-Out-Cluster / Software Defined Storage (für Entscheider)
Kundenbewertungen
Buchungsmöglichkeiten
Komplette Lernumgebung in der Cloud mit Remote Zugriff
In Ihrem Hause- europaweit
- GFU Schulungszentrum
- Berlin
- Bremen
- Düsseldorf
- Dortmund
- Dresden
- Frankfurt
- Hamburg
- Hannover
- Köln
- Leipzig
- Mannheim
- München
- Nürnberg
- Stuttgart
Komplette Lernumgebung in der Cloud mit Remote Zugriff
- Im GFU Schulungszentrum oder in Ihrem Hause europaweit
- Berlin
- Bremen
- Düsseldorf
- Dortmund
- Dresden
- Frankfurt
- Hamburg
- Hannover
- Köln
- Leipzig
- Mannheim
- München
- Nürnberg
- Stuttgart