PDF-Download

Schulung SUSE Enterprise Storage 2 (SES 2)  Administration - Kompakt (S1875)

Storage-Cluster bilden in vielen Infrastrukturen das Backbone für verschiedenste Anwendungen. Egal, ob Datenbanken, normale Dateien oder virtuelle Maschinen auf ihnen gehostet werden - sie erfüllen seit langem zuverlässig und hocheffizient ihren Job als perfekter Ersatz für proprietäre und hochpreisige SAN-Systeme. 
Vor allem aber müssen sich zeitgemäße Administratoren und die von ihnen betreuten Systeme nun auch mehr und mehr neuen Anforderungen stellen: zeitgemäße Cloud-Dienste, aber vor allem auch massiv horizontal skalierbare Speichersystem bereitstellen zu können, die sich flexibel den immer größer werdenden Datenmengen anpassen können.
In diesem Workshop wird SUSEs Enterprise Storage Flaggschiff ausführlich beleuchtet: Der SES 2, der seinen hochredundanten und massiv skalierbaren Storage über die weltweit führende Lösung im Bereich Scale-Out-Storage Cluster / Software Defined Storage zur Verfügung stellt: CEPH.
Der SES 2 versetzt dem Admin in die Lage, auf jede mittel- und langfristige Planungs-Anforderung an die Speichersysteme seines Unternehmens flexibel zu reagieren:
Ein direkt parallel nutzbares Cluster-Dateisystem per CephFS, vielseitig nutzbare RBD (Rados Block Device Images), die per NFS, iSCSi oder sogar direkt als Image für KVM - VMs exportiert bzw. verwendet werden können, und nicht zuletzt das RGW (Rados Gateway) als ebenfalls massiv skalierbares Storage-Backend für die eigene S3 kompatible Cloud-Umgebung.
Der kompakte und sehr praxisnahe Workshop beleuchtet alle Punkte, die für den SES-Administrator bei der Planung / Konzeption, dem Deployment und für den täglichen administrativen Betrieb des SES 2 wichtig sind:  
Im Workshop werden verschiedene Einsatzszenarien und das daraus resultierende Storage Design besprochen, hinzu kommen viele praktische Setup-Beispiele rund um das Deployment, tiefgreifende administrative Tasks, Crushmap-Design, Bereitstellung des Storage, Tiering Modelle für maximal kosteneffiziente Hot- und Cold-Storage - Pools, Möglichkeiten und Best Practices zur Erweiterung, der Maintenance und dem Troubleshooting des SES 2.  
Natürlich wird ebenfalls die komplette Integration aller Cluster-Storage- relevanten, 'intelligenten' Services des SES 2 in aktuelle Pacemaker/Corosync-Cluster-Stacks ausführlich erläutert und in bewährten und praxiserprobten Setups umgesetzt.

Buchungsmöglichkeiten

Firmenschulung Anfragen
Inhouse-Schulung Anfragen
Individualschulung Anfragen

Preis

Auf Anfrage

Dauer

4 Tage. Die vorgeschlagene Dauer kann Ihren Bedürfnissen angepasst werden.

Schulungs-Ziel

Dieses Seminar bietet einen sehr detaillierten Einblick in Enterprise-Klasse des "Software Defined Storage" mit CEPH im SES 2. Es werden die Konfiguration, Administration, sowie praktische Einsatzszenarien beleuchtet. Hinzu kommen etliche konkrete Praxisszenarien, Designfragen, detaillierte Betrachtungen und Beispiele zum Design von Crushmaps, zur optimalen Datenverteilung im Cluster, des Erasure Codings und dem damit realisierbaren Storage-Tiering (Hot-/Cold-Storage), Setup eines Rados-Gateways für eine eigene Cloud-Storage-Lösung a la 'Dropbox' oder 'Google drive', sowie zahlreiche weitere Praxisbeispiele, Best Practices, Debugging, Troubleshooting-Tipps und vieles mehr.

Wer sollte teilnehmen

Administratoren und Systembetreuer, die SES 2 - Storage Cluster designen, einrichten und professionell administrieren möchten.  
Sehr gute Vorkenntnisse in den Bereichen "Linux-System und Netzwerk-Administration" sollten vorhanden sein, ebenso Vorkenntnisse im Bereich HA-Clustering werden vorausgesetzt. Die Teilnehmer sollten zuvor das Seminar Linux-Hochverfügbarkeit Grundlagenbesucht haben oder einen vergleichbaren Kenntnisstand aufweisen können.

Inhalt

  • SES 2 -Basics  
    • Kurze Einführung
    • Die CEPH Architektur im SES 2
    • RBD, RADOS-Gateway und CephFS
    • Horizontale Skalierbarkeit
    • Vorteile gegenüber traditionellen (Scale-Up-) Storage Cluster Konzepten
    • CEPH-Komponenten des SES2 in der Übersicht: OSD (Object Storage Device), MDS (Metadata Server) und MON (Monitore) 
  • SES 2 -Setup  
    • Hardware Recommendations für verschiedene Einsatzzwecke und Design-Strategien
    • Erforderliche Pakete und Installations-Patterns im Detail
    • Zeitsynchro: NTPD in realen und virtuellen Cluster-Nodes 
    • Setup eines 3 Node-SES 2-Clusters 
    • Automatisiertes Deployment über multiple Nodes mit ceph-deploy, Pre-Flight Checks
    • Stolpersteine und Debugging 
  • SES 2 Administration, System-Integration und Tools  
    • CEPH-Daemons: ceph-osd, ceph-mds und ceph-mon
    • systemd-Integration der Ceph-Services: Umsetzung im SES 2 und Best Practices für die Administration
    • CEPH-Kommandozeilen-Tools: ceph, rbd, rados - welches Tool für welchen Zweck
    • Cluster-Health und Status der OSD, MDS und MONs überwachen
    • Monitoring per Calamari: Setup, Konfiguration und Handling
    • Fortgeschrittene Verwaltung von Pools und Images, Pool-Operationen, Snapshot-Management, Cloning, Best Practices
    • ACLs und Keyrings verwalten
    • Native Client-Mounts
    • Daten-Replikation und Failover, Ändern des Replikationslevels
    • Troubleshooting: Recover OSD-, MDS-, MON- or PG- Failures
    • Storage-Erweiterung: weitere SES -Nodes online hinzufügen 
    • Selektives Addieren von weiteren OSDs, MDSs und MONs
    • Austausch defekter OSD und MON 
  • Fortgeschrittene SES 2 Administration und Konzepte 
    • Disponenten: PGs (Placement Groups)  in Theorie und Praxis, Optimale Anzahl der PGs berechnen 
    • Crushmaps im Detail: Buckets, tunables, Rulesets und mehr
    • Crushmaps für reale, redundante Topologien planen und umsetzen
    • Crushmaps per CLI manipulieren
    • Manuelle Crushmap-Bearbeitung: Auslesen, Dekompilieren, anpassen und re-implementieren von Crushmaps
    • Sicherstellung der Redundanz: Auf welchem OSD wird ein bestimmtes Objekt gespeichert? 
    • Storage-/Cache-Tiering und Erasure Coding ("Raid 5") im SES 2 -Cluster
    • Aufbau eines Tiering Modells mit Replicated und Erasure coded Pools
    • Policies für Object Movement ('hot' <-> 'cold' Data)
    • Erasure code Profiles im Detail: Data und Coding Chunks
    • Explizite Zuweisung von OSDs an bestimmte Pools (Replicated/Erasure) unter Berücksichtigung der  räumlichen Redundanz: Cache-/Fastpool (SSD) <-> Slowpool (SAS Disks) mit spezieller Crushmap 
    • Performance-relevante Betrachtungen 
  • Management von SES 2 -Clustern und konkrete Praxis-Einsatzszenarien 
    • SES 2 "Pure"- Storage: CephFS und RBD
      • CephFS
      • Hochverfügbares NFS over RBD für ESXi/vSphere über Corosync/Pacemaker
      • iSCSI / Lrbd im SES 2
      • Ceph/RBD als massiv skalierbares iSCSI Target mit Lrbd
      • Ansätze zur Cluster-Integration
    • SES 2 Cloud-Store: das Rados Gateway / Ceph Object Gateway
      • CivetWeb statt Apache 
      • Setup-Test per curl und https
      • Rados Gateway Administration: S3 und Swift-User
      • Client-Zugriff a la 'Dropbox' / 'Google Drive' 
      • Debugging 
    • KVM/Libvirt
      • Direktes Deployment von VMs auf RADOS
      • Migration von libvirt KVMs auf RADOS  (RBD)
      • Hot-Failover / Live-Migration von VMs im CEPH-Cluster, Corosync/Pacemaker Integration
      • Konzeptionelle Betrachtung:  Überwachung von Applikationen in KVM-VMs per Pacemaker-Remote
    • The road ahead

Schulungszeiten und Teilnehmerzahl

Teilnehmerzahl:min. 1, max. 6 Personen

Schulungszeiten: 4 Tage, 09:00-16:00

Ort der Schulung: GFU-Schulungszentrum Köln oder bei Ihnen als Inhouse-Schulung

Haben Sie Fragen?

  • 0221 82 80 90
  • Chat offline
Drei Frauen