PDF-Download

Schulung Red Hat Enterprise Linux 7 (RHEL 7): HA Storage Cluster (S1727)

Storage-Cluster bilden in vielen Infrastrukturen das Backbone für verschiedenste Anwendungen. Egal, ob Datenbanken, normale Dateien oder virtuelle Maschinen auf ihnen gehostet werden - sie erfüllen seit langem zuverlässig und hocheffizient ihren Job als perfekter Ersatz für proprietäre und hochpreisige SAN-Systeme. Hinzu kommen neue Anforderungen im Cloud-Segment.
In diesem Seminar wird der komplette RHEL 7 Storage Cluster -Stack vorgestellt: Angefangen mit lokaler HA über BTRFS/Snapper, LV-Raid und Caching Modelle, und dem neuen System Storage Manager  "SSM", über den neuen HA-Cluster Stack mit Corosync, Pacemaker und der neuen PCS -API, bis hin zu den Fundamenten des kompletten RHEL Cloud-Stacks: Ceph und Gluster.
Im Detail werden verschiedenste Storage-Cluster Konzepte und Lösungen vorgestellt und in der Praxis beleuchtet: sowohl klassische Scale-Up-Strukturen, z. B. via DRBD mit normalen Dateisystemen oder auch konzeptionell mit klassischen Cluster-Dateisystemen wie GFS2,
als auch extrem skalierbare Scale-Out Architekturen mit Distributed (Cluster-) Storage per Ceph und GlusterFS, die nahtlos in die Breite skalieren können.
Dabei werden verschiedene Exportvarianten beleuchtet, z.B via NFS oder iSCSI; zudem werden Lösungen vorgestellt, wie Storage-Cluster als hochredundante und skalierbare Backends z. B. für Samba 4 -Shares verwendet werden können, und auch als perfekte, hochskalierbare Storage-Backends für VMware ESXi/vSphere-Infrastrukturen und die auf ihnen gehosteten virtuellen Maschinen dienen können. Ebenso werden Backup- und Snapshot-Strategien für die verschiedenen Varianten erörtert.
Natürlich wird ebenfalls die komplette Integration aller Cluster-Storage- spezifischen Services in aktuelle Pacemaker/Corosync-Cluster-Infrastrukturen ausführlich erläutert und in bewährten und praxiserprobten Setups umgesetzt.

Buchungsmöglichkeiten

Firmenschulung Anfragen
Inhouse-Schulung Anfragen
Individualschulung Anfragen

Preis

Auf Anfrage

Dauer

4 Tage. Die vorgeschlagene Dauer kann Ihren Bedürfnissen angepasst werden.

Schulungs-Ziel

Dieses Seminar bietet einen sehr detaillierten Einblick in die Konzeption und Administration von Storage-Cluster-Systemen unter RHEL 7. Es werden die Konfiguration, Administration, sowie zahlreiche Einsatzszenarien aus der Praxis beleuchtet.

Wer sollte teilnehmen

Administratoren und Systembetreuer, die Storage-Cluster unter RHEL 7 einrichten und professionell administrieren möchten. Gute Vorkenntnisse in den Bereichen "Linux-System- und Netzwerk-Administration" sollten vorhanden sein, grundlegende Vorkenntnisse im Bereich Clustering sind wünschenswert und von Vorteil.

Inhalt

  • Lokale HA- und Storage- Administration unter RHEL 7 
  • LV-Raids
  • Storage Tiering mit LVM/dm_cache
  • Auto-Extend LV-Snapshots
  • BTRFS: Subvolumes, Snapshots und mehr
  • Komfortable Snapshots und Rollbacks via Snapper
  • Unified Storage Management mit SSM
  • Pacemaker/Corosync - Cluster unter RHEL 7 
  • Der neue Cluster-Stack unter RHEL 7
  • Grundlegendes Setup und Konfiguration von 2 und n-Node- Pacemaker/Corosync-Clustersystemen
  • Ressourcen und Agenten, Constraints, Sores und Rulesets
  • Administration des RHEL 7 Pacemaker-Clusters via PCS (Pacemaker Configuration System)
  • Storage-Cluster-Basics 
  • Aufbau von Storage Cluster-Systemen
  • Storage-Anbindung und Cluster-Integration
  • Scale-Up vs. Scale-Out
  • Konzeptionelle Betrachtung: Klassische Cluster-Dateisysteme und Distributed (Cluster-)Dateisysteme: OCFS2/GFS2 vs. Ceph(FS)/GlusterFS
  • Storage-Cluster-Export: iSCSI  vs. NFS
  • RHEL 7 Storage-Cluster mit DRBD 
  • Einsatzmöglichkeiten von DRBD 
  • DRBD 8 unter RHEL 7
  • DRBD-Modi, Rollen und Replikations-Varianten, Installation  und grundlegende Konfigurationsdirektiven 
  • Grundlegendes Setup eines 2 Node-DRBD-Clusters
  • drbd-overview und /proc/drbd im Detail 
  • Manueller DRBD-Failover-Funktionstest (Primary/Secondary) 
  • Konfiguration der DRBD- Multistate-Ressource im Cluster 
  • DRBD-on-top-of-LV 
  • DRBD-Split-Brain-Recovery 
  • DRBD via NFS oder iSCSI als hochverfügbares Storage-Backend für VMware ESXi/vSphere 
  • Kommende Neuerungen in DRBD 9.x
  • Stolpersteine und Debugging 
  • Distributed Storage-Cluster mit Ceph unter RHEL 7
  • Unterschiede und Vorteile zu konventionellem Cluster-"Aware" Storage
  • Ceph als Storage Backend für RHEL - OpenStack/Cloud Lösungen
  • Hardware Recommendations, Erforderliche Pakete / Repositories
  • Installation und grundlegende Konfiguration eines CEPH 9.x 'Infernalis' Clusters
  • Ceph-Kommandozeilen-Tools
  • Pools unter Ceph erzeugen und verwalten
  • Cluster-Health und Status der OSD, MDS und MONs überwachen, Client-Mounts
  • Daten-Replikation und Failover, Ändern des Replikationslevels
  • PG (Placement Groups)  und Crush-Maps, Crush-Maps auslesen, dekompilieren und anpassen 
  • Storage-Erweiterung: Ceph-Nodes online hinzufügen
  • Strategien für Cluster-Integrationen (OSD-Auto-Respawning via Upstart/systemd + RBD Mapppings per OCF)
  • Ceph/RBD mit NFS als hochverfügbares und hochskalierbares Storage-Backend für VMware ESXi/vSphere
  • Storage-Erweiterung: CEPH-Nodes online hinzufügen 
  • Troubleshooting und Debugging
  • Ceph - CRUSH map für Datacenter
  • Hocheffizientes Storage Management für Ceph-Cluster: Storage-/Cache-Tiering und Erasure Coding ("Raid 5") 
  • Performance-relevante Betrachtungen und Analysen
  • Cloud-Funktionalitäten mit dem Rados Gateway
  • Distributed Storage-Cluster mit GlusterFS unter RHEL 7
  • GlusterFS: Funktionsweise, Komponenten und Termini
  • Setup der Gluster-Nodes
  • GlusterFS-Client-Mount
  • Gluster-Konsole
  • Erweiterung der Gluster-Clusters um weitere Nodes (Bricks)
  • Re-Balancing und Self-Healing
  • Disperse Volumes ("Raid 5") unter Gluster
  • GlusterFS-Integration in Corosync/Pacemaker-Cluster
  • Gluster-NFS als nativer, hochredundanter  und skalierbarer VM-Datastore für VMware ESXi/vSphere
  • GlusterFS als als hochredundantes  und skalierbares Storage Backend für Samba4
  • The Road Ahead 
  • Schulungszeiten und Teilnehmerzahl

    Teilnehmerzahl:min. 1, max. 8 Personen

    Schulungszeiten: 4 Tage, 09:00-16:00

    Ort der Schulung: GFU-Schulungszentrum Köln oder bei Ihnen als Inhouse-Schulung

    Haben Sie Fragen?
    • 0221 82 80 90
    • Chat offline
    Empfangsdamen der GFU