PDF-Download

Schulung Linux-HA-Cluster mit Pacemaker und Corosync (S1386)
4.9 von 5 Sternen
10 Kundenbewertungen

Professionelle Cluster-Einrichtung und -Administration mit dem aktuellen und im Open-Source-Enterprise-Umfeld marktführenden Clusterstack: Corosync und Pacemaker

Offene Termine

26.06.-30.06.2017
5 Tage | 2.550,00
Köln   
Noch frei
Buchen Vormerken
13.11.-17.11.2017
5 Tage | 2.660,00
Köln   
Noch frei
Buchen Vormerken
Kein passender Termin? Termin
vorschlagen
Buchen ohne Risiko:
  • Keine Vorkasse
  • Kostenloses Storno bis zum Vortag des Seminars
  • Rechnung nach erfolgreichem Seminar
  • Garantierter Termin und Veranstaltungsort
  • Preise zzgl. Mehrwertsteuer
  • Der dritte Mitarbeiter nimmt kostenlos teil

Weitere Buchungsmöglichkeiten

Firmenschulung Anfragen
Inhouse-Schulung Anfragen
Individualschulung Anfragen

Schulungs-Ziel

Nach Abschluss des Seminars sind die Teilnehmer in der Lage, aktuelle Corosync / Pacemaker - Cluster einzurichten und effizient zu administrieren. Sie kennen die wichtigsten Verfahren und Best Practices, um die Hochverfügbarkeit aller vitalen Dienste und Speichermedien auf Clusterebene anhand von aktuellen Corosync/Pacemaker-Clustern sicher zu stellen. Das neue Pacemaker Configuration System (PCS) unter RHEL7 wird ebenfalls behandelt, ebenso alle Cluster-Konfigurationstools wie die CRM-Shell und grafische Tools. 
Wichtige Prozeduren und Vorgehensweisen zum Troubleshooting und Debuggen von Pacemaker/Corosync Clustern werden intensiv behandelt, und natürlich werden viele praxiserprobte Setups durchgespielt, inklusive der "Best Practices" für verschiedenste Services und Einsatzszenarien, wie z. B. für hochverfügbare MySQL, OpenLDAP, Apache, NFS und Samba4 -Systeme. 
Daneben wird der Storage-Bereich ebenfalls ausführlich beleuchtet: DRBD Master/Slave-Setups, und mit Ceph(FS) und GlusterFS werden wichtige Vertreter des Distributed Storage Clusterings (SDS - Software Defined Storage / Scale Out Storage Cluster)  in Theorie und Praxis ebenfalls ausführlich behandelt. In praktischen Fallbeispielen werden diese Storage-Konstrukte u.a. als Datenablage und auch als hochskalierbare Storage Backends per NFS an ESXi/vSphere Umgebungen exportiert. 
Die wichtigen Themen "Stonith" und "Virtualisierung im Cluster" runden das dicke Know-How Gesamtpaket  für den Admin ab.

Wer sollte teilnehmen

Administratoren und Systembetreuer, die aktuelle Corosync / Pacemaker - Cluster perfekt einrichten, professionell administrieren und gezielt debuggen möchten. Gute Vorkenntnisse in den Bereichen "Linux-System- und Netzwerk-Administration" sollten vorhanden sein.

Inhalt

  • Einführung ins Clustering
    • HA-, Load-Balancing- und High Performance Computing (HPC) - Cluster 
    • 2-Node Active/Active und Active/Passive - (Hot-)Failover-Cluster 
    • N-Node Cluster
    • Split-Brain, Fencing und Stonith, Cluster-Quorum 
    • Ressource-Agenten (RA's) : LSB vs. systemd vs. OCF
  • High Availability (HA) - Cluster-Basics 
    • Konzeptionelle Cluster-Übersicht 
    • Das technische (Schichten-)Modell von Corosync und Pacemaker 
    • Cluster-Kommunikation am konkreten Fall-Beispiel 
    • Cluster Messaging und Cluster-Brain: Corosync und Pacemaker 
    • Upgrade der Cluster-Software und einzelner Applikationen 
  • Cluster-Setup
    • Zeitsynchro: NTPD in realen und virtuellen Cluster-Nodes 
    • Setup der Cluster-Kommunikation: Corosync 2.x,  wichtige Konfigurationsdirektiven
    • Distributionsspezifische Einbindung von Pacemaker / Corosync (systemd), Dependencies und Restart-Problematiken
  • Cluster-Administration und Tools 
    • Cluster-Constraints: Scores, Stickiness, Rules,  (Co)-Locations und Orderings
    • Konfigurations-Layout  der Cluster-Datenbank (CIB), die CIB-Files
    • Fortgeschrittene Cluster-Administration mit der crm-Shell 
    • cibadmin und crm_* Kommandozeilen-Tools 
    • Cluster Administration unter RHEL /CentOS 7 mit dem PCS (Pacemaker Configuration System) 
    • GUI's: PCSD-GUI, HAWK
  • Management von Cluster-Ressourcen 
    • Integration von Ressourcen,  (Co-) Location-Constraints und Orderings
    • (Hot-) Failover-Simulationen 
    • Ressourcen-Stickiness und Scorings
    • Ressourcen und Constraints per crm verwalten
    • Failover einer einfachen Apache-Ressource mit Service_IP
    • Migration-Thresholds
    • Hot-Failover- Services mit Clonesets 
    • Split-Brain-Prävention mit ping-/pingd-Ressourcen 
    • Intelligentes, präventives Ressourcen-Movement auf Basis von Ressourcen-/Node-spezifischen Systeminformationen und Rulesets
    • Hot-Failover MySQL Multimaster Server im Cluster
    • Cluster-Ressourcen im CPU-Shield
  • Ausfallsichere Shared-Nothing Cluster mit DRBD 
    • Einsatzmöglichkeiten und Limitationen von DRBD 
    • Die DRBD-Funktionalität im Detail 
    • DRBD-Modi, Rollen und Replikations-Varianten
    • Konzeptbetrachtung: Kommende  Neuerungen in DRBD 9.x
  • DRBD- Setup und Cluster-Integration
    • drbd-overview und /proc/drbd im Detail 
    • Manueller DRBD-Failover-Funktionstest (Master/Slave - Primary/ Secondary) 
    • Konfiguration der DRBD-Master/Slave-(Multistate-) Ressource im Cluster 
    • DRBD on top of LVM 
    • DRBD-Split-Brain-Recovery 
    • Konzeptionelle Betrachtungen: Probleme im DRBD Dual Primary Mode mit OCFS2 / GFS2, Limitationen traditioneller Cluster-Dateisysteme und Locking-Mechanismen. 
    • Die Zukunft: klassische Cluster-FS vs. Distributed (Scale-Out) Cluster FS
    • DRBD mit NFS als Storage Backend für VMware ESXi / vSphere
  • CEPH - Software Defined Storage / Scale Out Storage Clustering
    • Geschichtliche Entwicklung, Aufbau von Ceph und RADOS
    • Unterschiede und Vorteile zu konventionellem Cluster-Storage
    • CEPH in den gängigen Linux-Distributionen
    • Hardware Recommendations, Erforderliche Pakete / Repositories
    • Grundlegendes Setup eines 3 Node-Ceph-Clusters mit CEPH 10.x 'Jewel'
    • Bulk-Deployment von multiplen Ceph-Nodes mit ceph-deploy
    • CEPH-Kommandozeilen-Tools
    • Pools unter CEPH erzeugen und verwalten, Snapshots
    • Cluster-Health und Status der OSD, MDS und MONs überwachen
    • Client-Mounts
    • Daten-Replikation und Failover, Ändern des Replikationslevels, PG (Placement Groups)  und Crush-Maps 
    • Storage-Erweiterung: CEPH-Nodes online hinzufügen 
    • Strategien für Pacemaker-Cluster-Integration
    • Konzeptionelle Betrachtungen: Ceph - CRUSH-Maps für Datacenter, Cloud-Funktionalitäten mit dem Rados Gateway
    • Hocheffizientes Storage Management für Ceph-Cluster: Storage-/Cache-Tiering und Erasure Coding ("Raid 5")
    • The Road Ahead
  • GlusterFS
    • Basics und Setup
    • Gluster-Client-Mount
    • Gluster-Export via NFS- und CIFS-Mount
    • GlusterFS-Cluster um weitere Nodes (Bricks) erweitern
    • The road ahead: Disperse Volumes  ("Raid 5") unter Gluster
    • Best Practices und Debugging
  • Node-Fencing mit (Soft-)STONITH und/oder Watchdog 
    • Stonith-Basics und Vorbetrachtungen, Stonith Varianten und Systeme
    • SBD - Stonith per Split-Brain-Detector 
    • Konzeptionelle Fallbeispiele: Stonith per IPMI, ibmrsa, riloe, und Stonith von virtuellen Pacemaker-Nodes in vSphere / ESXI-Umgebungen
    • Cluster-Integration von Stonith-Ressourcen 
  • Troubleshooting und Debugging im Cluster 
    • Fehler im Cluster-Kommunikationslayer (Corosync) aufspüren und beseitigen
    • Pacemaker: Troubleshooting und Best Practices for Debugging
  • Virtualisierung im Cluster 
    • Virtualisierungskonzepte- und Techniken im Vergleich: XEN vs KVM vs VMware 
    • Konzeptionelle Betrachtung: Applikationen in KVM-VMs per Pacemaker Remote überwachen und managen
    • HA im Wandel: Container Cluster
  • Konzepte für Backup und Disaster Recovery 

Schulungszeiten und Teilnehmerzahl

Teilnehmerzahl:min. 1, max. 8 Personen

Schulungszeiten: 5 Tage, 1. Tag 10:00 - 17:00 Uhr, Folgetage 09:00 - 16:00 Uhr

Ort der Schulung: GFU-Schulungszentrum Köln oder bei Ihnen als Inhouse-Schulung

Kundenbewertungen

5/5
Bewertung von Thomas I.

Sehr gut alles super

5/5
Bewertung von Alexander V.

Alles prima, super service und klasse Schulung.

4/5
Bewertung von Christian R.

Gute und professionelle Durchführung des Seminars.

5/5
Bewertung von Götz R.

Alles in allem ein hervorragender Kursanbieter; div. kleine technische Probleme sollten aber in den Griff bekommen werden (Netzwerkkonfig. für Kurs).

Verpflegung, Betreuung, Transfer - sehr gut!

5/5
Bewertung von Christian S.

Erstklassiger Service, sehr freundliches Personal und gut gestaltete/ausgestattete Lokation, die keine Wünsche offen lässt.

5/5
Bewertung von Rudi J.

Kurs "Linux-HA-Cluster mit Pacemaker und Corosync" ist sehr empfehlenswert, wenn ein breiter Rundumschlag zu den Techniken gewünscht ist. Sehr kompetenter Trainer.

5/5
Bewertung von Thomas I.

Super, sehr viel gelernt.

5/5
Bewertung von Christian R.

Das Seminar verschaffte mir einen weitreichenden Überblick über das vielschichtige Thema.

5/5
Bewertung von Götz R.

Ein hervorragender Kurs mit umfangreichen Detailinformationen und Wissen. Verständlich und hilfreich erklärt und geschult. Das Gelernte ist eine gute Basis für eine Entscheidungsfindung!

5/5
Bewertung von Christian S.

Sehr intensiver und breit gefächerter Kurs mit vielen realistischen Praxisbeispielen und Hinweisen auf mögliche Fallstricke, Dozent ist fachlich sehr versiert und kann Wissen sehr gut vermitteln

Offene Termine

26.06.-30.06.2017
5 Tage | 2.550,00
Köln   
Noch frei
Buchen Vormerken
13.11.-17.11.2017
5 Tage | 2.660,00
Köln   
Noch frei
Buchen Vormerken
Kein passender Termin? Termin
vorschlagen
Buchen ohne Risiko:
  • Keine Vorkasse
  • Kostenloses Storno bis zum Vortag des Seminars
  • Rechnung nach erfolgreichem Seminar
  • Garantierter Termin und Veranstaltungsort
  • Preise zzgl. Mehrwertsteuer
  • Der dritte Mitarbeiter nimmt kostenlos teil

Weitere Buchungsmöglichkeiten

Firmenschulung Anfragen
Inhouse-Schulung Anfragen
Individualschulung Anfragen


Eine Gruppe einer Firma will zeitgleich den Kurs Linux-HA-Cluster mit Pacemaker und Corosync frequentieren

In dem Fall kann ein Inhouse-Seminar zum Gegenstand Linux-HA-Cluster mit Pacemaker und Corosync sachdienlich sein. Das Thema der Schulung kann dabei in Abstimmung mit den Fachdozenten ergänzt oder komprimiert werden.

Haben die Seminarbesucher allerdings Sachkenntnis in Linux-HA-Cluster mit Pacemaker und Corosync, sollte der erste Punkt der Agenda nur gestreift werden. Eine Inhouse-Bildungsmaßnahme rechnet sich bei mindestens 3 Seminarbesuchern. Die Firmen-Schulungen zum Thema Linux-HA-Cluster mit Pacemaker und Corosync finden sporadisch in der Umgebung von Duisburg, Bremen, Dresden, Düsseldorf, Wuppertal, Frankfurt, Hannover, Essen, Leipzig, Bochum, Nürnberg, Stuttgart, Dortmund, Bielefeld, Bonn, München, Berlin, Hamburg, Münster und Köln am Rhein in NRW statt.

Inhouse-Schulungen zu Linux-HA-Cluster mit Pacemaker und Corosync bundesweit

  • Freie und Hansestadt Hamburg Stadtstaat
  • Schulungs-Schwerpunkt: GlusterFS Basics und Setup | Failover einer einfachen Apache-Ressource mit Service_IP
  • Landeshauptstadt Stuttgart von Baden-Württemberg
  • Schulungs-Schwerpunkt: Virtualisierung im Cluster  Virtualisierungskonzepte- und Techniken im Vergleich: XEN vs KVM vs VMware  | SBD - Stonith per Split-Brain-Detector 
  • Bundeshauptstadt Berlin Stadtstaat
  • Schulungs-Schwerpunkt: CEPH-Kommandozeilen-Tools | 2-Node Active/Active und Active/Passive - (Hot-)Failover-Cluster 
  • Landeshaupt München von Bayern
  • Schulungs-Schwerpunkt: Die DRBD-Funktionalität im Detail  | CEPH - Software Defined Storage / Scale Out Storage Clustering Geschichtliche Entwicklung, Aufbau von Ceph und RADOS
  • Frankfurt am Main in Hessen
  • Schulungs-Schwerpunkt: Distributionsspezifische Einbindung von Pacemaker / Corosync (systemd), Dependencies und Restart-Problematiken|Grundlegendes Setup eines 3 Node-Ceph-Clusters mit CEPH 10.x 'Jewel'
  • Köln am Rhein
  • Schulungs-Schwerpunkt: HA im Wandel: Container Cluster | Konzeptionelle Betrachtungen: Probleme im DRBD Dual Primary Mode mit OCFS2 / GFS2, Limitationen traditioneller Cluster-Dateisysteme und Locking-Mechanismen. 
  • Hansestadt Bremen Stadtstaat
  • Schulungs-Schwerpunkt: Best Practices und Debugging | DRBD-Split-Brain-Recovery 
  • Landeshauptstadt von Nordrhein-Westfalen Düsseldorf am Rhein
  • Schulungs-Schwerpunkt: Hardware Recommendations, Erforderliche Pakete / Repositories|Cluster-Integration von Stonith-Ressourcen 

Wenn alle Seminarbesucher zustimmen, kann die Linux-HA-Cluster mit Pacemaker und Corosync Schulung hinsichtlich "Storage-Erweiterung: CEPH-Nodes online hinzufügen " am Rande gestreift werden und als Kompensation wird "Cluster-Ressourcen im CPU-Shield" ausfühlicher thematisiert oder umgekehrt.

Welche Seminare erweitern Linux-HA-Cluster mit Pacemaker und Corosync?

Eine passende Erweiterung bildet Linux Server Advanced Administration mit

  • Arbeiten mit ldap-Kommandozeilentools und GUIs
  • SASL-Mech External und TLS
  • Replikation der Online-Konfiguration und Schemas
  • Hochverfügbarkeit - HA Cluster und DRBD Einführung in OpenSource-Cluster: Corosync und Pacemaker

Anzuraten ist auch ein Kurs von „LPI 101 - Linux-Grundlagen für Anwender und Administratoren“ mit dem Unterrichtsstoff von

  • Hilfe und Dokumentation
  • Einführung in Linux: Geschichte und Konzepte
  • Dateien und das Dateisystem
  • Standardkanäle und Filterkommandos

Für Firmenschulungen ist das Thema „Red Hat Enterprise Linux 7 (RHEL 7.3) - Workshop: What's New“ mit den Kapiteln System Storage Manager (SSM) und Slices, Services, Targets und weitere Units passend.

Für Fortgeschrittene passt eine Linux / Unix Systemadministration Schulung. In diesem Kurs werden u.a.

  • Lokale Hochverfügbarkeit von Linux-Systemen  Software-RAID
  • Überprüfen und reparieren von Dateisystemen
  • BTRFS
  • Netzwerk-Connectivity auf der Kommandozeile testen / Probleme lokalisieren und beheben
behandelt.

Haben Sie Fragen?

  • 0221 82 80 90
  • Chat offline
Drei Frauen