
Bitte wählen Sie die Bereiche, die Sie exportieren möchten:

Schulung Linux Engineering: Cloud, Container, Kubernetes und Automation
Vom klassischen Linux-Administrator zum Cloud-Native-Engineer
Schulungsformen
Inhouse-/Firmenschulung
- 5 Tage - anpassbar
- Termin nach Wunsch
- In Ihrem Hause oder bei der GFU
- Preis nach Angebot
- Lernumgebung in der Cloud
- Inhalte werden auf Wunsch an die Anforderungen Ihres Teams angepasst.
Beschreibung
Dieses Fünf-Tage-Seminar gibt einen praxisorientierten Überblick über Linux Engineering jenseits der Grundlagen: Modern Linux mit systemd und Cloud-init, Performance-Tuning und Troubleshooting für Cloud-Workloads, Container und Kubernetes für Linux-Engineers, Security-Hardening von SSH bis SELinux und auditd, Infrastructure-as-Code mit Ansible und Terraform, CI/CD-Integration und AI-Assisted Linux-Engineering. Schwerpunkt sind die Themen, die in realen Multi-Cloud-Umgebungen Zeit sparen und Risiko reduzieren - integriert über alle gängigen Distributionen (RHEL/Rocky/Alma, Ubuntu/Debian, Amazon Linux, Azure Linux).
Tauchen Sie tiefer ein mit einer weiteren Linux Weiterbildung aus unserem Seminarangebot.
Schulungsziel
Jede teilnehmende Person verlässt das Seminar mit einem strukturierten Verständnis von Modern Linux (Distributions-Landschaft, systemd, Cloud-init, Multi-Cloud-Kompatibilität), der Beherrschung von Performance-Tuning und Troubleshooting für Cloud-Workloads (eBPF, USE/RED-Methoden, Cgroups v2), dem Werkzeugkasten für Security-Hardening (SSH, sudo, SELinux/AppArmor, auditd, nftables, OpenSCAP, CIS Benchmarks), der Routine in Container und Kubernetes für Linux-Engineers (Runtimes, Pod-Lifecycle, CSI/CNI, Day-2-Operations), der Praxis in Infrastructure-as-Code (Ansible für Konfiguration, Terraform für Cloud-Resourcen, IaC-Pipelines), dem Verständnis von Storage und Observability (LVM, Cloud-Filesystems, Backup-Strategien, OpenTelemetry, Prometheus/Loki/Grafana), der Routine in CI/CD-Integration (GitHub Actions, OIDC-Federation, Molecule, Terratest), dem verantwortungsvollen Umgang mit AI-Coding-Tools (GitHub Copilot, Cursor, Claude Code, MCP-basierte Workflows, AI-Coding-Policy) und einer konkreten Roadmap für die eigene Organisation - produktiv einsetzbar im Cloud-Native-Linux-Engineering-Alltag.
Details
Inhalt
1. Linux-Distributionen für Cloud und Engineering
- Ziele und Erwartungen der Teilnehmenden
- Klärung individueller Lernziele und Erwartungen für ein praxisnahes und relevantes Seminar
- Distributions-Landschaft 2026: Red Hat Enterprise Linux (RHEL) und ihre Klone (Rocky Linux, AlmaLinux, Oracle Linux), Ubuntu LTS, Debian Stable, SUSE/openSUSE, Cloud-spezifisch (Amazon Linux 2023, Azure Linux 3.0, Bottlerocket, Talos Linux).
- Lifecycle-Modelle: LTS vs. Rolling Release, Support-Zeiträume, Security-Updates, Upgrade-Pfade.
- Paketmanagement: dnf/yum (RPM-basiert), apt (Debian-basiert), zypper (SUSE), Snap und Flatpak (App-Pakete), Container als alternative Distribution-Form.
- Auswahl-Kriterien für Cloud- und Edge-Workloads: Vendor-Support, Härtung, Image-Grösse, Cloud-Provider-Optimierung.
- Praxis-Übung: Drei Workload-Szenarien (Web-Server-Farm in AWS, Edge-Geräte in 200 Filialen, Kubernetes-Worker in einer hybriden Umgebung) der passenden Distribution mit Begründung zuordnen.
- systemd-Architektur: Units (service, socket, timer, mount, target), Dependencies, Activation-Strategien.
- Service-Management mit systemctl und journalctl: Status, Logs, Filtering, Boot-Analyse mit systemd-analyze.
- Timer als moderne Cron-Alternative: persistent Timer, randomized Delay, Failure-Notification.
- Cloud-init für VM-Provisionierung: User-Data, Cloud-Configs, Module (users, packages, runcmd, write_files), Multi-Cloud-Kompatibilität.
- Networking modern: NetworkManager, systemd-networkd, netplan auf Ubuntu, nmcli/nmtui-Workflows.
- Container-orientierte Init-Systeme: Tini, dumb-init für saubere Signal-Handling in Containern.
- Praxis-Übung: Eine Cloud-Linux-VM mit Cloud-init bereitstellen, einen systemd-Service für eine Custom-Anwendung schreiben (mit Restart-Policy, Resource Limits, Logging), Timer für regelmässige Wartung anlegen.
3. Performance-Tuning und Troubleshooting für Cloud-Workloads
- Performance-Werkzeuge: top/htop/btop, iostat, vmstat, mpstat, sar, iotop, nload, bpftop.
- eBPF-basierte Tools: bcc-tools, bpftrace, performance copilot - Observability ohne Kernel-Patches.
- Memory-Themen: OOM Killer, swappiness, hugepages, Container-Memory-Limits und Cgroup v2.
- I/O-Performance: Block-Layer, Filesystems (ext4, XFS, btrfs, ZFS), NVMe vs. SSD vs. HDD, EBS-Performance auf AWS, Premium SSD auf Azure.
- Network-Performance: Throughput, Latency, Packet Loss, MTU, Jumbo Frames, TCP-Tuning für High-Bandwidth-Workloads.
- Container- und Kubernetes-spezifische Performance-Themen: noisy-neighbor-Problematik, CPU-Pinning, Pod-Resource-Limits.
- Troubleshooting-Methodik: USE Method (Utilization, Saturation, Errors), RED Method (Rate, Errors, Duration) für Services, systematische Hypothesen-Bildung.
- Praxis-Übung: Eine simulierte Performance-Auffälligkeit (langsame Web-Antwortzeiten) mit USE/RED-Methode systematisch durchsuchen: Tool-Auswahl, Hypothesen, Verifikation, Fix-Vorschlag.
- SSH-Hardening: Key-only-Authentifizierung, MFA mit Hardware-Tokens, Bastion-Hosts vs. SSH-over-SSM, Cisco-Duo-Integration.
- User- und Privilegien-Management: sudo-Konfiguration, Least Privilege, Auditing, Centralized AAA (sssd mit Active Directory oder Entra ID).
- Mandatory Access Control: SELinux-Grundlagen (Enforcing vs. Permissive, Booleans, Contexts) und AppArmor - wann welches Framework.
- Auditing mit auditd: Rules, Reporting, ausearch und aureport, Integration in SIEM.
- Filesystem-Security: Mount-Optionen (nosuid, noexec, nodev), ACLs, Capabilities als modernes setuid-Replacement.
- Firewalling: nftables (Nachfolger von iptables), firewalld, ufw - Auswahl je nach Distribution und Use Case.
- Hardening-Frameworks: CIS Benchmarks, NIST 800-171, BSI IT-Grundschutz, OpenSCAP für automatisierte Compliance-Checks.
- Container-Security: Rootless Container, User-Namespaces, seccomp, capabilities-Drop, Image-Signierung mit Cosign.
- Praxis-Übung: Hardening-Plan für einen Cloud-Linux-Server nach CIS-Benchmark erstellen: SSH-Hardening, Firewall-Regeln, SELinux-Konfiguration, auditd-Rules, OpenSCAP-Scan-Konfiguration und Reporting.
5. Container-Grundlagen und Container-Runtimes
- Container-Konzepte: Namespaces (PID, NET, IPC, MNT, USER, UTS, CGROUP), Cgroups v2, OCI-Spezifikationen (runtime, image, distribution).
- Container-Runtimes: Docker, containerd, CRI-O, Podman - Architektur und Tradeoffs, rootless Container.
- Image-Strategien: Multi-Stage Builds, distroless Images, Alpine vs. Debian vs. Red Hat UBI, Image-Signierung und Provenance (Sigstore, SLSA).
- Compose-Tools: Docker Compose, Podman-Compose, Kubernetes-Manifeste als Compose-Alternative.
- Image-Registries: Docker Hub, GitHub Container Registry, AWS ECR, Azure Container Registry, Google Artifact Registry, Harbor on-prem.
- Container-Networking: Bridge, Host, Macvlan, CNI-Plugins.
- Praxis-Übung: Eine bestehende Anwendung containerisieren: Multi-Stage-Dockerfile mit minimaler Image-Grösse, rootless-Konfiguration, Health Checks; Image in eine Cloud-Registry pushen.
- Kubernetes-Architektur aus Linux-Sicht: Control Plane, Kubelet, Kube-Proxy, Container Runtime Interface (CRI), Container Networking Interface (CNI).
- Cluster-Optionen: Managed (AKS, EKS, GKE), Self-managed (kubeadm, RKE2, k3s), Edge (k3s, microk8s, k0s).
- Linux-Aspekte von Kubernetes-Workern: Kernel-Anforderungen, Cgroups v2 als Standard, kubelet-Konfiguration, Node-Tuning für High-Density-Workloads.
- Pod-Lifecycle aus Linux-Engineer-Sicht: containerd-Logs, kubelet-Logs, Pod-Sandbox, Pause-Container, Liveness/Readiness/Startup Probes.
- Networking in Kubernetes: Calico, Cilium (eBPF-basiert), Flannel, NodeLocal DNSCache.
- Storage in Kubernetes: CSI-Drivers, persistent Volumes, dynamische Provisionierung mit Cloud-Provider-Integration.
- Day-2-Operations: Cluster-Upgrades, Backup mit Velero, Drain und Cordon für Node-Wartung, Image-Pull-Optimierung.
- Praxis-Übung: Einen einfachen Kubernetes-Workload deployen: Deployment, Service, Ingress, ConfigMap, Secret aus Key-Vault oder External Secrets; Logs und Metriken verfolgen, Liveness/Readiness richtig konfigurieren.
7. Infrastructure-as-Code mit Ansible und Terraform
- IaC-Prinzipien: deklarativ vs. imperativ, Idempotenz, Versionskontrolle, Drift Detection.
- Ansible für Linux-Konfigurationsmanagement: Inventory (statisch und dynamisch), Playbooks, Roles, Collections, Vault für Secrets.
- Ansible für Multi-Distribution: facts, when-Conditions, Cross-Distribution-Roles, Pre-/Post-Checks.
- Terraform für Cloud-Provisioning: HCL-Grundlagen, Provider, Resources, Modules, State-Backends (S3+DynamoDB, Azure Blob, GCS).
- Vergleich Ansible vs. Terraform vs. cloud-init: wann welches Tool, Tradeoffs.
- IaC-Pipeline-Patterns: Plan-and-Apply mit Approval, GitOps für Infrastruktur, Secret-Handling über Cloud-Vaults.
- Configuration-Management vs. Image-Baking (Packer, AMI-Build-Pipelines): wann was sinnvoll ist.
- Praxis-Übung: Drei-Schicht-Infrastruktur (Netzwerk, VM, Anwendung) mit Terraform für Cloud-Resourcen und Ansible für VM-Konfiguration provisionieren; Drift-Detection-Strategie skizzieren.
- Linux-Storage: LVM, RAID-Software, Snapshots, Filesystem-Tuning für Workload-Typen.
- Netzwerk-Storage: NFS, SMB/CIFS, iSCSI; Cloud-Filesystems (Amazon EFS, Azure Files, Google Filestore).
- Object Storage: AWS S3, Azure Blob, GCS - Tools (aws s3, az storage, gsutil), s3fs/rclone als Filesystem-Wrapper.
- Backup-Strategien: rsnapshot, Restic, Bacula, Cloud-Backup (AWS Backup, Azure Backup, GCP Backup); 3-2-1-Regel für Linux-Workloads.
- Observability mit OpenTelemetry: Logs, Metrics, Traces als drei Säulen; OTLP-Collector auf Linux-Servern.
- Backend-Optionen: Prometheus + Grafana + Loki + Tempo (Open Source), Datadog/New Relic/Dynatrace (kommerziell), Cloud-native (CloudWatch, Azure Monitor, Cloud Operations Suite).
- Klassische Logs vs. moderne strukturierte Logs: journald-Forwarding, Fluent Bit, Vector als moderner Log-Forwarder.
- Praxis-Übung: Observability-Stack für eine Linux-Server-Farm einrichten: Node Exporter mit Prometheus, OpenTelemetry-Collector für Anwendungs-Logs, Dashboards in Grafana, einfaches SLO mit Error Budget.
9. CI/CD-Integration und Automation-Pipelines
- CI/CD-Plattformen für Linux-Engineers: GitHub Actions, GitLab CI, Azure Pipelines, Jenkins - Auswahlkriterien.
- Linux-spezifische Pipeline-Patterns: Container-basierte Builds, Self-hosted Runners auf Linux-Hosts, Caching für Paket- und Dependency-Manager.
- Tests für Infrastruktur-Code: Molecule für Ansible-Roles, Terratest für Terraform, KitchenCI als Cross-Tool-Framework.
- Pipeline-Stages für Linux-Automation: Lint (ansible-lint, tflint, shellcheck), Plan, Pre-Validation, Apply, Post-Validation.
- ChatOps und natürlichsprachige Operations: Slack-/Teams-Integration für Pipeline-Trigger, Approval-Workflows mit Human-in-the-Loop.
- Secret-Handling in CI/CD: GitHub Actions Secrets, OIDC-Federation für Cloud-Login ohne Long-lived Credentials.
- Praxis-Übung: GitHub-Actions-Pipeline für ein Ansible-Playbook definieren: Lint, Test mit Molecule, Plan-Stage gegen Staging, Approval, Apply gegen Production; OIDC-Federation für AWS-Login ohne Access Keys.
- AI-Assisted Coding für Linux-Engineers: GitHub Copilot, Cursor, Anthropic Claude Code, JetBrains AI - Use Cases (Bash-Skripte, Ansible-Playbooks, Terraform-Module, Dockerfile-Optimierung, Troubleshooting-Hypothesen).
- AI-spezifische Risiken im Linux-Engineering: halluzinierte Cmdline-Parameter, falsche Pfad-Annahmen, übersehene Sicherheits-Implikationen, Slopsquatting-Risiko bei Paket-Empfehlungen.
- Sichere AI-Integration in Admin-Workflows: Self-hosted vs. SaaS-Modelle, Prompt-Sanitization, Mensch-im-Loop für destruktive Aktionen, Audit-Logging.
- ChatOps und natürlichsprachige Linux-Operations: AI-Agent-getriggerte Skripte über Slack/Teams, Approval-Workflows.
- AWS Q Developer, Microsoft Copilot for Azure, GCP Gemini Code Assist: integrierte AI-Assistenten in Cloud-Konsolen, Vergleich zu Standalone-Tools.
- MCP (Model Context Protocol) für administrative AI-Workflows: MCP-Server mit Read-Only-Zugriff auf Linux-Inventar, Cloud-Resourcen, Logs; Conversational Agents für Reports, Compliance-Status, einfache Operations ohne destruktive Aktionen.
- AI-Coding-Policy für Admin-Teams: erlaubte Tools, sensitive Datenkategorien (Hostnames, IP-Bereiche, Tenant-IDs), Mandatory Human Review für destruktive Aktionen, Kompetenz-Trainings.
- Praxis-Übung: Ein realistisches Linux-Engineering-Szenario mit AI-Assisted Coding lösen: Anforderung in Prompt formulieren, generierten Bash-/Ansible-Vorschlag kritisch prüfen, Halluzinationen identifizieren und korrigieren, Sicherheits-Aspekte ergänzen, finale Version mit Tests versehen.
- Reife-Modell für Linux Engineering: klassische Administration -> IaC -> Cloud-Native -> Platform Engineering.
- Skill-Aufbau für Linux-Engineers: Lernpfade vom Administrator zum Cloud-Native-Engineer, Zertifizierungs-Optionen (Linux+, LPIC-2, RHCE, CKA, AWS-/Azure-/GCP-Engineer-Tracks).
- Tool-Strategie: Open-Source-First vs. Vendor-Stack, Standardisierung vs. Tool-Diversität, Vermeidung von Tool-Zoo.
- KPIs für Linux-Engineering-Reife: Time-to-Provision, Mean-Time-to-Recovery, Patch-Compliance, Skript-/IaC-Coverage, AI-Tool-Adoption.
- Praxis-Übung: Konkreten Drei-Phasen-Plan für die eigene Organisation skizzieren: Quick Wins (4 Wochen), Foundation (Quartal 1), Cloud-Native-Maturity (Jahr 2). Drei Antipatterns benennen, die in der eigenen Organisation drohen, mit Gegenmassnahmen.
Zielgruppe & Vorkenntnisse
- Linux-Administratoren mit On-Prem-Erfahrung: Die ihre Praxis um Cloud, Container und Kubernetes erweitern wollen, ohne Tool-Wildwuchs.
- DevOps- und Site Reliability Engineers: Die Linux nicht nur als Bediener-OS nutzen, sondern als Engineering-Plattform für Workloads in AWS, Azure und Google Cloud beherrschen.
- System Engineers im Übergang zu Cloud-Native: Die Container-Runtimes, Kubernetes-Worker, Observability und Security auf Linux-Systemen verantworten.
- Senior-Administratoren in Multi-Cloud-Umgebungen: Die Linux-VMs und Container-Hosts auf RHEL, Ubuntu, Debian, Amazon Linux, Azure Linux und Bottlerocket einheitlich betreiben.
Abgrenzung: Behandelt Linux als Engineering-Plattform mit Schwerpunkt Cloud, Container, Kubernetes und Automation - nicht klassische Linux-Grundlagen für Anfänger (dafür: separate Linux-Einsteiger-Seminare), nicht reine RHEL-/Ubuntu-Administrator-Zertifizierungen in Tiefe (RHCSA, RHCE, LPIC-1/2 als Vorstufen), nicht Kubernetes-Tiefenkurs für CKA/CKAD-Zertifizierung (dafür: separate Kubernetes-Seminare), nicht Programmiersprachen-Kurse für Linux. Fokussiert auf integrierende Praxis statt auf eine einzelne Tool-Tiefe.
Ihre Schulung
In Präsenz | Online |
|---|---|
| Lernmethode | |
Ausgewogene Mischung aus Theorie und praktischen Übungen auf persönlichem Schulungs-PC. | Wie auch bei unseren Präsenz-Seminaren: Ausgewogene Mischung aus Theorie und praktischen Übungen. Trainer durchgehend präsent. |
| Unterlagen | |
Seminarunterlagen oder Fachbuch inklusive. Das Fachbuch wählt der Trainer passend zum Seminar aus - Ihren individuellen Buch-Wunsch berücksichtigen wir auf Nachfrage gerne. | Seminarunterlagen oder Fachbuch inklusive (via DHL). Das Fachbuch wählt der Trainer passend zum Seminar aus - Ihren individuellen Buch-Wunsch berücksichtigen wir auf Nachfrage gerne. |
| Arbeitsmaterialien | |
Din A4 Block, Notizblock, Kugelschreiber, USB-Stick, Textmarker, Post-its | |
| Teilnahmezertifikat | |
Nach Abschluss des Seminars erhalten Sie das Teilnahmezertifikat inkl. Inhaltsverzeichnis per E-Mail als PDF. | |
Organisation
In Präsenz | Online | |
|---|---|---|
| Teilnehmendenzahl | ||
min. 1, max. 8 Personen | ||
| Garantierte Durchführung * | ||
Ab 1 Teilnehmenden | ||
| Schulungszeiten | ||
| ||
| Ort der Schulung | ||
GFU SchulungszentrumAm Grauen Stein 27 51105 Köln-Deutz oder online im Virtual Classroom oder europaweit bei Ihnen als Inhouse-Schulung Um ein optimales Raumklima zu gewährleisten, haben wir das Schulungszentrum mit 17 hochmodernen Trotec TAC V+ Luftreinigern ausgestattet. Diese innovative Filtertechnologie (H14 zertifiziert nach DIN EN1822) sorgt dafür, dass die Raumluft mehrfach pro Stunde umgewälzt wird und Schadstoffe zu 99.995% im HEPA-Filter abgeschieden und infektiöse Aerosole abgetötet werden. Zusätzlich sind alle Räume mit CO2-Ampeln ausgestattet, um jederzeit eine hervorragende Luftqualität sicherzustellen. | ||
| Räumlichkeiten | ||
Helle und modern ausgestattete Räume mit perfekter Infrastruktur | Bequem aus dem Homeoffice von überall | |
| All-Inclusive | ||
Frühstück, Snacks und Getränke ganztägig, Mittagessen im eigenen Restaurant, täglich 6 Menüs, auch vegetarisch | Eine Auswahl unserer Frühstücks-Snacks und Nervennahrungs-Highlights senden wir Ihnen mit den Seminarunterlagen via DHL zu. | |
| Barrierefreiheit | ||
Das GFU-Schulungszentrum (Am Grauen Stein 27) ist barrierefrei | - | |
Kostenfreie Services
In Präsenz | Online |
|---|---|
|
|
Buchungsmöglichkeiten
Online oder in Präsenz teilnehmen
Sie können sowohl Online als auch in Präsenz am Seminar teilnehmen. Klicken Sie bei Ihrer Buchung oder Anfrage einfach die entsprechende Option an.
- Lernumgebung in der Cloud
- Inhalte werden auf Wunsch an die Anforderungen Ihres Teams angepasst.
Was bedeutet Offene Schulung und Inhouse Schulung?
Bei einer offenen Schulung stehen Ort und Termin vorab fest. Jeder Interessent kann eine offene Schulung buchen, daher treffen Teilnehmer aus verschiedenen Unternehmen aufeinander.
Inhouse Schulungen können auf Ihren individuellen Schulungsbedarf zugeschnitten werden. Sie bestimmen den Teilnehmerkreis, Termin und Schulungsort.
Ist eine Inhouse Schulung die richtige Wahl?
Bei einer Inhouse Schulung gehen wir auf die individuellen Bedürfnisse Ihres Unternehmens ein und decken den Schulungsbedarf direkt bei Ihnen im Unternehmen ab.
Das spart Zeit und Geld und sorgt für einen schnellen Wissenstransfer Ihrer Mitarbeiter.
Wer kümmert sich um die Technik bei Inhouse Schulungen?
Eine komplette Lernumgebung in der Cloud mit Remote Zugriff ist für uns selbstverständlich. Sie müssen sich um nichts kümmern. Lediglich ein funktionierender PC oder Notebook mit Internetanschluss sollte für jeden Teilnehmer am Schulungstag bereit stehen.
Vorteile einer Inhouse Schulung
- Kompetente Seminarberatung
- Dozenten aus der Praxis
- Auf Ihre Bedürfnisse zugeschnittener individueller Lernstoff
- Sie können den Termin flexibel gestalten, so wie es für Sie am besten passt
- Unsere Inhouse Schulungen können Europaweit durchgeführt werden
- Der Fokus liegt auf Ihrem Schulungsbedarf, somit schonen Sie Ihr Budget
- Wissenslücken Ihrer Mitarbeitet werden schnell geschlossen
GFU Schulungszentrum