
Bitte wählen Sie die Bereiche, die Sie exportieren möchten:

Schulung Von SSIS zu Azure Data Factory und Microsoft Fabric
Dataflows gestalten und den modernen Microsoft-Data-Stack nutzen
Schulungsformen
Offene Schulung
- 3 Tage
- 5 gesicherte Termine
- Köln / Online
- 2.030,00 p. P. zzgl. MwSt.
- Dritter Mitarbeitende kostenfrei
- Learning & Networking in einem. Garantierte Durchführung ab 1 Teilnehmenden.
Inhouse-/Firmenschulung
- 3 Tage - anpassbar
- Termin nach Wunsch
- In Ihrem Hause oder bei der GFU
- Preis nach Angebot
- Lernumgebung in der Cloud
- Inhalte werden auf Wunsch an die Anforderungen Ihres Teams angepasst.
Individualschulung
- 3 Tage - anpassbar
- Termin nach Wunsch
- In Ihrem Hause oder bei der GFU
- Preis nach Angebot
- Lernumgebung in der Cloud
- 1 Teilnehmender = Fokus aufs Fachliche und maximaler Raum für individuelle Fragen.
Beschreibung
Aber SSIS bekommt keine neuen Features mehr. Microsoft investiert ausschließlich in Azure Data Factory und Microsoft Fabric. Die Zeichen sind eindeutig: SSIS ist Bestandspflege, ADF und Fabric sind die Zukunft. Gleichzeitig läuft der Extended Support für SQL Server 2016 aus (Juli 2026), SQL Server 2017 folgt (Oktober 2027) - und viele SSIS-Landschaften laufen auf diesen Versionen.
Die Frage ist nicht ob, sondern wann und wie migriert wird. Drei Pfade stehen zur Wahl: Lift-and-Shift (SSIS-Pakete unverändert auf Azure-SSIS Integration Runtime ausführen - schnell, aber keine Modernisierung), Replatform (SSIS-Logik in ADF-Pipelines und Mapping Data Flows übersetzen - moderate Modernisierung, bekannte Konzepte), Modernize (ETL-Architektur auf Microsoft Fabric Lakehouse und Dataflows Gen2 neu denken - maximale Modernisierung, aber höchster Aufwand).
Dieses Seminar zeigt alle drei Wege - nicht abstrakt, sondern anhand realer SSIS-Pakete, die im Seminar auf ADF und Fabric migriert werden. Am dritten Tag übersetzen die Teilnehmenden eigene SSIS-Pakete (mitgebrachte oder vorbereitete Szenarien) und erstellen ihren individuellen Migrationsplan.
Unser vielseitiges Angebot an Azure Schulungen
Schulungsziel
Jede teilnehmende Person verlässt das Seminar mit der praktischen Erfahrung, drei SSIS-Pakete nach ADF/Fabric migriert zu haben , einem Verständnis aller drei Migrationspfade (Lift-and-Shift, Replatform, Modernize) mit Entscheidungsmatrix, einer Bestandsaufnahme und Klassifizierung der eigenen SSIS-Landschaft, einem individuellen Migrationsplan (Phasen, Timeline, Zielplattform, Risiken) und einem Skill-Entwicklungsplan für das Team.
Details
Inhalt
1. Standortbestimmung: SSIS-Landschaft bewerten und Migrationsziele definieren
- Ziele und Erwartungen der Teilnehmenden
- Klärung individueller Lernziele und Erwartungen für ein praxisnahes und relevantes Seminar
- SSIS-Bestandsaufnahme: Wie viele Pakete, welche Komplexität, welche Datenquellen, welche Abhängigkeiten (SQL Agent Jobs, Scheduling, File Watcher, Environment Variables)? Typische SSIS-Landschaften: 10 Pakete (einfach) vs. 500 Pakete (Enterprise DWH).
- SSIS Migration Assessment Tool: Automatisierte Bewertung bestehender Pakete - welche lassen sich 1:1 migrieren, welche erfordern Umbau, welche sind nicht migrierbar (custom Components, Script Tasks mit COM-Interop).
- Die drei Migrationspfade: Lift-and-Shift (Azure-SSIS IR), Replatform (ADF Pipelines), Modernize (Fabric Lakehouse). Entscheidungsmatrix: Zeitdruck, Budget, Modernisierungsziel, Skillverfügbarkeit, Komplexität der Pakete.
- SSIS -> ADF/Fabric Konzept-Mapping: Control Flow -> Pipeline, Data Flow Task -> Mapping Data Flow, Package -> Pipeline, Connection Manager -> Linked Service, Variable -> Parameter/Variable, Expression -> Expression, For Each Loop -> ForEach Activity, Execute SQL Task -> Stored Procedure / Script Activity.
- Praxis-Übung: SSIS Migration Assessment für 5 vorbereitete Demo-Pakete durchführen. Ergebnis interpretieren: Welche Pakete sind „grün" (migrierbar), welche „gelb" (anpassbar), welche „rot" (Neuentwicklung)?
- Azure-SSIS Integration Runtime (IR): Eine vollständige SSIS-Laufzeitumgebung in Azure - bestehende Pakete laufen unverändert. SSISDB in Azure SQL Database oder Managed Instance, SQL Agent Scheduling über ADF-Trigger, Zugriff auf On-Premises-Datenquellen via Self-Hosted IR / VNet-Integration.
- Konfiguration: Azure-SSIS IR erstellen, SSISDB migrieren, Pakete deployen, Scheduling einrichten. Performance-Konfiguration (Node-Anzahl, Node-Größe, Express Custom Setup für Drittanbieter-Komponenten).
- Wann Lift-and-Shift? Hoher Zeitdruck (SQL Server 2016 EOL), Hunderte von Paketen (Replatforming zu aufwändig), keine Modernisierungsziele (SSIS funktioniert, soll nur in der Cloud laufen), als Zwischenschritt vor einer späteren Modernisierung.
- Einschränkungen und Kosten: Azure-SSIS IR kostet auch wenn keine Pakete laufen (VM-basiert - starten/stoppen als Kostenoptimierung), keine neuen SSIS-Features, Abhängigkeit von SSISDB-Kompatibilität, nicht alle Custom Components laufen in Azure.
- Praxis-Übung: Azure-SSIS IR in der Seminarumgebung erstellen, 3 Demo-Pakete aus der lokalen SSISDB migrieren, ausführen und Ergebnis prüfen. Scheduling über ADF-Trigger konfigurieren.
- ADF-Architektur im Überblick: Pipelines (Orchestrierung), Activities (einzelne Schritte), Linked Services (Verbindungen), Datasets (Datenstrukturen), Triggers (Scheduling), Integration Runtimes (Ausführungsumgebung). Data Factory vs. Synapse Pipelines (identische Engine, unterschiedliches Hosting).
- Control-Flow-Migration: Sequence Container -> Pipeline-Gruppen, For Each Loop -> ForEach Activity, Execute SQL Task -> Stored Procedure / Script Activity, File System Task -> Copy Activity + Delete Activity, Send Mail Task -> Web Activity / Logic App, Execute Package Task -> Execute Pipeline Activity.
- Data-Flow-Migration: SSIS Data Flow -> ADF Mapping Data Flow. Source -> Source Transformation, Lookup -> Lookup Transformation, Conditional Split -> Conditional Split, Derived Column -> Derived Column, Aggregate -> Aggregate, Sort -> Sort, Union All -> Union, Merge Join -> Join, OLE DB Destination -> Sink. Konzepte sind ähnlich - aber die Syntax (ADF Expression Language vs. SSIS Expressions) und das Debugging (ADF Data Flow Debug vs. SSIS Breakpoints) unterscheiden sich.
- Was in ADF anders ist als in SSIS: Kein visueller Debugger mit Breakpoints (stattdessen: Data Preview, Debug Run), kein lokales Dateisystem (stattdessen: Blob Storage, Data Lake), keine Package-Variablen im SSIS-Sinn (stattdessen: Pipeline Parameters, Global Parameters), kein SSISDB (stattdessen: ARM Templates, Git Integration für Versionierung).
- Praxis-Übung: Ein SSIS-Paket (CSV -> Staging -> Fact Table mit Lookup und Derived Column) Schritt für Schritt in eine ADF-Pipeline mit Mapping Data Flow übersetzen. Ergebnis vergleichen: Gleiche Daten im Ziel? Performance-Vergleich?
- Trigger-Typen: Schedule Trigger (Cron-äquivalent), Tumbling Window Trigger (für historische Nachholläufe), Event Trigger (Blob Storage: Datei angelegt -> Pipeline startet), Custom Event Trigger (Event Grid).
- Fehlerbehandlung: Activity-Dependency (Success, Failure, Completion, Skipped), If-Condition Activity für dynamische Logik, Web Activity für Alerting (Teams-Webhook, E-Mail), Retry Policies auf Activity-Level.
- Monitoring und Alerting: ADF Monitor (Pipeline Runs, Activity Runs, Trigger Runs), Azure Monitor Integration (Alerts auf Failure, Duration, Data Movement), Log Analytics für historische Analyse und Dashboards.
- Self-Hosted Integration Runtime: Zugriff auf On-Premises-Datenquellen (SQL Server, Fileshares, Oracle, SAP) aus ADF-Pipelines. Installation, Konfiguration, High Availability (Multi-Node), Netzwerk-Anforderungen (keine eingehenden Ports, nur ausgehend HTTPS).
- Kosten verstehen und optimieren: ADF-Preismodell (Pipeline-Ausführungen, Data Movement Units, Mapping Data Flow Cluster-Stunden). Kostenvergleich SSIS On-Premises vs. ADF vs. Azure-SSIS IR. Optimierung: Data Flows nur starten wenn nötig, Copy Activity statt Data Flow für einfache Kopieraufgaben, IR-Sizing.
- Praxis-Übung: Pipeline mit Schedule Trigger und Event Trigger konfigurieren. Fehlerbehandlung einbauen (bei Failure: Benachrichtigung via Web Activity). Self-Hosted IR installieren und On-Premises-SQL-Server als Quelle anbinden.
5. Microsoft Fabric für SSIS-Profis: Paradigmenwechsel verstehen
- Fabric-Architektur: OneLake (ein Data Lake für alles), Lakehouses (strukturierte Daten im Delta-Format), Warehouses (T-SQL auf Delta Tables), Data Pipelines (ADF-kompatibel), Dataflows Gen2 (Power-Query-basiert), Notebooks (Spark/Python/SQL), Eventstreams (Echtzeit). Alles in einer Plattform, ein Sicherheitsmodell, eine Governance.
- Paradigmenwechsel ETL -> ELT: SSIS = ETL (Extract-Transform-Load: Daten werden VOR dem Laden transformiert, außerhalb der Datenbank). Fabric = ELT (Extract-Load-Transform: Daten erst laden, dann in der Zielplattform transformieren - mit Spark, SQL oder Dataflows). Warum ELT in der Cloud sinnvoller ist: Cloud-Compute ist elastisch, Transformation in der Zielplattform nutzt dessen Optimierungen.
- SSIS-Konzepte -> Fabric-Konzepte: SSIS-Paket -> Fabric Data Pipeline + Dataflow Gen2/Notebook, SSISDB -> OneLake (kein separater Katalog, alles im Lake), SQL Agent Job -> Fabric Pipeline Trigger, Flat File Source -> OneLake File, OLE DB Source -> Lakehouse Table / Warehouse Table, Staging-Datenbank -> Lakehouse (Bronze Layer), Data Warehouse -> Warehouse (Gold Layer).
- Praxis-Übung: Fabric-Workspace erstellen, Lakehouse anlegen, eine CSV-Datei in OneLake hochladen, mit T-SQL über den SQL Analytics Endpoint abfragen - der erste „Hello World"-Moment in Fabric.
- Data Pipelines in Fabric: Identische Engine wie ADF - Copy Activity, ForEach, If Condition, Stored Procedure, Notebook Activity. SSIS-Profis finden sich sofort zurecht. Unterschied: Ziel ist immer OneLake (Lakehouse oder Warehouse), nicht eine beliebige Datenbank.
- Dataflows Gen2 (Power Query): Visuelle Datentransformation mit Power Query (M-Language). Für SSIS-Profis, die visuelle Transformationen gewohnt sind, eine intuitive Alternative zu Mapping Data Flows. Quellen: 200+ Connectors (SQL Server, Oracle, SAP, REST APIs, Flat Files). Transformationen: Merge, Append, Pivot, Unpivot, Group By, Conditional Column. Ziel: Lakehouse Table.
- Notebooks (Spark/Python): Für komplexe Transformationslogik, die in Power Query oder Pipelines nicht abbildbar ist. PySpark, Spark SQL, pandas-on-Spark. Für SSIS-Profis mit Script-Task-Erfahrung der natürliche nächste Schritt.
- Medallion-Architektur (Bronze-Silver-Gold): Bronze (Rohdaten, unverändert geladen - entspricht SSIS Staging), Silver (bereinigt, dedupliziert, standardisiert - entspricht SSIS Transformation), Gold (geschäftsfähig, aggregiert, modelliert - entspricht SSIS Fact/Dimension Load). Fabric Lakehouse als natürliche Heimat für Medallion.
- Praxis-Übung: Das SSIS-Paket aus Topic 3 (CSV -> Staging -> Fact Table) in Fabric nachbauen: (1) Data Pipeline: Copy Activity lädt CSV in Lakehouse Bronze. (2) Dataflow Gen2: Transformation von Bronze nach Silver (Bereinigung, Lookup, Derived Column). (3) Notebook oder SQL: Aggregation von Silver nach Gold. Ergebnis vergleichen.
- SQL Server Mirroring in Fabric: Echtzeit-Replikation von On-Premises SQL Server nach Fabric - ohne ETL-Pipeline. Daten erscheinen automatisch als Delta Tables im Lakehouse. Für SSIS-Profis: viele einfache Lade-Pakete (SELECT * FROM source -> INSERT INTO staging) werden durch Mirroring überflüssig.
- OneLake Shortcuts: Virtuelle Verweise auf externe Datenquellen (Azure Data Lake, S3, Google Cloud Storage) - Daten werden nicht kopiert, sondern in-place abgefragt. Reduziert Datenbewegung und Kosten.
- Hybride Szenarien: Nicht alles muss sofort migriert werden. Muster: SSIS lädt weiter in On-Premises SQL Server -> Mirroring repliziert nach Fabric -> Reporting auf Fabric. Oder: Einfache Pakete auf Fabric migrieren, komplexe Pakete auf Azure-SSIS IR als Zwischenlösung.
- Praxis-Übung: SQL Server Mirroring konfigurieren (Demo-SQL-Server -> Fabric Lakehouse). Prüfen: Daten erscheinen in Echtzeit als Delta Table. Vergleich: Wie viele der 5 Demo-SSIS-Pakete aus Topic 1 werden durch Mirroring obsolet?
8. Migrationsstrategie: Den richtigen Pfad für jedes Paket wählen
- Paket-Klassifizierung: Nicht jedes Paket wird gleich migriert. Kategorien: (1) Einfache Kopie (SELECT->INSERT, Flat File->Table -> Mirroring oder Copy Activity), (2) Transformation mit Standardlogik (Lookup, Derived Column, Aggregate -> Dataflow Gen2 oder Mapping Data Flow), (3) Komplexe Logik (Script Tasks, Custom Components, komplexe Expressions -> Notebook oder Neuentwicklung), (4) Obsolet (Pakete, die nicht mehr gebraucht werden - jede Migration ist eine Chance aufzuräumen).
- Entscheidungsmatrix pro Paket: Einfache Kopie -> Mirroring (kein ETL nötig) oder Copy Activity. Standard-Transformation -> Dataflow Gen2 (Fabric) oder Mapping Data Flow (ADF). Komplexe Logik -> Spark Notebook (Fabric) oder Azure-SSIS IR (Lift-and-Shift als Zwischenlösung). Scheduling-Abhängigkeiten -> Fabric Data Pipeline oder ADF Pipeline als Orchestrator.
- Migrationsphasen für Enterprise-SSIS-Landschaften: Phase 1 (Quick Wins: einfache Kopierpakete -> Mirroring/Copy Activity, 20-40 % der Pakete), Phase 2 (Standard-ETL -> Dataflows Gen2/Mapping Data Flows, 40-60 % der Pakete), Phase 3 (Komplexe Pakete -> Notebooks oder Azure-SSIS IR, 10-20 % der Pakete), Phase 4 (Dekommissionierung: SSIS-Infrastruktur abschalten, SSISDB archivieren).
- Parallelbetrieb und Cutover: SSIS und ADF/Fabric können parallel laufen - schrittweise Migration statt Big Bang. Validierung: Ergebnisse SSIS vs. ADF/Fabric vergleichen (Zeilenanzahl, Checksummen, Stichproben). Rollback: SSIS-Pakete bleiben lauffähig, bis die Cloud-Version validiert ist.
- Praxis-Übung: Die 5 Demo-Pakete aus Topic 1 klassifizieren: welcher Migrationspfad für welches Paket? Migrationsphasen-Plan erstellen.
- Migration 1 - Einfaches Lade-Paket (Copy): SSIS-Paket: CSV-Datei -> Staging-Tabelle (keine Transformation). Migration: Fabric Mirroring oder Data Pipeline mit Copy Activity. Aufwand: 15 Minuten. Validierung: Zeilenanzahl vergleichen.
- Migration 2 - Standard-ETL (Transformation): SSIS-Paket: Flat File -> Lookup (Referenztabelle) -> Derived Column (berechnetes Feld) -> Conditional Split (Fehlerbehandlung) -> Fact Table. Migration: Fabric Dataflow Gen2 mit Power Query: Merge Query (= Lookup), Custom Column (= Derived Column), Filter (= Conditional Split), Load to Lakehouse Table. Aufwand: 45 Minuten. Validierung: Stichproben und Aggregate vergleichen.
- Migration 3 - Komplexe Orchestrierung: SSIS-Paket: For Each Loop über Dateien in einem Verzeichnis -> Execute SQL Task (Truncate Staging) -> Data Flow (Laden) -> Execute SQL Task (Stored Procedure für Merge/Upsert) -> Send Mail (Erfolg/Fehler). Migration: Fabric Data Pipeline: GetMetadata Activity (Dateien auflisten) -> ForEach Activity -> Copy Activity -> Stored Procedure Activity -> Web Activity (Teams-Webhook). Aufwand: 60 Minuten. Validierung: End-to-End-Lauf mit Monitoring.
- Praxis-Übung: Alle drei Migrationen hands-on durchführen. Am Ende: 3 funktionierende Fabric-Pipelines/Dataflows, die die SSIS-Pakete ersetzen. Ergebnisvergleich: Sind die Daten identisch?
- Versionierung und Deployment: SSIS -> SSISDB Deployment (ispac-Dateien). ADF/Fabric -> Git Integration (Azure DevOps oder GitHub). ARM Templates oder Bicep für Infrastructure as Code. CI/CD für Datenpipelines (Build -> Test -> Deploy über Environments).
- Monitoring: SSIS -> SSISDB Execution Reports, SQL Agent Job History. ADF -> Monitor Hub (Pipeline Runs, Activity Runs), Azure Monitor Alerts. Fabric -> Monitoring Hub, Capacity Metrics, Admin Portal.
- Data Governance: SSIS -> keine eingebaute Governance. Fabric -> Microsoft Purview Integration (Data Lineage, Data Catalog, Sensitivity Labels). Automatische Lineage: Fabric dokumentiert, woher jede Tabelle kommt und welche Pipelines/Dataflows sie befüllen.
- Kostenmodell: SSIS -> Serverkosten (Lizenz + Hardware). ADF -> Pay-per-Use (Pipeline Runs, Data Movement, Data Flow Cluster-Stunden). Fabric -> Capacity-basiert (F-SKUs, reserviert oder Pay-as-you-go). Kostenvergleich für typische Workloads: wann ist ADF günstiger, wann Fabric, wann Azure-SSIS IR?
- Praxis-Übung: Git-Integration für den Fabric-Workspace konfigurieren. Lineage der migrierten Pipelines im Fabric Lineage View inspizieren. Kosten für die migrierten Workloads schätzen (Fabric Capacity Calculator).
Phase 1 - Bestandsaufnahme (15 Min):
- Eigene SSIS-Landschaft beschreiben: Anzahl Pakete, Komplexitätsverteilung (einfach/mittel/komplex), Datenquellen, Scheduling, Abhängigkeiten, SQL-Server-Version, EOL-Druck.
- Pakete klassifizieren (Mirroring / Copy / Dataflow / Notebook / Lift-and-Shift).
- Zielplattform wählen und begründen: ADF (wenn Azure-First, aber kein Fabric-Commitment), Fabric (wenn Microsoft-Data-Stack als Ganzes, Lakehouse-Architektur), Hybrid (Azure-SSIS IR für komplexe Pakete + Fabric für Neuentwicklung).
- Migrationsphasen definieren (Quick Wins -> Standard-ETL -> Komplexe Pakete -> Dekommissionierung).
- Timeline und Ressourcenbedarf schätzen.
- Risiken identifizieren (Custom Components, Performance, Kosten, Skills).
- Migrationsplan vorstellen. Feedback: Ist die Phasierung realistisch? Fehlt ein Risiko? Ist die Zielplattform-Wahl begründet?
- Gap-Analyse: Welche Skills hat mein Team (SSIS, T-SQL, SSISDB) vs. welche werden gebraucht (ADF Pipelines, Power Query/M, Spark/PySpark, Fabric, Git-basiertes Deployment)?
- Weiterbildungs-Roadmap: GFU-Seminare als Bausteine - ADF (S2498/S4192), Fabric (S3013, S3876 DP-600, S6571 DP-700), Power Query (S2336), Spark (diverse).
Zielgruppe & Vorkenntnisse
- SSIS-Entwickler und BI-Entwickler: Die ihre bestehenden ETL-Pakete in Azure Data Factory oder Microsoft Fabric überführen.
- SQL-Server-Administratoren: Die SSIS-Infrastruktur (SSISDB, SQL Agent, SSIS Catalog) betreiben und einen Cloud-Migrationspfad planen.
- Data Engineers: Die von On-Premises-ETL auf moderne Cloud-Datenintegration umsteigen.
- IT-Architekten und Entscheider: Die bewerten, ob ADF, Fabric oder ein Hybridmodell die richtige Zielplattform für bestehende SSIS-Workloads ist.
Abgrenzung: Dieses Seminar ist ein Migrationsseminar für SSIS-Profis - es setzt SSIS-Kenntnisse voraus und zeigt den Weg zu ADF und Fabric. Es ist kein SSIS-Einsteigerkurs (dafür: S1029, 3T), kein allgemeines ADF-Seminar (dafür: S2498/S4192, je 2T), kein Fabric-Zertifizierungskurs (dafür: DP-600 S3876 / DP-700 S6571) und kein allgemeines Cloud-Seminar (dafür: DP-900 S3047, 1T).
Ihre Schulung
In Präsenz | Online |
|---|---|
| Lernmethode | |
Ausgewogene Mischung aus Theorie und praktischen Übungen auf persönlichem Schulungs-PC. | Wie auch bei unseren Präsenz-Seminaren: Ausgewogene Mischung aus Theorie und praktischen Übungen. Trainer durchgehend präsent. |
| Unterlagen | |
Seminarunterlagen oder Fachbuch inklusive. Das Fachbuch wählt der Trainer passend zum Seminar aus - Ihren individuellen Buch-Wunsch berücksichtigen wir auf Nachfrage gerne. | Seminarunterlagen oder Fachbuch inklusive (via DHL). Das Fachbuch wählt der Trainer passend zum Seminar aus - Ihren individuellen Buch-Wunsch berücksichtigen wir auf Nachfrage gerne. |
| Arbeitsmaterialien | |
DIN A4 Block, Notizblock, Kugelschreiber, USB-Stick, Textmarker, Post-its | |
| Teilnahmezertifikat | |
Nach Abschluss des Seminars erhalten Sie das Teilnahmezertifikat inkl. Inhaltsverzeichnis per E-Mail als PDF. | |
Organisation
In Präsenz | Online | |
|---|---|---|
| Teilnehmendenzahl | ||
min. 1, max. 8 Personen | ||
| Garantierte Durchführung | ||
Ab 1 Teilnehmenden* | ||
| Schulungszeiten | ||
| ||
| Ort der Schulung | ||
GFU SchulungszentrumAm Grauen Stein 27 51105 Köln-Deutz oder online im Virtual Classroom oder europaweit bei Ihnen als Inhouse-Schulung Um ein optimales Raumklima zu gewährleisten, haben wir das Schulungszentrum mit 17 hochmodernen Trotec TAC V+ Luftreinigern ausgestattet. Diese innovative Filtertechnologie (H14 zertifiziert nach DIN EN1822) sorgt dafür, dass die Raumluft mehrfach pro Stunde umgewälzt wird und Schadstoffe zu 99.995% im HEPA-Filter abgeschieden und infektiöse Aerosole abgetötet werden. Zusätzlich sind alle Räume mit CO2-Ampeln ausgestattet, um jederzeit eine hervorragende Luftqualität sicherzustellen. | ||
| Räumlichkeiten | ||
Helle und modern ausgestattete Räume mit perfekter Infrastruktur | Bequem aus dem Homeoffice von überall | |
| Preisvorteil | ||
Dritter Mitarbeitende nimmt kostenfrei teil. Eventuell anfallende Prüfungskosten für den dritten Teilnehmenden werden zusätzlich berechnet. Hinweis: Um den Erfolg der Schulung zu gewährleisten, sollte auch der dritte Teilnehmende die erwarteten Vorkenntnisse mitbringen. | ||
| KOMPASS — Förderung für Solo-Selbstständige | ||
Solo-Selbstständige können für dieses Seminar eine Förderung via KOMPASS beantragen. | ||
| All-Inclusive | ||
Gebäck, Snacks und Getränke ganztägig, Mittagessen im eigenen Restaurant, täglich 6 Menüs, auch vegetarisch | Eine Auswahl unserer Frühstücks-Snacks und Nervennahrungs-Highlights senden wir Ihnen mit den Seminarunterlagen via DHL zu. | |
| Barrierefreiheit | ||
Das GFU-Schulungszentrum (Am Grauen Stein 27) ist barrierefrei | - | |
Buchen ohne Risiko
| Rechnungsstellung |
Erst nach dem erfolgreichen Seminar. Keine Vorkasse. |
| Stornierung |
Kostenfrei bis zum Vortag des Seminars |
| Vormerken statt buchen |
Sichern Sie sich unverbindlich Ihren Seminarplatz schon vor der Buchung - auch wenn Sie selbst nicht berechtigt sind zu buchen |
Kostenfreie Services
In Präsenz | Online |
|---|---|
|
|
Buchungsmöglichkeiten
Online oder in Präsenz teilnehmen
Sie können sowohl Online als auch in Präsenz am Seminar teilnehmen. Klicken Sie bei Ihrer Buchung oder Anfrage einfach die entsprechende Option an.
Gesicherte offene Termine
| Termin | Ort | Preis | ||
|---|---|---|---|---|
| 27.07.-29.07.2026 Plätze vorhanden Köln / Online 2.030,00 | Köln / Online | 2.030,00 | Buchen Vormerken | |
| 05.10.-07.10.2026 Plätze vorhanden Köln / Online 2.030,00 | Köln / Online | 2.030,00 | Buchen Vormerken | |
| 07.12.-09.12.2026 Plätze vorhanden Köln / Online 2.030,00 | Köln / Online | 2.030,00 | Buchen Vormerken | |
| 2027 | ||||
| 19.04.-21.04.2027 Plätze vorhanden Köln / Online 2.030,00 | Köln / Online | 2.030,00 | Buchen Vormerken | |
| 21.06.-23.06.2027 Plätze vorhanden Köln / Online 2.030,00 | Köln / Online | 2.030,00 | Buchen Vormerken | |
- Lernumgebung in der Cloud
- Inhalte werden auf Wunsch an die Anforderungen Ihres Teams angepasst.
- Lernumgebung in der Cloud
- 1 Teilnehmender = Fokus aufs Fachliche und maximaler Raum für individuelle Fragen.
Unterstützung nach der Schulung durch
individuelle Nachbetreuung
- Alle folgenden Schulungsformen können auch Online als Virtual Classroom durchgeführt werden.
- Eine Offene Schulung findet zu einem festgelegten Zeitpunkt im voll ausgestatteten Schulungszentrum oder Online/Remote statt. Sie treffen auf Teilnehmende anderer Unternehmen und profitieren vom direkten Wissensaustausch.
- Eine Inhouse-/Firmen-Schulung geht auf die individuellen Bedürfnisse Ihres Unternehmens ein. Sie erhalten eine kostenfreie Beratung von Ihrem Seminarleiter und können Inhalte und Dauer auf Ihren Schulungsbedarf anpassen. Inhouse-Schulungen können Europaweit durchgeführt werden.
- Bei einer Individual-Schulung erhalten Sie eine 1-zu-1 Betreuung und bestimmen Inhalt, Zeit und Lerntempo. Der Dozent passt sich Ihren Wünschen und Bedürfnissen an.
Sie können unsere Schulungen auch als Remote Schulung im Virtual Classroom anfragen.
In drei Schritten zum Online Seminar im Virtual Classroom:
- Seminar auswählen und auf "Buchen" klicken
- Wählen Sie bei "Wie möchten Sie teilnehmen?" einfach "Online" aus.
- Formular ausfüllen und über den Button "Jetzt buchen" absenden.
Unser Kundenservice meldet sich bei Ihnen mit der Buchungsbestätigung.
Unsere Online Schulungen finden im Virtual Classroom statt. Ein Virtual Classroom bündelt mehrere Werkzeuge, wie Audio-Konferenz, Text-Chat, Interaktives Whiteboard, oder Application Sharing.
Vorteile von Virtual Classroom:
- Sie erhalten 1 zu 1 die gleiche Lernumgebung, die Sie auch vor Ort bei uns vorfinden
- Die technische Vorbereitung wird von den GFU-Technikern vorgenommen
- Sie erhalten remote Zugriff auf Ihren persönlichen Schulungs-PC im GFU-Seminarraum
- Die Virtual Classroom Lösung lässt sich auch im Browser betreiben
- Die GFU-Technik leistet wie gewohnt Soforthilfe bei Problemen
- Die Schulungsunterlagen bekommen Sie via DHL zugeschickt
- Sie sparen Reisekosten und Zeit
- 27. Jul. - 29. Jul. ✓ Noch einige Plätze frei ▶ Köln + Online/Remote
- 05. Okt. - 07. Okt. ✓ Noch einige Plätze frei ▶ Köln + Online/Remote
- 07. Dez. - 09. Dez. ✓ Noch einige Plätze frei ▶ Köln + Online/Remote
- 19. Apr. - 21. Apr. ✓ Noch einige Plätze frei ▶ Köln + Online/Remote
- 21. Jun. - 23. Jun. ✓ Noch einige Plätze frei ▶ Köln + Online/Remote
- Auch als Inhouse-Schulung, bundesweit mit Termin nach Wunsch und individuellen Inhalten
- Buchen ohne Risiko! Kostenfreie Stornierung bis zum Vortag des Seminars
Die Seminare der GFU finden in angenehmer Atmosphäre statt und sind perfekt organisiert. Profitieren Sie von dem Rundum-Service der GFU!
Machen Sie sich keinen Kopf um die Anreise! Unser Shuttle fährt Sie. Oder Sie parken einfach auf einem extra für Sie reservierten Parkplatz.
Hotelzimmer gesucht? Wir organisieren Ihnen eins. Ihr Vorteil: Sie sparen Zeit und Geld!
Stornierung bei offenen Seminaren kostenfrei bis einen Tag vor Schulungsbeginn.
Unsere Techniker sind immer zur Stelle, egal ob online oder vor Ort.
GFU Schulungszentrum