
Bitte wählen Sie die Bereiche, die Sie exportieren möchten:

Schulung Data Science mit Python: Aufbaukurs
Fortgeschrittenes Pandas, Feature Engineering, Scikit-learn Pipelines, interaktive Visualisierung und Streamlit
Schulungsformen
Offene Schulung
- 3 Tage
- 5 gesicherte Termine
- Köln / Online
- 2.030,00 p. P. zzgl. MwSt.
- Dritter Mitarbeitende kostenfrei
- Learning & Networking in einem. Garantierte Durchführung ab 1 Teilnehmenden.
Inhouse-/Firmenschulung
- 3 Tage - anpassbar
- Termin nach Wunsch
- In Ihrem Hause oder bei der GFU
- Preis nach Angebot
- Lernumgebung in der Cloud
- Inhalte werden auf Wunsch an die Anforderungen Ihres Teams angepasst.
Individualschulung
- 3 Tage - anpassbar
- Termin nach Wunsch
- In Ihrem Hause oder bei der GFU
- Preis nach Angebot
- Lernumgebung in der Cloud
- 1 Teilnehmender = Fokus aufs Fachliche und maximaler Raum für individuelle Fragen.
Beschreibung
Dann kommt Feature Engineering: Wie extrahiere ich aus einem Timestamp den Wochentag, den Monat und „ist es ein Feiertag"? Wie encodiere ich kategorische Variablen mit 200 Ausprägungen, ohne 200 Spalten zu erzeugen? Wie erstelle ich Lag-Features für Zeitreihen? Wie normalisiere ich numerische Features so, dass der Scaler auf neuen Daten wiederverwendbar ist (und nicht nur auf dem Trainingsdatensatz)?
Und schließlich: Wie mache ich aus einer Jupyter-Analyse, die nur ich verstehe, ein Ergebnis, das andere nutzen können? Interaktive Diagramme statt statischer PNGs, Streamlit-Apps statt Notebooks, automatisierte Reports statt manueller Screenshots.
Dieses dreitägige Aufbauseminar schließt die Lücke zwischen „ich kann Pandas" und „ich kann mit Python professionelle Datenanalysen durchführen, die andere verstehen und weiterverwenden können".
Verschaffen Sie sich einen Überblick über alle Data Science Seminare.
Schulungsziel
Jede teilnehmende Person verlässt das Seminar mit der Beherrschung von fortgeschrittenem Pandas (MultiIndex, Merge-Debugging, Window Functions, Performance), der Fähigkeit, Daten aus verschiedenen Quellen zu integrieren (SQL, REST-APIs, Excel), der Kompetenz für systematisches Feature Engineering (numerisch, kategorisch, zeitbasiert, Text), dem Verständnis von Scikit-learn Pipelines (ColumnTransformer, GridSearchCV, Serialisierung), interaktiver Visualisierungskompetenz (Seaborn für Statistik, Plotly für Interaktion), einer funktionierenden Streamlit-App als Referenz und einer vollständigen Analyse-Pipeline, die auf eigene Daten übertragbar ist.
Details
Inhalt
1. Pandas fortgeschritten: Komplexe Transformationen
- Ziele und Erwartungen der Teilnehmenden
- Klärung individueller Lernziele und Erwartungen für ein praxisnahes und relevantes Seminar
- Jenseits von groupby: MultiIndex (hierarchische Indizes für mehrdimensionale Analyse), Pivot und Melt (Wide<->Long-Format transformieren), Cross-Tabulation, Stack/Unstack.
- Merge-Strategien: Inner, Outer, Left, Right - und die Fälle, in denen Merges unerwartete Ergebnisse liefern (Duplikate, fehlende Keys, Many-to-Many). Merge-Validierung und Debugging.
- Window Functions in Pandas: Rolling (gleitende Durchschnitte), Expanding (kumulative Berechnungen), Shift/Lag (vorherige/nächste Zeile), Rank und pct_change. Äquivalent zu SQL Window Functions - aber in Python.
- Categorical Data: Memory-Optimierung und Performance-Gewinn durch kategorische Spalten statt Strings. Ordered Categoricals für Sortierung.
- Performance: Vectorization statt Schleifen (apply vermeiden wo möglich), Chunked Reading für große Dateien, Dtypes optimieren (int64 -> int32 wo möglich). Wann Pandas nicht mehr reicht -> Polars, Dask, Vaex als Alternativen (Kurzüberblick).
- Praxis-Übung: Realer Datensatz (E-Commerce-Transaktionen, 500.000 Zeilen): MultiIndex-Analyse (Umsatz nach Region und Produktkategorie), Pivot-Tabelle für Monatsvergleich, Rolling Average über 7 Tage, Merge mit Kundenstammdaten (inklusive Debugging eines fehlerhaften Merge).
- SQL-Datenbanken: SQLAlchemy als universelle Schnittstelle (PostgreSQL, MySQL, SQLite, SQL Server). Queries direkt in DataFrames laden. Parametrisierte Queries (SQL Injection vermeiden). Große Tabellen in Chunks laden.
- REST-APIs: requests-Library für API-Calls, JSON-Responses in DataFrames transformieren, Paginierung (mehrere Seiten abrufen), Authentifizierung (API-Keys, Bearer Tokens). Verschachteltes JSON normalisieren (json_normalize).
- Excel und CSV: Mehrere Tabellenblätter laden, Header-Zeilen erkennen, Datentypen explizit setzen (Postleitzahlen als String, nicht als Zahl), Encoding-Probleme (UTF-8 vs. Latin-1 vs. Windows-1252).
- Datenintegration: Daten aus 3 verschiedenen Quellen (SQL + API + Excel) in ein konsistentes DataFrame zusammenführen. Key-Mapping (verschiedene ID-Formate), Datum-Harmonisierung (verschiedene Formate und Zeitzonen).
- Praxis-Übung: 3-Quellen-Integration: Kundendaten aus SQLite-Datenbank laden, Bestelldaten aus REST-API abrufen (JSON mit Verschachtelung), Produktkatalog aus Excel importieren. Alle 3 Quellen in ein konsistentes Analyse-DataFrame zusammenführen.
- Fehlende Werte: Muster erkennen (MCAR, MAR, MNAR - fehlen die Daten zufällig oder systematisch?), Strategien (Löschen, Imputation mit Median/Modus/KNN, Forward/Backward Fill für Zeitreihen), Imputation mit Scikit-learn (SimpleImputer, KNNImputer, IterativeImputer).
- Duplikate: Exakte Duplikate (trivial) vs. unscharfe Duplikate (gleicher Kunde mit leicht verschiedener Schreibweise). Record Linkage und Fuzzy Matching (fuzzywuzzy/rapidfuzz) für Deduplizierung.
- Ausreißer: Erkennung (IQR-Methode, Z-Score, Isolation Forest), Entscheidung (Ausreißer entfernen, cappen oder behalten - domänenabhängig).
- Datenvalidierung: Pandera (Schema-basierte Validierung: „Spalte Alter muss integer sein, zwischen 0 und 120") und Great Expectations (deklarative Data Quality Tests, integrierbar in Pipelines).
- Praxis-Übung: Bereinigungspipeline für den E-Commerce-Datensatz: fehlende Werte analysieren und imputieren, Duplikate mit Fuzzy Matching finden, Ausreißer bei Bestellwerten identifizieren und cappen, Pandera-Schema für Validierung erstellen.
4. Feature Engineering: Aus Rohdaten Modell-Input machen
- Numerische Features: Scaling (StandardScaler, MinMaxScaler, RobustScaler - wann welcher), Binning (kontinuierliche Werte in Kategorien: Alter -> Altersgruppen), Log-Transformation (schiefe Verteilungen normalisieren), Polynomial Features (Interaktionen und Quadrate).
- Kategorische Features: One-Hot Encoding (wenige Ausprägungen), Label Encoding (ordinale Variablen), Target Encoding (viele Ausprägungen - z.B. Postleitzahl: Durchschnittswert des Targets pro Kategorie), Frequency Encoding. Hashing-Trick für sehr hohe Kardinalität.
- Zeitbasierte Features: Aus einem Timestamp extrahieren: Wochentag, Monat, Quartal, Stunde, ist_Wochenende, ist_Feiertag, Tage_seit_letzter_Bestellung. Lag-Features (Wert vor 1/7/30 Tagen), Rolling Features (Durchschnitt der letzten 7 Tage).
- Text-Features: TF-IDF (Texte als numerische Vektoren), Wortanzahl, Satzlänge, Sentiment-Score. CountVectorizer und TfidfVectorizer aus Scikit-learn.
- Feature Selection: Korrelationsmatrix (redundante Features erkennen), Mutual Information (Feature-Relevanz für das Target), Recursive Feature Elimination (RFE - iterativ unwichtige Features entfernen).
- Praxis-Übung: Feature Engineering für den E-Commerce-Datensatz: Zeitfeatures extrahieren (Bestelltag, Monat, Wochentag), Kundenfeatures berechnen (Anzahl Bestellungen, Durchschnittswert, Tage seit letzter Bestellung), kategorische Features encodieren (Produktkategorie, Zahlungsart), Feature Selection mit Korrelationsmatrix und Mutual Information.
- Warum Pipelines? Ohne Pipeline: Scaler auf Trainingsdaten fitten, auf Testdaten transformieren - und hoffen, dass man den Scaler nicht vergisst oder vertauscht. Training-Serving Skew (Features werden in Training und Produktion unterschiedlich berechnet) als häufigster ML-Bug.
- Pipeline-Grundlagen: Schritte verketten (Imputer -> Scaler -> Encoder -> Modell). Pipeline fittet alle Schritte auf Trainingsdaten und transformiert Testdaten identisch. Ein Objekt für den gesamten Workflow.
- ColumnTransformer: Verschiedene Transformationen für verschiedene Spaltentypen (numerische Spalten -> Scaling, kategorische Spalten -> One-Hot, Text-Spalten -> TF-IDF). Zusammenführung in einem Schritt.
- GridSearchCV und Cross-Validation: Hyperparameter-Suche über die gesamte Pipeline (nicht nur das Modell). Cross-Validation für robuste Evaluation. RandomizedSearchCV für große Suchräume.
- Pipeline serialisieren: joblib.dump/load - Pipeline speichern und in Produktion laden. Die gesamte Verarbeitungskette (Imputer, Scaler, Encoder, Modell) in einer Datei.
- Praxis-Übung: Vollständige Scikit-learn Pipeline für Churn Prediction: ColumnTransformer (numerisch: Imputer+Scaler, kategorisch: Imputer+OneHot, Text: TF-IDF), RandomForest als Modell, GridSearchCV für Hyperparameter, Cross-Validation, Pipeline speichern und auf neuen Daten anwenden.
- Hypothesentests: t-Test (zwei Gruppen vergleichen: ist der Unterschied signifikant?), Chi-Quadrat-Test (Zusammenhang zwischen kategorischen Variablen), ANOVA (mehr als zwei Gruppen vergleichen). p-Wert interpretieren - und warum p < 0.05 nicht alles ist.
- Korrelation und Regression: Pearson (linearer Zusammenhang), Spearman (monotoner Zusammenhang), Lineare Regression als Analyse-Tool (nicht als ML-Modell, sondern zur Interpretation: welche Faktoren beeinflussen den Umsatz?).
- Effektstärke und Konfidenzintervalle: Warum statistische Signifikanz nicht gleich praktische Relevanz ist. Konfidenzintervalle als informativere Alternative zum p-Wert.
- Praxis-Übung: Statistische Analyse des E-Commerce-Datensatzes: Ist der Umsatzunterschied zwischen Neukunden und Bestandskunden signifikant (t-Test)? Hängt die Produktkategorie mit der Retourenquote zusammen (Chi-Quadrat)? Welche Faktoren beeinflussen den Bestellwert (lineare Regression mit Interpretation)?
7. Fortgeschrittene Visualisierung: Seaborn und Plotly
- Seaborn: Statistische Visualisierung (Verteilungen, Beziehungen, Kategorien). Heatmaps (Korrelationsmatrix), Pairplots (alle Feature-Kombinationen), Violinplots (Verteilung pro Gruppe), Facet Grids (eine Visualisierung pro Untergruppe). Styling und Publikationsreife.
- Plotly: Interaktive Diagramme (Hover-Informationen, Zoom, Filter). Line Charts mit Range Slider (Zeitreihen explorieren), Scatter Plots mit Farbkodierung und Größe (4 Dimensionen in einem Diagramm), Choropleth Maps (Geodaten auf Karten), Sunburst und Treemaps (hierarchische Daten).
- Wann welche Library? Matplotlib (Basis, volle Kontrolle, Publikationen), Seaborn (statistische Analyse, schnelle Exploration), Plotly (interaktiv, Dashboards, Präsentationen). Alle drei komplementär, nicht konkurrierend.
- Praxis-Übung: E-Commerce-Datensatz visualisieren: Seaborn-Heatmap (Feature-Korrelation), Pairplot (Bestellwert vs. Kundenalter vs. Kategorie), Plotly-Scatter mit Hover (Kunden nach Umsatz und Bestellhäufigkeit), Plotly-Choropleth (Umsatz nach Region auf Deutschlandkarte).
- Warum Streamlit? Jupyter Notebooks sind für den Data Scientist - nicht für den Stakeholder. Streamlit verwandelt ein Python-Script in eine interaktive Web-App: Slider, Dropdowns, Datei-Upload, Diagramme, Tabellen - ohne HTML, CSS oder JavaScript.
- Streamlit-Grundlagen: Text und Markdown, DataFrames anzeigen, Diagramme einbetten (Matplotlib, Seaborn, Plotly), Input-Widgets (Slider, Selectbox, Date Input, File Uploader), Layout (Columns, Sidebar, Expander, Tabs).
- Interaktive Analyse-App: Benutzer wählt Filter (Zeitraum, Produktkategorie, Region) -> Diagramme und KPIs aktualisieren sich automatisch. Download-Button für gefilterte Daten als CSV.
- Deployment: Streamlit Community Cloud (kostenlos, direkt aus GitHub), Docker-Container, interne Server. Für: Ad-hoc-Analyse-Tools, Dashboards für Fachabteilungen, ML-Model-Demos.
- Praxis-Übung: Streamlit-App für den E-Commerce-Datensatz bauen: Sidebar mit Filtern (Zeitraum, Kategorie, Region), KPI-Karten (Gesamtumsatz, Durchschnittlicher Bestellwert, Retourenquote), 3 interaktive Plotly-Diagramme, Download-Button für gefilterte Daten. App lokal starten und testen.
Jupyter für Profis (20 Min):
- Notebook-Hygiene: Zellen in logischer Reihenfolge (von oben nach unten ausführbar), Markdown für Kontext (nicht nur Code, sondern Erklärungen), Ergebnisse interpretieren (nicht nur zeigen).
- Parametrisierte Notebooks: Papermill (Notebooks mit verschiedenen Parametern automatisiert ausführen - z.B. monatlicher Report: Notebook mit Parameter „Monat=April" -> Ergebnis als HTML/PDF).
- Notebooks vs. Scripts: Notebooks für Exploration und Kommunikation, Scripts für Produktion und Pipelines. Refactoring: Funktionen aus dem Notebook in ein Python-Modul extrahieren, im Notebook importieren.
- Phase 1 - Eigene Analyse-Pipeline bauen (40 Min): Eigenen Datensatz (oder vorgegebenes Szenario) end-to-end analysieren: Daten aus 2 Quellen laden und integrieren, bereinigen (fehlende Werte, Duplikate, Ausreißer), Feature Engineering (Zeitfeatures, Encoding, Aggregationen), Scikit-learn Pipeline (ColumnTransformer + Modell), Visualisierung (Seaborn + Plotly), Streamlit-App (3 Widgets, 2 Diagramme, 1 KPI).
- Phase 2 - Peer-Review (15 Min): Analyse vorstellen. Stresstest: „Ein neuer Monat Daten kommt rein - funktioniert eure Pipeline ohne manuelle Anpassung?" „Ein Stakeholder will die Analyse für eine andere Region - wie schnell könnt ihr das liefern?" „Die API liefert plötzlich ein neues Feld - bricht eure Pipeline?" „Eure Streamlit-App zeigt Umsatz 0 € für März - Bug oder Realität?"
Zielgruppe & Vorkenntnisse
- Data Scientists nach dem Grundkurs: Die Pandas, NumPy und Matplotlib kennen, aber bei komplexen Transformationen, Feature Engineering und Scikit-learn-Pipelines unsicher sind.
- Data Analysts mit Python-Grundkenntnissen: Die über einfache Grupperungen und Diagramme hinauswollen - hin zu statistischen Visualisierungen, interaktiven Dashboards und automatisierten Reports.
- Backend-Entwickler und Data Engineers: Die Python-Datenanalyse für explorative Analysen, Datenqualitätsprüfungen und Ad-hoc-Reports einsetzen.
- Absolventen von „Data Science mit Python - Einführung" (S1961) oder „Python für Data Science" (S2706): Die den nächsten Schritt machen.
Ihre Schulung
In Präsenz | Online |
|---|---|
| Lernmethode | |
Ausgewogene Mischung aus Theorie und praktischen Übungen auf persönlichem Schulungs-PC. | Wie auch bei unseren Präsenz-Seminaren: Ausgewogene Mischung aus Theorie und praktischen Übungen. Trainer durchgehend präsent. |
| Unterlagen | |
Seminarunterlagen oder Fachbuch inklusive. Das Fachbuch wählt der Trainer passend zum Seminar aus - Ihren individuellen Buch-Wunsch berücksichtigen wir auf Nachfrage gerne. | Seminarunterlagen oder Fachbuch inklusive (via DHL). Das Fachbuch wählt der Trainer passend zum Seminar aus - Ihren individuellen Buch-Wunsch berücksichtigen wir auf Nachfrage gerne. |
| Arbeitsmaterialien | |
DIN A4 Block, Notizblock, Kugelschreiber, USB-Stick, Textmarker, Post-its | |
| Teilnahmezertifikat | |
Nach Abschluss des Seminars erhalten Sie das Teilnahmezertifikat inkl. Inhaltsverzeichnis per E-Mail als PDF. | |
Organisation
In Präsenz | Online | |
|---|---|---|
| Teilnehmendenzahl | ||
min. 1, max. 8 Personen | ||
| Garantierte Durchführung | ||
Ab 1 Teilnehmenden* | ||
| Schulungszeiten | ||
| ||
| Ort der Schulung | ||
GFU SchulungszentrumAm Grauen Stein 27 51105 Köln-Deutz oder online im Virtual Classroom oder europaweit bei Ihnen als Inhouse-Schulung Um ein optimales Raumklima zu gewährleisten, haben wir das Schulungszentrum mit 17 hochmodernen Trotec TAC V+ Luftreinigern ausgestattet. Diese innovative Filtertechnologie (H14 zertifiziert nach DIN EN1822) sorgt dafür, dass die Raumluft mehrfach pro Stunde umgewälzt wird und Schadstoffe zu 99.995% im HEPA-Filter abgeschieden und infektiöse Aerosole abgetötet werden. Zusätzlich sind alle Räume mit CO2-Ampeln ausgestattet, um jederzeit eine hervorragende Luftqualität sicherzustellen. | ||
| Räumlichkeiten | ||
Helle und modern ausgestattete Räume mit perfekter Infrastruktur | Bequem aus dem Homeoffice von überall | |
| Preisvorteil | ||
Dritter Mitarbeitende nimmt kostenfrei teil. Eventuell anfallende Prüfungskosten für den dritten Teilnehmenden werden zusätzlich berechnet. Hinweis: Um den Erfolg der Schulung zu gewährleisten, sollte auch der dritte Teilnehmende die erwarteten Vorkenntnisse mitbringen. | ||
| KOMPASS — Förderung für Solo-Selbstständige | ||
Solo-Selbstständige können für dieses Seminar eine Förderung via KOMPASS beantragen. | ||
| All-Inclusive | ||
Gebäck, Snacks und Getränke ganztägig, Mittagessen im eigenen Restaurant, täglich 6 Menüs, auch vegetarisch | Eine Auswahl unserer Frühstücks-Snacks und Nervennahrungs-Highlights senden wir Ihnen mit den Seminarunterlagen via DHL zu. | |
| Barrierefreiheit | ||
Das GFU-Schulungszentrum (Am Grauen Stein 27) ist barrierefrei | - | |
Buchen ohne Risiko
| Rechnungsstellung |
Erst nach dem erfolgreichen Seminar. Keine Vorkasse. |
| Stornierung |
Kostenfrei bis zum Vortag des Seminars |
| Vormerken statt buchen |
Sichern Sie sich unverbindlich Ihren Seminarplatz schon vor der Buchung - auch wenn Sie selbst nicht berechtigt sind zu buchen |
Kostenfreie Services
In Präsenz | Online |
|---|---|
|
|
Buchungsmöglichkeiten
Online oder in Präsenz teilnehmen
Sie können sowohl Online als auch in Präsenz am Seminar teilnehmen. Klicken Sie bei Ihrer Buchung oder Anfrage einfach die entsprechende Option an.
Gesicherte offene Termine
| Termin | Ort | Preis | ||
|---|---|---|---|---|
| 24.08.-26.08.2026 Plätze vorhanden Köln / Online 2.030,00 | Köln / Online | 2.030,00 | Buchen Vormerken | |
| 26.10.-28.10.2026 Plätze vorhanden Köln / Online 2.030,00 | Köln / Online | 2.030,00 | Buchen Vormerken | |
| 2027 | ||||
| 11.01.-13.01.2027 Plätze vorhanden Köln / Online 2.030,00 | Köln / Online | 2.030,00 | Buchen Vormerken | |
| 29.03.-31.03.2027 Plätze vorhanden Köln / Online 2.030,00 | Köln / Online | 2.030,00 | Buchen Vormerken | |
| 31.05.-02.06.2027 Plätze vorhanden Köln / Online 2.030,00 | Köln / Online | 2.030,00 | Buchen Vormerken | |
- Lernumgebung in der Cloud
- Inhalte werden auf Wunsch an die Anforderungen Ihres Teams angepasst.
- Lernumgebung in der Cloud
- 1 Teilnehmender = Fokus aufs Fachliche und maximaler Raum für individuelle Fragen.
Unterstützung nach der Schulung durch
individuelle Nachbetreuung
- Alle folgenden Schulungsformen können auch Online als Virtual Classroom durchgeführt werden.
- Eine Offene Schulung findet zu einem festgelegten Zeitpunkt im voll ausgestatteten Schulungszentrum oder Online/Remote statt. Sie treffen auf Teilnehmende anderer Unternehmen und profitieren vom direkten Wissensaustausch.
- Eine Inhouse-/Firmen-Schulung geht auf die individuellen Bedürfnisse Ihres Unternehmens ein. Sie erhalten eine kostenfreie Beratung von Ihrem Seminarleiter und können Inhalte und Dauer auf Ihren Schulungsbedarf anpassen. Inhouse-Schulungen können Europaweit durchgeführt werden.
- Bei einer Individual-Schulung erhalten Sie eine 1-zu-1 Betreuung und bestimmen Inhalt, Zeit und Lerntempo. Der Dozent passt sich Ihren Wünschen und Bedürfnissen an.
Sie können unsere Schulungen auch als Remote Schulung im Virtual Classroom anfragen.
In drei Schritten zum Online Seminar im Virtual Classroom:
- Seminar auswählen und auf "Buchen" klicken
- Wählen Sie bei "Wie möchten Sie teilnehmen?" einfach "Online" aus.
- Formular ausfüllen und über den Button "Jetzt buchen" absenden.
Unser Kundenservice meldet sich bei Ihnen mit der Buchungsbestätigung.
Unsere Online Schulungen finden im Virtual Classroom statt. Ein Virtual Classroom bündelt mehrere Werkzeuge, wie Audio-Konferenz, Text-Chat, Interaktives Whiteboard, oder Application Sharing.
Vorteile von Virtual Classroom:
- Sie erhalten 1 zu 1 die gleiche Lernumgebung, die Sie auch vor Ort bei uns vorfinden
- Die technische Vorbereitung wird von den GFU-Technikern vorgenommen
- Sie erhalten remote Zugriff auf Ihren persönlichen Schulungs-PC im GFU-Seminarraum
- Die Virtual Classroom Lösung lässt sich auch im Browser betreiben
- Die GFU-Technik leistet wie gewohnt Soforthilfe bei Problemen
- Die Schulungsunterlagen bekommen Sie via DHL zugeschickt
- Sie sparen Reisekosten und Zeit
- 24. Aug. - 26. Aug. ✓ Noch einige Plätze frei ▶ Köln + Online/Remote
- 26. Okt. - 28. Okt. ✓ Noch einige Plätze frei ▶ Köln + Online/Remote
- 11. Jan. - 13. Jan. ✓ Noch einige Plätze frei ▶ Köln + Online/Remote
- 29. Mär. - 31. Mär. ✓ Noch einige Plätze frei ▶ Köln + Online/Remote
- 31. Mai - 02. Jun. ✓ Noch einige Plätze frei ▶ Köln + Online/Remote
- Auch als Inhouse-Schulung, bundesweit mit Termin nach Wunsch und individuellen Inhalten
- Buchen ohne Risiko! Kostenfreie Stornierung bis zum Vortag des Seminars
Die Seminare der GFU finden in angenehmer Atmosphäre statt und sind perfekt organisiert. Profitieren Sie von dem Rundum-Service der GFU!
Machen Sie sich keinen Kopf um die Anreise! Unser Shuttle fährt Sie. Oder Sie parken einfach auf einem extra für Sie reservierten Parkplatz.
Hotelzimmer gesucht? Wir organisieren Ihnen eins. Ihr Vorteil: Sie sparen Zeit und Geld!
Stornierung bei offenen Seminaren kostenfrei bis einen Tag vor Schulungsbeginn.
Unsere Techniker sind immer zur Stelle, egal ob online oder vor Ort.
GFU Schulungszentrum