Buchen Sie Ihr Wunschseminar als Präsenz-Schulung bei uns im Schulungszentrum in Köln, als Inhouse-Schulung bei Ihnen oder als Online-Training - ganz wie es für Sie am besten passt!
Mehr InfosApache Schulungen & Inhouse-Seminare
Apache als Online-Schulung oder in Präsenz
- 25 Seminare
- 531 durchgeführte Termine
- 1.887 zufriedene Teilnehmende
Sie lernen von...
- Experten/Expertinnen aus der Projektpraxis
- CEOs und Unternehmensinhaber:innen
- Fachbuch- und Fachartikel-Autor:innen
- Speaker:innen auf Fachkonferenzen
- Hosts von Events und Meetups
- Keine Vorkasse
- Kostenfreies Storno bis zum Vortag des Seminars
- Rechnung nach erfolgreichem Seminar
- All-Inclusive-Preis
- * Garantierter Termin und Veranstaltungsort
- Preise pro Person zzgl. Mehrwertsteuer
Bei besonderen Ereignissen höherer Gewalt, wie etwa die aktuelle COVID-19 Krise, können wir unsere Durchführungsgarantie nicht uneingeschränkt anbieten.
- Keine Vorkasse
- Kostenfreies Storno bis zum Vortag des Seminars
- Rechnung nach erfolgreichem Seminar
- All-Inclusive-Preis
- Keine Vorkasse
- Kostenfreies Storno bis zu 3 Wochen vor dem Seminar
- Rechnung nach erfolgreichem Seminar
Infos zu Ihrer Apache Weiterbildung
Welche Apache Weiterbildung ist die Richtige?
Für Einsteiger, Anwender und Fortgeschrittene gelten unterschiedliche Anforderungen, die Sie durch individuelle Apache Schulungen abdecken können. Anwender, die sich noch nicht näher mit Apache befasst haben, lernen in einer Apache Grundlagenschulung die wichtigsten Basics. Erfahrene Nutzer vertiefen ihr Wissen mit einem fachspezifischen Kurs zu Apache. Fortgeschrittene Nutzer können sich mit einem Apache Aufbau Seminar zum Experten weiterentwickeln.
Wann finden Apache Seminare statt?
Bei offenen Schulungen wählen Sie aus einer Vielzahl bestehender Termine Ihren Wunschtermin aus. Apache Inhouse Schulungen finden zu einen mit Ihnen vereinbarten Wunschtermin statt. Auch bei Apache Firmenschulungen berücksichtigen wir Ihren Terminwunsch.
Wo finden Apache Kurse statt?
Egal ob sich Ihr Unternehmen in München, Hamburg, Berlin oder Köln befindet. Bei Buchung einer Apache Inhouse Schulung kommen unsere Dozenten zu Ihnen ins Unternehmen.
Offene Apache Schulungen finden in unserem zentralen Schulungszentrum in Köln Deutz oder als Online-Schulung statt.
Warum ist eine Apache Inhouse Schulung sinnvoll?
Sie sind flexibel, denn den Schulungstermin bestimmen Sie.
Sie sparen Reisekosten, wiel die Schulung bei Ihnen vor Ort oder an einen von Ihnen bevorzugten Wunschort durchgeführt wird.
Ihr Schulungsbudget können Sie selbst planen, denn die Anzahl der Teilnehmer und die Schulungsdauer legen Sie fest.
Sie bringen Ihre Mitarbeiter auf den aktuellen Stand. Eine Inhouse Schulung lohnt sich bereits ab drei Schulungsteilnehmern und rechnet sich mit jedem weiteren Schulungsteilnmehmer.
Warum eine offene Apache Schulung buchen?
Sie haben Planungssicherheit durch Garantietermine und festen Veranstaltungsort.
Sie sparen Zeit. Durch eine kurzfristige Buchung verfügbarer Termine, kann fehlendes Wissen innerhalb kurzer Zeit aufgeholt werden.
Sie sind flexibel, denn die Stornierung der gebuchten Schulung ist bis zum Vortag des Seminars kostenfrei.
Ihr Schulungsbudget wird geschont, denn der dritte Mitarbeiter nimmt kostenlos teil, wenn Sie für drei Mitarbeiter buchen.
Kein Stress: Die Rechnung erhalten Sie erst nach dem durchgeführten Seminar.
Jede Apache Schulung kann auch als Inhouse-Training in Köln, München, Berlin, Hamburg, Stuttgart oder europaweit stattfinden
Offene Apache Schulung
findet zu einem festgelegten Zeitpunkt im voll ausgestatteten Schulungszentrum oder Online/Remote statt. Sie treffen auf Teilnehmer anderer Unternehmen und profitieren vom direkten Wissensaustausch.
Apache Firmen-/Inhouse-Schulung
geht auf die individuellen Bedürfnisse Ihres Unternehmens ein. Sie erhalten eine kostenfreie Beratung von Ihrem Seminarleiter und können Inhalte und Dauer auf Ihren Schulungsbedarf anpassen. Inhouse-Schulungen können europaweit durchgeführt werden.
Apache Individual-Schulung
bietet Ihnen Flexibilität bei Lerninhalten, Lernmethoden und Dauer. Sie erhalten eine 1-zu-1 Betreuung. Sie bestimmen Inhalt, Zeit und Lerntempo. Der Apache-Trainer passt sich Ihren Wünschen und Bedürfnissen an.
Auf Wunsch können noch folgende Schulungen durchgeführt werden:
Hortonworks Data Platform (HDP) ist eine Open-Source-Plattform zur Unterstützung von Apache Hadoop, die eine stabile Grundlage für die Entwicklung großer Datenlösungen auf dem Apache Hadoop-Ökosystem bietet.
Einführung in die Hortonworks-Datenplattform (HDP)
- Überblick über Big Data und Apache Hadoop
- Installieren und Konfigurieren von HDP
- Einrichtung, Bereitstellung und Verwaltung von Hadoop-Clustern
- Verstehen und Konfigurieren vonYARN und MapReduce
- Überblick über Job Scheduling
- Gewährleistung der Datenintegrität
- Verstehen der Bewegung von Unternehmensdaten
- Verwendung von HDFS-Befehlen und -Diensten
- Übertragung von Daten über Flume
- Arbeiten mit Hive
- Planen von Arbeitsabläufen mit Oozie
- Erforschung von Hadoop 2.x
- Hbase-Architektur verstehen
- Überwachung von HDP2-Diensten mit Ambari
- Neue Funktionen im HDP
Hadoop setzt sich aus "Modulen" zusammen, von denen jedes eine bestimmte Aufgabe erfüllt, die für ein Computersystem, das für die Analyse großer Datenmengen ausgelegt ist, unerlässlich ist.
1. Verteiltes Dateisystem
Die beiden wichtigsten sind das Distributed File System, das die Speicherung von Daten in einem leicht zugänglichen Format über eine große Anzahl von verknüpften Speichergeräten ermöglicht, und MapReduce, das die grundlegenden Werkzeuge zum Herumstochern in den Daten bereitstellt.
(Ein "Dateisystem" ist die Methode, die von einem Computer verwendet wird, um Daten zu speichern, damit sie gefunden und verwendet werden können. Normalerweise wird dies durch das Betriebssystem des Computers bestimmt, jedoch verwendet ein Hadoop-System sein eigenes Dateisystem, das "über" dem Dateisystem des Host-Computers liegt - d.h. es kann von jedem Computer mit jedem unterstützten Betriebssystem darauf zugegriffen werden).
2. MapReduce
MapReduce ist nach den beiden Grundoperationen benannt, die dieses Modul ausführt - Daten aus der Datenbank lesen, sie in ein für die Analyse geeignetes Format bringen (Karte) und mathematische Operationen durchführen
3. Hadoop Allgemein
Das andere Modul ist Hadoop Common, das die Werkzeuge (in Java) zur Verfügung stellt, die für die Computersysteme des Benutzers (Windows, Unix oder was auch immer) benötigt werden, um die unter dem Hadoop-Dateisystem gespeicherten Daten zu lesen.
4. YARN
Das letzte Modul ist YARN, das die Ressourcen der Systeme verwaltet, die die Daten speichern und die Analyse durchführen.
Verschiedene andere Prozeduren, Bibliotheken oder Funktionen wurden in den letzten Jahren als Teil des Hadoop-"Frameworks" betrachtet, aber Hadoop Distributed File System, Hadoop MapReduce, Hadoop Common und Hadoop YARN sind die vier wichtigsten.


