Inhalt

Apache Kafka wird für den Aufbau von Real-Time Data Pipelines und Streaming Applications verwendet. Es ist horizontal skalierbar, fehlertolerant, unglaublich schnell und läuft in der Produktion in Tausenden von Unternehmen.
In diesem 2-tägigen Kurs werden die Grundprinzipien von Apache Kafka, die Verwendung von der Kommandozeile, Grundlagen der Administration und ein Einblick in die weiteren Tools des Ökosystems vermittelt. Dabei werden auch die Unterschiede zwischen Apache Kafka und der Confluent Platform herausgestellt. Wir gehen im Verlauf des Kurses auf die ganze Palette an Tools aus dem Kafka-Umfeld ein: Kafka Connect, Schema Registry, Rest Proxy, Kafka Streams und KSQL.

Ziele

Die Kursteilnehmer haben am Ende des Kurses ein gutes Verständnis der Funktionsweise von Kafka und können fundiert beurteilen, für welche Use Cases es sinnvoll ist und worauf besonderes Augenmerk zu richten ist.

  • Was ist Kafka und wie funktioniert es eigentlich?
  • Der Umgang mit Kommandozeilentools
  • Best Practices für die tägliche Arbeit
  • Administration von Kafka: Wie geht das und was ist notwendig?
  • Data Ingest mit Kafka Connect
  • Stream Processing mit Kafka Streams
  • Confluent Tools
  • Umfangreiche, praxisnahe Hands-on-Übungen zu allen Themen, um das theoretische Wissen zu festigen

Voraussetzungen & Teilnehmer

Der Kurs richtet sich an Software-Entwickler und Administratoren (Operations).
Grundkenntnisse in Kafka sind nicht erforderlich. Voraussetzungen sind:

  • grundlegende Kenntnisse in der Linux Shell
  • idealerweise Java-Kenntnisse

Ein eigener Laptop mit OpenVPN-Client ist für die Praxisübungen erforderlich.

Referent

Sönke Liebau beschäftigt sich seit vielen Jahren mit dem Thema Elasticsearch, ELKStack und Apache Kafka und ist darüber hinaus Kafka Contributor. 2013 konzeptionierte und implementierte er eine Monitoring-Lösung für mehr als 4.000 Geldautomaten und Service-Terminals auf Basis von Elasticsearch und dem umgebenden Ökosystem. Seitdem unterstützt er seine Kunden dabei, Lösungen umzusetzen, mit denen existierende und neue Daten aggregiert, auswertbar und durchsuchbar gemacht werden, um das vorhandene Erkenntnispotenzial voll auszuschöpfen. 2016 hat Sönke Liebau die Firma OpenCore mitbegründet, die sich auf Hadoop, Big Data und Open Source konzentriert.

Nächster Termin

Auf Anfrage

Schulungsorte

München

Frankfurt

Dauer

2 Tage

Kosten

995 €

(netto)