Zum Hauptinhalt springen

Webinar: Streaming und Dynamic Modeling mit Hadoop – viel mehr als nur Big Data

 

Daten, Daten, Daten – Microservices sind Realität, die Datenproduktion wird immer schneller, alle Daten müssen kontinuierlich analysiert werden, am besten in Echtzeit. Das Webinar führt Sie Schritt für Schritt durch alle logischen Komponenten der Architektur und zeigt aktuelle Trends und Lösungen aus dem Hadoop Ecosystem – natürlich sind hier Apache Kafka, Spark, Avro und viele mehr dabei.

Big Data und Streaming sind Ihre Themen für 2018? Dann besuchen Sie unser Online-Webinar am 22. Februar 2018 von 11:00 bis 12:00 Uhr mit unseren Referenten Frank Schmidt und Christian Schroer!
 

Inhalte des Webinars

  • Architecture Overview – Wie erfolgt die Datenverarbeitung vom Anfang bis zum Ende?
  • Ingestion – Wie werden Daten in Echtzeit geladen und wie helfen Serialisierungsformate?
  • Processing – Wie können Stream- und Massendaten einfach und effizient verarbeitet werden?
  • Persistance – Welche Arten der Langzeitarchivierung gibt es und was sind Vor- und Nachteile?
  • Access – Wie können Business-Analysten, Data Scientists und andere mit den Daten arbeiten?
     

Für wen ist das Webinar interessant?

Das Webinar ist für alle von Interesse, die den Aufbau einer modernen Datenplattform-Architektur Schritt für Schritt sehen möchten. Zudem erhalten Sie praktische Tipps zum Aufbau einer zuverlässigen, adaptiven, effizienten Datenpipeline mit Kafka- und Hadoop-Technologien. Lernen Sie, wie Sie in agilen IT-Infrastrukturen, mit eng getakteten Entwicklungszyklen und laufenden Schemaänderungen den Überblick behalten und immer die aktuellsten Daten in Ihrer Datenplattform haben.
 

Referenten des Webinars

Frank Schmidt ist Leiter des Competence Centers Big Data & DevOps bei b.telligent. Der Diplom-Betriebswirt verfügt über mehr als zwölf Jahre Projekterfahrung in Telekommunikation, E-Commerce, Internet und Medien. Durch seine langjährige Projektarbeit hat er sehr gute Kenntnisse in Strategie und Konzeption von Business-Intelligence-, Big-Data- und Streaming-Architekturen.

Christian Schroer ist Principal Consultant des Competence Centers Big Data & DevOps bei b.telligent und hat mehr als sechs Jahre Projekterfahrung mit Big-Data-Technologien und dem Hadoop Ecosystem. Schwerpunkt seiner Tätigkeit in den vergangenen zwei Jahren war der Aufbau moderner Big-Data- und Streaming-Plattformen für innovative Unternehmen in Internet, Industrie und Handel.  

 

Hier geht’s zur Anmeldung!

 

Wir freuen uns über Ihre Teilnahme!

Sie interessieren sich auch für weitere Webinare unserer Reihe „BI Now – Mit Big Data, Analytics & Co. ins digitale Zeitalter“? Dann informieren Sie sich hier über die anstehenden Webinare.

Mehr über b.telligent