Cloud Transformation & Data Infrastructure

Nahaufnahme von Händen auf einer Laptop-Tastatur
Blueprint: Cloud Data Platform Architecture – Teil 3: Analytics
Blueprint: Cloud Data Platform Architecture – Teil 3: Analytics

Blueprint: Cloud Data Platform Architecture – Teil 3: Analytics

Herzlichen Glückwunsch, Du hast es geschafft und die bisherigen Ausführungen zu unserem Referenzarchitekturmodell unbeschadet überstanden! Der mühsamste und lästigste Teil liegt damit schon hinter uns. Falls Du gerade erst mit Teil 3 in unsere Blogserie einsteigst, kein Problem! Klicke einfach auf die Links zu Teil 1 und Teil 2. Dort erfährst Du mehr zu Ingestion und Data Lakes sowie der gesamten Referenzarchitektur.

Zu Teil 1 und Teil 2 der Blogserie.

IoT Data Processing - Teil 1: Azure Synapse Analytics
IoT Data Processing - Teil 1: Azure Synapse Analytics

IoT Data Processing - Teil 1: Azure Synapse Analytics

Architekturempfehlung und How-to Data Processing mit Azure Synapse Analytics. In diesem Beitrag geben wir zwei Architekturempfehlungen, zeigen, wie diese umgesetzt werden können und wie die Daten für die Visualisierung bereitgestellt werden.

Die Azure Academy bei b.telligent: Wie ich in vier Monaten zum Azure-Profi wurde
Die Azure Academy bei b.telligent: Wie ich in vier Monaten zum Azure-Profi wurde

Die Azure Academy bei b.telligent: Wie ich in vier Monaten zum Azure-Profi wurde

Ich: neu bei b.telligent, Promotion in reiner Mathematik, Programmier- und IT-Kenntnisse eine bunte Mischung. Das Ziel: innerhalb von 4 Monaten zertifizierter Azure Architect werden. Der Weg: ein Fortbildungsprogramm von Microsoft und viel Unterstützung von b.telligent.

Die Highlights des Spark Summits 2016 in Brüssel
Die Highlights des Spark Summits 2016 in Brüssel

Die Highlights des Spark Summits 2016 in Brüssel

Diesen Blog-Eintrag verfasse ich mal nicht in einer ruhigen Minute in unseren b.telligent-Büros, sondern live aus Brüssel vom Spark Summit. Für Data Scientists bietet es einen enormen Umfang an Machine-Learning-Verfahren, sowohl klassisch für statische Datensätze als auch für Streamingdaten in Echtzeit. Jeder mit Praxiserfahrung in der Python-Bibliothek sklearn wird sich sofort zuhause fühlen, da diese als Vorbild verwendet wurde.