Blog

Handfestes Know-how, Tipps & Tricks und die Insights unserer Datenprofis findest Du hier in unseren Blogbeiträgen

Nahaufnahme von Händen auf einer Laptop-Tastatur
Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
Large Language Models – ein Überblick über die Modelllandschaft
Large Language Models – ein Überblick über die Modelllandschaft

Large Language Models – ein Überblick über die Modelllandschaft

Seit der Veröffentlichung von ChatGPT und der Aufmerksamkeit, die auf Large Language Models gelenkt wurde, erleben wir einen rasanten Anstieg an Veröffentlichungen weiterer Modelle und einen sich schnell entwickelnden Markt mit der Nutzung von LLMs. Die Eignung eines Modells für die Nutzung im Unternehmenskontext ist stark abhängig vom jeweiligen Use Case. In diesem Blogbeitrag wollen wir die derzeit wichtigsten Modelle genauer ansehen und anhand unternehmensrelevanter Kriterien vergleichen, sodass Du einen besseren Überblick behalten kannst.

Mehr lesen
Open Source als Alternative zum Google IoT Core
Open Source als Alternative zum Google IoT Core

Open Source als Alternative zum Google IoT Core

Viele Nutzer:innen des Google IoT Core sind aktuell auf der Suche nach einer Nachfolgelösung für den im August 2023 auslaufenden Google-Service. In diesem Blogbeitrag zeigen wir Dir, wie sich mit Hilfe der Stackable-Datenplattform eine hochskalierbare Open-Source-Alternative zum Google IoT Core realisieren lässt.

Mehr lesen
Planung und Datenstrategie – wie passt das zusammen?
Planung und Datenstrategie – wie passt das zusammen?

Planung und Datenstrategie – wie passt das zusammen?

Oft bleibt das Thema Planung bei der Definition einer Datenstrategie außen vor. Die Planung wird als „zu speziell“ empfunden, da sie stark fachbereichsgetrieben ist, bestehende Konzepte nur bedingt auf die Planung angewandt werden können und verwendete BI-Werkzeuge oft für die Planung ungeeignet sind. Dadurch bleibt das Potenzial ungenutzt. Dieser Blog zeigt, wie Du das, auch im Nachgang, beheben kannst.

Mehr lesen
So gelingt der Aufbau eines DSGVO-konformen Data Lake – Teil 3
So gelingt der Aufbau eines DSGVO-konformen Data Lake – Teil 3

So gelingt der Aufbau eines DSGVO-konformen Data Lake – Teil 3

In Teil 1 & Teil 2 dieser Blogreihe haben wir gezeigt, wie man einen AWS Data Lake aufbaut und Daten in ein Data Lakehouse importiert. Im dritten und letzten Teil erklären wir, wie man in einem Lakehouse das „Recht auf Vergessenwerden“gemäß DSGVO implementiert und durchsetzt. Wir werden sowohl den Data Lake als auch das Date Warehouse, deren Aufbau wir in den vorherigen Blogbeiträgen beschrieben haben, mit der Ausübung dieses Rechts konform machen. Doch zunächst einmal gilt es zu klären, was man überhaupt unter dem Recht auf Vergessenwerden versteht.

Mehr lesen
So gelingt der Aufbau eines DSGVO-konformen Data Lake – Teil 2
So gelingt der Aufbau eines DSGVO-konformen Data Lake – Teil 2

So gelingt der Aufbau eines DSGVO-konformen Data Lake – Teil 2

Auf Grundlage unseres vorherigen Blogbeitrags sollten sich unsere transformierten Daten nun im Data Lake befinden und im Glue-Datenkalalog zur Verfügung stehen. Im zweiten Artikel unserer Blogreihe klären wir nun, was AWS Lake Formation ist und wie Du es nutzen kannst, um unbefugten Datenzugriff zu verhindern.

Mehr lesen
So gelingt der Aufbau eines DSGVO-konformen Data Lake – Teil 1
So gelingt der Aufbau eines DSGVO-konformen Data Lake – Teil 1

So gelingt der Aufbau eines DSGVO-konformen Data Lake – Teil 1

Data Lakes sind beliebte Komponenten von Cloud Data Plattform Architekturen. Wenn Du Dich für die Implementierung von Data Lakes und entsprechenden Services auf AWS interessierst, solltest Du folgende Blogbeiträge lesen. Bei einem Data Lakehouse handelt es sich um eine Architektur, die Datentransparenz im Data Lake ermöglicht und die Daten für die weitere Auswertung in einem Data Warehouse verfügbar macht. Erfahre hier mehr.

Mehr lesen
Data Mesh : b.telligents Überlegungen und Serviceportfolio
Data Mesh : b.telligents Überlegungen und Serviceportfolio

Data Mesh : b.telligents Überlegungen und Serviceportfolio

Data Mesh ist das aktuelle technische, organisatorische Konzept, um in großen Data-&-Analytics-Organisationen mehr Business-Nähe und mehr Skalierung zu ermöglichen. Eine konsequente Umsetzung ist revolutionär und erfordert Change-Management.

Mehr lesen
Computer Vision 101: Wie Maschinen lernen zu sehen
Computer Vision 101: Wie Maschinen lernen zu sehen

Computer Vision 101: Wie Maschinen lernen zu sehen

Ob in der Lagerung, der Produktion oder im Kundenservice – in völlig unterschiedlichen Geschäftsprozessen werden Bilder genutzt, die analysiert und bewertet werden müssen. Die manuelle Auswertung dieser Bilder ist dabei allerdings sowohl zeitaufwendig als auch fehleranfällig. Dank Computer Vision, also der maschinellen Analyse und Verarbeitung von Bildern, lassen sich derartige Prozesse automatisieren. Dabei sind Maschinen heute dank eines hohen methodischen Reifegrads in der Lage, selbst komplizierte Analysen durchzuführen.

Mehr lesen
SAC – Daten mit Custom Widgets nutzerzentriert visualisieren
SAC – Daten mit Custom Widgets nutzerzentriert visualisieren

SAC – Daten mit Custom Widgets nutzerzentriert visualisieren

Die SAP Analytics Cloud ermöglicht es, mit der Erstellung von Analytic Applications komplexe Berichtsszenarien für Kunden abzubilden. Mit dem Custom Widgets wird diese Funktion um einen entscheidenden Baustein erweitert, der es ermöglicht, einige Visualisierungen schnell und nutzerzentriert zu bauen. Wir zeigen Dir hier, wie Du diese erstellen und in eine SAC-Applikation einbetten kannst.

Mehr lesen
Mit Python Ibis Analytics-Projekte schneller ausliefern
Mit Python Ibis Analytics-Projekte schneller ausliefern

Mit Python Ibis Analytics-Projekte schneller ausliefern

Wenn eine Datenanalyse-Pipeline nach erfolgreichem Proof of Concept (POC) in Produktion gehen soll, ist dies oft ein langer Weg. Ibis bietet die Möglichkeit, diesen Prozess zu vereinfachen und somit schneller Mehrwert zu erzeugen.

Nach der erfolgreichen lokalen Entwicklung einer Analyse-Datenpipeline in Python muss der Code oftmals umgeschrieben werden, um in Produktion laufen zu können. Aber muss das eigentlich so sein? Die Python-Ibis-Bibliothek, die der Hauptautor der Python-Pandas-Bibliothek Wes McKinney programmiert hat, bietet eine spannende Lösung, um Datenverarbeitung zwischen Produktions- und Entwicklungsumgebungen anzugleichen und es somit dem Analytics-Team zu ermöglichen, schneller in Produktion zu gehen. Wir zeigen Dir in diesem Blogbeitrag, wie das funktioniert.

Mehr lesen
Performance Insights durch die MRM-Monitoring-Komponente
Performance Insights durch die MRM-Monitoring-Komponente

Performance Insights durch die MRM-Monitoring-Komponente

Die Monitoring-Komponente einer MRM-Lösung bietet Analyse-, Auswertungs- und Reportingfunktionen, die Marketern z. B. mit Hilfe von Dashboards oder durch die Konfiguration von Berichten eine transparente Statusdarstellung ihrer Aktivitäten ermöglichen.

Mehr lesen
Marketing-Workflows automatisieren mit MRM-Software
Marketing-Workflows automatisieren mit MRM-Software

Marketing-Workflows automatisieren mit MRM-Software

Mit Hilfe der Workflow-Komponente einer MRM-Lösung erstellen Marketer Aufgaben und können diese sich selbst oder anderen zuweisen und kontrollieren. Dadurch werden auf einen Blick Timings, Verantwortlichkeiten, der Bearbeitungsstatus von Aufgaben und Kampagnen erkennbar, filterbar und steuerbar.

Mehr lesen