Blog

Handfestes Know-how, Tipps & Tricks und die Insights unserer Datenprofis findest Du hier in unseren Blogbeiträgen

Nahaufnahme von Händen auf einer Laptop-Tastatur
Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
Performante Lookups in BW-Transformationen – Die relevanten Datensätze finden
Performante Lookups in BW-Transformationen – Die relevanten Datensätze finden

Performante Lookups in BW-Transformationen – Die relevanten Datensätze finden

Nachdem wir uns mit relevanten Selektionstechniken und mit den unterschiedlichen Arten von internen Tabellen auseinandergesetzt haben, sind die wichtigsten Performanceoptimierungen für die Lookups in unseren BW-Transformationen zunächst einmal sichergestellt.

Hiermit ist das Thema jedoch nicht komplett abgedeckt. Denn bis jetzt sind wir davon ausgegangen, dass nur die relevanten Informationen in unseren Lookup-Tabellen durchsucht werden. Wie können wir dies aber sicherstellen?

Mehr lesen
Wie bekomme ich auch HANA langsam?
Wie bekomme ich auch HANA langsam?

Wie bekomme ich auch HANA langsam?

Die gute Performance einer HANA-Datenbank kommt von der konsequenten Orientierung auf eine hauptspeicherbasierte Datenhaltung sowie durch die Nutzung moderner Kompressions- und ColumnStore-Algorithmen. Somit muss die Datenbank bei Aggregationen über große Datenmengen vergleichsweise wenige Daten lesen und kann dies im Hauptspeicher auch noch außerordentlich schnell erledigen. Jedoch kann bei einem suboptimalen Design des Datenmodells einer dieser Vorteile sehr schnell hinfällig werden. So gehen sowohl der HANA-Datenbank als auch den Anwendern große Vorteile hinsichtlich der Laufzeit und Agilität während der Nutzung verloren.

Mehr lesen
Performante Lookups in BW-Transformationen - Die richtige Tabellenart wählen
Performante Lookups in BW-Transformationen - Die richtige Tabellenart wählen

Performante Lookups in BW-Transformationen - Die richtige Tabellenart wählen

Dies ist vielleicht die grundlegendste aller ABAP-Fragen, und zwar nicht nur, wenn man sich mit performanten Lookups auseinandersetzt. Sobald man etwas in ABAP macht, wird man auf diese Frage stoßen.

Mehr lesen
Performante Lookups in BW Transformationen - Die Nutzung interner Tabellen vs. SELECTS aus der HANA-Datenbank
Performante Lookups in BW Transformationen - Die Nutzung interner Tabellen vs. SELECTS aus der HANA-Datenbank

Performante Lookups in BW Transformationen - Die Nutzung interner Tabellen vs. SELECTS aus der HANA-Datenbank

In dieser Serie wollen wir uns mit Implementierungstechniken für Lookups auseinandersetzen, bei denen jeder Datensatz der zu durchsuchenden Tabelle überprüft werden sollte. Je größer unsere Datenpakete und unsere Lookup-Tabellen, desto wichtiger ist eine performante Implementierung.

Mehr lesen
SAP HANA – kein Speicher mehr? Bewusster Early Unload!
SAP HANA – kein Speicher mehr? Bewusster Early Unload!

SAP HANA – kein Speicher mehr? Bewusster Early Unload!

Optimierte Hauptspeichernutzung bei SAP BW on HANA

Die Ausnutzung des Hauptspeichers ist bei SAP-HANA- und Data-Warehouse-Szenarien immer ein spannendes Thema im Vergleich zu ERP-Anwendungen bzw. Anwendungen mit einem sich gering verändernden Datenvolumen. Somit muss man eines im Hinterkopf behalten: Lasse niemals den freien Hauptspeicher ausgehen.

Mehr lesen
Performante Lookups in BW-Transformationen aus der Praxis - Einführung
Performante Lookups in BW-Transformationen aus der Praxis - Einführung

Performante Lookups in BW-Transformationen aus der Praxis - Einführung

Performanceoptimierungen können nicht in Stein gemeißelt werden. Denn Optimierungen, die bei einem Unternehmen mit bestimmter Systemarchitektur und bei gewissem Datenvolumen super funktioniert haben, müssen nicht zwingend an einer anderen Stelle genauso gut klappen. Kurzum: Es müssen individuelle Lösungen erarbeitet werden. Prinzipiell geht es aber immer darum, die Balance zwischen Arbeitsspeicherauslastung und Datenbankauslastung sowie zwischen Implementierungskomplexität und Wartbarkeit zu finden. Dabei steht die Verarbeitungszeit stets im Zentrum.

Mehr lesen
Enterprise Data Warehouse und agiler SQL Data Mart: SAP BW on HANA kann beides – das „Mixed Scenario“
Enterprise Data Warehouse und agiler SQL Data Mart: SAP BW on HANA kann beides – das „Mixed Scenario“

Enterprise Data Warehouse und agiler SQL Data Mart: SAP BW on HANA kann beides – das „Mixed Scenario“

Bei dem Einsatz eines SAP Business Warehouses hat es in der Vergangenheit häufig verschiedene Ansätze in Unternehmen gegeben, die zu dem Aufbau einer parallelen Infrastruktur führen konnten. Die Betreuung dieser Infrastruktur liegt dabei stärker im Fachbereich als in der IT. Verbreitet sind Lösungen wie QlikView, SQL Server, Oracle oder TM1. Diese erfüllen ihre Aufgaben in der jeweiligen Situation sehr gut, ansonsten würde es sicher nicht den Drang geben, sie einzusetzen.

Mehr lesen
SAP BW on HANA – macht ein Cache noch Sinn bei ABAP Routinen?
SAP BW on HANA – macht ein Cache noch Sinn bei ABAP Routinen?

SAP BW on HANA – macht ein Cache noch Sinn bei ABAP Routinen?

Mit der Einführung von SAP BW on HANA im Jahre 2010 wurden viele bisherigen Maßnahmen zur Performancesteigerung in BW-Systemen obsolet; gleichzeitig drängen sich aber viele neuen Fragen bezüglich der neuartigen Plattform auf. Von großer Relevanz ist dabei auch die Frage, ob es immer noch sinnvoll ist, die sogenannten "Advanced Business Application Programming-Routinen" zu cachen. Denn mit HANA werden die Daten einerseits in der unter einem Applikationsserver liegenden Datenbank im Hauptspeicher abgelegt und andererseits für Abfragen optimiert. Hinzu kommt, dass die Abfragen in Routinen systembedingt auf dem Applikationsserver ausgeführt werden. Die Frage nach der Sinnhaftigkeit der Nutzung eines Caches für ABAP-Routine-Abfragen soll deshalb im nachfolgenden Blogbeitrag eingehend erläutert werden:

Bei häufig wiederkehrenden Daten lässt sich dies grundsätzlich bejahen. Denn wenn beispielsweise das Attribut "Kontinent" von dem Info-Objekt "Land" hinzugelesen werden soll, ist der zeitliche Overhead eines Zugriffs durch den SQL Parser, das Netzwerk, etc. auf HANA wiederkehrend für jede Zeile zu hoch. Zwischen dem ABAP-Programm und den eigentlichen Daten liegen etliche technische Layer, welche damit wiederholend ausgeführt werden. Ist es jedoch notwendig, mehrere Joins zwischen Tabellen durchzuführen oder ist die Anzahl der zu lesenden Zeilen sehr groß, kippt der Vorteil wieder in Richtung der HANA-Datenbank.

Nach meinen Erfahrungen bei Kunden mit großen Datenmengen beschleunigt ein Cache im ABAP die DTP-Ausführung in einem SAP BW on HANA System teils um den Faktor 3. Dies ist natürlich immer abhängig von der Situation (z.B. Datenverteilung, Homogenität der Daten etc.), sowie von der aufgebauten Infrastruktur. Alles noch ohne Einsatz des Shared Memory. Dieser führt für alle Datenpakete zusammen, also pro Beladung, nur eine Abfrage auf die Datenbank aus. Im Handling ist dieser aber unnötig kompliziert.

Mehr lesen
Die Highlights des Spark Summits 2016 in Brüssel
Die Highlights des Spark Summits 2016 in Brüssel

Die Highlights des Spark Summits 2016 in Brüssel

Diesen Blog-Eintrag verfasse ich mal nicht in einer ruhigen Minute in unseren b.telligent-Büros, sondern live aus Brüssel vom Spark Summit. Für Data Scientists bietet es einen enormen Umfang an Machine-Learning-Verfahren, sowohl klassisch für statische Datensätze als auch für Streamingdaten in Echtzeit. Jeder mit Praxiserfahrung in der Python-Bibliothek sklearn wird sich sofort zuhause fühlen, da diese als Vorbild verwendet wurde.

Mehr lesen
Analyse oder App - was stellt ein Data-Science-Team eigentlich her?
Analyse oder App - was stellt ein Data-Science-Team eigentlich her?

Analyse oder App - was stellt ein Data-Science-Team eigentlich her?

Eine besonders fruchtbare aktuelle Diskussion dreht sich um die Frage, was ein Data-Science-Team eigentlich sinnvollerweise herstellt. Die beiden Möglichkeiten sind dabei schnell benannt: Auf der einen Seite steht die "Analyse", also ein einmalig erstelltes, eher statisches Endergebnis; die meisten denken hier sofort an eine PowerPoint-Präsentation. Auf der anderen Seite steht die "App", also ein interaktives, ständig mit frischen Daten versorgtes Endprodukt, häufig in Form einer Website oder einer Mobile App.

Mehr lesen
Wie der stationäre Handel mit PoS-Trackingdaten gegenüber Onlineshops aufholt
Wie der stationäre Handel mit PoS-Trackingdaten gegenüber Onlineshops aufholt

Wie der stationäre Handel mit PoS-Trackingdaten gegenüber Onlineshops aufholt

Aufgrund zunehmender Herausforderungen der Digitalisierung läuft E-Commerce dem stationären Handel mehr und mehr den Rang ab. Laut dem Kölner IfH-Institut verstärkt sich dieser Trend in den nächsten Jahren zunehmend. Bei Rückgang des Umsatzes im stationären Handel soll parallel der Umsatz des Onlinehandels bis 2020 auf ca. 77 Milliarden Euro ansteigen.

Mehr lesen
Der lokale Verbindungspfeil von Longview BI (ehemals arcplan)
Der lokale Verbindungspfeil von Longview BI (ehemals arcplan)

Der lokale Verbindungspfeil von Longview BI (ehemals arcplan)

Der lokale Verbindungspfeil ermöglicht eine Einschränkung von Strukturen, ohne dabei auch die Daten einzuschränken. Diese Funktion gibt es schon viele Jahre, gerät aber schnell in Vergessenheit und ist bei vielen Anwendungsarchitekten und -entwicklern vollkommen unbekannt. Daher ist dies ein Blog, um diese Funktion einmal wieder aufzufrischen bzw. bekannt zu machen.

Notiz: arcplan Information Services GmbH ist nach der Fusion mit Longview umbenannt worden und heißt nun Longview Europe GmbH.

Mehr lesen