In-Memory-Datenmanagement ist ein wichtiger Baustein für Big Data-Anwendungen. Welche Potentiale bietet diese Technologie?
Sekundenschnelle Auswertungen großer Volumen von Unternehmensdaten, flexible Analysen mit frei wählbaren Ausgangsparametern und unmittelbar verfügbaren Ergebnissen, ständiger Zugriff auf Detailinformationen vergangener und aktueller Geschäftsvorfälle – dies sind einige der charakteristischen Leistungsmerkmale von In-Memory Datenmanagement.
Die zugrunde liegenden technologischen Innovationen ermöglichen neue Geschäftsprozesse, wie zum Beispiel eine Echtzeitsteuerung von Stromkapazitäten und Preisen durch die Auswertung aktueller Verbrauchsdaten von Haushalten. Andererseits können auch bestehende Geschäftsszenarien besser unterstützt werden. Beispiele hierfür sind die unmittelbare Auswertung von Point-of-Sales-Daten zur Vermeidung von Out-of-Stock-Situationen im Einzelhandel oder realitätsnahe Ergebnisse in der Produktionsplanung durch direkt durchführbare, kurze Planungsläufe.
Wo kann In-Memory-Datenmanagement sinnvoll eingesetzt werden?
Insbesondere volatile Geschäftsprozesse, die durch starke Änderungen wichtiger Kennzahlen charakterisiert sind, sollten in einer Potentialanalyse genauer untersucht werden. Müssen viele Handlungsoptionen in kurzer Zeit bewertet werden und Ergebnisse von Analysen sofort verfügbar sein, so kann ein Einsatz von In-Memory-Datenmanagement sehr vorteilhaft sein. Auch sprechen große zu analysierende Datenvolumen sowie komplexe Berechnungen oft für einen Einsatz der neuen Technologie.
Was bedeutet In-Memory-Technologie für Data Warehousing – werden ETL-Prozesse überflüssig?
Vorerst sicher nicht – auch wenn die Vision logischer Data Warehouse-Architekturen mit verteilten Repositories und einer vollständig virtualisierten Datenharmonisierung und -konsolidierung schon seinen Charme hat. Unternehmensweit vereinheitlichte Daten zu vorab festgelegten Zeiten konsistent – über Prozesse und Organisationen hinweg – zur Verfügung stellen zu können, wird noch längere Zeit klassische Data Warehouse-Konzepte zur Extraktion, Bereinigung, Harmonisierung und Integration heterogener Datenbestände erfordern. Andererseits, ein klassisches Enterprise Data Warehouse kann durch In-Memory-Technologie maßgeblich optimiert werden, z.B. durch eine starke Reduktion persistenter Datenstrukturen. Zudem kann ein, auf einer In-Memory-Datenbank laufendes Data Warehouse (wie SAP NetWeaver BW mit SAP HANA) durch virtuelle Strukturen unternehmensweit konsolidierte Informationen mit operativen Echtzeitdaten aus transaktionalen Systemen kombinieren. Die Bandbreite neuer Anwendungsfälle und Analysemöglichkeiten kann hierdurch maßgeblich erweitert werden.
Was können die Teilnehmer des Praxisforums Big Data & Data Science im November in Köln von Ihren Beiträgen erwarten?
In einem gemeinsamen Vortrag mit Herrn Baas von der adidas group werden wir Potentiale von In-Memory-Datenmanagement im Bereich Business Intelligence vorstellen und anhand eines aktuellen Transformationsprojekts von adidas, das den Einsatz von SAP HANA für Enterprise BI Systeme zum Ziel hat, verdeutlichen.
Zudem werden wir in einem interaktiven Workshop diskutieren, wie sinnvolle Anwendungsbereiche von In-Memory-Datenmanagement identifiziert werden können. Als weiteren interessanten Aspekt besprechen wir, welche Vorgehensweisen bei der Einführung innovativer Technologien, wie In-Memory, für Unternehmen zielführend und pragmatisch umzusetzen sind.
Prof. Dr. Gunther Piller, Professor für Wirtschaftsinformatik | Mitglied des Hochschulrats Fachhochschule Mainz
Durch das Interview führte Tobias Knoben, Senior-Konferenz-Manager IT, Telekommunikation und Medien, EUROFORUM | XING Profil