Software und Strategien für den erfolgreichen Mittelstand

Vorteile von In-Memory für BI-Anwendungen

Erst die Spitze des Eisbergs ist abzusehen

Diskutierten über die Vorteile der In-Memory-Technologie.

Was bringt In-Memory-Technologie den Unternehmen? Dieser Frage haben sich sieben Experten aus dem Bereich Business Intelligence (BI) im Rahmen der jüngsten Roundtable-Diskussion von Solutions for Business gestellt.  Es diskutierten dabei Stephan Reimann (IBM Deutschland), Robert Schmitz (Qlick), Jürgen Löffelsender (MicroStrategy), Oliver Schröder (Informatica), Frank Harter (SAP), Matthias Weiss (Oracle) und Wolfgang Seybold (Cubeware; von links). Einig waren sich die Teilnehmer in einem Punkt: Heutzutage sind in den Unternehmen bei weitem noch nicht alle Möglichkeiten abzusehen, die sich aufgrund der Beschleunigung durch In-Memory ergeben.

Vorteile

Frank Harter
Plädiert für In-Memory: Frank Harter, Head of Sales Unit Business Analytics bei SAP.

„Erfolgreiche Projekte haben gezeigt, dass bei der Überführung transaktionaler Daten in analytische Systeme mit einer zeitlichen Verzögerung gerechnet werden muss“, skizziert Frank Harter, Head of Sales Unit Business Analytics bei SAP, die Ausgangssituation. „Diese Latenz konnte bisher erst nach einer gewissen Zeit und mit Einbußen bei der Performance ausgeglichen werden. Mittels In-Memory stehen die Daten hingegen sofort zur Verfügung und können umgehend analysiert werden. Damit einher geht eine dramatische Reduzierung der Datenmenge durch eine verbesserte Strukturierung ohne Redundanzen, um Platz zu schaffen für Big Data, damit besteht jetzt zum ersten Mal die Möglichkeit auf der Grundgesamtheit der Unternehmensdaten zu arbeiten."

Für ganz wichtig hält Harter die Aktualität der Daten bei kundenbezogenen Prozessen, z.B. bei Telekommunikationsunternehmen. Diese müssten sehr schnell reagieren, wenn aufgrund der gesammelten Daten über einen Kunden dessen Kündigung seines Vertrages sich abzeichnet. „Hier ist schnelles Handeln angesagt, beispielsweise in Form eines neuen Angebots per E-Mail. Wenn die Kundendaten hier nicht in Echtzeit zur Verfügung stehen und erst über Nacht im Data Warehouse analysiert werden müssen, ist es eventuell bereits zu spät und der Kunde hat sich anderweitig vertraglich verpflichtet.“ So ließe sich durch eine Steigerung der Datenverfügbarkeit auch die Effektivität der Marketingmaßnahmen verbessern. „Durch die Erhöhung der Grundgesamtheit ergibt sich auch eine Erhöhung der statistischen Relevanz und somit eine höhere Qualität der Datenanalyse.“

Bei Qliktech berichtet Robert Schmitz, Director Alliances DACH über die Erfahrungen mit In-Memory: „Wir sehen eine Veränderung in diesem Bereich. Vor etwa zehn Jahren wurde bei Konzepten wie In-Memory auf Geschwindigkeit und vielleicht noch auf assoziative Suchfunktionen Wert gelegt. Bei entsprechenden Machbarkeitsstudien stand das im Vordergrund und stellte Kaufgründe für die Kunden dar. Heutzutage rangiert zusätzlich noch die Qualität der Ergebnisse auf der Agenda ganz oben. Hier stellen die Anwender verschiedene Anforderungen, die von technischen Konzepten realisiert werden sollen – etwa nach dem Motto: Bekommt der Kunde mit einem System die benötigten und erwarteten Antworten und das bei hoher Performance?“

Infrastruktur

Matthias Weiss
Für Matthias Weiss, Director Technology Mittelstand bei Oracle, muss das Thema In-Memory aus unterschiedlichen Blickwinkeln betrachtet werden.

„Das Thema In-Memory muss aus unterschiedlichen Blickwinkeln betrachtet werden“, plädiert Matthias Weiss, Director Technology Mittelstand bei Oracle. „Anstatt das Thema wie bisher aus der Erwartungshaltung des Kunden heraus anzugehen, sollte es auch einmal unter dem Aspekt der bei ihm objektiv vorhandenen Infrastruktur betrachtet werden. Bei den meisten Mittelständlern kommen Betriebssysteme wie Windows oder Linux zum Einsatz. Hier sind Fragen zu klären wie: Können unter diesen Voraussetzungen wirklich Terabyte an Daten verwaltet werden? Wo fängt Big Data an, sind die Mengen an zur Verfügung stehenden Daten aus Sensorsystemen oder neuen Medien schon in diesem Bereich verfügbar? Handelt es sich nur um Datenmengen im einstelligen Terabytebereich oder schon um deutlich mehr? Müssen die bestehenden Systeme erst noch durch zusätzliche Investitionen getuned werden, oder sind sie bereits mit In-Memory-Technologien kompatibel? Kann man mit dieser Technologie ohne großen Aufwand – wie Hardwarebeschaffungen, Investitionen in neue Systeme oder großangelegte Schulungsmaßnahmen – schnell zu den gewünschten Ergebnissen kommen? Unterstützt die Analysesoftware überhaupt In-Memory- Strukturen?“

Das sind nach Ansicht von Weiss die Fragen, die die Anwender interessieren. Denn in vielen Fällen bräuchten Kunden keine Echtzeitanwendungen. „Für uns fängt Echtzeit im Bereich von Millisekunden an, viele Kunden benötigen zwar schnelle Antwortzeiten für ihre Datenverarbeitung. Dies muss nicht in unserer Definition von Echtzeit vonstattengehen, oftmals genügen Antwortzeiten von einigen Sekunden oder auch Minuten. Und je nach Definition des Kunden wird das bereits als Echtzeitdatenbank angesehen. Bisherige Systeme des Kunden leisteten diese Abfragebearbeitung vielleicht nach Stunden oder Tagen. Ob für diese Fälle nun In-Memory-Datenbanken benötigt werden, sei einmal dahingestellt.“

Für Jürgen Löffelsender, Director Midmarket DACH bei MicroStrategy ist der Trend klar: „In-Memory stellt eine der Schlüsseltechnologien für die Zukunft dar. Primär ist natürlich die Geschwindigkeit ausschlaggebend. Ob dies nun im Millisekunden Bereich oder darüber liegt, ist nicht unbedingt von Belang.“ Viele Kunden seien bereits mit Antwortzeiten von Sekunden mehr als zufrieden. Die Möglichkeiten der Analysefunktionen und deren Qualität seien nach seiner Meinung aber ausschlaggebend. „Wir haben beispielsweise zusammen mit Facebook unter Einsatz von In-Memory ein System geschaffen, das Anfragen innerhalb von weniger als drei Sekunden beantwortet und dabei über eine Milliarde Facebook-Benutzerprofile analysiert. Früher waren dazu noch deutlich längere Zeitspannen nötig. Somit können die Vorteile solcher Analysen auch ad hoc gezeigt werden, beispielsweise in Meetings und Geschäftsverhandlungen. Das kann helfen, bessere Abschlüsse und mehr Umsatz zu erwirtschaften, und hier sehen wir den Mehrwert dieser Technologie.“

Geschäftsprozesse

Matthias Weiss
Sieht In-Memory als Treiber für die Entwicklung neuer Geschäftsprozesse: Oliver Schröder, Director of Technology Central Europe Informatica.

 „Wir sehen diese Technologie als Treiber für die Entwicklung neuer Geschäftsprozesse“, skizziert Oliver Schröder, Director of Technology Central Europe Informatica, seine Einschätzung. „Besonders im Bereich des Data Streaming, also überall dort, wo Produkte verändert werden müssen, kommt es zwischen den verfügbaren Daten und deren Auswertung zu synergetischen Effekten für das jeweilige Endergebnis.“ Diese Datenströme werden, so die Überzeugung von Schröder, die Beziehung zum Endkunden verändern: „Beispielsweise investieren die Automobilhersteller bereits in großem Maße in die Verarbeitung der anfallenden Datenströme, sei es ‚on board‘, wie beispielsweise für die Echtzeitverarbeitung der Motordatenströme oder für Informationen aus externen Sensoren. Hier lautet die Aufgabenstellung, diese Daten schnell und effizient zu verarbeiten. Zusätzlich stehen seit einiger Zeit Kundendaten aus den Autos zur Verfügung, die in der Vergangenheit nur von den Werkstätten bereitgestellt wurden. So kann der Zugang zum Kunden und zu Verbrauchergruppen erweitert und verändert werden.“ Daraus könnte man überspitzt ableiten, dass sich mit In-Memory Geschäftsanwendungen realisieren lassen, die momentan noch nicht angedacht wurden – wie Oliver Schröder zum Besten gibt.

„In-Memory eröffnet ganz neue Anwendungsbereiche, auch die Verringerung der Latenzzeiten auf Milli- oder Mikrosekunden spielt hier eine Rolle“, stimmt Stephan Reimann zu, Senior Technical Sales Professional für Big Data bei IBM. Dies führe auch zu neuen Industriepartnerschaften der Systemhersteller. „Die Erwartungshaltung unserer Kunden an In-Memory betrifft nicht primär die Performance, sondern vor allem die Möglichkeit, sich geschickt an den Markt anpassen zu können. Das geht einher mit der Fähigkeit, schnell und gezielt neue Trends zu erkennen, und passende Applikationen bereitzustellen. Daher ist es wichtig, die Entwicklungszeiten zu verkürzen und Projekte zum Beispiel in der Hälfte der Zeit, die man früher benötigt hat, fertigzustellen.“

Allerdings differenzieren die Kunden sehr stark und überlegen sich genau, an welchen Stellen sie diese Technologie einsetzen wollen, so Reimann. Dabei dürfen allerdings die Kosten nicht außer Acht gelassen werden: „Ist es wirklich wirtschaftlich, den zwanzigfachen Preis für eine Verzehnfachung der Performance auszugeben? An bestimmten Stellen im Unternehmen macht dieses Vorgehen sehr wohl Sinn, an anderen Stellen ist es schlicht und ergreifend zu teuer. Das Dreieck aus Kosten, Nutzen und Performance muss entsprechend ausbalanciert werden. Und da kommen meist hybride Lösungen aus In-Memory und persistenten Speichersystemen zum Einsatz.“

Eventuell ergibt sich eine Kostenreduzierung, wenn man die Bereiche Software as a Service (SaaS) oder Leihmodelle mit In-Memory koppelt. Speziell Investitionskosten können so umgangen werden –  SAP bietet mittlerweile In-Memory über seine Hana-Plattform als SaaS an. Das stößt bei Stephan Reimann auf Zustimmung: „Besonders im Bereich der mobilen BI bietet sich SaaS direkt an, da sich die Datenquellen ja bereits im Raum der Onlinesysteme befinden. Somit ist es naturgemäß äußerst sinnvoll, die Verarbeitung der Daten in Form von SaaS anzubieten. Allerdings ist es besonders in Europa aufgrund der Rechtsprechung meist schwierig, die Unternehmensdaten in die Cloud und an SaaS-Dienstleister auszulagern.“ Für Reimann kommt noch ein weiterer wichtiger Aspekt ins Spiel: „Die SaaS-Anbieter können auch nicht unbegrenzt In-Memory einsetzen, da sie selbst auf ihre Kosten achten müssen. Sie müssen folglich In-Memory genau da ansetzen, wo diese Technologie den meisten Gewinn verspricht, anstatt mit der Holzhammermethode einfach sämtliche Daten in die In-Memory-Systeme zu pumpen. Auch hier ist wieder eine hybride Struktur von Vorteil, damit das Kosten-Nutzen-Verhältnis in der Balance bleibt.“

Unterschied zwischen Client- und Server-Side In-Memory

„Die Unterscheidung zwischen Client-Side In-Memory und Server-Side In-Memory ist ein wichtiger Aspekt“, stimmt Wolfgang Seybold, CEO Cubeware, zu: „Den Kunden wird hier oftmals ein falscher Eindruck vermittelt. Anstatt nur einen Teil der Gleichung zu optimieren, könnte In-Memory auch umfassender eingesetzt werden und auch auf der Clientseite Verwendung finden. Hier steckt der Teufel im Detail. Vor allem Analysefunktionen, die mit riesigen Datensätzen hantieren, wie das etwa bei Mobilfunk-Providern der Fall ist, sind auf In-Memory angewiesen. Analysen darüber zu erstellen, welcher Kunde beispielsweise bald den Mobilfunkvertrag kündigen wird, ist ohne In-Memory heutzutage nicht mehr möglich.“

„Mittelständische Unternehmen, wie beispielsweise Carglass, setzten In-Memory auch zur Lagerverwaltung ein, beispielsweise um die bereitgehaltenen Ersatzteile zu identifizieren, die Lieferzeiten zu berechnen oder die anfallenden Datenmengen zu verwalten“, berichtet Robert Schmitz, Director Alliances DACH bei Qliktech. „Hier stellt es für den Kunden einen Mehrwert dar, das In-Memory-Konzept serverseitig und zwar in der Zentrale zu positionieren, und nicht etwa auf der Clientseite und den Mobile-Devices.“

„In vielen Bereichen ist sehr wohl eine Entwicklung zu sehen“, führt Frank Harter aus. „Beispielsweise in der Krebsforschung. Die anfallenden riesigen Datenmengen sind nur über In-Memory-Systeme zu verwalten und auszuwerten. Diese neuen Anforderungen und die Optimierung der Geschäftsprozesse stehen in den Big Data-Fällen im Vordergrund. Das erhöht auch die Flexibilität, da alle Daten, die das Unternehmen betreffen, in einem Datenraum abgewickelt werden können.“

Arbeitsteilung von IT- und Fachabteilungen ist ein Punkt, den Matthias Weiss in die Diskussion einführt: „Früher dauerte das Erstellen von Reports meist Stunden oder Tage und wurde von der IT-Abteilung ausgeführt. Mit den neuen Technologien können diese Aufgaben direkt in den Fachabteilungen vorgenommen werden, was zu neuen Ideen und Möglichkeiten führt, eventuell auch zu neuen Geschäftsfeldern. So fördert In-Memory die Kreativität der Mitarbeiter.“

„Das Thema Skalierbarkeit muss in diesem Bezug genau beachtet werden“, gibt Reimann zu bedenken. „Unter Umständen fangen Projekte im kleinen Maßstab an und werden später erweitert. Dies muss die neue Technologie ermöglichen und sollte daher auch dafür ausgelegt sein. Neben der Flexibilität, der Performance und der Skalierbarkeit müssen auch alle weiteren Teile des Konzepts stimmig sein.“

Rainer Huttenloher