Im Datenmeer abgetaucht: Big-Data-Herausforderungen besser bewältigen

Laut einer Studie von BARC sehen Unternehmen im Bereich Marketing und Vertrieb ein hohes Potenzial, durch gezielte Big-Data-Analysen das Kundenverhalten zu analysieren. Die Herausforderung lautet: aus den verschiedenen Datenquellen individuell auf den Kunden zugeschnittene Informationsangebote schaffen. Außerdem erwarten Unternehmen von Big Data vor allem Kostenoptimierung und besseres Informationsmanagement, so eine Studie von IDC.

Neben dem Volumen und der Beschaffenheit der Daten spielt für Marketing und Vertrieb auch die Geschwindigkeit der Auswertung von Daten eine enorme Rolle, denn „Zeit ist Geld“.

Problematisch ist zudem, dass die meisten Big-Data-Projekte von der IT-Abteilung und in erster Linie technologisch getrieben werden. Da aber viele Unternehmensbereiche unmittelbar mit den Auswirkungen von Big Data konfrontiert sind, ist es erforderlich, von Beginn an bereichsübergreifende Teams zu bilden. So können die Erfahrungen von Entwicklern, Spezialisten für Performance und Qualität und Testern direkt mit den Herausforderungen der Geschäftsführung, dem Marketing und Controlling in eine gemeinsame Strategie eingebunden werden. Denn für die Unternehmen geht es um drei wesentliche Punkte: Die Datenhaltung und damit um die Frage „Wie kann ich meine Daten erfassen und speichern?“; den Prozess, also die Datenbereinigung, Erweiterung und Analyse sowie den Zugriff, um die Abfrage, Suche, Integration und Visualisierung von Daten.

Heute nutzen zwar bereits viele Unternehmen Daten-Analysetools, aber in den hochkomplexen und schnell wachsenden Big-Data-Umgebungen fehlt oft die Transparenz, um Applikationen besser steuern zu können. Denn Probleme mit der Performance, Verfügbarkeit oder Skalierbarkeit können mit gängigen Tools nicht auf ihre Ursachen hin untersucht werden und es kostet zusätzliche Manpower und vor allem Zeit, um beispielsweise zahlreiche Log Files auf Fehler zu durchforsten.

Um die wachsenden Anforderungen zu bewältigen, lohnt es sich, ein Application Performance Management Tool (APM) einzusetzen, das genau diese Transparenz für das Anwendungsmanagement bietet und mit „Röntgenaugen“ in Big-Data-Prozesse und -Transaktionen blickt. Ein APM-System liefert eine tiefgehende Sicht in die Anwendung und wirkt besonders effizient, wenn es die Endnutzer-Perspektive im Fokus hat. Nur so werden vom ersten Klick eines Anwenders über alle verschiedenen Endgeräte hinweg bis in die Cloud und hin zum Backend, also bis hinein ins Rechenzentrum und bis auf Code-Level einer Anwendung, alle Transaktionen erfasst. Methoden und Abfragen können visuell dargestellt werden. Interaktionen zwischen den Anwendungen und NoSQL-Datenbanken (wie Cassandra, MongoDB, HBase, Riak oder DynamoDB) vermeiden aufwändige manuelle Recherchen von Log Files. Da NoSQL-Datenbanken einen nicht-relationalen Ansatz verfolgen und horizontal skalierbar sind, werden sie besonders für große Datenmengen und Webseiten mit hohem Lastaufkommen eingesetzt.

Über APM lassen sich auch Rechnerdaten in Splunk, das sehr häufig in Big-Data-Umgebungen genutzt wird, analysieren, da Anwender, Klickpfade, Requests und Transaktionen auf der Serverseite erfasst werden. Dadurch lassen sich Rückschlüsse auf Anwender- und Nutzungstrends ziehen und daraus Muster für das Kundenverhalten ableiten. Denn um ein zielgruppengerechtes Marktangebot zu schaffen, ist es wichtig zu wissen, wo die Kunden zugreifen: über welches Endgerät, über welchen Browser und in welcher Region. Basierend auf diesen Informationen lassen sich beispielsweise Online-Angebote direkt auf bestimmte Endgeräte oder Browser und auch regionale Besonderheiten ausrichten.

APM erfasst alle Enduser und alle Transaktionen und basiert auf Fakten, nicht auf Vermutungen

Der Einsatz einer APM-Lösung für Big-Data-Analysen kann den zeitlichen Aufwand und Ressourcenverbrauch deutlich reduzieren, weil die benötigten Informationen termingerecht und kosteneffizient bereitgestellt werden können. Dabei besteht eine Kernaufgabe von APM darin, durch gezielte Messungen im Datenmeer die richtigen Schlüsse zu ziehen.

Das kann Application Performance Management (APM)

1.Nutzererlebnis – umfasst die Erwartungen der Nutzer in puncto Bedienerfreundlichkeit, Zweckmäßigkeit und Attraktivität einer Webseite

2.Verfügbarkeit – garantiert die Bereitschaft eines Service oder das Funktionieren einer Anwendung exakt dann, wenn diese aufgerufen werden

3.Performance – liefert die Geschwindigkeit, mit der Transaktionen ausgeführt werden, um die Erwartungen des Unternehmens und der Nutzer zu erfüllen

4.Skalierbarkeit – reguliert steigendes oder sinkendes Volumen von Daten, Transaktionen oder Services

5.Anpassungsfähigkeit – zur einfachen Änderung oder zum Ausbau von Anwendungen oder Services

6.Sicherheit – unterstützt die Sicherheitsanforderungen in puncto Vertraulichkeit, Integrität, Authentifizierung, Autorisierung und Nachweisbarkeit

7.Wirtschaftlichkeit – senkt die Kosten für Entwicklung, Betrieb und Änderungen von Anwendungen oder Services und bietet so unternehmerischen Mehrwert

Autor: Torsten Hellwig schloss 1998 das Informatikstudium an der Technischen Universität in Dresden ab. Er arbeitete danach in mehreren Firmen als Softwareentwickler und -architekt. Ab 2003 verlagerte sich sein Tätigkeitsschwerpunkt in Richtung Softwareentwicklungsprozesse, Qualitätssicherung und IT-Operations. Seit 2010 ist Torsten Hellwig bei DynaTrace – heute Teil von Compuware – in München als Presales Consultant tätig.

Dieser Beitrag erschien erstmals im e-commerce Magazin 05/2014 im Schwerpunkt Big Data. 

RSS Feed

Entdecken Sie die Printmagazine des WIN-Verlags