Im Datenmeer abgetaucht: Big-Data-Herausforderungen besser bewältigen

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on whatsapp
Share on email
Share on print

Im Datenmeer abgetaucht: Big-Data-Herausforderungen besser bewältigen

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on whatsapp
Share on email
Share on print

Heute werden in 60 Sekunden durchschnittlich rund 170 Millionen E-Mails und mehr als 90.000 Tweets versendet. Dazu kommen tausende Musik-, Film- oder App-Downlads und über eine halbe Million Aktivitäten auf Facebook. Dabei fischen viele Unternehmen in der Flut dieser Daten, die über verschiedenste Endgeräte wie Notebook, Tablet oder Smartphone erzeugt werden, im wahrsten Sinne des Wortes im Dunkeln.

von Torsten Hellwig

ecm_2014_05_203_image

Laut einer Studie von BARC sehen Unternehmen im Bereich Marketing und Vertrieb ein hohes Potenzial, durch gezielte Big-Data-Analysen das Kundenverhalten zu analysieren. Die Herausforderung lautet: aus den verschiedenen Datenquellen individuell auf den Kunden zugeschnittene Informationsangebote schaffen. Außerdem erwarten Unternehmen von Big Data vor allem Kostenoptimierung und besseres Informationsmanagement, so eine Studie von IDC.

Neben dem Volumen und der Beschaffenheit der Daten spielt für Marketing und Vertrieb auch die Geschwindigkeit der Auswertung von Daten eine enorme Rolle, denn „Zeit ist Geld“.

Problematisch ist zudem, dass die meisten Big-Data-Projekte von der IT-Abteilung und in erster Linie technologisch getrieben werden. Da aber viele Unternehmensbereiche unmittelbar mit den Auswirkungen von Big Data konfrontiert sind, ist es erforderlich, von Beginn an bereichsübergreifende Teams zu bilden. So können die Erfahrungen von Entwicklern, Spezialisten für Performance und Qualität und Testern direkt mit den Herausforderungen der Geschäftsführung, dem Marketing und Controlling in eine gemeinsame Strategie eingebunden werden. Denn für die Unternehmen geht es um drei wesentliche Punkte: Die Datenhaltung und damit um die Frage „Wie kann ich meine Daten erfassen und speichern?“; den Prozess, also die Datenbereinigung, Erweiterung und Analyse sowie den Zugriff, um die Abfrage, Suche, Integration und Visualisierung von Daten.

Heute nutzen zwar bereits viele Unternehmen Daten-Analysetools, aber in den hochkomplexen und schnell wachsenden Big-Data-Umgebungen fehlt oft die Transparenz, um Applikationen besser steuern zu können. Denn Probleme mit der Performance, Verfügbarkeit oder Skalierbarkeit können mit gängigen Tools nicht auf ihre Ursachen hin untersucht werden und es kostet zusätzliche Manpower und vor allem Zeit, um beispielsweise zahlreiche Log Files auf Fehler zu durchforsten.

Um die wachsenden Anforderungen zu bewältigen, lohnt es sich, ein Application Performance Management Tool (APM) einzusetzen, das genau diese Transparenz für das Anwendungsmanagement bietet und mit „Röntgenaugen“ in Big-Data-Prozesse und -Transaktionen blickt. Ein APM-System liefert eine tiefgehende Sicht in die Anwendung und wirkt besonders effizient, wenn es die Endnutzer-Perspektive im Fokus hat. Nur so werden vom ersten Klick eines Anwenders über alle verschiedenen Endgeräte hinweg bis in die Cloud und hin zum Backend, also bis hinein ins Rechenzentrum und bis auf Code-Level einer Anwendung, alle Transaktionen erfasst. Methoden und Abfragen können visuell dargestellt werden. Interaktionen zwischen den Anwendungen und NoSQL-Datenbanken (wie Cassandra, MongoDB, HBase, Riak oder DynamoDB) vermeiden aufwändige manuelle Recherchen von Log Files. Da NoSQL-Datenbanken einen nicht-relationalen Ansatz verfolgen und horizontal skalierbar sind, werden sie besonders für große Datenmengen und Webseiten mit hohem Lastaufkommen eingesetzt.

Über APM lassen sich auch Rechnerdaten in Splunk, das sehr häufig in Big-Data-Umgebungen genutzt wird, analysieren, da Anwender, Klickpfade, Requests und Transaktionen auf der Serverseite erfasst werden. Dadurch lassen sich Rückschlüsse auf Anwender- und Nutzungstrends ziehen und daraus Muster für das Kundenverhalten ableiten. Denn um ein zielgruppengerechtes Marktangebot zu schaffen, ist es wichtig zu wissen, wo die Kunden zugreifen: über welches Endgerät, über welchen Browser und in welcher Region. Basierend auf diesen Informationen lassen sich beispielsweise Online-Angebote direkt auf bestimmte Endgeräte oder Browser und auch regionale Besonderheiten ausrichten.

APM erfasst alle Enduser und alle Transaktionen und basiert auf Fakten, nicht auf Vermutungen

Der Einsatz einer APM-Lösung für Big-Data-Analysen kann den zeitlichen Aufwand und Ressourcenverbrauch deutlich reduzieren, weil die benötigten Informationen termingerecht und kosteneffizient bereitgestellt werden können. Dabei besteht eine Kernaufgabe von APM darin, durch gezielte Messungen im Datenmeer die richtigen Schlüsse zu ziehen.

Das kann Application Performance Management (APM)

1.Nutzererlebnis – umfasst die Erwartungen der Nutzer in puncto Bedienerfreundlichkeit, Zweckmäßigkeit und Attraktivität einer Webseite

2.Verfügbarkeit – garantiert die Bereitschaft eines Service oder das Funktionieren einer Anwendung exakt dann, wenn diese aufgerufen werden

3.Performance – liefert die Geschwindigkeit, mit der Transaktionen ausgeführt werden, um die Erwartungen des Unternehmens und der Nutzer zu erfüllen

4.Skalierbarkeit – reguliert steigendes oder sinkendes Volumen von Daten, Transaktionen oder Services

5.Anpassungsfähigkeit – zur einfachen Änderung oder zum Ausbau von Anwendungen oder Services

6.Sicherheit – unterstützt die Sicherheitsanforderungen in puncto Vertraulichkeit, Integrität, Authentifizierung, Autorisierung und Nachweisbarkeit

7.Wirtschaftlichkeit – senkt die Kosten für Entwicklung, Betrieb und Änderungen von Anwendungen oder Services und bietet so unternehmerischen Mehrwert

Autor: Torsten Hellwig schloss 1998 das Informatikstudium an der Technischen Universität in Dresden ab. Er arbeitete danach in mehreren Firmen als Softwareentwickler und -architekt. Ab 2003 verlagerte sich sein Tätigkeitsschwerpunkt in Richtung Softwareentwicklungsprozesse, Qualitätssicherung und IT-Operations. Seit 2010 ist Torsten Hellwig bei DynaTrace – heute Teil von Compuware – in München als Presales Consultant tätig.

Dieser Beitrag erschien erstmals im e-commerce Magazin 05/2014 im Schwerpunkt Big Data. 

Share on facebook
Facebook
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on xing
XING
Share on whatsapp
WhatsApp
Share on email
E-Mail
Share on print
Drucken

Ihre Meinung zum Artikel

Andere Leser haben sich auch für die folgenden Artikel interessiert

Der Personalnotstand bei Aldi hat zu einer Personalpartnerschaft mit McDonald's geführt. Mitarbeiter von derzeit geschlossenen Restaurants unterstützen nun die Filialen des Lebensmittel-Discounters.

Redaktionsbrief

Tragen Sie sich zu unserem Redaktionsbrief ein, um auf dem Laufenden zu bleiben.

Wir wollen immer besser werden!

Deshalb fragen wir SIE, was Sie wollen!

Nehmen Sie an unserer Umfrage teil, und helfen Sie uns noch besser zu werden!

zur Umfrage

Aktuelle Ausgabe

Topthema: Fashion commerce

Wann jetzt handeln gefragt ist

Mehr erfahren

Tragen Sie sich jetzt kostenlos und unverbindlich ein, um keinen Artikel mehr zu verpassen!

    * Jederzeit kündbar

    Entdecken Sie weitere Magazine

    Schön, dass Sie sich auch für weitere Fachmagazine unseres Verlages interessieren.

    Unsere Fachtitel beleuchten viele Aspekte der Digitalen Transformation entlang der Wertschöpfungskette und sprechen damit unterschiedliche Leserzielgruppen an.