Telefon: +49 911 1335-1335

Big Data

Wertvolle Datenschätze

Finger Display © Foto: ThinkstockPhotos - Solarseven

Mit Big Data-Analysen lassen sich aus riesigen Datenmengen Informationen für wichtige Entscheidungen herausfiltern.

Die fortschreitende Digitalisierung lässt die Datenmengen und die Zahl der Datenquellen rasant steigen. Der Erfolg von Unternehmen hängt jetzt zunehmend davon ab, ob und vor allem wie sie ihre Informationen nutzen. Auch im Mittelstand hat das Thema Big Data deshalb stark an Bedeutung gewonnen: Bei einer Erhebung des Deloitte Mittelstandsinstituts von 2014 gaben 87 Prozent der befragten Unternehmen an, dass es die stark steigenden Datenmengen in Zukunft nötig machen werden, Entscheidungen immer schneller zu treffen.

Business Intelligence

Damit kommt der Business Intelligence (BI) eine immer wichtigere Rolle zu – darunter versteht man Verfahren und Prozesse, mit denen sich Daten systematisch sammeln und auswerten lassen. Auch für den Mittelstand ist es unerlässlich, die Datenflut zu kanalisieren und wichtige Zusammenhänge zu erkennen. Wer dabei das richtige Werkzeug einsetzt, kann die durch Big Data-Analysen gewonnenen Erkenntnisse in unternehmerisches Gold verwandeln. Denn sie sind die Grundlage für realistische Prognosen und damit für präzise strategische Entscheidungen.

Mit der Datenmenge werden auch die Datenbank-Infrastrukturen immer komplexer. Die Open-Source-Lösung Hadoop hat sich als ein Baustein für die Infrastruktur vielfach etabliert: Als Framework für das verteilte Speichern und parallele Verarbeiten von großen Datenmengen ist Hadoop dank seiner horizontalen Skalierung optimal geeignet, um Daten sicher und fehlertolerant auf bis zu mehreren Tausend Servern innerhalb eines Clusters zu verteilen. Es ist zudem wirtschaftlich, sodass im vielfältigen „Ökosystem“ der Infrastrukturen künftig noch mehr Anwendungen auf Hadoop laufen dürften.

Allerdings ist die Integration von Business Intelligence in Hadoop nur bedingt sinnvoll, insbesondere bei zeitkritischen Anwendungen. Für hochwertige Datenanalysen liefern dagegen In-Memory-Datenbanken die notwendige Geschwindigkeit, sie werden aus diesem Grund zunehmend als Beschleunigungs-Schicht auf das existierende Data Warehouse bzw. auf das Hadoop-System aufgesetzt. Für Unternehmen mit hohem Datenaufkommen ist außerdem wichtig, dass die Lösungen leicht zu implementieren sowie höchst skalierbar sind. Damit gewährleisten sie ein hohes Maß an Flexibilität und entlasten gleichzeitig die eigenen IT-Ressourcen.

Analyseprojekte für jedes Budget

Big-Data-Analysen erfordern in der Regel keinen großen Austausch vorhandener Systeme, meist sind nur gezielte Ergänzungen und Erweiterungen notwendig. Ausschlaggebend für die Kosten der einzusetzenden Analysesysteme sind insbesondere die Menge der anfallenden Daten sowie die genutzte Datenbanktechnologie. Unternehmen, die eine analytische In-Memory-Datenbank nutzen, profitieren in aller Regel auch von niedrigeren Lizenzkosten. Bei diesen Systemen tragen intelligente Kompressions-Algorithmen und vollautomatisierte Prozesse dazu bei, dass sich die Investitionskosten im Vergleich zu konventionellen Datenbanken schnell mehr als halbieren können. Dabei sind Software-as-a-Service-Modelle (Software und IT-Infrastruktur werden bei einem externen IT-Dienstleister betrieben) oder Cloud-Lösungen möglich. Auch kleine und mittlere Unternehmen sind damit in der Lage, mit Hilfe von flexibel erweiterbaren Lösungen Big-Data-Projekte erfolgreich und effizient umzusetzen.

Für den Einsatz der In-Memory-Technologie sprechen insbesondere folgende Aspekte: schnellste Technologie für die Big-Data-Analyse, beliebige Skalierbarkeit, branchenunabhängiger Einsatz, nahtlos in Datenbanken integrierbar sowie Echtzeit-Analyse (Realtime Analytics) großer Datenmengen bei geringen Betriebskosten.

Ein Beispiel, wie die Datenanalyse in der betrieblichen Praxis optimal funktioniert, ist Semikron in Nürnberg. Der Mittelständler entwickelt standardisierte Komponenten für Leistungshalbleiter sowie Transistoren und Kondensatoren. Ein Spezialgebiet von Semikron ist die Archivierung von Messdaten, für die ein flexibles Datenmanagementsystem eingeführt wurde. Dieses archiviert alle qualitätsrelevanten Kennzahlen während der vorgeschriebenen Aufbewahrungsfristen. Die gesammelten Daten nutzt Semikron hauptsächlich zur Qualitätssicherung und -kontrolle der Produktionsprozesse – durch Datenanalyse konnten hier große Fortschritte erzielt und beträchtliche Kosten eingespart werden.

Um mit Big Data-Analysen einen maximalen Nutzen für das Unternehmen zu erzielen, sollten folgende fünf Aspekte beachtet werden:

  • Big Data muss als fester Bestandteil in die Unternehmensstrategie integriert sein. Die durchgängige Lösung von einem einzigen Anbieter gibt es nicht. Erfahrungsgemäß wählt man einen Best Practice-Ansatz und überlegt genau, wer welche Aufgaben am besten erfüllen kann. Die Abhängigkeit von nur einem Anbieter kann kostspielig werden und den Erfolg ausbremsen.
  • Datenvolumen und -anforderungen ändern sich ständig. Die Abteilungen müssen deshalb in die Lage versetzt werden, ihren Analyse- und Datenbedarf schnell und einfach realisieren zu können.
  • Es muss überprüft werden, ob die Compliance-Vorgaben erfüllt werden. Wichtige Aspekte sind dabei die Schulung der Mitarbeiter, eine transparente Kommunikation sowie die Analyse, welche Daten und Prozesse sinnvoll im Haus bleiben sollten bzw. welche in die Cloud gelegt werden können.
  • Gefragt sind hoch qualifizierte Mitarbeiter für Big Data und Datenanalyse („Data Scientists“). Sie haben das Know-how, um aus riesigen Datenmengen die notwendigen Grundlagen für geschäftskritische Entscheidungen herauszufiltern.
Autor/in: 

Von Aaron Auld. Aaron Auld ist Vorstandsvorsitzender (CEO) der Exasol AG in Nürnberg, die auf Datenbank-Managementsysteme spezialisiert ist (www.exasol.com).

 

 

WiM – Wirtschaft in Mittelfranken, Ausgabe 11|2015, Seite 44

 
Device Index

Alle Ansprechpartner/innen auf einen Blick