iX 3/2016
S. 91
Report
Big Data
Aufmacherbild

Einstieg in Big-Data-Verarbeitung im Unternehmen

Groß denken

Mit Big Data, dem Speichern und Auswerten riesiger Datenmengen, muss sich inzwischen nahezu jedes Unternehmen befassen. Aus zahlreichen Komponenten des Hadoop-Universums gilt es die passenden auszuwählen – aber auch die Fachabteilungen müssen bei der Datenanalyse mitreden. Eine Handreichung für die betriebliche Big-Data-Einführung.

Geht es ums Verarbeiten riesiger Datenmengen, setzen sich Werkzeuge rund um das Framework Apache Hadoop immer stärker durch. Im nunmehr zehnten Jahr seines Bestehens (für alle Onlinequellen siehe blauen Kasten „Alle Links“ am Artikelende) hat sich das freie Big-Data-System stetig weiterentwickelt und an die Anforderungen von Unternehmen angepasst. Hadoop ist keine monolithische Anwendung, sondern besteht aus einem Ökosystem unterschiedlicher Dienste. Bei deren Einführung sind eine Vielzahl technischer und betrieblicher Herausforderungen zu meistern.

Große Teile von Hadoops Ökosystem sind als Open-Source-Software unter freien Softwarelizenzen zu haben. Der Vorteil für Firmen besteht darin, dass sie kein System einführen, das von nur einem Hersteller abhängt. Außerdem ist der Kostenvorteil nicht zu vernachlässigen, da derartige Big-Data-Systeme zumeist auf sehr vielen Rechnern als Cluster betrieben werden. Doch diese Vorzüge freier Software kollidieren mit einigen Belangen im Enterprise-Markt, etwa dem Wunsch nach einem Ansprechpartner bei Fragen oder Schwierigkeiten, der mit Consulting und Customizing zur Seite steht und spezielle Wünsche erfüllt.