Westfälische Wilhelms-Universität

&npsb;

Business Intelligence

Die zeitnahe Bereitstellung aktueller Daten aus dem operativen Geschäftsbetrieb zum Zwecke der Analyse, der Entscheidungsvorbereitung und der Prognose wird in Zeiten an Tempo ständig zunehmenden Wettbewerbs sowie unablässig wachsender Datenbestände - also in Zeiten von Big Data -  immer wichtiger.

Führungsinformationssysteme und Data Warehouses bieten hier die angemessene Informationstechnik. Sie erlauben eine Aufbereitung und Integration von operativen Daten aus unterschiedlichen internen und externen Quellen in einem einheitlichen Datenbestand, auf welchem dann Auswertungen und Analysen unterschiedlichster Art durchgeführt werden können. Entwurf, Aufbau und Anwendungen von Führungsinformationssystemen und von Data Warehouses sind daher für eine kontinuierliche Analyse der Performanz eines Unternehmens sowie für eine Anwendung von OL AP- sowie Data Mining-Techniken unerlässlich.

Die fachkonzeptionelle Spezifikation von Führungsinformationssystemen umfasst die Modellierung des Raumes der Bezugsobjekte, die Gegenstand der Managemententscheidungen sind. Dies geschieht durch die Festlegung der für das Management relevanten Dimensionen, die die Managementsichten insgesamt aufspannen. Jede Dimension ist hierarchisch zu strukturieren, und die verschiedenen Dimensionen müssen aus betriebswirtschaftlicher Sicht orthogonal sein. Der Raum der Bezugsobjekte muss anschließend mit geeigneten Kennzahlensystemen kombiniert werden. Kennzahlensysteme legen fest, welche betriebswirtschaftlichen Aspekte der Bezugsobjekte für die Managemententscheidungen relevant sind. Aus der Kombination von Bezugsobjekten und Kennzahlen entstehen sogenannte Fakten, die die Berichte für das Management inhaltlich abschließend spezifizieren. Aus einer oder mehreren Datenquellen, bei denen es sich meist um operationale Datenbanken handelt, werden relevante Kenngrößen und Unternehmensdaten über einen sogenannten ETL-Prozess (für Extraction, Transformation, Loading) in ein Data Warehouse integriert; auf diesem setzen dann Anwendungen des OLAP und des Data Mining auf.

Die Organisation von Warehouse-Daten in Stern- oder Schneeflockenschemata wird anhand von Fallstudien erarbeitet und durch geeignete Entwurfstechniken illustriert. Schließlich setzen sich die Teilnehmer anhand konkreter Aufgabenstellungen mit der Frage auseinander, wie sich Warehouse-Daten mithilfe von OLAP-Techniken im Einzelfall zur Verbesserung der Unternehmensführung nutzen lassen.

Neben der vertikalen Schiene, die von der Management-Ebene auf die Data Warehouse-Ebene geführt wird, wird eine horizontale Schiene verfolgt, bei der es um Datenintegration und die Herstellung von Datenqualität auf einer stärker technischen Ebene geht. Die Beantwortung der Frage, wie man Daten aus unterschiedlichen, verschieden formatierten Quellen zusammenbringt und welche Probleme dabei zu lösen sind, bringt einen Rückbezug zum Data Cleansing, also der Bereinigung von Daten. Sodann wendet sich das Modul den Grundlagen des Online Analytical Processing (OLAP) und des Data Mining zu. Neben einer multidimensionalen Sicht auf die Warehouse- Daten spielt jetzt der Begriff des Datenwürfels (Data Cube) eine zentrale Rolle, und es werden die Grundlagen von Cube und Rollup-Operationen auf der Ebene von SQL vorgestellt. Konkrete Anwendungen von  OLAP finden sich etwa im Customer Relationship Management (CRM) oder bei der Nutzung von Daten aus dem  Web. Beim Data Mining steht die Frage der algorithmischen Erzeugung von Assoziationsregeln im Vordergrund, die vielfältige Anwendungen (u.a. im CRM sowie im Web-Mining) hat.

Neben „klassischer“ Warehouse-Technik und des ihr zugrunde liegenden Konzepten wendet sich das Modul auch neueren Fragestellungen zu, die sich insbesondere unter dem Schlagwort „Big Data“ ergeben. In diesem Kontext wird aufgezeigt, welche Ansätze zum effizienten Umgang mit sehr großen Datenmengen inzwischen entstanden sind, darunter NoSQL- und In-Memory-Datenbanken sowie auf dem Map-Reduce- Paradigma basierende Lösungen wie Apache Hadoop. Neben einigen Fallstudien zu Big Data werden auch die Grundzüge algorithmischer Herangehensweisen an Aufgaben wie Link-Analyse, Online-Advertising, Recommendation und Social-Network-Analyse behandelt. Schließlich geht das Modul aus die Frage von Auswirkungen solcher Big Data-Anwendungen auf eine Data Warehouse-Architektur ein. Damit wird einerseits ein Rückbezug vorgenommen; Andererseits wird ein Anknüpfungspunkt für andere Module geschaffen, in denen etwa das Thema Cloud-Computing oder die Analyse von Social Media Data behandelt wird.

Newsletter bestellen
Newsletter bestellen

Einen Newsletter zu unseren Lehrgängen können Sie hier bestellen:

Newsletter bestellen