Ausgezeichnet.org

Das Filterprogramm unterstützt Unternehmen dabei, spezifische Informationen zielgerichtet aus großen Datenmengen zu extrahieren und zu untersuchen.

Insbesondere große Unternehmen oder Forschungszweige an Universitäten sammeln große Mengen informationstechnischer Daten an, die es nahezu unmöglich machen, den Überblick zu behalten. Mithilfe von Data Mining lassen sich große Datenmengen nach zuvor festgelegten Kriterien filtern und neu anordnen. Dadurch wird ermöglicht, themenspezifische Zusammenhänge und Gesetzmäßigkeiten zu erkennen und die vorliegenden Daten auf eine bestimmte Fragestellung hin zu untersuchen.

Aufbau und Methoden von Data Mining

Data Mining ist eine intelligente Anwendung von Data Warehouse, die vorliegende Daten analysiert und hinsichtlich zuvor definierter Voraussetzungen neu zusammenstellt, um beispielsweise unternehmensspezifische Informationen zielgerichtet aus einer großen Masse zu selektieren. Dazu verwendet Data Mining einen Prozess der Mustererkennung sowie gezielte mathematische und statistische Verfahren, um im Rahmen der Analyse bedeutsame Trends, Muster und neue Zusammenhänge bereitstellen zu können.

Zwei grundlegende Methoden bilden den Arbeitsprozess von Data Mining ab: Einerseits handelt es sich dabei um das Validieren bzw. Prüfen der Daten, andererseits um das Entwickeln von Hypothesen aus den Daten. Mithilfe dieser Prozesse können Zusammenhänge erkannt und Rückschlüsse aus den vorhandenen Daten gezogen werden. Die Erkenntnisse besitzen u.a. Relevanz für produktions-, vertriebs- oder marketingrelevante Entscheidungen und dienen dazu, unternehmensrelevante Ziele schneller oder auf optimiertem Weg zu erreichen.

Wie funktioniert die Analyse mit Data Mining?

Auf der Grundlage der für das Data Mining vorliegenden Informationen und einer unternehmens- oder projektspezifischen Zielsetzung werden die Daten in mehreren Arbeitsschritten extrahiert, gefiltert und aggregiert. Dieses dreistufige Verfahren dient dazu, den großen, unübersichtlichen Datensatz zunächst in kleinere, zusammengehörige Komponenten zu zerlegen, diese dann auf bestimmte Eigenschaften hin zu untersuchen und der Fragestellung entsprechend neu anzuordnen. Nach der Aggregation liegen die sortierten Daten in übersichtlicher Form vor und können für Prognosen weiterverwertet werden.