Was versteht man unter Datenanalyse?

Daten werden schneller erzeugt als je zuvor. Können Sie die Daten, die Sie erfassen, jedoch optimal nutzen?

Ein Verständnis von Daten auf grundlegender Ebene ist entscheidend für den Aufbau eines erfolgreichen Unternehmens. Die Datenanalyse ist der Prozess, durch den Rohdaten zu nutzbarem Wissen werden, das in der Praxis angewendet werden kann. Intel® Technik kommt in allen Phasen der Daten-Pipeline zum Einsatz, um Unternehmen die Erfassung und Analyse für praktisch jeden Zweck zu erleichtern.

Für Unternehmen und Organisationen aller Art kann die Umwandlung von Daten in handlungsorientierte Erkenntnisse den Unterschied zwischen Erfolg oder Misserfolg bedeuten. Zur Maximierung des Werts von Informationen sind Datenanalysen erforderlich: Dabei werden Rohdaten analysiert, um Schlussfolgerungen zu ziehen.

Zwar analysieren bereits die meisten Unternehmen bestimmte Daten, doch erst moderne Analysen ermöglichen ein beispielloses Maß an Wissen und Erkenntnissen. Wie weit ist Ihr Unternehmen auf dem Weg zu einer daten- und analysegesteuerten Kultur – und wie sieht der nächste Schritt aus?

Das Fundament stellt die Daten-Pipeline dar.

Informationen zur Daten-Pipeline

Die Entwicklung eines optimalen Datenanalyse-Ansatzes ist ein evolutionärer Prozess, der Zeit und Engagement voraussetzt. Unternehmen, die für den nächsten Schritt bereit sind, sollten die Daten-Pipeline sowie den Lebenszyklus von Daten verstehen, die diese Pipeline durchlaufen.

  • Aufnahme: Datenerfassung
    Die erste Phase der Daten-Pipeline ist die Aufnahme von Daten. In dieser Phase werden Daten aus Quellen erfasst und in ein System verschoben, in dem sie gespeichert werden können. Daten lassen sich als kontinuierlicher Stream oder als Serie von diskreten Ereignissen erfassen.

    Bei den meisten unstrukturierten Daten – Schätzungen der IDC zufolge 80 bis 90 Prozent1 – stellt die Erfassung Anfang und Ende des Datenlebenszyklus dar. Diese Daten, „Dark Data“ genannt, werden aufgenommen, aber nie analysiert oder genutzt, um Handlungen im Rest des Unternehmens zu beeinflussen.

    Einer der größten Trends bei fortgeschrittener Datenanalyse beginnt heute bereits in der Aufnahmephase. Dabei wird parallel zum Aufnahmeprozess eine Echtzeit-Analyse der gestreamten Daten durchgeführt. Dies wird als Edge-Analyse bezeichnet und erfordert eine hohe Rechenleistung bei geringem Stromverbrauch. Die Edge-Analyse umfasst häufig IoT-Geräte und Sensoren, die Daten von Geräten erfassen, darunter von Fabrikmaschinen, Straßenlaternen in der Stadt, landwirtschaftlichen Geräten oder anderen vernetzten Dingen.

  • Vorbereitung: Datenverarbeitung
    In der nächsten Phase der Daten-Pipeline werden die Daten zur Verwendung vorbereitet und Informationen in einem System gespeichert, das für Benutzer und Anwendungen zugänglich ist. Um die Qualität von Daten zu optimieren, müssen sie bereinigt und in Informationen umgewandelt werden, die sich leicht aufrufen und abfragen lassen.

    In der Regel werden Daten in einer Datenbank vorbereitet und gespeichert. Verschiedene Arten von Datenbanken werden verwendet, um Daten in unterschiedlichen Formaten und für verschiedenartige Zwecke zu erschließen und zu analysieren. In der Regel übernehmen relationale SQL*-Datenbankmanagementsysteme wie SAP HANA* oder Oracle DB* die Verarbeitung strukturierter Datensätze. Dazu können Finanzdaten, Anmeldedaten oder Daten zur Auftragsverfolgung gehören. Unstrukturierte Daten-Workloads und Echtzeit-Analysen nutzen eher NoSQL*-Datenbanken wie Cassandra und HBase.

    Eine Optimierung dieser Phase der Daten-Pipeline erfordert für schnellere Abfragen eine hohe Rechen- und Arbeitsspeicherleistung sowie Datenverwaltung. Außerdem ist zur Unterstützung großer Datenmengen eine Skalierbarkeit erforderlich. Daten können je nach Dringlichkeit und Nützlichkeit in bestimmten Stufen gespeichert werden, damit die wichtigsten Daten am schnellsten abgerufen werden können.

    Intel® Technik unterstützt heute mehrere der speicher- und arbeitsspeicherintensivsten Anwendungen im Datenbankbereich. Mit Intel® Optane™ SSDs konnte Alibaba Cloud* 100 TB Speicherkapazität für jede POLARDB-Instanz bereitstellen.

  • Analyse: Datenmodellierung
    In der nächsten Phase der Daten-Pipeline werden die gespeicherten Daten analysiert und Modellierungsalgorithmen erstellt. Daten können über eine End-to-End-Analyseplattform wie SAP, Oracle oder SAS analysiert oder von Tools wie Apache Spark* mit hoher Skalierung verarbeitet werden.

    Die Beschleunigung und Reduzierung der Kosten für diese Phase der Daten-Pipeline ist entscheidend, um einen Wettbewerbsvorteil zu erzielen. Bibliotheken und Toolkits können Entwicklungsdauer und -kosten reduzieren. Unterdessen können Hardware- und Softwareoptimierungen dazu beitragen, die Ausgaben für Server und Rechenzentren zu senken, und gleichzeitig die Reaktionszeiten verbessern.

    Techniken wie In-Memory-Analysen können Datenanalysefunktionen optimieren und Analyseinvestitionen kosteneffektiver machen. Mithilfe von Intel ist es dem Chemieunternehmen Evonik gelungen, Neustarts von SAP HANA*-Datentabellen um das 17-Fache zu beschleunigen.2

  • Aktion: Entscheidungsfindung
    Nachdem Daten aufgenommen, vorbereitet und analysiert wurden, können Unternehmen sie nun in der Praxis anwenden. Datenvisualisierung und Berichterstattung helfen bei der Vermittlung von Analyseergebnissen.

    Traditionell war eine Interpretation durch Datenwissenschaftler oder Analysten erforderlich. Sie mussten die Ergebnisse in Geschäftsinformationen umwandeln, die auf breiterer Basis genutzt werden konnten. Unternehmen nutzen jedoch inzwischen auf Grundlage von Analysen KI zur Automatisierung von Aktionen (wie z. B. Senden eines Wartungsteams oder Ändern der Raumtemperatur).

Mehr Informationen über die Daten-Pipeline und dazu, wie Unternehmen ihre Analysefunktionen weiterentwickeln können, finden Sie in unserem E-Book From Data to Insights: Maximize Your Data Pipeline (Erkenntnisse aus Daten: Optimieren Sie Ihre Daten-Pipeline).

Wie weit ist Ihr Unternehmen auf dem Weg zu einer daten- und analysegesteuerten Kultur – und wie sieht der nächste Schritt aus?

Die vier Arten der Datenanalyse

Datenanalysen können in vier Grundtypen unterteilt werden: beschreibende Analysen, diagnostische Analysen, vorausschauende Analysen und vorschreibende Analysen. Dies sind Schritte hin zur Analysereife, wobei jeder Schritt den Abstand zwischen den Phasen „Analyse“ und „Aktion“ der Daten-Pipeline verkürzt.

  • Beschreibende Analyse
    Beschreibende Analysen dienen dazu, historische Daten zusammenzufassen und zu visualisieren. Mit anderen Worten: Sie berichten Unternehmen, was bereits geschehen ist.
    Eine beschreibende Analyse – die einfachste Analyseart – kann aus einem einfachen Diagramm bestehen, in dem die Umsatzzahlen des vergangenen Jahres analysiert werden. Jede Analysemaßnahme setzt ein zuverlässiges Fundament an beschreibender Analyse voraus. Viele Unternehmen setzen weiter vor allem auf diese Form von Analyse, die Dashboards, Datenvisualisierungen und Berichterstattungstools umfasst.

  • Diagnostische Analyse
    Mit zunehmender Analysereife beginnen Unternehmen damit, an ihre historischen Daten immer anspruchsvollere Anforderungen zu stellen. Die diagnostische Analyse untersucht nicht nur, was geschehen ist, sondern auch warum es geschehen ist. Für diagnostische Analysen müssen Analysten in der Lage sein, detaillierte Abfragen auszuführen, um Trends und Ursachen zu ermitteln.
    Durch diagnostische Analysen lassen sich neue Beziehungen zwischen Variablen erkennen: Bei einem Sportbekleidungsunternehmen zum Beispiel können steigende Umsatzzahlen in einer bestimmten Region mit gutem Wetter zusammenhängen. Die diagnostische Analyse gleicht Daten mit Mustern ab und sorgt dafür, dass anormale Daten und Datenausreißer erklärt werden.

  • Vorausschauende Analyse
    Während bei den ersten beiden Analysearten historische Daten untersucht werden, blicken sowohl die vorausschauende Analyse als auch die vorschreibende Analyse in die Zukunft. Die vorausschauende Analyse schafft eine Prognose für wahrscheinliche Ergebnisse, basierend auf identifizierten Trends und statistischen Modellen, die aus historischen Daten abgeleitet wurden.
    Die Entwicklung einer Strategie für die vorausschauende Analyse setzt Modellerstellung und -validierung voraus, sodass optimierte Simulationen entstehen, mit denen geschäftliche Entscheidungsträger die besten Ergebnisse erzielen können. Häufig wird für die vorausschauende Analyse maschinelles Lernen genutzt,wobei Modelle mit hochskalierten Datensätzen trainiert werden, um intelligentere Vorhersagen zu ermöglichen.

  • Vorschreibende Analyse
    Eine weitere fortschrittliche Analyseart ist die vorschreibende Analyse. Mittels einer vorschreibenden Analyse, die auf der Grundlage einer vorausschauenden Analyse die beste Lösung empfiehlt, ist die Entwicklung hin zu einer echten datengesteuerten Entscheidungsfindung abgeschlossen.
    Die vorschreibende Analyse basiert stark auf der Analyse mit maschinellem Lernen und neuronalen Netzen. Diese Workloads werden mithilfe leistungstarker Rechen- und Arbeitsspeicherressourcen ausgeführt. Diese Art von Analyse setzt ein zuverlässiges Fundament voraus, das auf den anderen drei Arten von Analyse aufbaut, und ist nur Unternehmen mit einer hochentwickelten Analysestrategie zugänglich, die bereit sind, erhebliche Ressourcen in das Projekt zu investieren.

Anwendungsfälle für Datenanalysen

Intel® Technik erlaubt modernen Unternehmen, neuartige Analysen durchzuführen. Mit Blick auf Anwendungsfälle, die zahlreiche Branchen – und Länder weltweit – umfassen, arbeitet Intel kontinuierlich daran, Analysen weiterzuentwickeln und Unternehmen bei der Optimierung von Leistung und Kosteneffektivität zu unterstützen.

  • Verarbeitendes Gewerbe
    Bei Automobilherstellern können Qualitätskontrollen Geld sparen – und Leben retten. Im automatisierten Werk von Audi nutzten Analysten bislang Stichproben zur Sicherstellung der Schweißqualität. Durch vorausschauende Analysen am Netzwerkrand, die auf Industrial Edge Insights Software von Intel basiert, kann der Hersteller jede Schweißnaht bei allen Fahrzeugen automatisch überprüfen und Probleme beim Schweißen voraussagen. Dazu dienen Sensormesswerte, die zum Zeitpunkt des Schweißens erfasst wurden.

  • Gesundheitswesen
    Wenn KI darauf trainiert wird, Thorax-Röntgenaufnahmen zu lesen, können Patienten und Gesundheitsdienstleister schnellere Diagnosen erhalten. Unter Einsatz skalierbarer Intel® Xeon® Prozessoren für die Unterstützung eines neuronalen Netzes ist es der Forschungseinrichtung SURF gelungen, die Trainingsdauer von einem Monat auf sechs Stunden zu reduzieren und gleichzeitig die Genauigkeit zu verbessern.

  • Telekommunikation
    Smartphones und das mobile Internet haben für beispiellose Mengen an mobilen Daten gesorgt. Zur Verbesserung der Kundenerfahrung hat sich der Telekommunikationsanbieter Bharati Airtel entscheiden, mithilfe von Intel® Xeon® Prozessoren und Intel® SSDs eine fortschrittliche Netzwerkanalyse zu nutzen, um Probleme im Netzwerk schneller erkennen und beheben zu können.

Intel® Technik für Datenanalyse

Angesichts eines breiten Ökosystems an Technologien und Partnern, die Unternehmen bei der Entwicklung der Lösungen von morgen helfen, beruhen fortschrittliche Analysen in Unternehmen weltweit auf Produkten von Intel. Vom Rechenzentrum bis zum Netzwerkrand: Intel setzt an jedem Punkt im Analyse-Ökosystem darauf, für maximalen Nutzen und optimale Leistung zu sorgen.

  • Skalierbare Intel® Xeon® Prozessoren ermöglichen es, massive Datenmengen mit hoher Geschwindigkeit zu analysieren, egal ob am Netzwerkrand, im Rechenzentrum oder in der Cloud.
  • Intel® Optane™ Technologie ist ein revolutionärer Ansatz für Arbeitsspeicher und Datenspeicher, mit dem sich Engpässe beim Verschieben und Speichern von Daten überwinden lassen.
  • Intel® FPGAs sorgen für Beschleunigung im Rechenzentrum, um Reaktionszeiten zu verbessern.
  • Intel® Select Lösungen wurden auf optimale Leistung geprüft und sorgen für weniger Rätselraten sowie eine beschleunigte Lösungsbereitstellung.

Häufig gestellte Fragen

Die Datenanalyse ist der Prozess, bei dem aus Rohdaten Erkenntnissen werden, die Unternehmen in der Praxis anwenden können.

Die Big-Data-Analyse verwendet hochskalierte Datensätze, um neue Beziehungen zu erkennen und große Datenmengen besser zu verstehen.

Die fortgeschrittene Analyse besteht nicht aus einer bestimmten Technik oder Reihe von Techniken. Es handelt sich dabei um eine Klassifizierung für Anwendungsfälle und Lösungen, die auf fortschrittliche Technologien wie maschinelles Lernen, erweiterte Analyse (Augmented Analytics) und neuronale Netze zurückgreifen.

Die Datenanalyse dient der Schaffung von geschäftlichen Erkenntnissen, mit denen Unternehmen vergangene Ereignisse verstehen, zukünftige Ereignisse vorhersagen und Maßnahmen planen können.

Die vier Phasen der Daten-Pipeline lauten: Aufnahme, Vorbereitung, Analyse und Aktion.

Sowohl die beschreibende Analyse als auch die diagnostische Analyse blicken in die Vergangenheit. Die beschreibende Analyse beantwortet die Frage, was geschehen ist, während die diagnostische Analyse untersucht, warum etwas geschehen ist.

Die beschreibende Analyse blickt in die Vergangenheit, um zu berichten, was bereits geschehen ist. Sie dient als Fundament für alle anderen Analysen. Die vorschreibende Analyse gibt auf der Grundlage vorhandener Daten und vorausschauender Algorithmen Handlungsempfehlungen ab.

Sowohl die vorausschauende als auch die vorschreibende Analyse erzeugen Erkenntnisse über die Zukunft. Vorausschauende Analysen erzeugen eine Prognose über voraussichtliche Ereignisse, während vorschreibende Analysen basierend auf diesen Vorhersagen eine Maßnahme empfehlen.

Die vorausschauende Analyse dient dazu, zukünftige Ereignisse besser voherzusehen. Die vorausschauende Analyse kann Wartungsbedarf erkennen, bevor dieser akut wird, und die wahrscheinlichsten Auswirkungen wirtschaftlicher Bedingungen auf zukünftige Umsatzprognosen ermitteln.

Inhalte zu diesem Thema

Erfahren Sie mehr über Intel® Technik für Datenanalysen.

Datenanalyse

Erfahren Sie, wie Analysen Unternehmen dabei helfen, zuverlässige, handlungsorientierte Erkenntnisse zu erhalten und ihre Analysestrategie weiterzuentwickeln.

Optimale Nutzung von Analysen

Fortgeschrittene Datenanalyse

Intelligentere Unternehmen beginnen mit der Verwendung fortschrittlicher Analysen. Erfahren Sie, wie Sie sich mit Intel® Technik auf einem datengesteuerten Markt Vorteile verschaffen können.

Sorgen Sie für eine intelligentere Analysestrategie

Analyse mit maschinellem Lernen

Durch maschinelles Lernen und künstliche Intelligenz erhalten Sie in kürzerer Zeit tiefere Einblicke, was die Erledigung von Analyseaufgaben deutlich vereinfacht.

Nutzen Sie Ihr volles Potenzial

Vorausschauende Analyse

Nutzen Sie Ihre Daten, um sich durch handlungsorientierte Vorhersagen über die Zukunft Wettbewerbsvorteile zu verschaffen.

Sehen Sie mittels vorausschauender Analyse weiter in die Zukunft

Hinweise und Haftungsausschlüsse
Für die Funktion bestimmter Technik von Intel® kann entsprechend konfigurierte Hardware, Software oder die Aktivierung von Diensten erforderlich sein. // Kein Produkt und keine Komponente bieten absolute Sicherheit. // Ihre Kosten und Ergebnisse können variieren. // Intel hat keinen Einfluss auf und keine Aufsicht über die Daten Dritter. Sie sollten andere Quellen heranziehen, um die Genauigkeit zu beurteilen.

Produkt- und Leistungsinformationen

1“What Your Data Isn’t Telling You: Dark Data Presents Problems And Opportunities For Big Businesses,” Forbes, Juni 2019, forbes.com/sites/marymeehan/2019/06/04/what-your-data-isnt-telling-you-dark-data-presents-problems-and-opportunities-for-big-businesses/#3086fe21484e.
2SAP HANA* simulated workload for SAP BW edition for SAP HANA* Standard Application Benchmark Version 2, Stand vom 30. Mai 2018. In Leistungstests verwendete Software und Workloads können speziell für die Leistungseigenschaften von Intel® Mikroprozessoren optimiert worden sein. Leistungstests wie SYSmark* und MobileMark* werden mit spezifischen Computersystemen, Komponenten, Softwareprogrammen, Operationen und Funktionen durchgeführt. Jede Veränderung bei einem dieser Faktoren kann abweichende Ergebnisse zur Folge haben. Für eine umfassende Bewertung Ihrer vorgesehenen Anschaffung, auch im Hinblick auf die Leistung des betreffenden Produkts in Verbindung mit anderen Produkten, sollten Sie zusätzliche Informationen und Leistungstests heranziehen. Ausführlichere Informationen finden Sie unter www.intel.de/benchmarks. Die Leistungswerte basieren auf Tests, die mit den in den Konfigurationen angegebenen Daten durchgeführt wurden. Sie spiegeln möglicherweise nicht alle öffentlich verfügbaren Updates wider. Einzelheiten zur Konfiguration siehe Backup. Kein Produkt bzw. keine Komponente bietet absolute Sicherheit. Grundkonfiguration mit traditionellem DRAM: Lenovo ThinkSystem SR950 Server mit acht Intel® Xeon® Platinum 8176M Prozessoren (28 Kerne, 165 Watt, 2,1 GHz). Der Gesamtspeicher besteht aus 48x 16GB TruDDR4 2.666 MHz RDIMMs und 5x ThinkSystem 2,5” PM1633a SAS 12 GB Hot-Swap Solid-State Drives (SSDs) mit 3,84 TB Kapazität für SAP HANA* Datenspeicher. Das Betriebssystem ist SUSE Linux Enterprise Server 12* SP3. Es verwendet SAP HANA* 2.0 SPS 03 mit einem 6-TB-Datensatz. Durchschnittliche Startzeit für alle Daten, die nach dem Tabellen-Preload für 10 Iterationen beendet sind: 50 Minuten. Neue Konfiguration mit einer Kombination aus DRAM und persistentem Intel® Optane™ DC Speicher: Intel Lightning Ridge SDP mit 4x CXL QQ89 AO Prozessor (24 Kerne, 165 Watt, 2,20 GHz). Der Gesamtspeicher besteht aus 24x 32GB DDR4 2.666 MHz und 24x 128GB AEP ES2 und 1x Intel® SSD DC S3710 Series 800 GB, 3x Intel® SSD DC P4600 Series 2,0 TB, 3x Intel® SSD DC Series S4600 mit 1,9 TB Kapazität. BIOS-Version: WW33’18. Das Betriebssystem ist SUSE Linux*4 Enterprise Server 15. Es verwendet SAP HANA* 2.0 SPS 03 (ein spezifischer PTF-Kernel von SUSE wurde angewendet) mit einem 1,3-TB-Datensatz. Durchschnittliche Startzeit für optimierten Tabellen-Preload (17-fache Verbesserung).