Ein Verständnis von Daten auf grundlegender Ebene ist entscheidend für den Aufbau eines erfolgreichen Unternehmens. Die Datenanalyse ist der Prozess, durch den Rohdaten zu nutzbarem Wissen werden, das in der Praxis angewendet werden kann. Intel® Technik kommt in allen Phasen der Daten-Pipeline zum Einsatz, um Unternehmen die Erfassung und Analyse für praktisch jeden Zweck zu erleichtern.
Ein Verständnis von Daten auf grundlegender Ebene ist entscheidend für den Aufbau eines erfolgreichen Unternehmens. Die Datenanalyse ist der Prozess, durch den Rohdaten zu nutzbarem Wissen werden, das in der Praxis angewendet werden kann. Intel® Technik kommt in allen Phasen der Daten-Pipeline zum Einsatz, um Unternehmen die Erfassung und Analyse für praktisch jeden Zweck zu erleichtern.
Überblick über die Datenanalyse
- Bei einer Datenanalyse werden Rohdaten in Wissen und Erkenntnisse umgewandelt, die zum Treffen besserer Entscheidungen dienen können.
- Bei der Analyse durchlaufen Daten vier Pipeline-Phasen: Aufnahme (Datenerfassung), Vorbereitung (Datenverarbeitung), Analyse (Datenmodellierung) und Aktion (Entscheidungsfindung).
- Fortgeschrittene Analysen mithilfe maschinellen Lernens und künstlicher Intelligenz (KI) bieten Unternehmen mit ausgereiften Analysefunktionen neue Möglichkeiten.
Erfahren Sie mehr über die KI-Analyse mit Intel
Für Unternehmen und Organisationen aller Art kann die Umwandlung von Daten in handlungsorientierte Erkenntnisse den Unterschied zwischen Erfolg oder Misserfolg bedeuten. Zur Maximierung des Werts von Informationen sind Datenanalysen erforderlich: Dabei werden Rohdaten analysiert, um Schlussfolgerungen zu ziehen.
Zwar analysieren bereits die meisten Unternehmen bestimmte Daten, doch erst moderne Analysen ermöglichen ein beispielloses Maß an Wissen und Erkenntnissen. Wie weit ist Ihr Unternehmen auf dem Weg zu einer daten- und analysegesteuerten Kultur – und wie sieht der nächste Schritt aus?
Das Fundament stellt die Daten-Pipeline dar.
Informationen zur Daten-Pipeline
Die Entwicklung eines optimalen Datenanalyse-Ansatzes ist ein evolutionärer Prozess, der Zeit und Engagement voraussetzt. Unternehmen, die für den nächsten Schritt bereit sind, sollten die Daten-Pipeline sowie den Lebenszyklus von Daten verstehen, die diese Pipeline durchlaufen.
-
Aufnahme: Datenerfassung
Die erste Phase der Daten-Pipeline ist die Aufnahme von Daten. In dieser Phase werden Daten aus Quellen erfasst und in ein System verschoben, in dem sie gespeichert werden können. Daten lassen sich als kontinuierlicher Stream oder als Serie von diskreten Ereignissen erfassen.
Bei den meisten unstrukturierten Daten – Schätzungen der IDC zufolge 80 bis 90 Prozent1 – stellt die Erfassung Anfang und Ende des Datenlebenszyklus dar. Diese Daten, „Dark Data“ genannt, werden aufgenommen, aber nie analysiert oder genutzt, um Handlungen im Rest des Unternehmens zu beeinflussen.
Einer der größten Trends bei fortgeschrittener Datenanalyse beginnt heute bereits in der Aufnahmephase. Dabei wird parallel zum Aufnahmeprozess eine Echtzeit-Analyse der gestreamten Daten durchgeführt. Dies wird als Edge-Analyse bezeichnet und erfordert eine hohe Rechenleistung bei geringem Stromverbrauch. Die Edge-Analyse umfasst häufig IoT-Geräte und Sensoren, die Daten von Geräten erfassen, darunter von Fabrikmaschinen, Straßenlaternen in der Stadt, landwirtschaftlichen Geräten oder anderen vernetzten Dingen. -
Vorbereitung: Datenverarbeitung
In der nächsten Phase der Daten-Pipeline werden die Daten zur Verwendung vorbereitet und Informationen in einem System gespeichert, das für Benutzer und Anwendungen zugänglich ist. Um die Qualität von Daten zu optimieren, müssen sie bereinigt und in Informationen umgewandelt werden, die sich leicht aufrufen und abfragen lassen.
In der Regel werden Daten in einer Datenbank vorbereitet und gespeichert. Verschiedene Arten von Datenbanken werden verwendet, um Daten in unterschiedlichen Formaten und für verschiedenartige Zwecke zu erschließen und zu analysieren. In der Regel übernehmen relationale SQL*-Datenbankmanagementsysteme wie SAP HANA* oder Oracle DB* die Verarbeitung strukturierter Datensätze. Dazu können Finanzdaten, Anmeldedaten oder Daten zur Auftragsverfolgung gehören. Unstrukturierte Daten-Workloads und Echtzeit-Analysen nutzen eher NoSQL*-Datenbanken wie Cassandra und HBase.
Eine Optimierung dieser Phase der Daten-Pipeline erfordert für schnellere Abfragen eine hohe Rechen- und Arbeitsspeicherleistung sowie Datenverwaltung. Außerdem ist zur Unterstützung großer Datenmengen eine Skalierbarkeit erforderlich. Daten können je nach Dringlichkeit und Nützlichkeit in bestimmten Stufen gespeichert werden, damit die wichtigsten Daten am schnellsten abgerufen werden können.
Intel® Technik unterstützt heute mehrere der speicher- und arbeitsspeicherintensivsten Anwendungen im Datenbankbereich. Mit Intel® Optane™ SSDs konnte Alibaba Cloud* 100 TB Speicherkapazität für jede POLARDB-Instanz bereitstellen. -
Analyse: Datenmodellierung
In der nächsten Phase der Daten-Pipeline werden die gespeicherten Daten analysiert und Modellierungsalgorithmen erstellt. Daten können über eine End-to-End-Analyseplattform wie SAP, Oracle oder SAS analysiert oder von Tools wie Apache Spark* mit hoher Skalierung verarbeitet werden.
Die Beschleunigung und Reduzierung der Kosten für diese Phase der Daten-Pipeline ist entscheidend, um einen Wettbewerbsvorteil zu erzielen. Bibliotheken und Toolkits können Entwicklungsdauer und -kosten reduzieren. Unterdessen können Hardware- und Softwareoptimierungen dazu beitragen, die Ausgaben für Server und Rechenzentren zu senken, und gleichzeitig die Reaktionszeiten verbessern.
Techniken wie In-Memory-Analysen können Datenanalysefunktionen optimieren und Analyseinvestitionen kosteneffektiver machen. Mithilfe von Intel ist es dem Chemieunternehmen Evonik gelungen, Neustarts von SAP HANA*-Datentabellen um das 17-Fache zu beschleunigen.2 -
Aktion: Entscheidungsfindung
Nachdem Daten aufgenommen, vorbereitet und analysiert wurden, können Unternehmen sie nun in der Praxis anwenden. Datenvisualisierung und Berichterstattung helfen bei der Vermittlung von Analyseergebnissen.
Traditionell war eine Interpretation durch Datenwissenschaftler oder Analysten erforderlich. Sie mussten die Ergebnisse in Geschäftsinformationen umwandeln, die auf breiterer Basis genutzt werden konnten. Unternehmen nutzen jedoch inzwischen auf Grundlage von Analysen KI zur Automatisierung von Aktionen (wie z. B. Senden eines Wartungsteams oder Ändern der Raumtemperatur).
Mehr Informationen über die Daten-Pipeline und dazu, wie Unternehmen ihre Analysefunktionen weiterentwickeln können, finden Sie in unserem E-Book From Data to Insights: Maximize Your Data Pipeline (Erkenntnisse aus Daten: Optimieren Sie Ihre Daten-Pipeline).
Wie weit ist Ihr Unternehmen auf dem Weg zu einer daten- und analysegesteuerten Kultur – und wie sieht der nächste Schritt aus?
Die vier Arten der Datenanalyse
Datenanalysen können in vier Grundtypen unterteilt werden: beschreibende Analysen, diagnostische Analysen, vorausschauende Analysen und vorschreibende Analysen. Dies sind Schritte hin zur Analysereife, wobei jeder Schritt den Abstand zwischen den Phasen „Analyse“ und „Aktion“ der Daten-Pipeline verkürzt.
-
Beschreibende Analyse
Beschreibende Analysen dienen dazu, historische Daten zusammenzufassen und zu visualisieren. Mit anderen Worten: Sie berichten Unternehmen, was bereits geschehen ist. Eine beschreibende Analyse – die einfachste Analyseart – kann aus einem einfachen Diagramm bestehen, in dem die Umsatzzahlen des vergangenen Jahres analysiert werden. Jede Analysemaßnahme setzt ein zuverlässiges Fundament an beschreibender Analyse voraus. Viele Unternehmen setzen weiter vor allem auf diese Form von Analyse, die Dashboards, Datenvisualisierungen und Berichterstattungstools umfasst. -
Diagnostische Analyse
Mit zunehmender Analysereife beginnen Unternehmen damit, an ihre historischen Daten immer anspruchsvollere Anforderungen zu stellen. Die diagnostische Analyse untersucht nicht nur, was geschehen ist, sondern auch warum es geschehen ist. Für diagnostische Analysen müssen Analysten in der Lage sein, detaillierte Abfragen auszuführen, um Trends und Ursachen zu ermitteln. Durch diagnostische Analysen lassen sich neue Beziehungen zwischen Variablen erkennen: Bei einem Sportbekleidungsunternehmen zum Beispiel können steigende Umsatzzahlen in einer bestimmten Region mit gutem Wetter zusammenhängen. Die diagnostische Analyse gleicht Daten mit Mustern ab und sorgt dafür, dass anormale Daten und Datenausreißer erklärt werden. -
Vorausschauende Analyse
Während bei den ersten beiden Analysearten historische Daten untersucht werden, blicken sowohl die vorausschauende Analyse als auch die vorschreibende Analyse in die Zukunft. Die vorausschauende Analyse schafft eine Prognose für wahrscheinliche Ergebnisse, basierend auf identifizierten Trends und statistischen Modellen, die aus historischen Daten abgeleitet wurden. Die Entwicklung einer Strategie für die vorausschauende Analyse setzt Modellerstellung und -validierung voraus, sodass optimierte Simulationen entstehen, mit denen geschäftliche Entscheidungsträger die besten Ergebnisse erzielen können. Häufig wird für die vorausschauende Analyse maschinelles Lernen genutzt,wobei Modelle mit hochskalierten Datensätzen trainiert werden, um intelligentere Vorhersagen zu ermöglichen. -
Vorschreibende Analyse
Eine weitere fortschrittliche Analyseart ist die vorschreibende Analyse. Mittels einer vorschreibenden Analyse, die auf der Grundlage einer vorausschauenden Analyse die beste Lösung empfiehlt, ist die Entwicklung hin zu einer echten datengesteuerten Entscheidungsfindung abgeschlossen. Die vorschreibende Analyse basiert stark auf der Analyse mit maschinellem Lernen und neuronalen Netzen. Diese Workloads werden mithilfe leistungstarker Rechen- und Arbeitsspeicherressourcen ausgeführt. Diese Art von Analyse setzt ein zuverlässiges Fundament voraus, das auf den anderen drei Arten von Analyse aufbaut, und ist nur Unternehmen mit einer hochentwickelten Analysestrategie zugänglich, die bereit sind, erhebliche Ressourcen in das Projekt zu investieren.
Anwendungsfälle für Datenanalysen
Intel® Technik erlaubt modernen Unternehmen, neuartige Analysen durchzuführen. Mit Blick auf Anwendungsfälle, die zahlreiche Branchen – und Länder weltweit – umfassen, arbeitet Intel kontinuierlich daran, Analysen weiterzuentwickeln und Unternehmen bei der Optimierung von Leistung und Kosteneffektivität zu unterstützen.
-
Verarbeitendes Gewerbe
Bei Automobilherstellern können Qualitätskontrollen Geld sparen – und Leben retten. Im automatisierten Werk von Audi nutzten Analysten bislang Stichproben zur Sicherstellung der Schweißqualität. Durch vorausschauende Analysen am Netzwerkrand, die auf Industrial Edge Insights Software von Intel basiert, kann der Hersteller jede Schweißnaht bei allen Fahrzeugen automatisch überprüfen und Probleme beim Schweißen voraussagen. Dazu dienen Sensormesswerte, die zum Zeitpunkt des Schweißens erfasst wurden. -
Gesundheitswesen
Wenn KI darauf trainiert wird, Thorax-Röntgenaufnahmen zu lesen, können Patienten und Gesundheitsdienstleister schnellere Diagnosen erhalten. Unter Einsatz skalierbarer Intel® Xeon® Prozessoren für die Unterstützung eines neuronalen Netzes ist es der Forschungseinrichtung SURF gelungen, die Trainingsdauer von einem Monat auf sechs Stunden zu reduzieren und gleichzeitig die Genauigkeit zu verbessern. -
Telekommunikation
Smartphones und das mobile Internet haben für beispiellose Mengen an mobilen Daten gesorgt. Zur Verbesserung der Kundenerfahrung hat sich der Telekommunikationsanbieter Bharati Airtel entscheiden, mithilfe von Intel® Xeon® Prozessoren und Intel® SSDs eine fortschrittliche Netzwerkanalyse zu nutzen, um Probleme im Netzwerk schneller erkennen und beheben zu können.
Intel® Technik für Datenanalyse
Angesichts eines breiten Ökosystems an Technologien und Partnern, die Unternehmen bei der Entwicklung der Lösungen von morgen helfen, beruhen fortschrittliche Analysen in Unternehmen weltweit auf Produkten von Intel. Vom Rechenzentrum bis zum Netzwerkrand: Intel setzt an jedem Punkt im Analyse-Ökosystem darauf, für maximalen Nutzen und optimale Leistung zu sorgen.
- Skalierbare Intel® Xeon® Prozessoren ermöglichen es, massive Datenmengen mit hoher Geschwindigkeit zu analysieren, egal ob am Netzwerkrand, im Rechenzentrum oder in der Cloud.
- Intel® Optane™ Technologie ist ein revolutionärer Ansatz für Arbeitsspeicher und Datenspeicher, mit dem sich Engpässe beim Verschieben und Speichern von Daten überwinden lassen.
- Intel® FPGAs sorgen für Beschleunigung im Rechenzentrum, um Reaktionszeiten zu verbessern.
- Intel® Select Lösungen wurden auf optimale Leistung geprüft und sorgen für weniger Rätselraten sowie eine beschleunigte Lösungsbereitstellung.