Datenanalyse

 
 
 
 
 
 
 
 
 
 
 
 


Methodische Datenanalyse für Ihre individuellen Bedürfnisse
Ob noch ganz zu Beginn Ihrer Digitalisierungsreise oder mit breiter Expertise in der statistischen Auswertung und dem Maschinellen Lernen; wir unterstützten Sie dort, wo Sie gerade stehen. Dabei untersuchen wir zusammen mit Ihnen Ihren Anwendungsfall und die entstehenden Daten. In einer ersten Datenpotentialanalyse bewerten wir die Qualität Ihrer Daten in Bezug auf den Anwendungsfall, das Geschäftsmodell und die gewünschten datenbasierten Services. Anschließend entwickeln wir gemeinsam mit Ihnen Vorhersagemodelle für Ihre Herausforderung. Unser Fokus liegt dabei auf der Auswertung von zeitabhängigen Prozess- und Anlagendaten.


Ihr Weg zu den Maschinendaten: Aufbau der Datenerfassung
Unsere Hard- und Softwareingenieure erarbeiten gemeinsam mit Ihnen ein Verständnis der für das Geschäftsmodell notwendigen Infrastruktur. Welche Messgrößen sollen in welchem Wertebereich gemessen werden? Welche Messgenauigkeit ist erforderlich? Welche Hardware wird für Ihren Anwendungsfall benötigt? Gemeinsam definieren wir die Datenaufnahme und Übertragung und wählen herstellerneutral die passende Hard- und Software aus.


Inhalt:

  • Einführung in die Grundlagen von Cloud-, Hybrid- und Edge-Lösungen
  • Spezifizierung notwendiger Infrastruktur-Komponenten mit Blick auf unter anderem Funktionalität, Architektur und Preisgestaltung
  • Identifikation relevanter Messstellen und Planung der Sensorik
  • Präzise und herstellerneutrale Lastenhefterstellung
  • Festlegung Zielort und Auswahl von Feldmaschinen für die erste Datenerfassung

Vorgehen:

  • Durchführung von bis zu drei Workshops - je nach Anwendungsfall und Vorarbeit
  • Workshopleitung durch 1x Berater und 1x Software- oder Hardwareexperte
  • Teilnehmende Ihrerseits: Min. 1x Prozessexperte und 1x Projektverantwortlicher
  • Teilweise oder komplette Lastenhefterstellung



Sie haben viele Daten, wissen aber nicht wie Sie damit Mehrwerte schaffen? Wir unterstützen Sie!

Monetarisierung Ihrer Maschinendaten
Unser praxiserfahrenes Data Science Team unterstützt Sie bei der Sicherstellung der notwendigen Datenverfügbarkeit und Datenqualität: Wie viele verschiedene Signale müssen verarbeitet werden und welche Abhängigkeiten liegen zwischen den einzelnen Signalen vor? Weisen Ihre Daten bestimmte Trends auf oder liegen Wertesprünge vor? Gibt es Ausreißer, unplausible oder fehlende Datenpunkte? Gemeinsam reduzieren wir den Aufwand für die Datenaufnahme und Datenverarbeitung. Wir sichten die vorhandenen Maschinendaten und bewerten die Aussagefähigkeit für das geplante Geschäftsmodell.


Inhalt:

  • Verständnis der Datenaufnahme
  • Vorverarbeitung der Daten
  • Datenpotentialanalyse

Vorgehen:

  • Zur Verfügung stellen der Daten als beispielsweise CSV, JSON, HDF5 oder ähnliches
  • Sichtung der aufgenommenen Daten und Bewertung der Datenqualität
  • Vorverarbeitung der Daten inklusive Normalisierung und Ausgleich von Fehldaten
  • Visualisierung der einzelnen Variablen als Zeitreihe und Histogramm
  • Berechnung und Darstellung eindimensionaler Kennwerte
  • Berechnung von Abhängigkeiten zwischen den Variablen
  • Bewertung der Korrelation ich Hinblick auf die Fragestellung
  • Ableiten von Handlungsempfehlungen für die zusätzliche Aufnahme von Datenpunkten oder die Erhöhung der Datenqualität


Sie benötigen die richtigen Algorithmen für Ihre Analyseaufgabe? Kein Problem - Wir gehen die Herausforderung mit Ihnen an!

Entwicklung und Implementierung eines geeigneten Analyseverfahrens
Auf Basis der vorangehenden Schritte entwickeln wir Ihr individuelles Analyseverfahren durch die Anwendung geeigneter statistischer Methoden oder Machine Learning Modelle für Ihre Maschinen. Wir integrieren dieses entweder lokal oder über eine Cloud-Lösung in Ihre Prozesse.


Inhalt:

  • Entwicklung und Validierung eines Baseline-Modells für die Datenanalyse mittels statistischer Methoden oder Machine Learning unter Berücksichtigung der vorliegenden Daten
  • Konfiguration der Datenpipeline
  • Aufbau der Umgebung für das Trainieren der Modelle
  • Verbinden und Testen der Funktionen
  • Bereitstellung eines Notifikationsdienstes oder einer Visualisierung
  • Vorstellung des Proof of Concept
  • Aufwandsabschätzung für die Bereitstellung in das Produktivsystem

Vorgehen:

  • Das konkrete Vorgehen stimmen wir auf Ihre individuellen Anforderungen ab. Wir wollen mit Ihnen zusammen die einfachste Lösung finden, welche Ihre Qualitätsanforderungen vollumfänglich erfüllt.


Einblick in unsere Arbeitsweise
Die Umsetzung eines datenbasierten Geschäftsmodells für Ihre Maschinen ist in der Praxis nicht immer gleichbedeutend mit der Auseinandersetzung mit komplexen Algorithmen oder künstlicher Intelligenz. Wir bevorzugen Lösungen, die frei nach Albert Einstein so einfach wie möglich, aber nicht einfacher, aufgebaut sind. Im Folgenden geben wir Ihnen einen kurzen Einblick in unsere Arbeitsweise.

So einfach wie möglich, so komplex wie nötig

Wir bieten Ihnen einen Analyseservice an, der ihre Aufgabenstellung erfüllt. Das muss nicht zwangsläufig ein komplexes Machine Learning Modell sein. Viele Aufgabenstellungen lassen sich mit konventioneller Statistik sehr zuverlässig und performant lösen, ohne dass Sie sehr große Datenmengen benötigen.

Beispielsweise kann das SARIMA-Verfahren oftmals sehr gut zur Prognose von zyklischen Zeitreihendaten mit saisonalem Einfluss genutzt werden. Verfahren wie Support Vector Machine oder Random Forest eignen sich beispielsweise für die Klassifikation von bestimmten Daten.

Gezielter Einsatz von künstlicher Intelligenz

Sollte es Ihre Aufgabenstellung erfordern, entwickeln wir für Sie komplexe maschinelle Lernalgorithmen, beispielsweise auf Basis neuronaler Netze.

Rekurrente neuronale Netze wie seispielsweise Long Short-Term Memory (LSTM) oder Gated Recurrent Units (GRU) eignen sich dabei hervorragen für die Analyse von großen Zeitreihendatensätzen. Aufgebaut als Autoencoder können diese Methoden verwendet werden, um beispielsweise komplexe Zeitreihenverläufe auch längerfristig vorherzusagen.

Smart Data statt Big Data

Zusammen mit Ihrer Prozessexpertise ist es in vielen Fällen möglich, geeignete Simulationsmodelle aufzubauen oder generative neuronale Netze einzusetzen. So lässt sich ein kleiner Datenbestand zielgerichtet vergrößern und für das Training komplexer maschineller Lernverfahren nutzen. Gemeinsam mit Ihren Experten stellen wir sicher, dass die synthetisch erzeugten Daten die Realität widerspiegeln.

Einfache Integration in Feldapplikationen

Damit Sie unsere Zuarbeit sowie komplexere Algorithmen und Modelle von uns einfach nutzen können, arbeiten wir mit gängigen Verfahren zur Bereitstellung einer Applikation. Basierend auf Docker-Containern können wir unsere Entwicklungen bei Ihnen ausrollen. Entweder lokal oder als Cloud-Lösung.

Insbesondere bei Cloud-Anwendungen ist ein hohes Maß an Datensicherheit und Vertrauenswürdigkeit wichtig. Mit Microsoft Azure nutzen wir eine etablierte Plattform, um genau diese Anforderungen für Sie zu bedienen. Die Azure Cloud bietet hierbei ausgezeichnete Möglichkeiten, um einen schlanken Entwicklungsprozess zu realisieren und die Bereitstellung und Wartung des Quellcodes bzw. der Anwendung effizient zu realisieren. Systemnahe Anwendungen können hiermit direkt an der Maschine ausgeführt werden. Anwendungen mit hohen Leistungsanforderungen bzw. großem Speicherbedarf können dagegen kostengünstig in der Cloud ausgeführt werden. Selbstverständlich bietet die Microsoft Azure Cloud auch die Möglichkeit, beide Welten zielgerichtet miteinander zu verknüpfen.