Minitab-Workshop: Statistik für Six Sigma, DFSS, Industrie 4.0 und Big Data

Nächste Termine

In diesem Workshop werden Verfahren und Methoden der Statistik, welche im Qualitätsmanagement, Six Sigma und Design for Six Sigma zur Anwendung kommen, vertieft betrachtet. Zudem werden Methoden vorgestellt, die durch neue Ansätze wie: "Industrie 4.0" und "Internet of Things" ermöglicht werden.

Ein besonderer Blick wird dabei auf Qualität und die Gestaltung von Stichproben gelegt. Das Themenspektrum reicht von der tieferen Diskussion von Stichproben und Verteilungen, über die Wertigkeit von Qualitätstools wie: Regelkarten, Prozessfähigkeitsanalysen und Lebensdauerschätzungen, Anwendbarkeit von Simulationen und multivariaten Analysen, bis zu den Grundlagen des Data Mining und Big Data-Analysen.

Dieser Workshop ist ideal für Anwender, die regelmäßig mit komplexen Datenanalysen konfrontiert sind. Alle Inhalte sind kompakt gestaltet und ansatzorientiert aufgebaut (Grundidee – theoretischer Hintergrund – Fallbeispiele). Die Teilnehmer erhalten einen Überblick über die vielfältigen Möglichkeiten von Minitab, sowie des Companion by Minitab. Dabei wird vermittelt, welche Verfahren in unterschiedlichen Situationen angewendet werden können und wie eine aussagekräftige statistische Analyse auch in Problem- oder Nicht Standard-Situationen erarbeitet werden kann.
Nach einem schnellen Einstieg in die jeweiligen Themenbereiche werden verschiedene praxisorientierte Methoden und Verfahren vertieft und anhand von Fallbeispielen diskutiert. Zudem ist es möglich, Echtdaten im Workshop vorzustellen und zu analysieren. Der Kurs stellt eine ideale Ergänzung zu einer bereits vorhandenen Six Sigma-Ausbildung dar.

Kursinhalte

Stichproben, Datenqualität und Analyseergebnisse

  • Merkmale und Maßzahlen, Daten und Qualität
  • Voraussetzungen für statistische Tests, Testen von Hypothesen, Signifikanz
  • Umgang mit Stichproben, Methoden zur Sicherung der Datenqualität (Test auf Ausreißer), Güte und Operationscharakteristik
  • 10 größte Fehler bei Erstellung von Stichprobendaten, insb. Diskussion der Problematik mittelwertsbezogener Analysen

Verteilungen

  • Vom Histogramm zur Verteilung, Umgang und Schätzungen mit nicht-normalverteilten Daten, nicht-parametrische Verteilungen u. Tests, Quantilanalyse, Transformation
  • Anwendungsbeispiele: Richtige Auswahl weiterführender statistischer Methoden, Risikoanalysen, Aufbau von Simulationsmodellen, Verteilungen (auch Vergleich) für attributive Daten

Statistische Modellbildung

  • Regressionsmodelle: Chi-Quadrat-Analyse, GLM (z.B. Messsystemanalysen, Design of Experiments), logistische Regressionen, Best Subsets, partielle Regression
  • Interpretation der wichtigsten Begriffe bei Regressionen
  • Anwendungsbeispiele: Trennschärfe und Güte, Faktoren und Kovariate, Design of Experiments (DoE), DoE mit binärer Antwortvariable
  • Einführung in die Zeitreihenanalyse

Lebensdauer-, Zuverlässigkeitsund Garantieanalysen

  • Lebensdaueranalyse für verschiedene und gemischte Verteilungen, auch unter Zensur
  • Anwendungsbeispiele: Ausfallzeitpunkte und Wahrscheinlichkeiten prognostizieren, Simulation für Lebensdauerdaten, insb. für Systeme (z.B. im Rahmen von DFSS)

Advanced Process Control, Multivariate Analysen, Data Mining und Big Data

  • Einführung in den Ansatz des Advanced Process Control, insb. der Model-based Prediction
  • Cluster-, Faktoren- und Diskriminanzanalyse, Ausblick auf Data Mining
  • Anwendungsbeispiele: Zusammenhänge von Merkmalen (kontinuierlich, attributiv, auch gemischt) identifizieren
  • Data Mining-Ansätze für Streaming und Big Data-Analysen

Dauer: 2 Tage
Sprache: deutsch
Material: deutsch
Preis: 1.170,- € zzgl. MwSt.

Voraussetzungen:
Grundkenntnisse in Microsoft® Windows
Grundlegende Minitab und Six Sigma Erfahrungen.

ID=204