Datenanalyse mit Algorithmen zur Prozess-Optimierung

Investment%20Chart_edited.jpg

Mit unseren Ansätzen zur modellgestützten Datenanalyse liefern wir mehr detaillierte und belastbare Aussagen für zwei strategische Problembereiche:

 

  • die Belastung der Prozesse durch die technische Struktur der Produkte und Betriebsmittel, und

  • das Aufzeigen von Kapazitätsreserven in „brown field“ – Fabriken

Die technische und organisatorische Komplexität einer Fabrik mit einer Vielzahl an Produkten, Materialien und Arbeitsprozessen eignet sich nicht besonders für den Einsatz von „deep learning“ – Algorithmen als Spitze der Künstlichen Intelligenz, deren Anwender durchaus zugeben, dass sie nicht wissen, wie ihr System eigentlich agiert. Wir gehen deshalb „eine Stufe zurück“ und bilden die Erfahrung von Experten in unseren Modellen ab. Dadurch entstehen einerseits gezielte Abfragen nach Daten, zum anderen ist das Zustandekommen der Ergebnisse transparent, nachvollziehbar und überprüfbar.
 

Datenanalyse zur Ermittlung der Belastung der Prozesse durch die technische Struktur der Produkte und Betriebsmittel (Technik- und KPI- basierte Kostenrechnung)

Die wertbezogenen Zuschlagssätze für Gemeinkosten bilden bekannter Weise nicht den Aufwand ab, den die verschiedenen Materialien im Wertschöpfungsprozess verursachen, z.B. im Einkauf, dem Wareneingang und dem innerbetrieblichen Transport.
Weder die Vollkostenrechnung, noch die Deckungsbeitragsrechnung, und auch nicht die Prozesskostenrechnung berücksichtigen den unterschiedlichen Zeitverbrauch je nach Komplexität und Unterschiedlichkeit von Produkten und Materialien, der zwischen Standardteilen und kundenspezifischen Teilen stark abweicht.

 


Wir haben deshalb zwei neue Ansätze zur Datenanalyse konzipiert und angewendet: 

  • ein „top down“- Ansatz, der an der technischen Struktur von Produkten und Materialien basiert, ergänzt um Prozeß-Häufigkeiten, die im ERP- System automatisch anfallen,

  • ein „bottom up“- Ansatz, der an den Einflußfaktoren auf Informationsprozesse bei der Bearbeitung durch die Mitarbeiter ansetzt, auch um Prozeß-Häufigkeiten ergänzt.

VT1.JPG

Hier die Ergebnisse einer Analyse in einem Geschäftsbereich eines Großunternehmens. Der bisherige wert-orientierte Gemeinkosten-Zuschlag wurde für jede einzelne Produktgruppe normiert, d.h. zu 100 % angesetzt und den Ergebnissen einer „reinen“ Prozesskostenrechnung und unseren beiden Ansätzen gegenüber gestellt.

Prozess2.png

Die größten Abweichungen in den Ergebnissen liegen insgesamt gesehen zwischen der traditionellen Vollkostenrechnung und der „reinen“ Prozesskostenrechnung. 
Wir können mit unseren beiden unterschiedlichen Analyseansätzen die Belastung der Prozesse durch die verschiedenen Materialien und Produkte besser erfassen und ausweisen.

Als Nebeneffekt der Analyse können wir auch Aussagen zur Kapazitäts- Auslastung machen. Basis ist unser Erfahrungs- Pool über die Extraktion von Prozess- Leistungsindikatoren aus SAP und Zeitnormwerten aus dem SAP- Labor. 
Bei diesem Beispiel konnten so Lücken in der Kapazitätsbeanspruchung transparent gemacht werden, die zwischen 20 % und 40 % der Kapazität in den untersuchten Bereichen betragen haben.

 

Top down – Analyse zum Aufzeigen von Kapazitätsreserven in „brown field“ – Fabriken

Erfolgreiche Unternehmen leiden oft unter Kapazitäts-Engpässen in den Fabriken, die nicht mit einem neuen Werk auf der grünen Wiese auf die Schnelle aufgebohrt werden können. Nach unseren Erfahrungen gibt es aber in den meisten vorhandenen Werken ein genügend großes, aber mehr oder weniger verborgenes Potential an Produktivitätserhöhung. Gefühlsmäßig weiß das Management um dieses Potential, aber es fehlen verlässliche Daten über die tatsächlich mögliche höhere Kapazitäts- Nutzung.

 

Hier hilft unsere Top down – Analyse, die über die monetären Werte der Bestände an Unfertigen Erzeugnissen und Fertigerzeugnissen zunächst die durchschnittliche Durchlaufzeit im Lager und in der Produktion ermittelt.
 

Prozess3.png

Hohe Liegezeiten bremsen den Output

Mit meist großzügig bemessenen Zeit-Annahmen für die physikalische Bearbeitungszeit und die Transportzeiten ( hier 7 Tage) läßt sich eine durchschnittliche Liegezeit, hier für die Produktion, berechnen, die mit 93% sehr hoch ist :

Prozess4.png

Der direkte Zusammenhang zwischen einer langen Durchlaufzeit mit hohem Liege- bzw. Wartezeitanteil und einer schlechten Kapazitätsnutzung ist alleine vom Eindruck der Aktivitäten in der Fabrik nicht immer offensichtlich: Man sieht nur selten, dass jemand „wartet“.
Eine logische Analyse schafft hier Transparenz, wie im nachfolgenden Bild verdeutlicht: 

ProzessNeu1.png

Die Halbierung der Durchlaufzeit ermöglicht die Verdoppelung
des Durchflusses von Aufträgen durch die Fabrik.

Komplexitäts-Analyse zur 
Kapazitätssteigerung

Jahrelange Analysen und Aufzeichnungen haben die Erstellung eines Komplexitäts- Index ermöglicht, der die Ursachen von Liegezeit-Anteilen an der Durchlaufzeit abbildet.

ProzessNeu2.png

Mit wenigen Daten über die Situation in der Fertigung kann eine erste Näherung an die Ursachen der Liegezeitanteile vorgenommen werden.

ProzessNeu3.png

Mit einem inversen Prozess ermitteln unsere Algorithmen die Auswirkungen möglicher Maßnahmen auf eine Reduktion der Liegezeit- Anteile an der Durchlaufzeit.

ProzessNeu4.png

Damit konnte der Neubau zusätzlicher Fabriken oder Auslagerungen entfallen, da mit der gezielten Umstrukturierung im „brown field“ Steigerungen des Outputs zwischen
35 % bis 77 % realisiert werden konnten.

Benötigen Sie mehr Informationen?