8 Minuten Lesezeit Mit Insights von Amadeo Vergés Ehemaliger Head of Application Management Statistische Prozesskontrolle ist einer der Schlüssel zur Qualitätssicherung in der Produktion. Das was so einfach erscheint, ist einer herausfordernde Aufgabe. Dies unter besonderer Berücksichtigung von sehr vielen Daten, die während des Prozesses anfallen. Eine der anspruchsvollsten Aufgaben in der Industrie ist es, die Qualität von Produktionsprozessen aufrechtzuerhalten. Eine der wichtigsten Methoden dafür ist die statistische Prozesskontrolle. Allerdings drängt sich die Frage auf, ob sie noch zeitgemäß ist. Die statistische Prozesskontrolle (SPC) ist seit langem eine wichtige Methode, um eine hohe Produktqualität sicherstellen zu können. Die Komplexität moderner Produktionsprozesse wie beispielsweise der Elektronikfertigung entspricht jedoch bezüglich der Prozessstabilität nicht den Grundannahmen der SPC. Dies macht die traditionelle SPC als Qualitätsindikator weitgehend wertlos, gerade wenn sie mit der zunehmenden Datenmenge kombiniert wird. Darum sind andere Ansätze nötig, um Verbesserungsmöglichkeiten zu identifizieren und zu priorisieren. Diese müssen aber mit der Lean-Six-Sigma-Philosophie übereinstimmen und einen größeren Spielraum als die SPC zulassen. Geschichtlicher Hintergrund Die SPC wurde in den 1920er Jahren eingeführt, um die damalige Produktion zu optimieren. Ziel der SPC ist es, Qualitätseinbußen frühzeitig zu erkennen und entsprechend reagieren zu können. Die Grenzen der SPC waren gegeben durch die damals verfügbare Informationstechnologie, die sich von der heutigen völlig unterscheidet. Es ist leicht nachvollziehbar, dass damals nicht nur die IT, sondern auch die Produktkomplexität und -möglichkeiten komplett anders waren. Tatsächlich hatten die Qualitätsmessungen während der Fertigung mit der heutigen Situation nichts gemeinsam. Aufgrund der gewachsenen Komplexität und Faktoren wie der Globalisierung, die das Produktionsvolumen in die Höhe schnellen liess, ist die Menge der Qualitätsdaten heute mit jenen von 1920 nicht mehr vergleichbar. Grundlegende Einschränkungen Die SPC hat nach wie vor eine wichtige Bedeutung bei den Original Equipment Manufacturer (OEM). Sie findet sich in kontinuierlichen Fertigungsprozessen und der Festlegung von Grenzwerten. Ebenso wenn es darum geht, fehlerhafte Prozessparameter, welche die Qualität beeinflussen, zu erkennen. Theoretisch helfen solche Grenzwerte zur Visualisierung von Qualitätsänderungen. Aber es gibt einen Unterscheid zwischen Theorie und Praxis: Eine grundlegende Annahme ist, dass mit der SPC Ursachen für Qualitätsschwankungen aus dem Prozess entfernt oder mindestens berücksichtigt werden können. Das bedeutet, dass alle verbleibenden Prozessvariationen spezielle Ursachen haben. Die Parameter, um die Sie sich sorgen sollten, sind jene, die zu driften beginnen. Ein Elektronikprodukt kann heute hunderte von Komponenten enthalten. Es wird verschiedenste Änderungen erfahren, weil etwa Bauteile nicht mehr verfügbar sind oder es verschiedene Bestückungsvarianten gibt. Das Produkt wird in verschiedenen Phasen während des Montageprozesses getestet, verschiedene Firmware-Versionen erhalten oder auch Änderungen der Umgebungsbedingungen erfahren. Hohe Dynamik Ein konkretes Beispiel dafür ist die Firma Aidon, ein Hersteller von Smart-Metering-Produkten. Eine durchschnittliche Produktionscharge des Unternehmens hat folgende Eigenschaften: • Sie enthält 10’000 Einheiten. • Jede Einheit besteht aus jeweils über 350 Elektronikkomponenten. • In jeder Produktionscharge gibt es für das Produkt mehr als 35 Varianten. Das bedeutet, dass im Durchschnitt nach jeweils 285 Einheiten ein neues Produkt gebaut wird oder ein neuer Prozess entsteht. Hinzu kommen Änderungen am Prüfverfahren, den Vorrichtungen, an Prüfprogrammen und anderen Komponenten. Das bedeutet geschätzt eine Prozessänderung nach jeweils zehn Einheiten. Oder anders ausgedrückt: Aus der Herstellung einer einzigen Charge resultieren rund 1’000 verschiedene Prozesse. Wie soll man hier Veränderungen im Prozess überhaupt erkennen und beseitigen? Was soll man diesbezüglich tun? Selbst wenn Sie es schaffen würden, die Veränderungen im Prozess zu erkennen: Wie würden Sie das entsprechende Alarmsystem in der Produktion realisieren? Eine von der Western Electric Company bereits 1956 entwickelte Methode für die SPC wird als Western Electrical Rules oder WECO bezeichnet. Sie legt bestimmte Regeln fest, bei denen eine Abweichung eine Prozess-Untersuchung rechtfertigt – abhängig davon, wie weit der aktuelle Wert von Standardabweichungen entfernt ist. Eine Problematik von WECO ist jedoch, dass diese – prinzipiell gegeben – im Durchschnitt alle 91,75 Messungen einen Fehlalarm auslöst. 62 Fehlalarme pro Tag Angenommen, Sie haben eine Jahresproduktion von 10’000 Stück. Jedes Stück wird durch fünf verschiedene Prozesse getestet und jeder Prozess beinhaltet durchschnittlich 25 Messungen. Kombiniert man diese, erhält man durchschnittlich bis zu 62 Fehlalarme pro Tag bei einer Annahme von 220 Arbeitstagen pro Jahr. Zusammengefasst: Angenommen, dass Sie mit der SPC und WECO in der Lage waren, häufige Ursachenschwankungen zu beseitigen, erhielten Sie immer noch 62 Alarme pro Tag. Menschen, die 62 Fehlalarm-E-Mails pro Tag bekommen, werden diese bald nicht mehr beachten und so auch potenziell wichtige Alarme verpassen. SPC-versierte Anwender werden nun wahrscheinlich argumentieren, dass es Möglichkeiten gibt, die Zahl der Fehlalarme durch neue und verbesserte Analysemethoden zu reduzieren. Selbst wenn es uns gelingen würde, die Anzahl der Fehlalarme auf fünf pro Tag zu reduzieren, könnte dies ein strategisches Alarmsystem für unsere Produktion sein? Kann die SPC ein System ermöglichen, auf das sich die Produktionsleiter verlassen können, wenn sie die tatsächliche Prozessdynamik in den Mix einbringen? Analyse der Leistungskennzahlen Was die meisten in dieser Situation tun, ist, Annahmen über einen begrenzten Satz von wichtigen Parametern zu treffen und diese sorgfältig zu beobachten. Damit soll versucht werden, die Spreu vom Weizen zu trennen. Diese Leistungskennzahlen (Key Performance Indicators, kurz KPI) werden meist im Fertigungsprozess erfasst und analysiert, nachdem mehrere Einheiten zu einem System zusammengefasst wurden. Eine offensichtliche Folge davon ist, dass Probleme nicht dort erkannt werden, wo sie entstehen. Der Ursprung eines Problems könnte beispielsweise bei einer der vorgelagerten Komponenten liegen, die vor einem Monat in einer Charge, die 50’000 Stück beinhaltete, hergestellt wurde. Die 10x-Regel besagt, dass für jeden Schritt im Herstellungsprozess, der einen Fehler weitergibt, die Kosten für seine Behebung um den Faktor zehn steigen. Ein Fehler auf Systemebene kann dazu führen, dass Techniker das Produkt nochmals komplett zerlegen und wieder montieren müssen, was an sich wieder Möglichkeiten für neue Fehler bietet. Sollte der Ausfall erst beim Kunden erfolgen, können die Auswirkungen auf die Kosten katastrophal sein. Es gibt zahlreiche Beispiele von Unternehmen, die wegen massiven Rückrufaktionen Konkurs anmelden oder sich entsprechend davor schützen mussten. Ein aktuelles Beispiel ist die Insolvenz des japanischen Autozulieferers Takata nach einem massiven Rückruf von fehlerhaften Airbag-Komponenten, der 100 Millionen Einheiten übersteigen könnte. Einer der großen Mängel der SPC ist nach den Standards moderner Ansätze wie Lean Six Sigma, dass Annahmen darüber getroffen werden, woher die Probleme stammen. Dies als Folge der grundlegenden Annahme, dass der Prozess stabil ist. Das ist aber, wie bereits erwähnt, nicht der Fall, da dynamische Faktoren Einfluss auf den Produktionsprozess haben. Trending und Tracking einer begrenzten Anzahl von KPI verstärken diesen Fehler. Dies wiederum führt zu einer Reihe von Verbesserungsinitiativen, die bei der Fokussierung auf die dringendsten oder kosteneffizientesten Probleme scheitern können. Moderne Ansätze All die erwähnten Punkte werden in modernen Methoden des Qualitätsmanagements berücksichtigt. In der Elektronikfertigung beginnt dies mit einer transparenten Erkennung und Überwachung des First Pass Yield (FPY), der sogenannten echten FPY. Echt bedeutet hierbei, dass jede Art von Fehler berücksichtigt werden muss, auch wenn der Fehler etwa wegen eines nicht eingesteckten Kabels auftritt. Jeder Test, der auf einen nicht erfolgreichen Test folgt, stellt eine Verschwendung dar. Die dafür gebrauchten Ressourcen kann das Unternehmen anderswo besser einsetzen. Der echte FPY stellt wahrscheinlich den wichtigsten KPI dar, aber die meisten OEM können ihn nicht identifizieren. Einsicht in Echtzeit Kennen Sie ihren FPY, können Sie diesen parallel über verschiedene Produkte, Produktfamilien, Fabriken, Vorrichtungen oder Bediener aufteilen. Sie sehen diese Daten in Echtzeit als Dashboards ein. Dadurch erlangen Sie eine mächtige Gesamtübersicht, die sogenannte Captains View. So können Sie schnell nachvollziehen, woher eine ungenügende Produktionsleistung kommt und infolge Interventionen auf der Grundlage wirtschaftlicher Überlegungen vornehmen. Dass diese Erkenntnisse als Live-Dashboards für alle Beteiligten bereitgestellt werden, trägt ebenfalls zu einer verbesserten Qualitätsverantwortung bei. Eine Faustregel für das Dashboard besagt: Werden die richtigen Informationen nicht weitergegeben, wird nicht reagiert. Wir haben oft keine Zeit, die wesentlichen Daten immer wieder zu suchen. Es ist entscheidend, dass Sie in der Lage sind, schnell zu einer Pareto-Ansicht Ihrer häufigsten Fehler in allen diesen Dimensionen zu gelangen. Es könnte sinnvoll sein, dass die klassischen Methoden der SPC eingesetzt werden, um weitere Details zu erfassen. Sie wissen nun, dass Sie diese am richtigen Ort anwenden. Dies ist ein Entscheid, der nicht auf Vermutungen und Spekulationen beruht. Sie befinden sich plötzlich in einer Situation, in der Sie Maßnahmen auf der Grundlage eines realistischen Kosten-Nutzen-Verhältnisses priorisieren und einleiten können. Die integrierten Reparaturdaten Es ist wichtig, dass die Reparaturdaten in Ihrem System erfasst sind. Es reicht nicht, dass diese Daten ausschließ0lich in einem Produktionsleitsystem (Manufacturing Execution System, kurz MES) oder einem externen Reparatur-System gespeichert sind. Integrierte Reparaturdaten liefern kontext-bezogene Informationen, welche Ihnen viele Vorteile bieten. Sie verbessern etwa die Ursachenanalyse. Aus Sicht des Personals können diese Reparaturdaten und -informationen auch definieren, ob ein Produkt erneut getestet werden muss, da etwa normale Prozessschwankungen die Messung beeinflusst haben, oder ob das Produkt aus der Produktionslinie genommen und wie vorgesehen repariert werden muss. Machen Sie sich keine Illusionen: Es kommt oft vor, dass Produkte innerhalb einer Stunde mehrfach getestet werden müssen. Zusammenfassend lässt sich sagen, dass qualitätssteigernde Maßnahmen nur durch fundierte Entscheidungen entstehen. Verfügen Sie über ein Datenmanagement-System, das Ihnen ein vollständiges Bild der Situation vermittelt, können Sie Ihre Produkt- und Prozessqualität und damit auch den Unternehmenserfolg optimieren. Man kann nur reparieren, was man auch misst.