Absicherung Prozessänderung < Technik < Ingenieurwiss. < Vorhilfe
|
Ich habe diese Frage in keinem Forum auf anderen Internetseiten gestellt.
Hallo,
ich bin Student im Praxissemenster. Die Firma, bei der ich arbeite, plant in der Fertigung eine Prozessänderung, bei der eine Aushärtezeit deutlich reduziert werden soll. Als Kriterium für die Qualität der Produkte haben sie eine attributive Prüfung mit 3 Attributen (ok, auffällig, n.ok). Die Fehlerquote heute ist bekannt und liegt bei: 70% ok, 30% auffällig (aber verkaufbar), 1 in 100.000 n.ok.
Frage: Welche Stichprobengröße muß gewählt werden, um diese Prozessänderung abzusichern. Wie lassen sich die 1 in 100.000 absichern?
|
|
|
|
Hallo Andy,
ich bin kein Experte in Statistik, aber vom Gefühl her glaub ich fast, du brauchst ne sehr sehr große Stichprobe. Schließlich musst du ja irgendwie auflösen, wie sich deine neue Methode zur alten verhält.
Wenn du also 100.000 Teile in deiner Stichprobe hättest, ist das zu grob, um Entscheidungsgrenzen zu ziehen. Ich gehe gefühlsmäßig mal davon aus, dass du (je nach gewünschter Signifikanz deiner Aussage) zwischen 500.000 und 2.000.000 Teile in deiner Stichprobe brauchst, damit z.B. bei der 500.000er Stichprobe zwischen der 0 und dem alten Erwatungswert von 5 unbrauchbaren Teilen eine Vertrauensgrenze ziehen kannst, ab wann du das neue Verfahren bevorzugst.
Ich lass deine Frage aber unbeantwortet, weil mir wie gesagt die Sachkenntnis etwas fehlt.
Hugo
|
|
|
|
|
Hallo Andy,
ich hatte im Studium nie Statistik, deswegen muss ich mit meinem Schulwissen arbeiten.
Ich benutze hier einen Nullhypothesen-Test. Dieser hat die Besonderheit, dass man vor allem ausschließen will, dass man eine Aussage (die sogenannte Nullhypothese) zu Unrecht ablehnt. Die Wahrscheinlichkeit, dass man die Nullhypothese mit diesem Test bestätigt, wenn sie in Wirklichkeit zutrifft, ist die sogenannte Signifikanz.
Das Gegenteil davon, also die Nullhypothese ablehnen, obwohl sie stimmt, wird bei diesem Test als äußerst problematisch angesehen, deswegen möchte man die Wahrscheinlichkeit eines solchen Fehlers sehr klein halten. Dieser Fehler ist gerade 100% minus Signifikanz-Niveau.
Die Nullhypothese lautet in deinem Fall:
Das neue Verfahren ist höchstens genauso gut wie das alte, d.h. die Fehlerquote liegt bei mindestens 1 pro 100000.
Du willst nur dann anerkennen, dass das neue Verfahren besser ist, wenn dessen Überlegenheit gegenüber dem alten kaum von der Hand zu weisen ist.
Ich rechne mit p=1/100000 Schadenswahrscheinlichkeit für eine produzierte Einheit. Dann ist die Wahrscheinlichkeit, k fehlerhafte Teile in einer Stichprobe der Größe n zu bekommen
[mm] P(k)=\vektor{n\\k}p^k(1-k)^{n-k}
[/mm]
Für eine Stichprobe mit n=1.000.000 heißt das:
P(0)=0.00004539765981
P(1)=0.0004539811379
P(2)=0.002269926119
P(3)=0.007566480930
P(4)=0.01891633474
P(5)=0.03783289647
P(6)=0.06305514273
P(7)=0.09007913564
P(8)=0.1125992574
P(9)=0.1251105362
P(10)=0.1251106613
P(11)=0.1137369648
P(12)=0.09478070920
P(13)=0.07290809207
P(14)=0.05207705236
P(15)=0.03471789604
P(16)=0.02169857653
P(17)=0.01276379196
P(18)=0.007090945897
P(19)=0.003732046932
P(20)=0.001866006671
Das sind bereits 99,84% aller möglichen Resultate.
Du möchtest jetzt von deiner Vermutung nur dann abweichen, wenn starke Gründe für eine Meinungsänderung sprechen. Zum Beispiel könntest du nur dann deine Vermutung ablehnen und zur Alternative 'Die neue Methode ist besser!' übergehen, wenn du höchstens 3 fehlerhafte Teil in einer Million findest.
Die Signifikanz dieser Entscheidung ist 100%-1%=99%, denn die Wahrscheinlichkeit, bei der aktuellen oder einer noch schlechteren Ausschussquote 3 oder weniger fehlerhafte Teile zu produzieren ist 1%.
Bei einer geringeren Signifikanzforderung, z.B. 90% würdest du auch noch 5 Defekte tolerieren (tatsächliche Signifikanz: 93,3%).
Der Nachteil dieses Signifikanztests ist, dass man erst drastische Verbesserungen anerkennt, z.B. von 10 pro Million auf 3 pro Million, andererseits ist es sinnvoll, eine schwerwiegende Entscheidung, wie beispielsweise eine aufwändige Produktionsumstellung, gut abzusichern.
Mit einer größeren Stichprobe lässt sich dieses Problem ein bisschen abmildern: bei 10 Mio. Testobjekten ist bis maximal 77 mal n.OK mit einer Wahrscheinlichkeit von 99% sichergestellt, dass das neue Verfahren weniger Ausschuss produziert als das alte.
Die Frage ist, ob du tatsächlich 10 Mio. Teile nur so zum Testen hernehmen kannst. Und außerdem würde mich interessieren, ob es dir nicht reicht, eine drastische Erhöhung der Ausschussquote auszuschließen.
Wenn du dir die bessere Aushärtungszeit mit einer sagen wir Verdopplung der Ausschussrate von 1 auf 2 pro 100000 erkaufen willst, dann reicht es, dass bei einer Stichprobe von einer Million 10 Teile defekt sind, um mit einer Signifikanz von 99% zu belegen, dass die Ausschussrate sich nicht mehr als verdoppelt hat.
Hugo
PS: Wie schon in meiner ersten Antwort erwähnt, bin ich auf diesem Gebiet kein Experte. Das von mir vorgeschlagene Verfahren benötigt aber leider große Stichproben, weil es ein sehr plumpes Verfahren ist. Um deinen Wert 1 pro 100000 abzusichern brauchst du aber zweifelsohne Stichprobenumfänge jenseits der 100000.
Dieses Verfahren, kann die Nullhypothese nie beweisen, aber man kann starke Gründe für deren Ablehnung finden. Deshalb ist es wichtig, das was man widerlegen möchte, als Nullhypothese zu formulieren.
|
|
|
|