Es geht um Bauteile, die eine Lebensdauer von 15 Jahren haben. Bei diesen Bauteilen kann ein Fehler auftreten, jedoch mit einer sehr geringen Wahrscheinlichkeit. Diese Wahrscheinlichkeit bleibt über die Lebensdauer konstant. Seit ca. einem halben Jahr wird produziert, es sind derzeit ca. 10.000 Teile "auf dem Markt". Der Fehler ist bislang nicht aufgetreten.
Nun möchte der Kunde eine obere Schranke für die Wahrscheinlichkeit für diesen Fehler. Gut wäre auch ein Konfidenzniveau. Sicherlich ist beides von der Anzahl der Teile und auch von der Zeit abhängig (wenn in 5 Jahren nichts passiert, ist die Ausfallrate ja kleiner als wenn ich nur das letzte halbe Jahr betrachte).
Für mich klingt das alles nach Exponentialverteilung, wobei ich da weder die Anzahl noch die Zeit mit reinnehmen kann. Im Vortest hat sich jedenfalls Folgendes ergeben. In einem Vortest hat sich bei einem Versuch nun folgendes Ergebnis ergeben:
A1 A2 A3 A4 A5
1 4 2 6 4 1
2 5 20 21 11 2
3 0 5 7 6 2
4 0 10 14 20 4
5 3 6 15 8 0
6 2 8 5 16 1
7 0 2 6 5 0
Beim Test ginge es um die Nutzung von verschiedenen Bauteile (A1, A2, A3, A4, A5), wobei 1,2,3,4,5,6,7 jeweils für einen Beobachtungsabschnitt stehen. Die Stichproben der Tag sind unterschiedlich gross
Nun geht es darum, ob manche Teile bevorzugt genutzt werden.
Eigentlich wollte ich die einzelnen Treppen untereinander mit dem Chi^2-Test vergleichen. Aber für A1 und A5 sind die Datenmengen für Chi^2 wohl etwas zu klein.
Gesucht ist eine Alternative zu Chi-2 für diese Fragestellung.