Definitionen aus dem Bereich „Validierung/Qualitätsmanagement“
(inkl. verwandten Begriffen und Normen)

Nichterfüllung einer Forderung, z.B. in einem Audit festgestellt Nichtkonformität (nonconformity).

Abweichung (deviation, Error) einer Messung vom wahren Wert, wobei zwischen zufälligen und systematischen Abweichungen unterschieden wird. Der ältere Begriff „Fehler“ sollte nicht mehr verwendet werden, da er eine falsche Handhabung suggeriert. Fehler sind vermeidbar, Messabweichungen sind aber prinzipiell unvermeidbar.

Akkreditierung ist die Bestätigung, dass eine Stelle kompetent ist, ihre Aufgaben durchzuführen. Akkreditiert werden können Prüflaboratorien, Kalibrierlaboratorien und Zertifizierstellen (Akkreditierung = Kompetenzbestätigung).

α: Allgemein in der Statistik Symbol für die Irrtumswahrscheinlichkeit. Bei den statistischen Testmethoden Symbol für das Signifikanzniveau.

Von den anerkannten Referenzverfahren abweichende Analysenverfahren. Sie sind schneller und/oder kostengünstiger, zeigen Ergebnisse mit meist eingeschränkter Qualität und decken teilweise andere Fragestellungen ab. Alternativverfahren gliedern sich in Orientierungstests, Feldmethoden und Laborvergleichsverfahren.

Eine Analysenprobe (auch Messprobe) ist diejenige Probe, deren Gehalt an einem zu bestimmenden Stoff unmittelbar gemessen werden kann. Sie wird aus der (Labor)probe durch Aufarbeitung und ggf. Zusätze von Reagenzien erzeugt.

Synonyme: Messbereich; dynamischer Arbeitsbereich

Das ist der Konzentrationsbereich für gültige, quantitative Aussagen über Linearität, Richtigkeit und Präzision des Ermittlungsverfahrens.

Der Arbeitsbereich (working range) wird definiert über den kleinsten und größten Abszissenwert bei der Grundkalibrierung. Vor Beginn der Messungen ist der vorläufige Arbeitsbereich der Methode festzulegen. Der vorläufige Arbeitsbereich wird nach Durchführung der Messungen und statistischen Tests entweder bestätigt oder eingeengt. Der Arbeitsbereich umfasst den mit akzeptabler Genauigkeit abgedeckten Konzentrationsbereich, an dessen Enden idealerweise Varianzenhomogenität nachweisbar ist.

Die Arbeitskalibrierung (working calibration) sollte in regelmäßigen Abständen durchgeführt werden. Die Vorgehensweise zur Arbeitskalibrierung ist in der Prüfmethode oder in der Vorschrift zur Kalibrierung des Prüfgerätes zu beschreiben. Darin sind Häufigkeit und Mindestanzahl der Messwertpaare für die Arbeitskalibrierung festzulegen. Mindestanforderungen an eine Arbeitskalibrierung sind:

1 Kalibrierstützpunkt bei Proportionalität,
2 Kalibrierstützpunkte bei Linearität,
3 Kalibrierstützpunkte bei Kalibrierfunktion 2. Grades,
4 Kalibrierstützpunkte bei Kalibrierfunktion 3. Grades.

Für die tägliche Arbeit eingesetztes Normal, das über eine oder mehrere Referenzmessungen auf ein Bezugsnormal zurückgeführt werden kann. So könnte beispielsweise ein Metallstück als gravimetrisches Arbeitsnormal benutzt werden. Bei Substanzen ist auch der Begriff Arbeitsstandard geläufig.

Synonyme: Durchschnitt; Mittelwert;

Definition 1:

Summe der Beobachtungswerte dividiert durch Anzahl der Beobachtungswerte

Definition 2:

Der arithmetische Mittelwert (mean value, xquer) ist die Summe aller Merkmalswerte dividiert durch die Anzahl der Merkmalswerte. Der Mittelwert fasst die Messergebnisse von Messreihen bzw. Analysenserien zusammen. Der Mittelwert ist der am häufigsten verwendete Lageparameter. Der aus den Messergebnissen berechnete Mittelwert ist ein Schätzwert für den wahren Wert μ (Mittelwert der Grundgesamtheit).

Das Aufstockverfahren (spiking method) wird in der Analytik angewendet, wenn eine Aufnahme einer normalen Kalibrierkurve auf Grund von z.B. Matrixeffekten nicht möglich oder der Aufwand nicht gerechtfertigt ist. Insbesondere bei spurenanalytischen Bestimmungen können sich Steigung und Linearität einer mit matrixfreien Kalibrierproben erstellten Kalibrierfunktion von denen einer mit matrixhaltigen Kalibrierproben erstellten Kalibrierfunktion unterscheiden. Solche Effekte lassen sich durch Standardaddition des Analyten zu einer matrixbehafteten Realprobe erkennen. Konstante systematische Abweichungen können so allerdings nicht erkannt werden. Man erstellt die Aufstockkalibrierfunktion und die matrixfreie Kalibrierfunktion mit jeweils 6 Kalibrierlösungen. Zur Erstellung der Aufstockkalibrierfunktion (Auftragung der Messwerte der nicht aufgestockten sowie der 5 aufgestockten Proben gegen die zugegebene Menge Analyt) wird der Analyt schrittweise zu einer Probe bekannten Gehaltes dosiert, wobei sich nach 5 Standardadditionen der Gehalt des Analyten in der Probe verdoppelt bis verdreifacht haben sollte. Wenn sich die Aufstockkalibrierfunktion als linear erweist (bei Nichtlinearität ist das Standardadditionsverfahren ungeeignet), vergleicht man deren Steigung mit der Steigung der (matrixfreien) Kalibrierfunktion (Mittelwert-t-Test) auf signifikante Unterschiede. Bei einem signifikanten Unterschied zwischen beiden Steigungen ist die mit matrixfreien Proben erstellte Kalibrierfunktion für die untersuchte Probe nicht geeignet. Das Verfahren wird auch als Standardadditionsverfahren bezeichnet.

Das erweiterte Aufstockverfahren (extended spiking method) erlaubt die Ermittlung konstanter und systematischer Abweichungen auch dann, wenn keine Proben mit bekannten Gehaltswerten vorliegen (im Gegensatz zum Soll/Ist-Vergleich). Es eignet sich für Analysenmethoden, die aus den Einzelschritten Einwiegen, Lösen, Messen aufgebaut sind. Der nicht fehlerbehaftete Analysewert muss der Einwaage proportional sein und der Analyt muss zur Probe in definierter Menge zudosierbar sein. Prinzip: Es werden zunächst 2 unterschiedliche Einwaagen W1 und W2 der Probe hergestellt (zur Vereinfachung der Rechnung am besten im Verhältnis 1 : 0,5). Daraus erhält man über die Proportionalität zwischen Einwaage und Ergebnis die konstante systematische Abweichung als y-Achsenabschnitt a. Zur Ermittlung der proportionalen Abweichung b wird eine Einwaage W3=W1 eine definierte Menge des Analyten zugesetzt. Dabei sollte die Konzentration des Analyten in etwa verdoppelt werden. Daraus erhält man die proportionale systematische Abweichung b. Die Größen a und b sollten für eine Serie von Proben ermittelt werden (möglichst 6). Der jeweilige Mittelwert wird dann anhand eines t-Tests auf Abweichung gegenüber den Idealwerten a ideal = 0 und b ideal = 1 geprüft.

In Messreihen (Stichproben) kann es vorkommen, dass der Maximalwert oder Minimalwert auffällig von den übrigen Werten abweicht. Es kann vermutet werden, dass diese Werte verfälscht sind und deshalb nicht repräsentativ für die zu prüfenden Grundgesamtheit sind.
In diesem Fall sollte überprüft werden, ob nicht Gründe für die Abweichung zu finden sind, z.B. Schreibfehler, Rechenfehler, unbegründete Verfahrensänderungen usw. Solche Werte sind zu korrigieren, besser zu wiederholen. Ist das nicht möglich, ist es besser, diese Werte aus der Auswertung herauszunehmen.
Kann kein plausibler Grund für eine Abweichung gefunden werden, so führt man mit dem verdächtigen Wert einen Ausreißertest durch.
Ergibt der Test, dass die Abweichung des Wertes nicht zufällig ist, so wird er als Ausreißer (outlier) bezeichnet und nicht in die folgende Auswertung einbezogen.
Werden Werte als Ausreißer aus einer Auswertung herausgenommen, so sollte dies im Prüfbericht vermerkt werden (Anzahl, Methode).
Der Test auf Ausreißer setzt immer ein bestimmtes Prüfmodell voraus.
Ähnlich große Werte auf einer Seite der Verteilung können sich gegenseitig maskieren, so dass sie als Ausreißer nicht mehr erkennbar sind.

Ausreißertest (outlier test) ist ein statistischer Test auf nicht plausible Werte (sogenannte Ausreißer). Es gibt mehrere Ausreißertests wie z.B. den Dean-Dixon-Test, der Grubbs-Test oder den Nalimov-Test.

Test auf Ausreißer für kleine Stichproben auf einer mindestens intervallskalierten Messreihe. Normalverteilte Messwerte sind nicht unbedingt erforderlich, dennoch sinnvoll. Zur Berechnung der Prüfgröße werden Ranggrößen verwendet.
Die DIN 53804 empfiehlt diesen Test für eine Stichprobenanzahl bis 29 (Bemerkung: Diese Empfehlung ist problematisch, weil bei diesem Test nur drei Werte berücksichtigt werden: Der Ausreißer-verdächtigte Wert, sein benachbarter Wert und der kleinste Wert, um die Spannweite zu berechnen. Die Anzahl der übrigen Werte bleibt unberücksichtigt, s. Kap.4.6).

Ausreißertest, der als Grenzen xquer ± 3s verwendet. Mittelwert xquer und Standardabweichung s werden ohne den Ausreißer-verdächtigen Wert ermittelt. Dieses Verfahren ist auch auf Messwerte anwendbar, die keine Normalverteilung besitzen.
Ein weiterer analoger Test benutzt die 4s Grenzen.

Oft verwendeter Ausreißertest, der normalverteilte Messwerte verlangt. Der Prüfwert entspricht dem z-Faktor der Normalverteilung. Die kritischen Werte sind tabelliert.
Die DIN 53804 empfiehlt diesen Test für Stichprobenanzahl > 29.

Gebräuchlicher Ausreißertest. Die Messwerte müssen normalverteilt sein. Er ist dem Grubbs-Test ähnlich, verwendet aber noch einen Korrekturfaktor zur Berechnung des Prüfwertes.

Test auf Gleichheit der Varianzen bei mehr als zwei Messreihen. Bei diesem Test muss jede Messreihe mindestens 5 Einzelwerte besitzen. Die Anzahl der Messwerte muss nicht gleich groß sein. Dieser Test prüft sowohl kleine als auch große Varianzen. Die Stichproben sollten annähernd normalverteilt sein.
Ist diese Voraussetzung nicht gegeben, eventuell Levene-Test benutzen.
hypothese: Alle Stichproben haben dieselbe Varianz
Alternativhypothese: Wenigstens 1 Stichprobe unterscheidet sich in ihren Varianzen.

Synonyme: Zertifiziertes ReferenzmaterialVergleiche: Referenzmaterial; Primärstandard

Referenzmaterial, von dem ein Eigenschaftswert oder mehrere durch ein technisch gültiges Verfahren beglaubigt wurde(n). Der Eigenschaftswert weist eine bekannte Messunsicherheit bei einem gegebenen Signifikanzniveau auf. Dem Verfahren liegt ein Zertifikat bei oder es wird auf andere Dokumentationen verwiesen, die von einer Zertifizierungsstelle herausgegeben wurden.

Norm: ISO Guide 20, Abschnitt 30.2.2 und update ISO Guide 30

Versuch(e) zur Ermittlung der Bandbreiten aller kritischer Verfahrensparameter innerhalb derer das Verfahren gemäß vorher festgelegten Qualitätskriterien durchgeführt werden kann.

Als Ergebnis einer Beobachtung festgestellter Merkmalswert.
Anm.: Es handelt sich um einen einzelnen Wert, erhalten aus einer einzelnen Beobachtung.

Norm: DIN ISO 5725

Das (multiple) (Keine Vorschläge) B oder R2 wird auch Determinationskoeffizient, Güte oder (in den Sozialwissenschaften) Reliabilität genannt. Mithilfe des Bestimmtheitsmaßes lässt sich feststellen, ob es eine Abhängigkeit zwischen unabhängigen Variablen x und der abhängigen Variablen y gibt. Das Bestimmtheitsmaß nimmt Werte zwischen 0 und +1 an. 0 bedeutet keine Abhängigkeit, 1 bedeutet eine funktionale Abhängigkeit, die durch die gewählte Funktion beschrieben wird. Z.B., ist für die Funktion y = a + bx der Wert für B=1, liegt eine funktionale Abhängigkeit vor. B lässt sich auch für multivariate Abhängigkeiten und nicht lineare Beziehungen angeben.
Für den linearen Fall ist die Wurzel aus B gleich dem Korrelationskoeffizienten r.
Das Bestimmtheitsmaß drückt den Anteil der sogenannten aufgeklärten Varianz an der Gesamtvarianz aus: B=1-QSError(=Residuen)/QSGesamt
(Es gilt : QS Gesamt = QS Aufgeklärt + QS Error, QS Error = nichtaufgeklärte Varianz oder Varianz der Residuen, QS = Quadratesumme = Summe aller quadrierten Werte)
Da hier die Anteile an der Gesamtquadratsumme untersucht werden, nennt man das Verfahren auch Quadratsummenzerlegung (die hier interessierenden Anteile ließen sich noch weiter zerlegen).

Synonyme: Quantifizierungsgrenze (selten)

Definition 1:

Geringster Gehalt, der mit einer vorgegebenen Wahrscheinlichkeit quantitativ erfasst werden kann, in der Regel die dreifache Nachweisgrenze.

Definition 2:

Die Bestimmungsgrenze (quantitation limit, determination limit) ist der kleinste, mit einer festzulegenden statistischen Wahrscheinlichkeit erkennbare Gehalt eines Stoffes, der bei einmaliger Analyse quantitativ nachgewiesen werden kann. Nach der ICH-Richtlinie kann die Nachweis- und Bestimmungsgrenze basierend auf der Standardabweichung des Signals und der Kalibrierfunktion (Steigung) ermittelt werden. Die Ermittlung kann über das Signal/Rausch-Verhältnis oder gemäß DIN 32645 nach dem Leerwert- oder dem Kalibrierkurvenverfahren erfolgen. Die Bestimmungsgrenze liegt naturgemäß über der Nachweisgrenze. Als Faustregel gilt: die Bestimmungsgrenze ist 3 Mal die Nachweisgrenze.

Ausmaß der systematischen Abweichung des Analytwertes bezogen auf einen Referenzwert. Wird manchmal als relative Abweichung in Prozent angegeben.

Methode der Validierung. Betrachtung eines Systems als schwarzen Kasten (in dem man also nichts erkennen kann) unter Vernachlässigung seiner inneren Struktur und Abläufe. Das Systemverhalten (Funktion) kann dann anhand der wirkungsspezifischen Input-Output-Relationen analysiert werden. Sinnvolles Verfahren, wenn Details nicht zugänglich sind wie z.B. Software, Analyseautomaten … . Es geht nur um die Entscheidung, werden die Forderungen insgesamt erfüllt, ja oder nein.

Probe, die den betreffenden Analyten nachweislich nicht enthält, sonst aber weitgehend mit der Probe identisch ist.

Norm: DIN 32645

Der Blindwert ergibt sich aus dem Analysengang ohne Probe (also ohne Analyt und ohne Matrix). Beispiel: Reagentienblindwerte in der Photometrie. Nicht jedes Prüfverfahren ergibt einen Blindwert. Der Blindwert ist vom Leerwert zu unterscheiden.

Definition 1:

Statistischer Test, der ,,Ausreißer in der Varianz der einzelnen Labordatensätze ermittelt.“

Definition 1:

Als Cochran-Test (Cochran Test) werden mehrere verschiedene Test angesprochen:

  • Prüfung der Gleichheit mehrerer Varianzen: Geprüft wird die größte Varianz, ob sie signifikant größer ist als die anderen. Die Stichprobenumfänge sollen möglichst gleich sein. Sind die Unterschiede nicht zu groß, kann der Freiheitsgrad aus dem harmonischen Mittel gebildet werden f = xharm – 1.
  • Q-Test nach Cochran: Ein parameterfreier Homogenitätstest für mehrere verbundene Stichproben.
  • Anteil der linearen Regression an der Gesamtvariation einer k*2-Feldertafel
Norm: DIN ISO 5725

Parallele Abarbeitung; z. B. Validierungstests an zwei von drei Partien während eines laufenden (Produktions-) Prozesses, d. h. während der Nutzung des Prozesses.

DIN (Deutsches Institut für Normung e. V.) ist Träger der nationalen Normungsarbeit. Es beteiligt sich über CEN, CENELEC an der europäischen und über ISO an der internationalen Normung.

Das direkte Verfahren (auch als Leerwertverfahren bezeichnet) dient zur Berechnung der Nachweisgrenze aus der Streuung der Messwerte einer Leerprobe. Es ist in DIN 32645 beschrieben. Für dieses Verfahren muss daher eine Leerprobe verfügbar sein. Zur Berechnung der Nachweisgrenze muss die Steigung der Kalibriergeraden bekannt sein. Das Leerwertverfahren wird auch als direktes Verfahren (oder direkte Methode) bezeichnet. Wo möglich, ist ihm der Vorzug gegenüber dem Kalibrierkurvenverfahren zu geben.

Statistischer Test, der überprüft, ob ein einzelner Messwert aus einem Labordatensatz unter der Normalverteilungsannahme (Gauß-Verteilung) ein ,,Ausreißer ist.“

Norm: DIN ISO 5725

Dosieren heißt, aus einer Stoffportion festgelegte Teilmengen herauszunehmen (abtrennen). Unter Dosieren versteht man auch das Hinzufügen bestimmter Stoffportionen beim Herstellen eines Stoffgemisches mit vorgegebener Zusammensetzung oder mit vorgegebenen Eigenschaften.

Norm: DIN 1319 Teil 1

Das Eichen eines Messgerätes (auch einer Maßverkörperung) umfasst die von der zuständigen Eichbehörde nach den Eichvorschriften vorzunehmenden Prüfungen und die Stempelung. Durch die Prüfung wird festgestellt, ob das vorgelegte Messgerät den Eichvorschriften entspricht, d. h. ob es den an seine Beschaffenheit und seine messtechnischen Eigenschaften zu stellenden Anforderungen genügt, insbesondere ob die Beträge der Messabweichungen die Fehlergrenze (n) nicht überschreiten.

Norm: DIN 1319 Teil 1

Ein einseitiger Test ist die Prüfung einer einseitigen statistischen Hypothese.

Fähigkeit einer Methode, zwischen zwei kleinen Konzentrationen zu unterscheiden; Steigung der Kalibrierkurve. Bei linearen Funktionen ist die Empfindlichkeit (= Steigung) konstant, bei Funktionen 2. oder 3. Grades ist sie abhängig vom gewählten Wert xi.

Vergleiche: Nachweisgrenze; Erfassungsgrenze

Geringster Gehalt des Analyten, der bei tatsächlicher Anwesenheit mit angemessener statistischer Sicherheit nachgewiesen wird und entsprechend den Kriterien der Methode identifiziert werden kann.
Anm.: Im erwähnten Amtsblatt der EU entspricht die Entscheidungsgrenze der dreifachen (sonst zweifachen) Nachweisgrenze.

Norm: Amtsblatt der Europäischen Gemeinschaft Nr. L 223
Vergleiche: Entscheidungsgrenze

Die Erfassungsgrenze ist der kleinste Gehalt einer gegebenen Probe bei dem mit der Wahrscheinlichkeit 100 -β (50 <β <100) ein Nachweis möglich ist. Akzeptiert man eine Irrtumswahrscheinlichkeit von 50 %, ist die Erfassungsgrenze gleich der Nachweisgrenze; in der Regel wird jedoch als Erfassungsgrenze die zweifache Nachweisgrenze angenommen, sie ist in jedem Falle kleiner als die Bestimmungsgrenze. Nach DIN 32645 darf als Qualitätsgarantie für den Höchstgehalt eines Bestandteils im untersuchten Stoff nur die Erfassungsgrenze herangezogen werden.

Norm: DIN 32645, ISO 11843-1

Unterschied zwischen einem Ermittlungsergebnis und dem Bezugswert, wobei dieser je nach Festlegung oder Vereinbarung der wahre, der richtige oder der Erwartungswert sein kann.

Norm: DIN 55350 Teil 13
Vergleiche: Standardunsicherheit U; erweiterte Unsicherheit

Definition 1:

Geschätzter Betrag zur Kennzeichnung eines Wertebereichs, innerhalb dessen der Bezugswert mit einer vorgegebenen Wahrscheinlichkeit liegt (in der Regel der Erwartungswert). Sie wird angegeben zwischen der unteren bzw. der oberen Grenze dieses Wertebereichs.

Definition 2:

Die Ergebnisunsicherheit (uncertainty {of result}) ist ein Kennwert, der aus Messungen und/oder Schätzungen gewonnen und zusammen mit dem Messergebnis zur Kennzeichnung eines Wertebereiches für den wahren Wert der Messgröße dient. Die Ergebnisunsicherheit ist ein quantitatives Maß für den qualitativ zu verwendenden Begriff der Genauigkeit, der allgemein die Annäherung des Messergebnisses an den wahren Wert der Messgröße bezeichnet. Die Begriffe Messunsicherheit und Ergebnisunsicherheit sowie Unsicherheit werden häufig synonym verwendet.

Norm: DIN 55350 Teil 13

Abkürzung für „European Reference Materials“, eine Kooperation wichtiger europäischer Produzenten von Referenzmaterialien wie BAM, LGC und IRMM (www.erm-crm.org).

Durch die Anwendung eines festgelegten Ermittlungsverfahrens festgestellter Merkmalswert.
Anm.: Das Ermittlungsverfahren kann festlegen, dass eine Anzahl von individuellen Beobachtungen anzustellen und ihr Mittelwert als Ergebnis zu melden ist. Also kann ein einzelnes Ermittlungsergebnis ein aus mehreren Beobachtungswerten berechnetes Ergebnis sein.

Norm: DIN ISO 5725
Vergleiche: Mittelwert

Definition 1:

Unbekannter Mittelwert der Grundgesamtheit. Als bester Näherungswert gilt der Mittelwert aus einer hinreichend großen Zahl wiederholter Messungen bzw. als mittleres Ermittlungsergebnis, welches bei unendlicher Wiederholung der Messung hätte gewonnen werden können.

Definition 2:

Der Erwartungswert (expectation, expected value) einer Zufallsvariablen ist der Wert, von dem man „erwartet“, dass er sich bei einer häufigen Wiederholung des Experiments im Durchschnitt ergibt. Z.B. das arithmetische Mittel aus den Werten von unendlich vielen „Ziehungen“ einer Zufallsvariablen. Er bestimmt die Lage einer Verteilung und ist vergleichbar mit dem empirischen arithmetischen Mittel einer Häufigkeitsverteilung. Das Gesetz der großen Zahlen sichert in vielen Fällen zu, dass der Stichprobenmittelwert bei wachsender Stichprobengröße gegen den Erwartungswert konvergiert, d.h., der berechnete Mittelwert xquer nähert sich dem wahren Wert μ (Mittelwert der Grundgesamtheit). Der aus (vielen) Messwerten berechnete Mittelwert ist die beste Schätzung für den Erwartungswert.

Norm: DIN 55350 Teil 13, 21

Vielfaches der kombinierten Standardunsicherheit. Deren Multiplikation mit einem Erweiterungsfaktor k ergibt ein Vertrauensintervall, von dem erwartet wird, dass es den Großteil der der Messgröße zugeordneten Werte umfasst.
Uε = k · Uges
Uε ist ein Maß für zufällige plus systematische Fehler

Zahlenfaktor, mit dem die kombinierte Standardunsicherheit multipliziert wird, um eine erweiterte Unsicherheit zu erhalten. Typischer Bereich ist zwischen 2 und 3.

Wurde als Vereinigung chemisch-analytisch orientierter Prüflaboratorien in EU und EFTA-Ländern gebildet. Die Zielsetzungen entsprechen im Wesentlichen denen von EUROLAB, Fokus jedoch ist die Analytik.

Wurde gegründet mit dem Ziel, die Zusammenarbeit zwischen Prüflaboratorien generell zu fördern und durch Harmonisierung von Qualitätsanforderungen und QS-Maßnahmen Vertrauen im Hinblick auf die gegenseitige Anerkennung von Prüfresultaten zu schaffen.

Vergleiche: wahrer Wert; richtiger Wert

Der wahre Wert eines mathematisch theoretischen Merkmals.
Anm.: Bei einem numerischen Berechnungsverfahren wird sich als Ermittlungsergebnis jedoch nicht immer der exakte Wert ergeben. Beispielsweise ist der exakte Wert von π = 3,1416 … und der Wert der universellen Gaskonstante R = 8,3143… J/K/Mol.

Norm: DIN 55350 Teil 13

 Definition 1:

Statistischer Test, der die Varianz aller individuellen Resultate vergleicht und abschätzt.

 Definition 2:

F-Test ist ein Test auf Unterschied der Varianzen zweier normalverteilter Stichproben. Progresse ist der F-Wert, d.h., der Quotient aus den beiden Varianzen der beiden Messreihen. Die größere Varianz muss dabei im Zähler stehen. Aus den beiden Varianzen ergeben sich die beiden Freiheitsgrade, wobei der Zähler f1 und der Nenner f2 liefern. Die kritische Größe F(f1, f2) ist tabelliert.

Vergleiche: Fehler 1. Art; Fehler 2. Art

Abweichung eines Merkmalwertes vom Sollwert.

Fehler 1. Art, Alpha-Fehler oder Alpha-Risiko ist das Risiko, mit dem ein statistischer Hypothesentest auf einen Sachverhalt hindeutet, der in Wahrheit nicht vorhanden ist. Allerdings ist dieser Sachverhalt nicht erkennbar und somit auch nicht bewusst. Z.B. würde in einer Produktion ein Alarm wegen schlechter Qualität ausgelöst, obwohl keine Verschlechterung vorliegt (Fehlalarm). Das Risiko wird über alpha festgelegt. Ein alpha-Wert von 5% bedeutet dann, dass von 100 Entscheidungen auch 5 falsch sein können.
In der Medizin: Die Ergebnisse deuten auf eine Krankheit, die nicht vorhanden ist (falsch positiv).
Für Abnehmer: Er lehnt Ware als schlecht ab, die in Wirklichkeit in Ordnung ist.
In der Analytik wird eine Komponente „gefunden“, obwohl sie abwesend ist. Siehe auch Fehler 2. Art

Fehler 2. Art, Beta-Fehler oder Beta-Risiko ist das Risiko, mit dem der statistische Hypothesentest auf keinen Sachverhalt hindeutet, obwohl in Wahrheit einer vorhanden ist. Allerdings ist dieser Sachverhalt nicht erkennbar und somit auch nicht bewusst. Z.B. würde in einer Produktion das Produkt als in Ordnung eingestuft, obwohl eine Verschlechterung vorliegt (unterlassener Alarm).
In der Medizin: Eine tatsächlich vorhandene Krankheit wird nicht erkannt (falsch negativ)
Für Abnehmer: Er akzeptiert Ware als gut, die in Wirklichkeit nicht in Ordnung ist.
In der Analytik wird eine Komponente „nicht gefunden“, obwohl sie enthalten ist.
Siehe auch Fehler 1. Art

Die Anzahl der Freiheitsgrade (FG, f, n) einer Zufallsgröße ist definiert als die Zahl „frei“ verfügbarer Beobachtungen. Sie ergibt sich aus dem Stichprobenumfang n minus der Anzahl a, der aus der Stichprobe geschätzten Parameter mit f = n – a. Z.B. nach der Berechnung des Mittelwertes sind von den n Einzelwerten nur noch n-1 frei wählbar. Der Ausdruck „n-1“ wird deshalb Freiheitsgrad genannt. (Die Berechnung ist nicht immer n-1!).

Beweisführung, dass nach der Installation und Kalibrierung die Spezifikationen in einem repräsentativen Arbeitsbereich (z. B. Konzentrations-, Temperaturbereich) eingehalten werden.
Anm.:In der Praxis sind oft die Grenzen zwischen IQ und OQ fließend.

Gebrauchsnormal (working standard) ist ein Normal, das routinemäßig benutzt wird, um Maßverkörperungen, Messgeräte oder Referenzmaterialien zu kalibrieren oder zu überprüfen

Ausmaß der Übereinstimmung zwischen dem richtigen (wahren) und dem Messwert.
Anm.: Somit ist Genauigkeit ein qualitatives Maß für systematische und zufällige Fehler, also stellt sie den Oberbegriff für Richtigkeit und Präzision dar. Ein Ergebnis ist genau, wenn es frei von zufälligen und systematischen Fehlern ist. Als quantitative summarische Kenngröße für die (Un)Genauigkeit wird zunehmend der Begriff Mess- bzw. Ergebnisunsicherheit verwendet. Da in der Vergangenheit ,,Genauigkeit“ der „Präzision“ oder sogar der „Richtigkeit“ gleichgesetzt wurde, was zu vielen Missverständnissen geführt hat, wird empfohlen, den Begriff Genauigkeit in Zusammenhang mit der Validierung zu vermeiden.

Sie beinhaltet eine Serie von Tests, um die Leistungsfähigkeit einer computerisierten Anlage unter realen Bedingungen zu prüfen. Oft besteht sie aus zwei Stufen: System- und anschließend Methodenkalibrierung.

Bei Varianzeninhomogenität kann die Regression gewichtet durchgeführt werden, um eventuell einen größeren Arbeitsbereich zu nutzen. Jedem Messwert wird ein bestimmtes Gewicht zu geordnet. Als Wichtungsfaktor werden die Varianz an jedem Kalibrierpunkt oder als Hilfsgrößen die x- oder x2-Wert genutzt.

Summe der Produkte aus Beobachtungswerten und ihrem Gewicht dividiert durch die Summe der Gewichte, wobei das Gewicht eine jeweils dem Beobachtungswert zugeordnete nicht negative Zahl ist:
Wobei Wi ≥ 0 das dem Beobachtungswert xi zugeordnete Gewicht ist.
Anm.: Früher auch ,,gewichteter Durchschnitt.“

Norm: DIN 55350 Teil 23

Oft verwendeter Ausreißertest, der normalverteilte Messwerte verlangt. Der Prüfwert entspricht dem z-Faktor der Normalverteilung. Die kritischen Werte sind tabelliert.
Die DIN 53804 empfiehlt diesen Test für Stichprobenanzahl > 29.

Die Grundkalibrierung (basic calibration) dient zur einmaligen Festlegung der Kalibrierfunktion. Mindestanforderungen an eine Grundkalibrierung sind: 6 Kalibrierstützpunkte bei Proportionalität, 6 Kalibrierstützpunkte bei Linearität, 8 Kalibrierstützpunkte bei Kalibrierfunktion 2. Grades, 10 Kalibrierstützpunkte bei Kalibrierfunktion 3. Grades. Hinweise zur Durchführung der Grundkalibrierung: mehr Messpunkte bei unterschiedlichen Konzentrationen erhöhen die statistische Sicherheit, Mehrfachmessungen bei einer Konzentration sind zur Modellfestlegung weniger effektiv als die Erhöhung der Zahl der Messwerte, die Messwerte sollten gleichmäßig über den Arbeitsbereich verteilt sein, eine Häufung der Messwerte in einem Teil des Arbeitsbereiches wirkt sich ungünstig aus, Doppeleinspritzungen in der Chromatographie sind keine statistisch unabhängigen Werte, sie sind zu mitteln.

Der Hampel-Schätzer ist ein robuster Schätzer für den Lageparameter der Grundgesamtheit. D.H., der Hampel-Schätzer ist ein robuster Mittelwert. Er wird z.B. zur Auswertung von Ringtestversuchen nach DIN 38402 – A45 „Ringversuche zur externen Qualitätskontrolle von Laboratorien“ eingesetzt.
Methode der robusten Statistik.

Varianzhomogenität im gesamten Modellbereich ist nicht gegeben, z.B. Varianzeninhomogenität im Kalibrierbereich.
Siehe auch Varianzenhomogenität

Horwitz et al. haben Mitte der 1980er Jahre Ergebnisse publizierter Ringversuche ausgewertet und daraus einen empirischen Zusammenhang zwischen der relativen Standardabweichung und der Konzentration des Analyten abgeleitet und als Formel angegeben. Die Erfüllung des Horwitz-Kriteriums (Horwitz criterion) ist ein Hinweis auf eine akzeptable Streuung. Das Horwitz-Kriterium sollte aber mit Vorsicht verwendet werden, denn es spiegelt den technologischen Stand von 1985 wieder und es unterscheidet nicht nach Prüfarten (wie z.B. Titration, HPLC, AAS…)

Der Huber-k-Schätzer ist ein robuster Schätzer für den Lageparameter der Grundgesamtheit. D.h., der Huber-Schätzer ist ein robuster Mittelwert.
Methode der robusten Statistik.

Das indirekte Verfahren (Kalibrierkurvenverfahren) dient zur Berechnung der Nachweis- und Bestimmungsgrenze und ist auf kalibrierfähige Verfahren anwendbar. Es ist in DIN 32645 beschrieben. Dazu wird eine Leerprobe mit möglichst 6 unterschiedlich konzentrierten Kalibrierlösungen aufgestockt. Die Abstände der Konzentrationen sollten möglichst gleich sein und die höchste Konzentration soll die vermutete Nachweisgrenze nicht um mehr als den Faktor 10 überschreiten. Aus der Messreihe wird zunächst auf Linearität geprüft und anschließend die Nachweis- und Bestimmungsgrenze berechnet.

Abnahmetests bei Installation des Gerätes, die sowohl regulatorische Anforderungen als auch Design-Spezifikationen mit einbeziehen. Auch Überprüfung, ob die Empfehlungen des Herstellers bei der Installation beachtet wurden.

Maßnahmen zur Überwachung der Qualität/Zuverlässigkeit von Routinedaten. Das ist also der ,,final check“ für den gesamten analytischen Prozess incl. Kalibrierung. Dies erfolgt z. B. mit Hilfe von Kontrollkarten. 1995 zuerst von der IUPAC empfohlen gewinnt dieser Ansatz langsam an Bedeutung.

Abkürzung für „Institute for Reference Materials and Measurements“. Das IRMM ist eines von 7 Instituten des Join Research Centers der Europäischen Kommission (JRC) und ist führender Hersteller von Referenzmaterialien.

Synonyme: Methodenanpassung (selten)

Umfang an kleineren Änderungen in einer Methode, deren Einfluss auf das Ergebnis durch einen Systemeignungstest überwacht wird. Das Ziel ist, die Notwendigkeit von Revalidierungen kritisch zu beurteilen – um deren Zahl auf ein Minimum zu reduzieren.

Synonyme: Justierbarkeitsbereich

Durch gezielte Verfahrensänderungen experimentell ermittelter Schwankungsbereich eines Messergebnisses. Bei etwaigen Verfahrensänderungen im Routinebetrieb, die nicht zur Überschreitung dieses Bereichs führen, ist Revalidierung nicht nötig.

Synonyme: Abgleichen

Justieren im Bereich der Messtechnik heißt, ein Messgerät (auch eine Maßverkörperung) so einstellen oder abgleichen, dass die Messabweichungen möglichst klein werden, oder dass die Beträge der Messabweichungen die Fehlergrenzen nicht überschreiten. Das Justieren erfordert also einen Eingriff, der das Messgerät oder die Maßverkörperung meist bleibend verändert.

Norm: DIN 1319 Teil 1
Synonyme: Einmessen

Kalibrieren im Bereich der Messtechnik heißt, die Messabweichungen am fertigen Messgerät feststellen. Beim Kalibrieren erfolgt kein technischer Eingriff am Messgerät. Bei anzeigenden Messgeräten wird durch das Kalibrieren die Messabweichung zwischen der Anzeige und dem richtigen oder als richtig geltenden Wert festgestellt.

Norm: DIN 1319 Teil 1

Die Kalibrierfunktion (calibration function) ist der funktionale Zusammenhang zwischen dem Erwartungswert einer Messgröße (z. B. Extinktion) und dem Gehalt (z. B. Massenkonzentration). Die Modelle der Kalibrierfunktion werden berechnet und durch statistische Tests betätigt. Die am häufigsten verwendete Kalibrierfunktion ist die Kalibriergerade. Bei bestimmten Analysengeräten und Prüfmethoden ist es empfehlenswert, mit Kalibrierfunktionen 2. und 3. Grades zu arbeiten, die zusätzlich quadratische oder kubische Glieder enthalten.

Das Kalibrierkurvenverfahren (calibration curve method) dient zur Berechnung der Nachweis- und Bestimmungsgrenze und ist auf kalibrierfähige Verfahren anwendbar. Es ist in DIN 32645 beschrieben. Dazu wird eine Leerprobe mit möglichst 6 unterschiedlich konzentrierten Kalibrierlösungen aufgestockt. Die Abstände der Konzentrationen sollten möglichst gleich sein und die höchste Konzentration soll die vermutete Nachweisgrenze nicht um mehr als den Faktor 10 überschreiten. Aus der Messreihe wird zunächst auf Linearität geprüft und anschließend die Nachweis- und Bestimmungsgrenze berechnet. Das Kalibrierkurvenverfahren wird auch als indirektes Verfahren (oder indirekte Methode) bezeichnet.

Alle Chemikalien und Materialien, die zur Kalibration einer Prüfmethode dienen

Aufstellung aller durchzuführenden Kalibriermaßnahmen (was, wann, wer, wo, wie)

Synonyme: Kalibration

Definition 1:

Beziehung zwischen den durch ein Messgerät angezeigten Werten und den entsprechenden bekannten Konzentrationen (Mengen) eines Referenzstandards.

Definition 2:

Unter Kalibrierung versteht man

  • in der Analytik die Messung von Kalibrierlösungen, festen oder gasförmigen Standards mit als bekannt vorausgesetzten Gehalten und anschließendem Aufstellen der Kalibrierfunktion. Die Kalibrierlösungen können durch Aufstocken der Leerprobe mit dem gesuchten Bestandteil erzeugt werden.
  • Ermittlung der systematischen Messabweichung einer Messeinrichtung unter vorgegebenen Anwendungsbedingungen ohne verändernden Eingriff in die Messeinrichtung
  • Arbeitsgänge, durch die unter festgelegten Bedingungen die Beziehungen zwischen den durch ein Messgerät oder ein Messsystem angezeigten oder den sich aus einer Materialmessung ergebenden Werten und den entsprechenden bekannten Werten eines Referenzstandards bestimmt werden.
Norm: DIN 1319Teil 1

Bescheinigung der Kalibrierstelle, dass der kalibrierte Gegenstand die Anforderungen erfüllt

Klassieren heißt, in bestimmter Hinsicht gleichartige Elemente einer Menge den vorgegebenen oder vereinbarten Klassen eines Merkmales zuordnen. Das Festlegen der Klassen und das Feststellen von Häufigkeiten in den Klassen gehört mit zum Klassieren.

Norm: DIN 1319 Teil 1
Vergleiche: Normalverteilungstest; David-Test; χ2-Test; Shapiro-Wilk-Test;

Statistischer Test zur Prüfung auf Normalverteilung bei kleiner Werteanzahl. Zur Durchführung des Chi-Quadrat-Tests zur Prüfung auf Normalverteilung müssen die Merkmalsausprägungen in Klassen eingeteilt werden. Die Voraussetzung dazu ist, dass genügend Werte (Merkmalsausprägungen wie z.B. Daten, Fallzahlen) vorliegen. Ist diese Voraussetzung nicht gegeben, also die Anzahl der Werte klein, wird als Anpassungstest auf Normalverteilung der Kolmogorow-Smirnow-Test herangezogen. Bei einer kleinen Fallzahl ist eine signifikante Abweichung von der Normalverteilung selten zu beobachten, d. h., die Werte müssen ziemlich auffällig“ sein. Allgemein testet der Kolmogorow-Smirnow-Anpassungstest eine empirische (kumulierte) Verteilungsfunktion gegen eine (beliebige) Verteilung, deren Parameter vollständig bekannt sein müssen.

Gesamtunsicherheit eines Ergebnisses; zu ermitteln als Quadratwurzel aus der Summe der Varianzen aller Einflüsse:
Uges ist ein Maß für allerlei zufällige Fehler.

Von der Konzentration des Analyten unabhängiger, konstanter Fehler. Durch Prüfung der Wiederfindungsrate korrigierbar.

Chemikalien und Materialien, die zur Kontrolle einer Kalibration oder eines Messsystems herangezogen werden. Wenn technisch und wirtschaftlich vertretbar, sollen Kalibriermaterial und Kontrollmaterial nicht identisch sein. Ein Kontrollmaterial kann ein (zertifiziertes) Referenzmaterial sein oder selbst hergestelltes (so dass ein bekannter Gehalt des Analyten vorliegt) oder es kann ein Restmuster einer realen Probe sein. Ein Restmuster eines abgeschlossenen Ringversuches kann ebenfalls als Kontrollmaterial verwendet werden.

Die Korrelation ist eine statistische Beziehung zwischen zwei oder mehr statistischen Variablen. Wenn sie besteht, ist noch nicht gesagt, ob eine Größe die andere kausal beeinflusst, ob beide von einer dritten Größe kausal abhängen oder ob sich überhaupt ein Kausalzusammenhang folgern lässt.

Der Korrelationskoeffizient r (Pearsonscher Korrelationskoeffizient) ist ein Maß für die Stärke eines linearen Zusammenhanges und sagt aus, ob ein linearer Zusammenhang zwischen zwei (oder auch mehreren) Größen existiert. Er kann zwischen +1 und -1 schwanken. r = 1 bedeutet: positiver funktionaler Zusammenhang, r = 0 bedeutet: kein Zusammenhang, r = -1 bedeutet: negativer funktionaler Zusammenhang. Die Berechnung des Korrelationskoeffizienten ist ein rein mathematisches Verfahren. D.h., dass ein akzeptabler Korrelationskoeffizient nicht gleichzeitig bedeutet, dass diese Korrelation auch sinnvoll ist. Zur Beurteilung einer Kalibrierung ist der Korrelationskoeffizient nur bedingt geeignet.

Differenz zwischen zwei Analysenwerten, die mit einer vorgegebenen statistischen Sicherheit als signifikant angesehen werden muss.

Synonyme: kritische Vergleichsdifferenz (früher)

Definition 1:

Betrag, unter dem der Absolutwert der Differenz zwischen zwei unter Vergleichsbedingungen gewonnenen Ergebnissen mit einer vorgegebenen Wahrscheinlichkeit erwartet werden kann.

Definition 2:

Der kritische Vergleichsdifferenzbetrag (reproducibility critical difference) ist der Betrag, unter dem oder höchstens gleich dem der Absolutwert der Differenz zwischen zwei Ergebnissen, von denen jedes eine unter Wiederholbedingungen gewonnene Serie von Ermittlungsergebnissen repräsentiert und zwischen denen Vergleichsbedingungen vorlagen, mit einer vorgegebenen Wahrscheinlichkeit erwartet werden kann. Beispiele für solche Ergebnisse sind der arithmetische Mittelwert oder der Median einer Serie von Ermittlungsergebnissen, wobei die Serie aus nur einem Ermittlungsergebnis bestehen kann. (DIN 55350 Teil 13)

Norm: DIN ISO 5725

Der kritische Wert der Messgröße ist der Messwert, bei dessen Überschreitung unter Zugrundelegung einer festgelegten Irrtumswahrscheinlichkeit erkannt wird, dass der Gehalt des Bestandteils in der Analysenprobe größer als derjenige in der Leerprobe ist. Beim Leerwert- und Kalibrierkurvenverfahren ist der kritische Wert der Messgröße die Summe aus Leerwert bzw. Ordinatenabschnitt der Kalibrierfunktion und der Breite des einseitigen Prognoseintervalls.

Der kritische Wiederholdifferenzbetrag (repeatability critical difference) ist der Betrag, unter dem oder höchstens gleich dem der Absolutwert der Differenz zwischen zwei unter Wiederholbedingungen gewonnenen Ergebnissen, von denen jedes eine Serie von Ermittlungsergebnissen repräsentiert, mit einer vorgegebenen Wahrscheinlichkeit erwartet werden kann. Beispiele für solche Ergebnisse sind der arithmetische Mittelwert oder der Median einer Serie von Ermittlungsergebnissen, wobei die Serie aus nur einem Ermittlungsergebnis bestehen kann. (DIN 55350 Teil 13)

Ein dem Ringversuch vergleichbarer Versuch (auch als Laborvergleichsprüfung bezeichnet), bei dem nur wenige oder auch nur 2 Labors teilnehmen. Er wird dann durchgeführt, wenn keine Ringversuche zu den Methoden angeboten wird oder auch zum Vergleichen der Ergebnisse zwischen Lieferant und Abnehmer. Weiteres siehe Ringversuch.
Laborpräzision: Präzision bei den wiederholten Anwendungen eines festgelegten Verfahrens am identischen Objekt (Probe) durch Berücksichtigung möglichst aller realistischen Variablen in der späteren Routine: Verschiedene Analytiker, Geräte, Chemikalien, Tage etc. Die Laborpräzision kann als Maß für die Robustheit des Verfahrens unter Routinebedingungen angesehen werden.

Die Leerprobe ist unter Idealbedingungen eine Probe, die den zu bestimmenden oder nachzuweisenden Bestandteil nicht enthält, sonst aber mit der Analysenprobe übereinstimmt. Beide Forderungen sind häufig nicht erfüllbar. Die Messung der Leerprobe (Probenmatrix ohne den Analyten) ergibt Messwerte, deren Dichtemittel als Leerwert bezeichnet wird. Bei einer symmetrischen Verteilung ist dies der arithmetische Mittelwert. Diesem Leerwert entspricht der Ordinatenabschnitt einer Kalibriergeraden. Der Leerwert kann also auch sein (leerwertfreies Verfahren, Proportionalität). Unter realen Bedingungen ist die Leerprobe eine Probe, die nur einen sehr geringen Gehalt des gesuchten Bestandteils aufweist und in der restlichen Zusammensetzung der Analysenprobe möglichst nahe kommt.

Der Leerwert ist der mit einer Leerprobe ermittelte Messwert.

Das Leerwertverfahren (blank value method) dient zur Berechnung der Nachweisgrenze aus der Streuung der Messwerte einer Leerprobe. Es ist in DIN 32645 beschrieben. Für dieses Verfahren muss daher eine Leerprobe verfügbar sein. Zur Berechnung der Nachweisgrenze muss die Steigung der Kalibriergeraden bekannt sein. Das Leerwertverfahren wird auch als direktes Verfahren (oder direkte Methode) bezeichnet. Wo möglich, ist ihm der Vorzug gegenüber dem Kalibrierkurvenverfahren zu geben.

Überprüfung des Gesamtsystems (Beweisführung) mit Hilfe realer Proben auf Einhaltung der geforderten Spezifikationen.

Abkürzung für „Laboratory of the Gouvernement Chemist“. Die früher staatliche Stelle wurde privatisiert und bietet u.a. Standards, Referenzmaterialien und Ringversuche an (www.lgc.co.uk).

Definition 1:

Fähigkeit eines Verfahrens/einer Methode, innerhalb eines bestimmten Konzentrationsbereichs Messergebnisse zu generieren, deren Abhängigkeit von der Konzentration bzw. Menge des Analytes in der Probe durch eine Geradengleichung (lineare Regression) zu beschreiben ist.

Definition 2:

Unter Linearität (linearity) wird die Anwendung einer linearen Kalibrierfunktion bezeichnet nach: y = a + bx. Die Beziehung zwischen Messgröße und Gehalt des zu bestimmenden Stoffes kann also innerhalb des in der Methode genannten Mess- oder Arbeitsbereiches als Geradengleichung dargestellt werden. Die Linearität muss nachgewiesen werden z.B. mit Hilfe des Linearitätstest nach Mandel. Die Mehrzahl der Prüfmethoden beruht auf einer linearen Kalibrierbeziehung. Es ist zu beachten, dass von einigen Normen und Auswerteverfahren die Linearität vorausgesetzt wird, z.B. bei der Bestimmung der Nachweis- und Bestimmungsgrenze nach dem Kalibrierkurvenverfahren. Selbstverständlich sind auch nicht lineare Kalibrierfunktionen validierbar.
Eine lineare Regression kann (ohne Test) auch erzwungen (festgelegt) werden, was nicht unbedingt zur besten Anpassung (geringste Abweichungen) führt.

Synonyme: Mandel-Test

Der Linearitätstest nach Mandel prüft, ob die Regression 2. Ordnung (quadratische Regression) signifikant besser ist als die Regression 1. Ordnung (lineare Regression). Zur Prüfung werden die jeweiligen Quadrate der Reststandardabweichungen aus linearer und quadratischer Regression verwendet. Der Test selbst ist ein F-Test.

Lower Limit of Quantitation

Alle Bestandteile der Probe mit Ausnahme des oder der zu bestimmenden Analyten. Die Matrix kann durch physikalisch-chemische Effekte wie z.B. Adsorption zu Fehlbefunden führen. Ihr Einfluss auf die Ergebnisse muss daher insbesondere bei Spurenbestimmungen und/oder variabler Matrix geprüft werden. Dies kann insbesondere die Prüfpunkte Kalibrierung, Spezifität, Richtigkeit (einschließlich Wiederfindung) betreffen.

Synonyme: Zentralwert

Wert, der eine aufsteigende Messwertreihe in zwei gleich große Teilmengen teilt.

Norm: DIN 55350 Teil 21, 23

Mehrfache Bestimmung einer Komponente durch komplette Wiederholung des Analysengangs.

Mehrfache Injektion einer messfertigen Lösung, so dass sich zwar mehrere Messwerte ergeben, die aber alle aus derselben Probenlösung stammen. Die resultierende Streuung ist also eine Streuung des Messvorganges, nicht aber des kompletten Verfahrens. Man spricht manchmal auch von unechten Mehrfachbestimmungen bzw. Gerätepräzision.

Der Mittelwert der Ermittlungsergebnisse aller Labors für ein bestimmtes untersuchtes Material oder Objekt.

Norm: DIN ISO 5725

Messabweichung ist ein bei einer Messung auftretende Differenz zum Erwartungswert, die auf zufällige oder systematische Fehlerursachen zurückgeht.

Vergleiche: Prüfmittel; Messgerät

Gesamtheit aller Messgeräte und zusätzlicher Einrichtungen zur Erzielung eines Messergebnisses.
Anmerkung 1: Zusätzliche Einrichtungen sind Hilfsgeräte, die nicht unmittelbar zur Aufnahme, Umformung und Ausgabe dienen (Beispiele: Einrichtung für Hilfsenergie, Ableselupe, Thermostat).
Anmerkung 2: Im einfachsten Fall besteht die Messeinrichtung aus einem einzigen Messgerät.

Norm: DGQ-Schrift 11-04

Ermittlung einer quantitativen Aussage über eine physikalische Größe mittels einer Messeinrichtung. Der Vorgang des Messens heißt Messung. Die gemessene Größe ist meistens eine Eigenschaft eines Messobjektes. Das Ergebnis (quantitative Aussage) heißt Messwert, der durch ein Produkt aus Zahlenwert und Einheit angegeben wird.

Das Messergebnis (result of determination) ist der durch die Anwendung einer Messmethode festgestellte Merkmalswert.

Vergleiche: Messeinrichtung; Prüfmittel

Gerät, das allein oder in Verbindung mit anderen Einrichtungen für die Messung einer Messgröße vorgesehen ist.
Anmerkung 1: Auch Maßverkörperungen sind Messgeräte.
Anmerkung 2: Ein Gerät ist auch dann ein Messgerät, wenn seine Ausgabe übertragen, umgeformt, bearbeitet oder gespeichert wird und nicht zur direkten Aufnahme durch den Beobachter geeignet ist (Beispiele: Messumformer, Strom- und Spannungswandler, Messumsetzer, Messverstärker).
Anmerkung 3: Ein Messgerät kann auch Messobjekt sein, z. B. bei seiner Kalibrierung.

Norm: DGQ-Schrift 11-04

Definition 1:

Ergebnisunsicherheit eines Messwertes. Das ist also ein quantitativer Genauigkeitsgrad in der Messtechnik. Das entspricht dem Intervall für Werte um den wahren Wert für ein gegebenes Signifikanzniveau.

Definition 2:

Nach der klassischen Definition ist die Messunsicherheit (uncertainty of measurement) ein aus Messungen gewonnener Schätzbetrag zur Kennzeichnung eines Wertebereichs, innerhalb dessen der Bezugswert der Messgröße mit einer vorgegebenen Wahrscheinlichkeit liegt, wobei der Bezugswert je nach Festlegung oder Vereinbarung der wahre Wert, der richtige Wert oder der Erwartungswert sein kann. Nach dem internationalen Wörterbuch der Metrologie und dem GUM (Guide to the expression of Uncertainty in Measurement, Leitfaden zur Angabe der Unsicherheit beim Messen) ist sie ein dem Messergebnis zugeordneter Parameter, der die Streuung der Werte kennzeichnet, die vernünftigerweise der Messgröße zugeordnet werden können.

Norm: DIN 55350 Teil 13, DIN 1319 Teil 3

Bemerkung: Diese Definition, sowie jene von „Verfahren“ und „Prüfvorschrift“ geben die Auffassung der Autoren wieder und decken sich mit dem üblichen Sprachgebrauch. Andere Auslegungen sind durchaus möglich. Anwendung einer Technik/eines physikalischen oder chemischen Prinzips, um eine Messung durchführen zu können. Beispiel: RP-Chromatographie für die Trennung von polyaromatischen Kohlenwasserstoffen (PAK´s) .

Die Methodenfähigkeit (lab capability) gibt Aufschluss über die Beziehung der durch den Messvorgang verursachten Streuung der Messwerte zu einer Forderung (z.B. Spezifikation). Sie nimmt eine Sonderstellung unter den Begriffen der Validierung ein, da sie keine ausschließlich auf die Analysenmethode bezogene Eigenschaft ist. Sie ist für eine sichere Bewertung der Prozessfähigkeit unerlässlich. Die Methodenfähigkeit erhält man entweder durch Prüfung eines Standmusters oder durch Doppelbestimmungen bei der Warenein- und -ausgangsprüfung.

Vergleiche: Methodenfähigkeitsindex, korrigiert

Der Methodenfähigkeitsindex (lab capability index) ist ein quantitatives Maß für die Methodenfähigkeit. Er ist analog zum Prozessfähigkeitsindex definiert und berücksichtigt die Streuung im Verhältnis zur Breite des Spezifikationsfensters, aber nicht die Lage.

Vergleiche: Methodenfähigkeitsindex

Der korrigierte Methodenfähigkeitsindex (corrected lab capability index) ist ein quantitatives Maß für die Methodenfähigkeit. Er ist analog zum kritischen Prozessfähigkeitsindex definiert und berücksichtigt neben der Streuung im Verhältnis zur Breite des Spezifikationsfensters auch die Lage. Die Berücksichtigung der Lage verschärft die Anforderungen, weshalb der korrigierte Methodenfähigkeitsindex nie besser sein kann als der Methodenfähigkeitsindex – bei zentrierter Lage sind beide gleich groß. Faustregel zur Bewertung: der korrigierte Methodenfähigkeitsindex ist ab einem Wert von 2 hoch, zwischen 1 und 2 in einem mittleren und je nach Einzelfall noch tolerierbaren Bereich und unter 1 inakzeptabel niedrig. Entscheidend für die Bewertung sind einerseits die Anforderungen an die Sicherheit des Prozesses und andererseits das Verhältnis von Prozess- zu Methodenfähigkeit (Produktion zu Analytik).

Beim Methodenvergleich (method comparison) gemäß ICH-Richtlinie kann die Richtigkeit durch den Vergleich mit einer zweiten bereits validierten Methode belegt werden. Dabei werden auf verschiedenen Konzentrationsniveaus die Differenzen der korrespondierenden Messwerte gebildet (möglichst 6 Proben mit unterschiedlichem Gehalt). Falls der Mittelwert der Differenzen kleiner als der Vertrauensbereich ist, so wird eine ausreichende Wiederfindung festgestellt. Wenn das Konfidenzband 0 enthält und der VK der Differenzen kleiner als ein vorgebbarer Wert ist, so wird das Verfahren als präzise angesehen. Alternativ kann auch eine Probe je 6 Mal mit beiden Methoden geprüft und die Mittelwerte mit Hilfe des t-Testes verglichen werden.

Vergleiche: Methodenvergleich

Bestimmt man von Proben (möglichst mehrere mit unterschiedlichem Gehalt) die Gehaltswerte mit zwei unterschiedlichen Methoden, können die Ergebnisse mit dem Differenzen-t-Test verglichen werden: ist der erhaltene Wert größer als der Tabellenwert, ist ein systematischer Unterschied mit gegebener Wahrscheinlichkeit erwiesen.

Synonyme: Modulare Validierung

Hiermit wird die Validierung oder genauer die Kalibrierung einzelner Module eines computerisierten Analysengerätes bezeichnet.

Definition 1:

Geringster Gehalt, der noch nachgewiesen werden kann (Qualitative Ja/Nein-Aussage, Irrtum 50 %). Er gilt als nachgewiesen, wenn das Signal des Analyten sich signifikant vom Leerwert unterscheidet.

Definition 2:

Die Nachweisgrenze (detection limit) ist der kleinste, mit einer festzulegenden statistischen Aussagewahrscheinlichkeit erkennbare Gehalt eines Stoffes, der bei einmaliger Messung qualitativ nachgewiesen werden kann. Die Nachweisgrenze ist eine Entscheidungsgrenze für das Vorhandensein eines Bestandteils. An der Nachweisgrenze besteht eine Wahrscheinlichkeit von 50%, den Bestandteil zu finden bzw. nicht zu finden. Die Ermittlung kann über das Signal/Rausch-Verhältnis oder gemäß DIN 32645 nach dem Leerwert- oder dem Kalibrierkurvenverfahren erfolgen. Nach der ICH-Richtlinie kann die Nachweis- und Bestimmungsgrenze basierend auf der Standardabweichung des Signals und der Kalibrierfunktion (Steigung) ermittelt werden.

Norm: DIN 32645, ISO 11843-1

Normal eines Landes als Basis zur Festlegung des Wertes aller anderen Normale der betreffenden Größe (national standard).

Der Neumann-Test ist ein Trendtest und prüft eine zeitlich geordnete Wertereihe auf einen Trend. Ein Trend liegt dann vor, wenn die Werte der Reihe von einander abhängig sind (z.B.: Abbau von Lösungen, Temperaturdrift, schleichende Dejustierung). Prüfgröße ist der Quotient aus sukzessiver Differenzstreuung und der Varianz.

Bei nichtproportional-systematischen Abweichungen ist die Abweichungsfunktion nicht linear.

Vergleiche: Achsenabschnitt

Der Abschnitt auf der Ordinate (Ordinatenabschnitt, Achsenabschnitt), der gebildet wird zwischen dem Schnittpunkt einer Funktion bei dem Abszissenwert x = 0 und dem y-Wert. Dieser Abschnitt ist immer vorhanden, wenn die Funktion nicht durch den 0-Punkt geht. Dieser Abschnitt kann als Leerwert gedeutet werden, allerdings nur dann, wenn statistisch geprüft wurde, dass dieser Wert nicht mit 0 vereinbar ist. Der Vertrauensbereich darf den 0-Punkt nicht einschließen.

Frei wählbarer, aber während der Anwendungsdauer festgehaltener Wert. Die charakteristischen Größen einer Grundgesamtheit wie Mittelwert oder Standardabweichung (die wahren aber unbekannten Werte) werden ebenfalls Parameter genannt. Parameter werden im Allgemeinen mit griechischen Buchstaben bezeichnet. Sie sind die Werte, die eigentlich bestimmt werden sollen, aber nur mit Hilfe der Stichproben durch ,,Kennwerte abgeschätzt werden können.“

Synonyme: Wiederholgenauigkeit (früher)

Ausmaß der Übereinstimmung von Messwerten. Qualitatives Maß für die Streuung von Ergebnissen, also ein Maß für das Vorhandensein von zufälligen Fehlern. Abhängig davon, unter welchen Bedingungen die Ergebnisse ermittelt werden, unterscheidet man zwischen Wiederhol– und Vergleichspräzision; nach DIN 55350, Teil 13: Qualitative Bezeichnung für das Ausmaß der gegenseitigen Annäherung voneinander unabhängiger Ermittlungsergebnisse bei mehrfacher Anwendung eines festgelegten Ermittlungsverfahrens unter vorgegebenen Bedingungen.

Norm: DIN ISO 5725
Vergleiche: Referenzstandard

Ein Standard mit der höchsten metrologischen Qualität

Norm: ISO Guide 30

Validierung über einen längeren Zeitraum (z. B. Einsatz von Kontrollkarten)

Von der Konzentration des Analyten abhängiger konstanter Fehler (?)

Die Proportionalität (proportionality) ist ein Spezialfall der Linearität. Bei der Proportionalität erfolgt die Kalibrierung nach einem linearen Modell, bei dem definiert wird, dass die Kalibriergerade durch den punkt geht, der Ordinatenabschnitt a also gleich wird. Im unteren Arbeitsbereich einer proportionalen Kalibrierfunktion kann ein Proportionalitätsfehler auftreten, da häufig ein geringfügiger und durch den Test nicht nachgewiesener positiver oder negativer y-Achsenabschnitt existiert, der im Spurenbereich zu einer systematischen Abweichung führen kann, die bei größeren Konzentrationen vernachlässigbar klein ist.

Synonyme: Vorausschauende Validierung

Validierung, die vor Nutzung des Prozesses abgeschlossen ist (vorausschauend)

Begriff der GLP, Bezeichnung für Mess- oder Prüflabor

Prüfen heißt feststellen, ob der Prüfgegenstand (Probekörper, Probe, Messgerät) eine oder mehrere vorgegebene (vereinbarte, vorgeschriebene, erwartete) Bedingungen erfüllt. Mit dem Prüfen ist daher immer der Vergleich mit vorgegebenen Bedingungen verbunden.

Norm: DIN 13 19 Teil 1

Zu den Prüfhilfsmitteln gehören beispielsweise Rechnerprogramme zur Durchführung von Qualitätsprüfungen, Anlegefelder für automatische Mehrfachprüfungen usw.

Norm: DGQ-Schrift 11-04
Vergleiche: Messeinrichtung; Messgerät

Prüfmittel sind Messeinrichtungen, die für Qualitätsprüfungen eingesetzt sind. Anmerkung: Im Bereich der chemischen Analytik werden in Erweiterung der DGQ-Definitionen häufig auch Chemikalien, Reagenzien und Standards als Prüfmittel definiert. Eine Unterteilung in physikalische und chemisehe Prüfmittel ist hier also sinnvoll.

Norm: DGQ-Schrift 11-04

Gesamtheit der systematischen Tätigkeiten der Kalibrierung, Justierung, Eichung sowie der Instandhaltung von Prüfmitteln und Prüfhilfsmitteln.

Norm: DGQ-Schrift 11-04
Vergleiche: Prüfen

Nach DIN/EN 45001 Oberbegriff für Messungen, Untersuchungen, Analysen usw. Technischer Vorgang, der aus dem Bestimmen eines oder mehrerer Merkmale eines bestimmten Erzeugnisses, Verfahrens oder einer Dienstleistung besteht und gemäß einer vorgeschriebenen Verfahrensweise durchzuführen ist.

Norm: EN 45020/12.1
Vergleiche: Methode (unter Bemerkung)

Genaue Anleitung in schriftlicher Form, die notwendig ist, um eine Methode korrekt anwenden zu können.

Die Q-Methode ist eine Methode der robusten Statistik. Sie liefert einen robusten Schätzwert für die Dispersion, d.h., einen robusten Streuwert (Standardabweichung).
Sie wird z.B. zur Auswertung von Ringtestversuchen nach DIN 38402 – A45 „Ringversuche zur externen Qualitätskontrolle von Laboratorien“ eingesetzt.

Überprüfung der Funktionstüchtigkeit des Gerätes. Diese Überprüfung umfasst die Kalibrierung und bei Bedarf das Justieren von Mess-, Steuer- und Regeleinrichtung: Kann vereinfacht als die ,,Validierung des Messgerätes ohne Analysengut angesehen werden.“

Typische Probe, die wiederholt innerhalb von Serien natürlicher Proben analysiert wird. Sie dient dazu, die Systemstabilität zu überwachen und unerwünschte Drift bei der Ausführung der Analyse aufzudecken.

Der Referenzbereich ist dasjenige Intervall, innerhalb dessen die Ausprägung eines Qualitätsindikators als ,,unauffällig definiert wird. Ein Referenzwert ist ein Referenzbereich

dessen Unter- und Obergrenze zusammenfallen. Referenzbereiche bzw. -werte müssen im Rahmen der Qualitätsforderung festgelegt werden. Diese Festlegung kann entweder empirisch (statistisch) oder normativ (Expertenkonsens) erfolgen.“

Vergleiche: beglaubigtes Referenzmaterial

Stabiles, homogenes Material oder eine Substanz, von der eine oder mehrere Eigenschaften ausreichend bekannt sind, so dass es (sie) zur Kalibrierung von Apparaten, zur Beurteilung einer Messmethode oder zur Zuweisung von Werten an Materialien benutzt werden kann. Wenn technisch und wirtschaftlich vertretbar, sollen Kalibriermaterial und Kontrollmaterial nicht identisch sein.

Norm: ISO Guide 20, Abschnitt 3.2.1 und update ISO Guide 30

Zertifiziertes Referenzmaterial (ZRM) ist ein Referenzmaterial mit einem Zertifikat, in dem unter Angabe der Unsicherheit und des zugehörigen Vertrauensniveaus ein oder mehrere Merkmalswerte aufgrund eines Ermittlungsverfahrens zertifiziert sind, mit dem die Rückführung der Werte auf eine genaue Realisierung der Einheit erreicht wird.

In der Regel Normen oder Richtlinien (DIN, DEV, ISO, CEN, VDI) im Rahmen rechtlicher Regelungen.

Regression (regression) ist eine mathematische Methode zur Aufstellung einer funktionalen Beziehung zwischen empirisch gefundenen Wertepaaren. Der Regressionsgrad einer Kalibrierfunktion ist abhängig von der Präzision der Messdaten und vom Arbeitsbereich: je höher die Präzision der Messdaten, desto größer ist die Wahrscheinlichkeit für eine höhere Ordnung, je kleiner der Arbeitsbereich, desto wahrscheinlicher ist eine lineare Beziehung.

Passing und Bablok entwickelten ein spezielles Regressionsverfahren zum Vergleichen von 2 Messreihen für Methodenvergleiche unter Beachtung folgender Punkte:

  • Sowohl die Messreihe 1 als auch Messreihe 2 sind nicht frei von Fehlern.
  • Die Verteilung der Messwerte ist nicht unbedingt „normalverteilt“.
  • „Ausreißer“ sind nicht immer grobe Messfehler. Ohne weitere Überprüfung dürfen sie nicht gestrichen werden.
  • Die Varianzen sind nicht konstant über den gesamten Konzentrationsbereich. Die Varianz erhöht sich meist mit der Größe der Messwerte.

egressionskoeffizienten (regression coefficient) werden die Kennwerte der Regressionsgleichung, z.B. a, b bei y = a + bx, bezeichnet.

Relative Messunsicherheit (relative uncertainty of measurement) ist die Messunsicherheit dividiert durch den Betrag des (berichtigten) Messergebnisses, sofern dieser Betrag verschieden von Null ist.

Vergleiche: Richtigkeit

Vergleich eines Ergebnisses nach einer neuen Methode mit dem Ergebnis (identische Probe!) nach einer Referenzmethode.

Auf die Mitte des Arbeitsbereichs normierte Verfahrensstandardabweichung

Die relative Verfahrensstandardabweichung (coefficient of variation of the procedure) ergibt sich aus der Division der Verfahrensstandardabweichung durch die Mitte des Kalibrierbereichs mal 100 und wird in % angegeben. Mit der relativen Verfahrensstandardabweichung kann die Streuung der Prüfmethode in verschiedenen Labors oder von unterschiedlichen Prüfmethoden verglichen werden.

Als Reproduzierbarkeit (reproducibilty) wird die Präzision unter Vergleichsbedingungen (Vergleichspräzision) bezeichnet. Sie wird aber oft fälschlicherweise für die Präzision unter Wiederholbedingungen verwendet. Daher sollte der Begriff im Validierungsumfeld nicht verwendet werden, um Unklarheiten auszuschließen.

Untersuchung der Residuen zur Bewertung einer Regression.

Als Residuen (residuals) oder Reste werden die Abweichungen e zwischen der Zielgröße y (z.B. Messwert einer Kalibrierung) und dem berechneten Wert der Zielgröße yo aus der Regressionsfunktion, bezeichnet: ei = yi – yoi. Mit ihrer Hilfe können Aussagen über die Korrektheit des gewählten Regressionsmodells (linear, quadratisch, exponentiell, …) gemacht werden. Ist das Modell korrekt, müssen die Werte von ei im gesamten Bereich von yoi ohne erkennbare Struktur um 0 streuen (sie sind normalverteilt).

Die Reststandardabweichung (rest standard deviation) ist ein Maß für die Streuung der Messwerte um die Regressionskurve.

Validierung bereits bestehender Prozesse anhand historischer Daten

Vergleiche: Justierbarkeit

Fortschreitende Validierung bei Verfahrensänderung.

Synonyme: Sollwert (früher); Zielwert (früher)

Wert für Vergleichszwecke, dessen Abweichung vom wahren Wert für den Vergleichszweck als vernachlässigbar betrachtet wird. Der richtige Wert ist somit ein Näherungswert für den wahren Wert.

Norm: DIN 55350 Teil 13
Synonyme: Treffgenauigkeit (früher)

Definition 1:

Sie beschreibt die Übereinstimmung des erhaltenen Analysenwertes (Mittelwertes) mit einem als richtig akzeptierten Wert. Anm.: Sie ist also die qualitative Bezeichnung für den Abstand zwischen erhaltenem und richtigem Wert; je kleiner die systematischen Fehler sind, um so „richtiger“ arbeitet das Ermittlungsverfahren.

Definition 2:

Richtigkeit (trueness, accuracy {of the mean}) ist ein qualitativer Begriff und beschreibt das Ausmaß der Annäherung des Erwartungswertes an den richtigen Wert. Die Richtigkeit wird von systematischen Abweichungen beeinflusst. Man unterscheidet zwischen konstanten und proportionalen systematischen Abweichungen. Konstante systematische Abweichungen liegen vor, wenn die Abweichungen unabhängig von der Konzentration des zu bestimmenden Stoffes sind (z.B. Blindwerte). Liegt eine (proportionale) Abhängigkeit von der Konzentration vor, spricht man von proportionalen systematischen Abweichungen (z.B. Matrixeffekte). Als quantitatives Maß für die Richtigkeit kann die systematische Ergebnisabweichung angegeben werden. Die Ermittlung der systematischen Abweichung basiert stets auf dem Vergleich mit einer Referenz: (zertifiziertes) Referenzmaterial, Referenzprobe (synthetisch oder aufgestockt), Referenzverfahren (Methodenvergleich) oder Referenzlabor (Laborvergleich, Ringversuch).

Verfahren zur Qualitätskontrolle zur Feststellung der Validität von Messungen, z.B. im medizinischen Laboratorium. Es werden Untersuchungen von definierten Referenzmaterialien durchgeführt und diese Resultate mit den zuvor mit einer Referenzmethode ermittelten Sollwerten verglichen.

Synonyme: Ringtest

Im Ringversuch (ring experiment) wird überprüft, ob die Abweichungen der Einzelwerte von den Labormittelwerten rein zufälliger Natur sind und somit eine Abgrenzung zwischen zufallsbedingten Abweichungen (und somit unvermeidbar) oder nicht zufälligen Abweichungen (z. B. apparativ, methodisch oder personell bedingt) möglich ist. Ringversuche werden durchgeführt, um Labors zu überprüfen, um Referenzmaterialien zu charakterisieren oder um Prüfmethoden zu validieren. Ringversuche spielen als externe Qualitätskontrolle eine wichtige Rolle bei der Akkreditierung von Laboratorien.

Qualitatives Maß, inwieweit variierende Bedingungen (Methodenparameter, Personal, techn. Ausrüstungen, Laboratorien etc.) das Analysenergebnis verändern. Oder: Fähigkeit eines Verfahrens/einer Methode, Ergebnisse zu liefern, die nicht oder unwesentlich durch Veränderungen der Umgebung, der experimentellen Bedingungen usw. verfälscht werden. Viele Störfaktoren sind durch Vereinheitlichung oder genauere Beschreibung der kritischen Arbeitsschritte zu beheben.

Definition 1:

Die Eigenschaft eines Messresultats, welches mit angemessenen Standards („étalon“) durch eine ununterbrochene Reihe von Vergleichen verbunden ist.

Definition 2:

Rückführbarkeit bezeichnet die Möglichkeit zur Rückführung. Rückführbarkeit ist von Rückverfolgbarkeit zu unterscheiden.

Dieser Begriff wird in F & E-Bereichen verwendet. Im Gegensatz zu einer „formalen“ Validierung wird hier bei neuen (Forschungs-)Substanzen nur ein Teil der Tests durchgeführt, in der Regel: Wiederholpräzision, Linearität, Wiederfindungsrate, Nachweisgrenze und Stabilität von Lösungen.

Ein Standard, dessen Eigenschaftswert durch Vergleich mit einem Primärstandard festgelegt wurde.

Vergleiche: Spezifität

Definition 1:

Die Selektivität beschreibt das Ausmaß, mit dem mehrere Analyten in einer Mischung ohne Interferenzen in Gegenwart weiterer Mischungskomponenten bestimmt werden können.

Definition 2:

Selektivität (selectivity) ist die Fähigkeit eines Analysenverfahrens, den zu bestimmenden Stoff von anderen in der Probe zu unterscheiden. In der Chromatographie kann die Selektivität über eine relative Retention von Analyt und Störsubstanzen beschrieben werden. Je höher die Selektivität ist, desto größer ist auch die Auflösung R (bei konstanter Peakbreite). Häufig werden die Begriffe Spezifität und Selektivität bedeutungsgleich verwendet.

Système International d´Unités = Internationales Einheitensystem. Physikalische Größen und Messergebnisse sollten nach Möglichkeit in SI-Einheiten angegeben werden.

Für Methoden, die eine Basislinie zeigen, ist eine Abschätzung der Nachweis- und Bestimmungsgrenze aus dem Signal/Rausch-Verhältnis (signal to noise ratio) möglich. Typische Beispiele sind chromatographische und spektroskopische Methoden. Nach ICH kann die Nachweis- und Bestimmungsgrenze basierend auf dem Signal-/Rauschverhältnis und durch ,,Visual Evaluation ermittelt werden. Die Nachweisgrenze ist die Konzentration, bei der die Signalhöhe des Analyten das 10-fache des Signalrauschens der Basislinie einer Leerprobe an der Stelle des Analyten bzw. in seiner direkten Umgebung erreicht. Beide Zahlenwerte sind durch Konvention festgelegt.

bei der die Signalhöhe des Analyten das 3-fache des Signalrauschens der Basislinie einer Leerprobe an der Stelle des Analyten bzw. in seiner direkten Umgebung erreicht. Die Bestimmungsgrenze ist die Konzentration

Testniveau zur Prüfung einer statistischen Hypothese, d.h. die Wahrscheinlichkeit für die Richtigkeit einer Aussage. Das Signifikanzniveau (level of significance) alpha (Irrtumswahrscheinlichkeit) eines statistischen Tests bestimmt die maximale Eintrittswahrscheinlichkeit für das Eintreten eines Fehlers 1. Art (H0 wird verworfen, obwohl H0 wahr ist). Ein Signifikanzniveau von 95% würde bedeuten, dass im Durchschnitt von 100 Entscheidungen 5 falsch sind.
Auf der Basis der vorgegebenen Signifikanzniveaus werden die Grenzen einer Shewhart-Karte berechnet.

Der Soll-/Ist-Vergleich dient dem Richtigkeitsnachweis durch Nachweis der Abwesenheit konstanter und proportionaler systematischer Abweichungen. Dazu müssen eine Reihe Proben mit unterschiedlichem Gehalt zur Verfügung stehen. Die Gehaltswerte müssen dabei mit größenordnungsmäßig höherer Genauigkeit bekannt sein als die zu prüfende Analysenmethode erwarten lässt. Prinzip: Die Ergebnisse der Probenreihe werden gemessen, mit linearer Regression ausgewertet und der y-Achsenabschnitt a sowie die Steigung b ermittelt. Bei Zweifel an der Linearität ist ein Linearitätstest durchzuführen. Dann wird geprüft (t-Test), ob die für a und b erhaltenen Werte auf dem gewählten Signifikanzniveau von den Idealwerten a ideal=0 bzw. b ideal=1 zu unterscheiden sind. Ist dies der Fall, so gilt ein systematischer Fehler mit der vorgegebenen Wahrscheinlichkeit als nachgewiesen.

Sortieren (Auslesen) heißt, verschiedenartige Elemente einer Menge nach ihrer Verschiedenartigkeit (nach vorgegebenen Sorten, Arten, Merkmalen oder Merkmalswerten) trennen.

Norm: DIN 1319 Teil 1

Größter minus kleinstem Beobachtungswert.

Norm: DIN 55350 Teil 23
Synonyme: SQC

Statistische Prozesskontrolle auch Statistische Qualitätskontrolle. Im Gegensatz zur SPR keine on-line-Regelung, sondern die retrospektive Analyse der Prozessergebnisse auch aus nicht beherrschten Prozessen als Zeitverteilungsreihe mit der Vorgabe, beim Über- oder Unterschreiten von vorgegebenen Werten Ursachenforschung zu betreiben und den Prozessablauf zu ändern.

Spezifikationskatalog mit den Anforderungen des Kunden.

Vergleiche: Selektivität

Definition 1:

Die Spezifität beschreibt das Ausmaß, mit dem ein Analyt in einer komplexen Mischung ohne Interferenzen in Gegenwart weiterer Mischungskomponenten bestimmt werden kann.

Definition 2:

Spezifität (specifity) ist die Fähigkeit einer Analysenmethode, den Analyten ohne Störung durch in der Probe enthaltene Substanzen oder Matrixbestandteile zu bestimmen. Eine niedrige „Querempfindlichkeit“ entspricht einer hohen Spezifität. Häufig werden die Begriffe Spezifität und Selektivität bedeutungsgleich verwendet.

Statistische Prozessregelung, on-line-Regelung eines Prozesses, bei dem alle qualitätsbestimmenden Parameter während des Prozesses auf den Verlauf innerhalb statistisch vorgegebener Regelgrenzen überprüft werden. Für alle diese Parameter wird eine nur rein zufällige Verteilung ihrer Einzelwerte zugelassen. Das Ergebnis ist ein beherrschter Prozess, bei dem das Prozessergebnis ausschließlich statistischen Verteilungen und nicht systematischen Störungen unterworfen ist.

Die Stabilität (stability) der Proben und Kalibriersubstanzen als Reinstoffe, Mischungen oder Lösungen ist im Rahmen der üblichen Anwendung zu belegen. Die Stabilität wird meist im Rahmen der Robustheit geprüft.

Positive Quadratwurzel aus der Varianz

Die relative Standardabweichung (relative standard deviation) ist die Standardabweichung bezogen auf den Mittelwert. Sie wird normalerweise in % angegeben und ist damit identisch mit dem Variationskoeffizienten VK.

Das Standardadditionsverfahren (standard addition method) wird in der Analytik angewendet, wenn eine Aufnahme einer normalen Kalibrierkurve auf Grund von z.B. Matrixeffekten nicht möglich oder der Aufwand nicht gerechtfertigt ist.
Insbesondere bei spurenanalytischen Bestimmungen können sich Steigung und Linearität einer mit matrixfreien Kalibrierproben erstellten Kalibrierfunktion von denen einer mit matrixhaltigen Kalibrierproben erstellten Kalibrierfunktion unterscheiden. Solche Effekte lassen sich durch Standardaddition des Analyten zu einer matrixbehafteten Realprobe erkennen. Konstante systematische Abweichungen können so allerdings nicht erkannt werden. Man erstellt die Aufstockkalibrierfunktion und die matrixfreie Kalibrierfunktion mit jeweils 6 Kalibrierlösungen. Zur Erstellung der Aufstockkalibrierfunktion (Auftragung der Messwerte der nicht aufgestockten sowie der 5 aufgestockten Proben gegen die zugegebene Menge Analyt) wird der Analyt schrittweise zu einer Probe bekannten Gehaltes dosiert, wobei sich nach 5 Standardadditionen der Gehalt des Analyten in der Probe verdoppelt bis verdreifacht haben sollte. Wenn sich die Aufstockkalibrierfunktion als linear erweist (bei Nichtlinearität ist das Standardadditionsverfahren ungeeignet), vergleicht man deren Steigung mit der Steigung der (matrixfreien) Kalibrierfunktion (Mittelwert-t-Test) auf signifikante Unterschiede. Bei einem signifikanten Unterschied zwischen beiden Steigungen ist die mit matrixfreien Proben erstellte Kalibrierfunktion für die untersuchte Probe nicht geeignet. Das Verfahren wird auch als Aufstockverfahren bezeichnet.

Unsicherheit eines Messergebnisses ausgedrückt als Standardabweichung.

Prozesse, bei denen die einzelnen Schritte des Prozesses sich gegenseitig nicht beeinflussen. Das bedeutet, dass eine Ursache, die zur Streuung von Werten im Schritt A führt, keinen Einfluss auf die Streuung der Werte während des Schrittes B hat. (Beispiel Chromatographie: Was im Detektor passiert ist unabhängig von der ,,Güte der Injektion).“

Systematische Abweichung (systematischer Fehler, systematic deviation, systematic error, Bias): Abweichung des unberichtigten Messergebnisses vom Erwartungswert. Systematische Messabweichungen treten einseitig auf, so dass sie durch Wiederholmessungen nicht erfassbar sind (Beispiele: Dejustierung des Messgerätes, Analytverluste bei Extraktion, Zersetzung einer Lösung). Es werden konstante und proportionale Messabweichungen unterschieden. Der Nachweis der Abwesenheit systematischer Messabweichungen ist unter dem Prüfpunkt Richtigkeit zu führen.

Konstante Differenz zwischen dem richtigen und aus der Messung erhaltenen Mittelwert.

Im Rahmen der Robustheitsprüfung sollten laut ICH Systemeignungsparameter (repräsentative Indikatoren) identifiziert werden, um das Analysenverfahren in der späteren Anwendung überwachen zu können. Beispiele für Systemeignungsparameter sind die Mindestauflösung kritischer Peakpaare oder ein maximales Grundlinienrauschen. Hinweise auf Systemeignungsparameter sollten in die Prüfvorschrift aufgenommen werden.

Systemeignungstests (system suitability test) sind nach ICH integraler Bestandteil vieler Analysenvorschriften. Mit ihnen wird das Gesamtsystem einschließlich Messgerät, Elektronik, analytischer Operationen und Proben geprüft.

Der t-Test ist ein Hypothesentest, der auf der t-Verteilung beruht. Geprüft werden Lagekennwerte wie z.B. die Differenz zwischen zwei Mittelwerten bei unbekannter Varianz. Oft wird er auch als Student-t-Test bezeichnet.

Die t-Verteilung (Student-t-Verteilung) ist stetig, symmetrisch und glockenförmig und hat einen Variationsbereich von -∞ bis +∞. Sie ist der Standardnormalverteilung ähnlich. Die Form der t-Verteilung ist aber unabhängig von μ und s, sie wird nur durch den Freiheitsgrad (FG) bestimmt. Bei kleiner Werteanzahl (kleine Stichprobe) ist sie flacher und breiter als die Standardnormalverteilung. Je kleiner der FG, umso größer sind die Abweichungen von der Standardnormalverteilung. Bei großem FG geht die t-Verteilung in die Standardnormalverteilung über. Die t-Verteilung ist die Anpassung der Normalverteilung an kleine Stichproben mit unbekannter Standardabweichung s (nur s ist bekannt).

Der Trendtest prüft Wertereihen auf Abwesenheit von sich (zeitlich) verändernden systematischen Abweichungen (z.B.: Abbau von Lösungen, Temperaturdrift, schleichende Dejustierung). Häufig wird der Test nach Neumann verwendet.

Analysenverfahren sind dann unabhängig, wenn ihre Analysenprinzipien völlig voneinander verschieden sind.

Dieser Begriff wird von der Deutschen Fettgesellschaft, DFG, vorgeschlagen. Niedrigste Konzentration des Analyten, die das Labor bei der Ausarbeitung der Methode verwendet hatte oder von der abgeschätzt werden konnte, dass die Methode zufriedenstellende Ergebnisse (auswertbare Messsignale) liefern würde. Anmerkung: uGpA ist keine statistisch abgeleitete Größe, sondern eine hilfsweise Abschätzung, wenn Nachweis- bzw. Bestimmungsgrenze nicht eigens ermittelt wurde.

Vergleiche: Validierungsplan

Dokument mit Informationen über das Validierungsprogramm im Unternehmen mit Zeit- und Prioritätenvorgaben, Verantwortlichkeiten etc.

Vergleiche: Verifizierung; Qualifizierung

Definition 1:

Bestätigen aufgrund einer Untersuchung und durch Bereitstellen eines Nachweises, dass die besonderen Forderungen für einen speziellen beabsichtigten Gebrauch erfüllt worden sind.

Definition 2:

Beweisführung in Übereinstimmung mit den Grundsätzen der Guten Herstellungspraxis, dass Verfahren, Prozesse, Geräte, Anlagen, Ausrüstungsgegenstände, Materialien, Arbeitsgänge oder Systeme tatsächlich zu den erwarteten Ergebnissen führen (siehe auch Qualifizierung).

Norm: ISO 8402

Der Validierungsbericht (validation report) protokolliert die Durchführung der Validierung, die ermittelten Daten, eventuelle Besonderheiten und die Gesamtbeurteilung und beinhaltet die Freigabe des validierten Verfahrens durch die verantwortliche Person (Herstellungs- oder Kontrollleiter).

Vom Hersteller angebotene Software- Programme, Testprotokolle sowie weitere Hilfsmittel (z. B. HPLC-Säulen aus unterschiedlichen Chargen, Referenzstandards), um ein Gerät bzw. Applikation zu testen (zu ,,validieren).“

Vergleiche: Validation master plan, VMP

Vergleiche: Validation master plan, VMP
Plan für die notwendigen Tatigkeiten im Labor, um die Parameter der zu validierenden Methode zu ermitteln.

Validität ist ein qualitatives Maß der Gültigkeit eines Resultats oder einer Studie.

Definition 1:

Summe der quadrierten Abweichungen der Beobachtungswerte von ihrem arithmetischen Mittelwert dividiert durch die um 1 verminderte Anzahl der Beobachtungswerte.

Definition 2:

Die Varianz ist ein Streuungsmaß, d.h. ein Maß für die „mittlere“ Abweichung einer Zufallsvariable X (z.B. Messwert) von ihrem Erwartungswert (z.B. Mittelwert). Die Varianz der Zufallsvariable X wird üblicherweise als σ2 (Grundgesamtheit) oder s2 (Stichprobe) geschrieben. Sie wird berechnet, indem man die Abweichungen vom Erwartungswert quadriert, addiert und durch den Freiheitsgrad f teilt. Der Unterschied zwischen der Varianz der Grundgesamtheit und der Stichprobe ist zu beachten. Ihr Nachteil für die Praxis ist, dass sie eine andere Einheit als die Daten besitzt. Dieser Nachteil kann behoben werden, indem man statt der Varianz die Standardabweichung benutzt. Die Standardabweichung ist die Quadratwurzel der Varianz. Die Varianz wird auch mittlere Quadratesumme (MQS) genannt.

Norm: DIN 55350 Teil 23

Unter Varianzenhomogenität versteht man die Gleichheit der Varianzen. Bei Anwendung varianzanalytischer Methoden (ANOVA, Kleinste Quadrate Methode) ist die Varianzenhomogenität eine vorher sicherzustellende Eigenschaft des Datenmaterials. Z.B. ist die Homogenität der Restvarianz (Homoskedastizität) über den gesamten Kalibrierbereich die Voraussetzung für eine ungewichtete Regression. Die Prüfung der Varianzenhomogenität erfolgt mit dem F-Test.

Die Prüfung der Varianzenhomogenität erfolgt mit dem F-Test, s. dort.

Synonyme: relative Standardabweichung

Quantitatives Maß für die Präzision. Standardabweichung dividiert durch den Betrag des arithmetischen Mittelwerts.
Anmerkung: Der Variationskoeffizient wird meist in Prozent angegeben.

Norm: DIN 55350 Teil 23
Vergleiche: Methode (unter Bemerkung)

Gesamtheit aller Schritte wie Probenahme, Probenvorbereitung, Trennung bzw. Messung, Datengenerierung, die zur Ermittlung eines Ergebnisses notwendig sind.
Beispiel: PAK-Bestimmung in Schlamm.
Probenahme, Probenaufarbeitung, Extraktion, Aliquotieren, Kalibrierung, HPLC-Messung, Quantifizierung.

Norm: DIN 38402 Teil 51

Anmerkung: Ein Maß dafür kann beispielsweise die Differenz der Standardabweichung zum Zeitpunkt t = 0 und der nach 12, 24 Stunden usw. sein. Kann zur Robustheit gehörend angesehen werden.

Vergleiche: relative Verfahrensstandardabweichung

Definition 1:

Quotient aus Reststandardabweichung (der linearen oder quadratischen Regression) und Steigung: Wichtiges Gütekriterium einer Methode.

Definition 2:

Aus der Reststandardabweichung und der Empfindlichkeit wird die Verfahrensstandardabweichung (standard deviation of the procedure) in der Mitte des Arbeitsbereichs berechnet. Die Verfahrensstandardabweichung ist ein Gütemaß für die Streuung einer Prüfmethode. Da sie die Einheit der x-Achse besitzt, können mit ihr Methoden direkt verglichen werden. Aus ihr lassen sich auch Nachweis- und Bestimmungsgrenze abschätzen.

Definition 1:

Wiederholung der gleichen Messung an einem identischen Objekt unter verschiedenen äußeren Bedingungen.

Definition 2:

Vergleichsbedingungen (reproducibility conditions) liegen vor, wenn die gleiche Prüfmethode auf identische Proben von verschiedenen Mitarbeitern mit verschiedenen Geräten in verschiedenen Labors und/oder zu verschiedenen Zeiten angewendet wird. Vergleichsbedingungen entsprechen Ringversuchsbedingungen.

Laborinterne Vergleichsbedingungen (intralaboratory reproducibility conditions) liegen vor, wenn identische Proben im selben Labor mit der gleichen Prüfmethode in größeren Zeitabständen und/oder von unterschiedlichen Personen und/oder mit unterschiedlichen Geräten untersucht werden. Sie werden auch als Zwischenbedingungen bezeichnet, da sie zwischen Wiederhol- und Vergleichsbedingungen liegen. (Vergleichspräzision). Idealerweise sollten sie die übliche Laborroutine widerspiegeln und somit eine gute Abschätzung für das Streuverhalten in Qualitätsregelkarten liefern.

Der kritische Vergleichsdifferenzbetrag (reproducibility critical difference) ist der Betrag, unter dem oder höchstens gleich dem der Absolutwert der Differenz zwischen zwei Ergebnissen, von denen jedes eine unter Wiederholbedingungen gewonnene Serie von Ermittlungsergebnissen repräsentiert und zwischen denen Vergleichsbedingungen vorlagen, mit einer vorgegebenen Wahrscheinlichkeit erwartet werden kann. Beispiele für solche Ergebnisse sind der arithmetische Mittelwert oder der Median einer Serie von Ermittlungsergebnissen, wobei die Serie aus nur einem Ermittlungsergebnis bestehen kann. (DIN 55350 Teil 13)

Synonyme: Vergleichbarkeit (früher)

Kritischer Vergleichsdifferenzbetrag für zwei Ermittlungsergebnisse und für eine vorgegebene Wahrscheinlichkeit von 95 %

Norm: DIN 55350 Teil 13
Synonyme: Vergleichbarkeit; Reproduzierbarkeit; Übertragbarkeit (selten)

Präzision bei den wiederholten Anwendungen eines festgelegten Verfahrens am identischen Objekt (Probe) durch verschiedene Analytiker, mit verschiedenen Geräten in verschiedenen Laboratorien (Vergleichsbedingungen ?).
Anmerkung: Der im Laboralltag häufig verwendete Begriff ,,Reproduzierbarkeit führt häufig zu Missverständnissen („Die Reproduzierbarkeit der Retentionszeiten war gut“, gemeint sind hier wahrscheinlich Wiederholbedingungen) und sollte vermieden werden.

Standardabweichung der Ermittlungsergebnisse unter Vergleichsbedingungen (Vergleichspräzision).
Anmerkung: Die Vergleichstandardabweichung ist ein Streuungsparameter für Ermittlungsergebnisse und daher ein Maß für die Vergleichspräzision.
Norm: DIN 55350 Teil 13

Norm: DIN 55350 Teil 13
Vergleiche: Validierung; Qualifizierung

Bestätigen aufgrund einer Untersuchung und durch Bereitstellen eines Nachweises, dass festgelegte Forderungen erfüllt worden sind.

Norm: ISO 8402
Synonyme: Konfidenzintervall

Definition 1:

Wertebereich, innerhalb dessen der Bezugswert mit einer vorgegebenen Wahrscheinlichkeit (meist 95 %) liegt.

Definition 2:

Der Vertrauensbereich (Vertrauensintervall, Konfidenzintervall, Konfidenzbereich) ist der Bereich, indem mit einer bestimmten Wahrscheinlichkeit der wahre Wert liegt. Aus Stichproben ermittelte Kennwerte sind grundsätzlich mit Unsicherheiten behaftet. Sie sind lediglich (wenn auch die besten) Schätzwerte für die unbekannten Parameter der Grundgesamtheit, denen das eigentliche Interesse gilt. Der Vorteil, die Messresultate mit Hilfe von Vertrauensintervallen anzugeben, liegt darin, dass die Verlässlichkeit der Resultate quantifiziert werden kann. Korrekterweise ist also immer die Kenngröße mit ihrem entsprechenden Vertrauensintervall zu einer definierten Wahrscheinlichkeit (z.B. 95%) anzugeben. Diese Wahrscheinlichkeit wird auch statistische Sicherheit genannt.

Vergleiche: richtiger Wert; exakter Wert

Definition 1:

Tatsächlicher, aber unbekannter Merkmalswert unter den bei der Ermittlung herrschenden Bedingungen.
Anmerkung: Das ist ein ideeller Wert, da er sich nur dann feststellen ließe, wenn sämtliche Abweichungen vermieden werden könnten.

Definition 2:

Der wahre Wert (true value) ist der tatsächliche Merkmalswert, der sich ist in der Regel praktisch durch Messen (stetige Messwertverteilung) nicht ermitteln lässt und somit unbekannt ist. Selbst wenn die Grundgesamtheit zur Prüfung zur Verfügung stehen würde, ist es theoretisch nicht möglich, alle möglichen Werte zu messen. Die wahren Werte können nur angenähert werden.
Bei diskreten Werteverteilungen können wahre Werte ermittelt werden wie z.B. durch Zählen der Anzahl der in einer Grundgesamtheit enthaltenen Elemente.

Norm: DIN 55350 Teil 13

Statistisch berechenbare Wahrscheinlichkeit mit der der Mittelwert einer zunehmenden Zahl von Wiederholuntersuchungen sich dem Mittelwert unendlich vieler Wiederholuntersuchungen asymmetrisch nähert.

Ist die Wiederfindungsrate konzentrationsabhängig, so sollte die Abhängigkeit der Wiederfindungsrate von der Konzentration im relevanten Arbeitsbereich durch eine Wiederfindungsfunktion (recovery function) dargestellt werden.

Synonyme: Wiederfindung

Definition 1:

Verhältnis des unter Wiederholbedingungen erhaltenen Mittelwertes zum tatsächlichen Gehalt einer Komponente in der Probe.

Definition 2:

Die Wiederfindung (recovery ) oder Wiederfindungsrate (recovery rate) W gibt das Verhältnis des unter Wiederholbedingungen gemessenen Mittelwertes zum richtigen Wert eines Analytgehaltes in Prozent an. Ihr Idealwert ist 100%. Sie wird durch den Vergleich der Messergebnisse eines Analyten mit einer Analytprobe in Gegenwart der Matrix (Wirkstoff: andere Verunreinigungen, Präparat: Hilfsstoffe) sichergestellt. Es ist sinnvoll, die Wiederfindung für unterschiedliche Konzentrationsniveaus sicherzustellen (siehe Wiederfindungsfunktion). In der Regel decken 3 Niveaus, z.B. 70, 100 und 130% des zu erwartenden Wertes den Arbeitsbereich ausreichend ab. Die Wiederfindungsrate ist lediglich ein anderes Maß zur Charakterisierung der Richtigkeit einer Methode. Die Wiederfindungsrate macht Aussagen über Verluste durch Probenvorbereitungsschritte oder Matrixeinfluss und ist in der Spurenanalytik besonders wichtig. Bei einer Wiederfindungsrate, die ungleich 100 Prozent und unabhängig vom Gehalt des Analyten ist, liegt ein proportionaler systematischer Fehler vor. Bei einer zu kleinen Wiederfindungsrate empfiehlt es sich, die Messsignale des Analyten auf eine dem Analyten möglichst ähnliche Hilfskalibriersubstanz (interner Standard) zu beziehen. Der interne Standard sollte in einem möglichst frühen Aufarbeitungsschritt der Probe in definierter Menge zugegeben werden.

Der Begriff Wiederholbarkeit (repeatability) wird in DIN-Normen nicht mehr verwendet und sollte durch Wiederholgrenze ersetzt werden. Dadurch werden auch Unklarheiten mit dem englischen Begriff repeatability vermieden, der für Wiederholbarkeit und Wiederholpräzision steht.

Definition 1:

Wiederholung der gleichen Messung an einem identischen Objekt, unter identischen Bedingungen, zu einem späteren Zeitpunkt.

Definition 2:

Wiederholbedingungen (repeatability conditions) liegen vor, wenn die gleiche Prüfmethode auf identische Proben vom selben Mitarbeiter mit demselben Gerät im selben Labor innerhalb einer kurzen Zeitspanne angewendet wird. Wiederholbedingungen führen zur geringstmöglichen Streuung der Messwerte (best case).

Synonyme: Wiederholbarkeit (früher)

Kritischer Wiederholdifferenzbetrag für zwei einzelne Ermittlungsergebnisse und für eine Wahrscheinlichkeit von 95 %.

Norm: DIN 55350 Teil 13
Synonyme: Wiederholbarkeit; Präzision unter Wiederholbedingungen

Präzision bei der wiederholten Anwendung eines festgelegten Verfahrens am identischen Objekt (Probe) durch denselben Analytiker, in kurzen Zeitabständen, mit demselben Gerät, im selben Labor (Wiederholbedingungen).

Standardabweichung der Ermittlungsergebnisse unter Wiederholbedingungen und daher ein Maß für die Wiederholpräzision.

Grafisches Verfahren zum Vergleichen von Analysenergebnissen mit dem Ziel, relativ einfach Aussagen über Präzision und systematische Fehler zu gewinnen.

Z-Score ist eine Kennzahl zur Charakterisierung von Ringtestergebnissen.
Er berechnet sich zu: Z-Score = (Messwert – Vorgabewert)/Standardabweichung
Liegt der Z-Score zwischen -2 und +2 ist der Ringtest für das Prüfverfahren bestanden.
Der Z-Score ist mit dem z-Wert der Gaußverteilung zu vergleichen. Dort beschreibt z = ±2 den 95%-Streubereich.

Zählen ist das Ermitteln der Anzahl von jeweils in bestimmter Hinsicht gleichartigen Elementen oder Ereignissen (z. B. Gegenständen, elektrischen Impulsen, Umdrehungen, Partikeln beim radioaktiven Zerfall), die bei dem zu untersuchenden Messobjekt in Erscheinung treten.

Norm: DIN 1319 Teil 1

Zertifizierung ist die Feststellung, dass ein Produkt, ein Qualitätsmanagementsystem oder bestimmtes Personal mit speziellen Kriterien, die in einer Norm oder einem anderen Dokument festgelegt sind, übereinstimmen (Zertifizierung = Konformitätsfeststellung).

Abweichung des unberichtigten Messergebnisses vom Erwartungswert. Zufällige Messabweichungen (random deviation, random error) treten zweiseitig auf, so dass sie durch Wiederholmessungen erfassbar sind (Beispiele: Temperaturschwankungen im Labor, Ableseungenauigkeit, Rundungsfehler).

Sie beruhen auf Messwertschwankungen, „Streuungen“, die entweder naturgesetzliche, messtechnische, aber auch personell-subjektive Gründe haben können. Als Maß für diese Messwertstreuung dient die Standardabweichung.

Zwischenbedingungen (intermediate conditions) liegen vor, wenn identische Proben im selben Labor mit der gleichen Prüfmethode in größeren Zeitabständen und/oder von unterschiedlichen Personen und/oder mit unterschiedlichen Geräten untersucht werden. Sie liegen damit zwischen Wiederhol- und Vergleichsbedingungen. Idealerweise sollten sie die übliche Laborroutine widerspiegeln und somit eine gute Abschätzung für das Streuverhalten in Qualitätsregelkarten liefern. Diese Messungen führen zur Feststellung der Laborpräzision (intermediate precision), selten als Zwischenpräzision bezeichnet.

Unter Zwischenbedingungen gemessene Präzision (intermediate precision).