Hinweis: Diese Seite verwendet Cookies.
Suche

Oder-Suche
Und-Suche
Suche in:
Begriffen
Verwandten Begriffen
Definitionen
Normen

Alle        A - B - C - D - E - F - G - H - I - J - K - L - M - N - O - P - Q - R - S - T - U - V - W - X - Y - Z


Begriff Beschreibung
Abweichung (allgemein) Nichterfüllung einer Forderung, z.B. in einem Audit festgestellt Nichtkonformität (nonconformity).
Abweichung (metrologisch) Abweichung (deviation, Error) einer Messung vom wahren Wert, wobei zwischen zufälligen und systematischen Abweichungen unterschieden wird. Der ältere Begriff "Fehler" sollte nicht mehr verwendet werden, da er eine falsche Handhabung suggeriert. Fehler sind vermeidbar, Messabweichungen sind aber prinzipiell unvermeidbar.
Akkreditierung Akkreditierung ist die Bestätigung, dass eine Stelle kompetent ist, ihre Aufgaben durchzuführen. Akkreditiert werden können Prüflaboratorien, Kalibrierlaboratorien und Zertifizierstellen (Akkreditierung = Kompetenzbestätigung).
alpha α: Allgemein in der Statistik Symbol für die Irrtumswahrscheinlichkeit. Bei den statistischen Testmethoden Symbol für das Signifikanzniveau.
Alternativverfahren Von den anerkannten Referenzverfahren abweichende Analysenverfahren. Sie sind schneller und/oder kostengünstiger, zeigen Ergebnisse mit meist eingeschränkter Qualität und decken teilweise andere Fragestellungen ab. Alternativverfahren gliedern sich in Orientierungstests, Feldmethoden und Laborvergleichsverfahren.
Analysenprobe Eine Analysenprobe (auch Messprobe) ist diejenige Probe, deren Gehalt an einem zu bestimmenden Stoff unmittelbar gemessen werden kann. Sie wird aus der (Labor)probe durch Aufarbeitung und ggf. Zusätze von Reagenzien erzeugt.
Arbeitsbereich (Messbereich) Synonyme: Messbereich; dynamischer Arbeitsbereich
Das ist der Konzentrationsbereich für gültige, quantitative Aussagen über Linearität, Richtigkeit und Präzision des Ermittlungsverfahrens.
Arbeitsbereich (working range) Der Arbeitsbereich (working range) wird definiert über den kleinsten und größten Abszissenwert bei der Grundkalibrierung. Vor Beginn der Messungen ist der vorläufige Arbeitsbereich der Methode festzulegen. Der vorläufige Arbeitsbereich wird nach Durchführung der Messungen und statistischen Tests entweder bestätigt oder eingeengt. Der Arbeitsbereich umfasst den mit akzeptabler Genauigkeit abgedeckten Konzentrationsbereich, an dessen Enden idealerweise Varianzenhomogenität nachweisbar ist.
Arbeitskalibrierung Die Arbeitskalibrierung (working calibration) sollte in regelmäßigen Abständen durchgeführt werden. Die Vorgehensweise zur Arbeitskalibrierung ist in der Prüfmethode oder in der Vorschrift zur Kalibrierung des Prüfgerätes zu beschreiben. Darin sind Häufigkeit und Mindestanzahl der Messwertpaare für die Arbeitskalibrierung festzulegen. Mindestanforderungen an eine Arbeitskalibrierung sind:
1 Kalibrierstützpunkt bei Proportionalität,
2 Kalibrierstützpunkte bei Linearität,
3 Kalibrierstützpunkte bei Kalibrierfunktion 2. Grades,
4 Kalibrierstützpunkte bei Kalibrierfunktion 3. Grades.
Arbeitsnormal Für die tägliche Arbeit eingesetztes Normal, das über eine oder mehrere Referenzmessungen auf ein Bezugsnormal zurückgeführt werden kann. So könnte beispielsweise ein Metallstück als gravimetrisches Arbeitsnormal benutzt werden. Bei Substanzen ist auch der Begriff Arbeitsstandard geläufig.
Arithmetischer Mittelwert Synonyme: Durchschnitt; Mittelwert;
Definition 1:
Summe der Beobachtungswerte dividiert durch Anzahl der Beobachtungswerte
Definition 2:
Der arithmetische Mittelwert (mean value, xquer) ist die Summe aller Merkmalswerte dividiert durch die Anzahl der Merkmalswerte. Der Mittelwert fasst die Messergebnisse von Messreihen bzw. Analysenserien zusammen. Der Mittelwert ist der am häufigsten verwendete Lageparameter. Der aus den Messergebnissen berechnete Mittelwert ist ein Schätzwert für den wahren Wert μ (Mittelwert der Grundgesamtheit).
Aufstockverfahren Das Aufstockverfahren (spiking method) wird in der Analytik angewendet, wenn eine Aufnahme einer normalen Kalibrierkurve auf Grund von z.B. Matrixeffekten nicht möglich oder der Aufwand nicht gerechtfertigt ist. Insbesondere bei spurenanalytischen Bestimmungen können sich Steigung und Linearität einer mit matrixfreien Kalibrierproben erstellten Kalibrierfunktion von denen einer mit matrixhaltigen Kalibrierproben erstellten Kalibrierfunktion unterscheiden. Solche Effekte lassen sich durch Standardaddition des Analyten zu einer matrixbehafteten Realprobe erkennen. Konstante systematische Abweichungen können so allerdings nicht erkannt werden. Man erstellt die Aufstockkalibrierfunktion und die matrixfreie Kalibrierfunktion mit jeweils 6 Kalibrierlösungen. Zur Erstellung der Aufstockkalibrierfunktion (Auftragung der Messwerte der nicht aufgestockten sowie der 5 aufgestockten Proben gegen die zugegebene Menge Analyt) wird der Analyt schrittweise zu einer Probe bekannten Gehaltes dosiert, wobei sich nach 5 Standardadditionen der Gehalt des Analyten in der Probe verdoppelt bis verdreifacht haben sollte. Wenn sich die Aufstockkalibrierfunktion als linear erweist (bei Nichtlinearität ist das Standardadditionsverfahren ungeeignet), vergleicht man deren Steigung mit der Steigung der (matrixfreien) Kalibrierfunktion (Mittelwert-t-Test) auf signifikante Unterschiede. Bei einem signifikanten Unterschied zwischen beiden Steigungen ist die mit matrixfreien Proben erstellte Kalibrierfunktion für die untersuchte Probe nicht geeignet. Das Verfahren wird auch als Standardadditionsverfahren bezeichnet.
Aufstockverfahren, erweitert Das erweiterte Aufstockverfahren (extended spiking method) erlaubt die Ermittlung konstanter und systematischer Abweichungen auch dann, wenn keine Proben mit bekannten Gehaltswerten vorliegen (im Gegensatz zum Soll/Ist-Vergleich). Es eignet sich für Analysenmethoden, die aus den Einzelschritten Einwiegen, Lösen, Messen aufgebaut sind. Der nicht fehlerbehaftete Analysewert muss der Einwaage proportional sein und der Analyt muss zur Probe in definierter Menge zudosierbar sein. Prinzip: Es werden zunächst 2 unterschiedliche Einwaagen W1 und W2 der Probe hergestellt (zur Vereinfachung der Rechnung am besten im Verhältnis 1 : 0,5). Daraus erhält man über die Proportionalität zwischen Einwaage und Ergebnis die konstante systematische Abweichung als y-Achsenabschnitt a. Zur Ermittlung der proportionalen Abweichung b wird eine Einwaage W3=W1 eine definierte Menge des Analyten zugesetzt. Dabei sollte die Konzentration des Analyten in etwa verdoppelt werden. Daraus erhält man die proportionale systematische Abweichung b. Die Größen a und b sollten für eine Serie von Proben ermittelt werden (möglichst 6). Der jeweilige Mittelwert wird dann anhand eines t-Tests auf Abweichung gegenüber den Idealwerten a ideal = 0 und b ideal = 1 geprüft.
Ausreißer In Messreihen (Stichproben) kann es vorkommen, dass der Maximalwert oder Minimalwert auffällig von den übrigen Werten abweicht. Es kann vermutet werden, dass diese Werte verfälscht sind und deshalb nicht repräsentativ für die zu prüfenden Grundgesamtheit sind. In diesem Fall sollte überprüft werden, ob nicht Gründe für die Abweichung zu finden sind, z.B. Schreibfehler, Rechenfehler, unbegründete Verfahrensänderungen usw. Solche Werte sind zu korrigieren, besser zu wiederholen. Ist das nicht möglich, ist es besser, diese Werte aus der Auswertung herauszunehmen. Kann kein plausibler Grund für eine Abweichung gefunden werden, so führt man mit dem verdächtigen Wert einen Ausreißertest durch. Ergibt der Test, dass die Abweichung des Wertes nicht zufällig ist, so wird er als Ausreißer (outlier) bezeichnet und nicht in die folgende Auswertung einbezogen. Werden Werte als Ausreißer aus einer Auswertung herausgenommen, so sollte dies im Prüfbericht vermerkt werden (Anzahl, Methode). Der Test auf Ausreißer setzt immer ein bestimmtes Prüfmodell voraus. Ähnlich große Werte auf einer Seite der Verteilung können sich gegenseitig maskieren, so dass sie als Ausreißer nicht mehr erkennbar sind.
Ausreißertest Ausreißertest (outlier test) ist ein statistischer Test auf nicht plausible Werte (sogenannte Ausreißer). Es gibt mehrere Ausreißertests wie z.B. den Dean-Dixon-Test, der Grubbs-Test oder den Nalimov-Test.
Ausreißertest nach Dean und Dixon Test auf Ausreißer für kleine Stichproben auf einer mindestens intervallskalierten Messreihe. Normalverteilte Messwerte sind nicht unbedingt erforderlich, dennoch sinnvoll. Zur Berechnung der Prüfgröße werden Ranggrößen verwendet. Die DIN 53804 empfiehlt diesen Test für eine Stichprobenanzahl bis 29 (Bemerkung: Diese Empfehlung ist problematisch, weil bei diesem Test nur drei Werte berücksichtigt werden: Der Ausreißer-verdächtigte Wert, sein benachbarter Wert und der kleinste Wert, um die Spannweite zu berechnen. Die Anzahl der übrigen Werte bleibt unberücksichtigt, s. Kap.4.6).
Ausreißertest nach Graf-Henning Ausreißertest, der als Grenzen xquer ± 3s verwendet. Mittelwert xquer und Standardabweichung s werden ohne den Ausreißer-verdächtigen Wert ermittelt. Dieses Verfahren ist auch auf Messwerte anwendbar, die keine Normalverteilung besitzen. Ein weiterer analoger Test benutzt die 4s Grenzen.
Ausreißertest nach Grubbs Oft verwendeter Ausreißertest, der normalverteilte Messwerte verlangt. Der Prüfwert entspricht dem z-Faktor der Normalverteilung. Die kritischen Werte sind tabelliert. Die DIN 53804 empfiehlt diesen Test für Stichprobenanzahl > 29.
Ausreißertest nach Nalimov Gebräuchlicher Ausreißertest. Die Messwerte müssen normalverteilt sein. Er ist dem Grubbs-Test ähnlich, verwendet aber noch einen Korrekturfaktor zur Berechnung des Prüfwertes.
Bartlett-Test Test auf Gleichheit der Varianzen bei mehr als zwei Messreihen. Bei diesem Test muss jede Messreihe mindestens 5 Einzelwerte besitzen. Die Anzahl der Messwerte muss nicht gleich groß sein. Dieser Test prüft sowohl kleine als auch große Varianzen. Die Stichproben sollten annähernd normalverteilt sein. Ist diese Voraussetzung nicht gegeben, eventuell Levene-Test benutzen. Nullhypothese: Alle Stichproben haben dieselbe Varianz Alternativhypothese: Wenigstens 1 Stichprobe unterscheidet sich in ihren Varianzen.
Beglaubigtes Referenzmaterial Synonyme: Zertifiziertes Referenzmaterial
Vergleiche: Referenzmaterial; Primärstandard
Referenzmaterial, von dem ein Eigenschaftswert oder mehrere durch ein technisch gültiges Verfahren beglaubigt wurde(n). Der Eigenschaftswert weist eine bekannte Messunsicherheit bei einem gegebenen Signifikanzniveau auf. Dem Verfahren liegt ein Zertifikat bei oder es wird auf andere Dokumentationen verwiesen, die von einer Zertifizierungsstelle herausgegeben wurden.
Norm: ISO Guide 20, Abschnitt 30.2.2 und update ISO Guide 30
Belastungstest Versuch(e) zur Ermittlung der Bandbreiten aller kritischer Verfahrensparameter innerhalb derer das Verfahren gemäß vorher festgelegten Qualitätskriterien durchgeführt werden kann.
Beobachtungswert Als Ergebnis einer Beobachtung festgestellter Merkmalswert. Anm.: Es handelt sich um einen einzelnen Wert, erhalten aus einer einzelnen Beobachtung.
Norm: DIN ISO 5725
Bestimmtheitsmaß Das (multiple) (Keine Vorschläge) B oder R2 wird auch Determinationskoeffizient, Güte oder (in den Sozialwissenschaften) Reliabilität genannt. Mithilfe des Bestimmtheitsmaßes lässt sich feststellen, ob es eine Abhängigkeit zwischen unabhängigen Variablen x und der abhängigen Variablen y gibt. Das Bestimmtheitsmaß nimmt Werte zwischen 0 und +1 an. 0 bedeutet keine Abhängigkeit, 1 bedeutet eine funktionale Abhängigkeit, die durch die gewählte Funktion beschrieben wird. Z.B., ist für die Funktion y = a + bx der Wert für B=1, liegt eine funktionale Abhängigkeit vor. B lässt sich auch für multivariate Abhängigkeiten und nicht lineare Beziehungen angeben. Für den linearen Fall ist die Wurzel aus B gleich dem Korrelationskoeffizienten r. Das Bestimmtheitsmaß drückt den Anteil der sogenannten aufgeklärten Varianz an der Gesamtvarianz aus: B=1-QSError(=Residuen)/QSGesamt (Es gilt : QS Gesamt = QS Aufgeklärt + QS Error, QS Error = nichtaufgeklärte Varianz oder Varianz der Residuen, QS = Quadratesumme = Summe aller quadrierten Werte) Da hier die Anteile an der Gesamtquadratsumme untersucht werden, nennt man das Verfahren auch Quadratsummenzerlegung (die hier interessierenden Anteile ließen sich noch weiter zerlegen).
Bestimmungsgrenze Synonyme: Quantifizierungsgrenze (selten)
Definition 1:
Geringster Gehalt, der mit einer vorgegebenen Wahrscheinlichkeit quantitativ erfasst werden kann, in der Regel die dreifache Nachweisgrenze.
Definition 2:
Die Bestimmungsgrenze (quantitation limit, determination limit) ist der kleinste, mit einer festzulegenden statistischen Wahrscheinlichkeit erkennbare Gehalt eines Stoffes, der bei einmaliger Analyse quantitativ nachgewiesen werden kann. Nach der ICH-Richtlinie kann die Nachweis- und Bestimmungsgrenze basierend auf der Standardabweichung des Signals und der Kalibrierfunktion (Steigung) ermittelt werden. Die Ermittlung kann über das Signal/Rausch-Verhältnis oder gemäß DIN 32645 nach dem Leerwert- oder dem Kalibrierkurvenverfahren erfolgen. Die Bestimmungsgrenze liegt naturgemäß über der Nachweisgrenze. Als Faustregel gilt: die Bestimmungsgrenze ist 3 Mal die Nachweisgrenze.
Bias Ausmaß der systematischen Abweichung des Analytwertes bezogen auf einen Referenzwert. Wird manchmal als relative Abweichung in Prozent angegeben.
Black-Box-Methode Methode der Validierung. Betrachtung eines Systems als schwarzen Kasten (in dem man also nichts erkennen kann) unter Vernachlässigung seiner inneren Struktur und Abläufe. Das Systemverhalten (Funktion) kann dann anhand der wirkungsspezifischen Input-Output-Relationen analysiert werden. Sinnvolles Verfahren, wenn Details nicht zugänglich sind wie z.B. Software, Analyseautomaten ... . Es geht nur um die Entscheidung, werden die Forderungen insgesamt erfüllt, ja oder nein.
Blindprobe Probe, die den betreffenden Analyten nachweislich nicht enthält, sonst aber weitgehend mit der Probe identisch ist.
Norm: DIN 32645
Blindwert Der Blindwert ergibt sich aus dem Analysengang ohne Probe (also ohne Analyt und ohne Matrix). Beispiel: Reagentienblindwerte in der Photometrie. Nicht jedes Prüfverfahren ergibt einen Blindwert. Der Blindwert ist vom Leerwert zu unterscheiden.
Cochran-Test Definition 1:
Statistischer Test, der „Ausreißer“ in der Varianz der einzelnen Labordatensätze ermittelt.
Definition 2:
Als Cochran-Test (Cochran Test) werden mehrere verschiedene Test angesprochen:
  • Prüfung der Gleichheit mehrerer Varianzen: Geprüft wird die größte Varianz, ob sie signifikant größer ist als die anderen. Die Stichprobenumfänge sollen möglichst gleich sein. Sind die Unterschiede nicht zu groß, kann der Freiheitsgrad aus dem harmonischen Mittel gebildet werden f = xharm - 1.
  • Q-Test nach Cochran: Ein parameterfreier Homogenitätstest für mehrere verbundene Stichproben.
  • Anteil der linearen Regression an der Gesamtvariation einer k*2-Feldertafel

Norm: DIN ISO 5725
current validation (Validierung während
eines laufenden Prozesses)
Parallele Abarbeitung; z. B. Validierungstests an zwei von drei Partien während eines laufenden (Produktions-) Prozesses, d. h. während der Nutzung des Prozesses.
DIN DIN (Deutsches Institut für Normung e. V.) ist Träger der nationalen Normungsarbeit. Es beteiligt sich über CEN, CENELEC an der europäischen und über ISO an der internationalen Normung.
Direktes Verfahren Das direkte Verfahren (auch als Leerwertverfahren bezeichnet) dient zur Berechnung der Nachweisgrenze aus der Streuung der Messwerte einer Leerprobe. Es ist in DIN 32645 beschrieben. Für dieses Verfahren muss daher eine Leerprobe verfügbar sein. Zur Berechnung der Nachweisgrenze muss die Steigung der Kalibriergeraden bekannt sein. Das Leerwertverfahren wird auch als direktes Verfahren (oder direkte Methode) bezeichnet. Wo möglich, ist ihm der Vorzug gegenüber dem Kalibrierkurvenverfahren zu geben.
Dixon-Test Statistischer Test, der überprüft, ob ein einzelner Messwert aus einem Labordatensatz unter der Normalverteilungsannahme (Gauß-Verteilung) ein „Ausreißer“ ist.
Norm: DIN ISO 5725
Dosieren Dosieren heißt, aus einer Stoffportion festgelegte Teilmengen herauszunehmen (abtrennen). Unter Dosieren versteht man auch das Hinzufügen bestimmter Stoffportionen beim Herstellen eines Stoffgemisches mit vorgegebener Zusammensetzung oder mit vorgegebenen Eigenschaften.
Norm: DIN 1319 Teil 1
Eichen Das Eichen eines Messgerätes (auch einer Maßverkörperung) umfasst die von der zuständigen Eichbehörde nach den Eichvorschriften vorzunehmenden Prüfungen und die Stempelung. Durch die Prüfung wird festgestellt, ob das vorgelegte Messgerät den Eichvorschriften entspricht, d. h. ob es den an seine Beschaffenheit und seine messtechnischen Eigenschaften zu stellenden Anforderungen genügt, insbesondere ob die Beträge der Messabweichungen die Fehlergrenze (n) nicht überschreiten.
Norm: DIN 1319 Teil 1
Einseitiger Test Ein einseitiger Test ist die Prüfung einer einseitigen statistischen Hypothese.
Empfindlichkeit Fähigkeit einer Methode, zwischen zwei kleinen Konzentrationen zu unterscheiden; Steigung der Kalibrierkurve. Bei linearen Funktionen ist die Empfindlichkeit (= Steigung) konstant, bei Funktionen 2. oder 3. Grades ist sie abhängig vom gewählten Wert xi.
Entscheidungsgrenze Vergleiche: Nachweisgrenze; Erfassungsgrenze
Geringster Gehalt des Analyten, der bei tatsächlicher Anwesenheit mit angemessener statistischer Sicherheit nachgewiesen wird und entsprechend den Kriterien der Methode identifiziert werden kann. Anm.: Im erwähnten Amtsblatt der EU entspricht die Entscheidungsgrenze der dreifachen (sonst zweifachen) Nachweisgrenze.
Norm: Amtsblatt der Europäischen Gemeinschaft Nr. L 223
Erfassungsgrenze Vergleiche: Entscheidungsgrenze
Die Erfassungsgrenze ist der kleinste Gehalt einer gegebenen Probe bei dem mit der Wahrscheinlichkeit 100 –β (50 <β <100) ein Nachweis möglich ist. Akzeptiert man eine Irrtumswahrscheinlichkeit von 50 %, ist die Erfassungsgrenze gleich der Nachweisgrenze; in der Regel wird jedoch als Erfassungsgrenze die zweifache Nachweisgrenze angenommen, sie ist in jedem Falle kleiner als die Bestimmungsgrenze. Nach DIN 32645 darf als Qualitätsgarantie für den Höchstgehalt eines Bestandteils im untersuchten Stoff nur die Erfassungsgrenze herangezogen werden.
Norm: DIN 32645, ISO 11843-1
Ergebnisabweichung Unterschied zwischen einem Ermittlungsergebnis und dem Bezugswert, wobei dieser je nach Festlegung oder Vereinbarung der wahre, der richtige oder der Erwartungswert sein kann.
Norm: DIN 55350 Teil 13
Ergebnisunsicherheit Vergleiche: Standardunsicherheit U; erweiterte Unsicherheit
Definition 1:
Geschätzter Betrag zur Kennzeichnung eines Wertebereichs, innerhalb dessen der Bezugswert mit einer vorgegebenen Wahrscheinlichkeit liegt (in der Regel der Erwartungswert). Sie wird angegeben zwischen der unteren bzw. der oberen Grenze dieses Wertebereichs.
Definition 2:
Die Ergebnisunsicherheit (uncertainty {of result}) ist ein Kennwert, der aus Messungen und/oder Schätzungen gewonnen und zusammen mit dem Messergebnis zur Kennzeichnung eines Wertebereiches für den wahren Wert der Messgröße dient. Die Ergebnisunsicherheit ist ein quantitatives Maß für den qualitativ zu verwendenden Begriff der Genauigkeit, der allgemein die Annäherung des Messergebnisses an den wahren Wert der Messgröße bezeichnet. Die Begriffe Messunsicherheit und Ergebnisunsicherheit sowie Unsicherheit werden häufig synonym verwendet.
Norm: DIN 55350 Teil 13
ERM Abkürzung für "European Reference Materials", eine Kooperation wichtiger europäischer Produzenten von Referenzmaterialien wie BAM, LGC und IRMM (www.erm-crm.org).
Ermittlungsergebnis Durch die Anwendung eines festgelegten Ermittlungsverfahrens festgestellter Merkmalswert. Anm.: Das Ermittlungsverfahren kann festlegen, dass eine Anzahl von individuellen Beobachtungen anzustellen und ihr Mittelwert als Ergebnis zu melden ist. Also kann ein einzelnes Ermittlungsergebnis ein aus mehreren Beobachtungswerten berechnetes Ergebnis sein.
Norm: DIN ISO 5725
Erwartungswert Vergleiche: Mittelwert
Definition 1:
Unbekannter Mittelwert der Grundgesamtheit. Als bester Näherungswert gilt der Mittelwert aus einer hinreichend großen Zahl wiederholter Messungen bzw. als mittleres Ermittlungsergebnis, welches bei unendlicher Wiederholung der Messung hätte gewonnen werden können.
Definition 2:
Der Erwartungswert (expectation, expected value) einer Zufallsvariablen ist der Wert, von dem man "erwartet", dass er sich bei einer häufigen Wiederholung des Experiments im Durchschnitt ergibt. Z.B. das arithmetische Mittel aus den Werten von unendlich vielen "Ziehungen" einer Zufallsvariablen. Er bestimmt die Lage einer Verteilung und ist vergleichbar mit dem empirischen arithmetischen Mittel einer Häufigkeitsverteilung. Das Gesetz der großen Zahlen sichert in vielen Fällen zu, dass der Stichprobenmittelwert bei wachsender Stichprobengröße gegen den Erwartungswert konvergiert, d.h., der berechnete Mittelwert xquer nähert sich dem wahren Wert μ (Mittelwert der Grundgesamtheit). Der aus (vielen) Messwerten berechnete Mittelwert ist die beste Schätzung für den Erwartungswert.
Norm: DIN 55350 Teil 13, 21
Erweiterte Unsicherheit Vielfaches der kombinierten Standardunsicherheit. Deren Multiplikation mit einem Erweiterungsfaktor k ergibt ein Vertrauensintervall, von dem erwartet wird, dass es den Großteil der der Messgröße zugeordneten Werte umfasst.
Uε = k · Uges
Uε ist ein Maß für zufällige plus systematische Fehler
Erweiterungsfaktor Zahlenfaktor, mit dem die kombinierte Standardunsicherheit multipliziert wird, um eine erweiterte Unsicherheit zu erhalten. Typischer Bereich ist zwischen 2 und 3.
EURACHEM Wurde als Vereinigung chemisch-analytisch orientierter Prüflaboratorien in EU und EFTA-Ländern gebildet. Die Zielsetzungen entsprechen im Wesentlichen denen von EUROLAB, Fokus jedoch ist die Analytik.
EUROLAB Wurde gegründet mit dem Ziel, die Zusammenarbeit zwischen Prüflaboratorien generell zu fördern und durch Harmonisierung von Qualitätsanforderungen und QS-Maßnahmen Vertrauen im Hinblick auf die gegenseitige Anerkennung von Prüfresultaten zu schaffen.
Exakter Wert Vergleiche: wahrer Wert; richtiger Wert
Der wahre Wert eines mathematisch theoretischen Merkmals. Anm.: Bei einem numerischen Berechnungsverfahren wird sich als Ermittlungsergebnis jedoch nicht immer der exakte Wert ergeben. Beispielsweise ist der exakte Wert von π = 3,1416 ... und der Wert der universellen Gaskonstante R = 8,3143... J/K/Mol.
Norm: DIN 55350 Teil 13
F-Test Definition 1:
Statistischer Test, der die Varianz aller individuellen Resultate vergleicht und abschätzt.
Definition 2:
F-Test ist ein Test auf Unterschied der Varianzen zweier normalverteilter Stichproben. Progresse ist der F-Wert, d.h., der Quotient aus den beiden Varianzen der beiden Messreihen. Die größere Varianz muss dabei im Zähler stehen. Aus den beiden Varianzen ergeben sich die beiden Freiheitsgrade, wobei der Zähler f1 und der Nenner f2 liefern. Die kritische Größe F(f1, f2) ist tabelliert.
Fehler Vergleiche: Fehler 1. Art; Fehler 2. Art
Abweichung eines Merkmalwertes vom Sollwert.
Fehler 1. Art Fehler 1. Art, Alpha-Fehler oder Alpha-Risiko ist das Risiko, mit dem ein statistischer Hypothesentest auf einen Sachverhalt hindeutet, der in Wahrheit nicht vorhanden ist. Allerdings ist dieser Sachverhalt nicht erkennbar und somit auch nicht bewusst. Z.B. würde in einer Produktion ein Alarm wegen schlechter Qualität ausgelöst, obwohl keine Verschlechterung vorliegt (Fehlalarm). Das Risiko wird über alpha festgelegt. Ein alpha-Wert von 5% bedeutet dann, dass von 100 Entscheidungen auch 5 falsch sein können. In der Medizin: Die Ergebnisse deuten auf eine Krankheit, die nicht vorhanden ist (falsch positiv). Für Abnehmer: Er lehnt Ware als schlecht ab, die in Wirklichkeit in Ordnung ist. In der Analytik wird eine Komponente "gefunden", obwohl sie abwesend ist. Siehe auch Fehler 2. Art
Fehler 2. Art Fehler 2. Art, Beta-Fehler oder Beta-Risiko ist das Risiko, mit dem der statistische Hypothesentest auf keinen Sachverhalt hindeutet, obwohl in Wahrheit einer vorhanden ist. Allerdings ist dieser Sachverhalt nicht erkennbar und somit auch nicht bewusst. Z.B. würde in einer Produktion das Produkt als in Ordnung eingestuft, obwohl eine Verschlechterung vorliegt (unterlassener Alarm). In der Medizin: Eine tatsächlich vorhandene Krankheit wird nicht erkannt (falsch negativ) Für Abnehmer: Er akzeptiert Ware als gut, die in Wirklichkeit nicht in Ordnung ist. In der Analytik wird eine Komponente "nicht gefunden", obwohl sie enthalten ist. Siehe auch Fehler 1. Art
Freiheitsgrad Die Anzahl der Freiheitsgrade (FG, f, n) einer Zufallsgröße ist definiert als die Zahl „frei“ verfügbarer Beobachtungen. Sie ergibt sich aus dem Stichprobenumfang n minus der Anzahl a, der aus der Stichprobe geschätzten Parameter mit f = n - a. Z.B. nach der Berechnung des Mittelwertes sind von den n Einzelwerten nur noch n-1 frei wählbar. Der Ausdruck "n-1" wird deshalb Freiheitsgrad genannt. (Die Berechnung ist nicht immer n-1!).
Funktionale Qualifizierung (OQ) Beweisführung, dass nach der Installation und Kalibrierung die Spezifikationen in einem repräsentativen Arbeitsbereich (z. B. Konzentrations-, Temperaturbereich) eingehalten werden. Anm.:In der Praxis sind oft die Grenzen zwischen IQ und OQ fließend.
Gebrauchsnormal Gebrauchsnormal (working standard) ist ein Normal, das routinemäßig benutzt wird, um Maßverkörperungen, Messgeräte oder Referenzmaterialien zu kalibrieren oder zu überprüfen
Genauigkeit Ausmaß der Übereinstimmung zwischen dem richtigen (wahren) und dem Messwert. Anm.: Somit ist Genauigkeit ein qualitatives Maß für systematische und zufällige Fehler, also stellt sie den Oberbegriff für Richtigkeit und Präzision dar. Ein Ergebnis ist genau, wenn es frei von zufälligen und systematischen Fehlern ist. Als quantitative summarische Kenngröße für die (Un)Genauigkeit wird zunehmend der Begriff Mess- bzw. Ergebnisunsicherheit verwendet. Da in der Vergangenheit „Genauigkeit“ der „Präzision“ oder sogar der „Richtigkeit“ gleichgesetzt wurde, was zu vielen Missverständnissen geführt hat, wird empfohlen, den Begriff Genauigkeit in Zusammenhang mit der Validierung zu vermeiden.
Gesamtvalidierung Sie beinhaltet eine Serie von Tests, um die Leistungsfähigkeit einer computerisierten Anlage unter realen Bedingungen zu prüfen. Oft besteht sie aus zwei Stufen: System- und anschließend Methodenkalibrierung.
Gewichtete Regression Bei Varianzeninhomogenität kann die Regression gewichtet durchgeführt werden, um eventuell einen größeren Arbeitsbereich zu nutzen. Jedem Messwert wird ein bestimmtes Gewicht zu geordnet. Als Wichtungsfaktor werden die Varianz an jedem Kalibrierpunkt oder als Hilfsgrößen die x- oder x2-Wert genutzt.
Gewichteter Mittelwert Summe der Produkte aus Beobachtungswerten und ihrem Gewicht dividiert durch die Summe der Gewichte, wobei das Gewicht eine jeweils dem Beobachtungswert zugeordnete nicht negative Zahl ist: Wobei Wi ≥ 0 das dem Beobachtungswert xi zugeordnete Gewicht ist. Anm.: Früher auch „gewichteter Durchschnitt“.
Norm: DIN 55350 Teil 23
Grubbs-Test Oft verwendeter Ausreißertest, der normalverteilte Messwerte verlangt. Der Prüfwert entspricht dem z-Faktor der Normalverteilung. Die kritischen Werte sind tabelliert. Die DIN 53804 empfiehlt diesen Test für Stichprobenanzahl > 29.
Grundkalibrierung Die Grundkalibrierung (basic calibration) dient zur einmaligen Festlegung der Kalibrierfunktion. Mindestanforderungen an eine Grundkalibrierung sind: 6 Kalibrierstützpunkte bei Proportionalität, 6 Kalibrierstützpunkte bei Linearität, 8 Kalibrierstützpunkte bei Kalibrierfunktion 2. Grades, 10 Kalibrierstützpunkte bei Kalibrierfunktion 3. Grades. Hinweise zur Durchführung der Grundkalibrierung: mehr Messpunkte bei unterschiedlichen Konzentrationen erhöhen die statistische Sicherheit, Mehrfachmessungen bei einer Konzentration sind zur Modellfestlegung weniger effektiv als die Erhöhung der Zahl der Messwerte, die Messwerte sollten gleichmäßig über den Arbeitsbereich verteilt sein, eine Häufung der Messwerte in einem Teil des Arbeitsbereiches wirkt sich ungünstig aus, Doppeleinspritzungen in der Chromatographie sind keine statistisch unabhängigen Werte, sie sind zu mitteln.
Hampel-Schätzer Der Hampel-Schätzer ist ein robuster Schätzer für den Lageparameter der Grundgesamtheit. D.H., der Hampel-Schätzer ist ein robuster Mittelwert. Er wird z.B. zur Auswertung von Ringtestversuchen nach DIN 38402 - A45 "Ringversuche zur externen Qualitätskontrolle von Laboratorien" eingesetzt. Methode der robusten Statistik.
Heteroskedastizität Varianzhomogenität im gesamten Modellbereich ist nicht gegeben, z.B. Varianzeninhomogenität im Kalibrierbereich. Siehe auch Varianzenhomogenität
Horwitz Kriterium Horwitz et al. haben Mitte der 1980er Jahre Ergebnisse publizierter Ringversuche ausgewertet und daraus einen empirischen Zusammenhang zwischen der relativen Standardabweichung und der Konzentration des Analyten abgeleitet und als Formel angegeben. Die Erfüllung des Horwitz-Kriteriums (Horwitz criterion) ist ein Hinweis auf eine akzeptable Streuung. Das Horwitz-Kriterium sollte aber mit Vorsicht verwendet werden, denn es spiegelt den technologischen Stand von 1985 wieder und es unterscheidet nicht nach Prüfarten (wie z.B. Titration, HPLC, AAS...)
Huber-Schätzer Der Huber-k-Schätzer ist ein robuster Schätzer für den Lageparameter der Grundgesamtheit. D.h., der Huber-Schätzer ist ein robuster Mittelwert. Methode der robusten Statistik.
Indirektes Verfahren Das indirekte Verfahren (Kalibrierkurvenverfahren) dient zur Berechnung der Nachweis- und Bestimmungsgrenze und ist auf kalibrierfähige Verfahren anwendbar. Es ist in DIN 32645 beschrieben. Dazu wird eine Leerprobe mit möglichst 6 unterschiedlich konzentrierten Kalibrierlösungen aufgestockt. Die Abstände der Konzentrationen sollten möglichst gleich sein und die höchste Konzentration soll die vermutete Nachweisgrenze nicht um mehr als den Faktor 10 überschreiten. Aus der Messreihe wird zunächst auf Linearität geprüft und anschließend die Nachweis- und Bestimmungsgrenze berechnet.
Installationsqualifizierung (IQ) Abnahmetests bei Installation des Gerätes, die sowohl regulatorische Anforderungen als auch Design-Spezifikationen mit einbeziehen. Auch Überprüfung, ob die Empfehlungen des Herstellers bei der Installation beachtet wurden.
Interne Qualitätskontrolle Maßnahmen zur Überwachung der Qualität/Zuverlässigkeit von Routinedaten. Das ist also der „final check“ für den gesamten analytischen Prozess incl. Kalibrierung. Dies erfolgt z. B. mit Hilfe von Kontrollkarten. 1995 zuerst von der IUPAC empfohlen, gewinnt dieser Ansatz langsam an Bedeutung.
IRMM Abkürzung für "Institute for Reference Materials and Measurements". Das IRMM ist eines von 7 Instituten des Join Research Centers der Europäischen Kommission (JRC) und ist führender Hersteller von Referenzmaterialien. (http://irmm.jrc.ec.europa.eu).
Justierbarkeit („adjustment“) Synonyme: Methodenanpassung (selten)
Umfang an kleineren Änderungen in einer Methode, deren Einfluss auf das Ergebnis durch einen Systemeignungstest überwacht wird. Das Ziel ist, die Notwendigkeit von Revalidierungen kritisch zu beurteilen – um deren Zahl auf ein Minimum zu reduzieren.
Justierbarkeitsgrenzen („adjustment limits“) Synonyme: Justierbarkeitsbereich
Durch gezielte Verfahrensänderungen experimentell ermittelter Schwankungsbereich eines Messergebnisses. Bei etwaigen Verfahrensänderungen im Routinebetrieb, die nicht zur Überschreitung dieses Bereichs führen, ist Revalidierung nicht nötig.
Justieren Synonyme: Abgleichen
Justieren im Bereich der Messtechnik heißt, ein Messgerät (auch eine Maßverkörperung) so einstellen oder abgleichen, dass die Messabweichungen möglichst klein werden, oder dass die Beträge der Messabweichungen die Fehlergrenzen nicht überschreiten. Das Justieren erfordert also einen Eingriff, der das Messgerät oder die Maßverkörperung meist bleibend verändert.
Norm: DIN 1319 Teil 1
Kalibrieren Synonyme: Einmessen
Kalibrieren im Bereich der Messtechnik heißt, die Messabweichungen am fertigen Messgerät feststellen. Beim Kalibrieren erfolgt kein technischer Eingriff am Messgerät. Bei anzeigenden Messgeräten wird durch das Kalibrieren die Messabweichung zwischen der Anzeige und dem richtigen oder als richtig geltenden Wert festgestellt.
Norm: DIN 1319 Teil 1
Kalibrierfunktion Die Kalibrierfunktion (calibration function) ist der funktionale Zusammenhang zwischen dem Erwartungswert einer Messgröße (z. B. Extinktion) und dem Gehalt (z. B. Massenkonzentration). Die Modelle der Kalibrierfunktion werden berechnet und durch statistische Tests betätigt. Die am häufigsten verwendete Kalibrierfunktion ist die Kalibriergerade. Bei bestimmten Analysengeräten und Prüfmethoden ist es empfehlenswert, mit Kalibrierfunktionen 2. und 3. Grades zu arbeiten, die zusätzlich quadratische oder kubische Glieder enthalten.
Kalibrierkurvenverfahren Das Kalibrierkurvenverfahren (calibration curve method) dient zur Berechnung der Nachweis- und Bestimmungsgrenze und ist auf kalibrierfähige Verfahren anwendbar. Es ist in DIN 32645 beschrieben. Dazu wird eine Leerprobe mit möglichst 6 unterschiedlich konzentrierten Kalibrierlösungen aufgestockt. Die Abstände der Konzentrationen sollten möglichst gleich sein und die höchste Konzentration soll die vermutete Nachweisgrenze nicht um mehr als den Faktor 10 überschreiten. Aus der Messreihe wird zunächst auf Linearität geprüft und anschließend die Nachweis- und Bestimmungsgrenze berechnet. Das Kalibrierkurvenverfahren wird auch als indirektes Verfahren (oder indirekte Methode) bezeichnet.
Kalibriermaterial Alle Chemikalien und Materialien, die zur Kalibration einer Prüfmethode dienen
Kalibrierplan Aufstellung aller durchzuführenden Kalibriermaßnahmen (was, wann, wer, wo, wie)
Kalibrierung Synonyme: Kalibration
Definition 1:
Beziehung zwischen den durch ein Messgerät angezeigten Werten und den entsprechenden bekannten Konzentrationen (Mengen) eines Referenzstandards.
Definition 2:
Unter Kalibrierung versteht man
  • in der Analytik die Messung von Kalibrierlösungen, festen oder gasförmigen Standards mit als bekannt vorausgesetzten Gehalten und anschließendem Aufstellen der Kalibrierfunktion. Die Kalibrierlösungen können durch Aufstocken der Leerprobe mit dem gesuchten Bestandteil erzeugt werden.
  • Ermittlung der systematischen Messabweichung einer Messeinrichtung unter vorgegebenen Anwendungsbedingungen ohne verändernden Eingriff in die Messeinrichtung
  • Arbeitsgänge, durch die unter festgelegten Bedingungen die Beziehungen zwischen den durch ein Messgerät oder ein Messsystem angezeigten oder den sich aus einer Materialmessung ergebenden Werten und den entsprechenden bekannten Werten eines Referenzstandards bestimmt werden.

Norm: DIN 1319Teil 1
Kalibrierzertifikat Bescheinigung der Kalibrierstelle, dass der kalibrierte Gegenstand die Anforderungen erfüllt
Klassieren Klassieren heißt, in bestimmter Hinsicht gleichartige Elemente einer Menge den vorgegebenen oder vereinbarten Klassen eines Merkmales zuordnen. Das Festlegen der Klassen und das Feststellen von Häufigkeiten in den Klassen gehört mit zum Klassieren.
Norm: DIN 1319 Teil 1
Kolmogorow-Smirnow-Test Vergleiche: Normalverteilungstest; David-Test; χ2-Test; Shapiro-Wilk-Test;
Statistischer Test zur Prüfung auf Normalverteilung bei kleiner Werteanzahl. Zur Durchführung des Chi-Quadrat-Tests zur Prüfung auf Normalverteilung müssen die Merkmalsausprägungen in Klassen eingeteilt werden. Die Voraussetzung dazu ist, dass genügend Werte (Merkmalsausprägungen wie z.B. Daten, Fallzahlen) vorliegen. Ist diese Voraussetzung nicht gegeben, also die Anzahl der Werte klein, wird als Anpassungstest auf Normalverteilung der Kolmogorow-Smirnow-Test herangezogen. Bei einer kleinen Fallzahl ist eine signifikante Abweichung von der Normalverteilung selten zu beobachten, d. h., die Werte müssen ziemlich “auffällig” sein.
Allgemein testet der Kolmogorow-Smirnow-Anpassungstest eine empirische (kumulierte) Verteilungsfunktion gegen eine (beliebige) Verteilung, deren Parameter vollständig bekannt sein müssen.
Kombinierte Standardunsicherheit Gesamtunsicherheit eines Ergebnisses; zu ermitteln als Quadratwurzel aus der Summe der Varianzen aller Einflüsse:
Uges ist ein Maß für allerlei zufällige Fehler.
Konstanter systematischer Fehler Von der Konzentration des Analyten unabhängiger, konstanter Fehler. Durch Prüfung der Wiederfindungsrate korrigierbar.
Kontrollmaterial Chemikalien und Materialien, die zur Kontrolle einer Kalibration oder eines Messsystems herangezogen werden. Wenn technisch und wirtschaftlich vertretbar, sollen Kalibriermaterial und Kontrollmaterial nicht identisch sein. Ein Kontrollmaterial kann ein (zertifiziertes) Referenzmaterial sein oder selbst hergestelltes (so dass ein bekannter Gehalt des Analyten vorliegt) oder es kann ein Restmuster einer realen Probe sein. Ein Restmuster eines abgeschlossenen Ringversuches kann ebenfalls als Kontrollmaterial verwendet werden.
Korrelation Die Korrelation ist eine statistische Beziehung zwischen zwei oder mehr statistischen Variablen. Wenn sie besteht, ist noch nicht gesagt, ob eine Größe die andere kausal beeinflusst, ob beide von einer dritten Größe kausal abhängen oder ob sich überhaupt ein Kausalzusammenhang folgern lässt.
Korrelationskoeffizient Der Korrelationskoeffizient r (Pearsonscher Korrelationskoeffizient) ist ein Maß für die Stärke eines linearen Zusammenhanges und sagt aus, ob ein linearer Zusammenhang zwischen zwei (oder auch mehreren) Größen existiert. Er kann zwischen +1 und -1 schwanken. r = 1 bedeutet: positiver funktionaler Zusammenhang, r = 0 bedeutet: kein Zusammenhang, r = -1 bedeutet: negativer funktionaler Zusammenhang. Die Berechnung des Korrelationskoeffizienten ist ein rein mathematisches Verfahren. D.h., dass ein akzeptabler Korrelationskoeffizient nicht gleichzeitig bedeutet, dass diese Korrelation auch sinnvoll ist. Zur Beurteilung einer Kalibrierung ist der Korrelationskoeffizient nur bedingt geeignet.
Kritische Differenz Differenz zwischen zwei Analysenwerten, die mit einer vorgegebenen statistischen Sicherheit als signifikant angesehen werden muss.
Kritischer Vergleichdifferenzbetrag Synonyme: kritische Vergleichsdifferenz (früher)
Definition 1:
Betrag, unter dem der Absolutwert der Differenz zwischen zwei unter Vergleichsbedingungen gewonnenen Ergebnissen mit einer vorgegebenen Wahrscheinlichkeit erwartet werden kann.
Definition 2:
Der kritische Vergleichsdifferenzbetrag (reproducibility critical difference) ist der Betrag, unter dem oder höchstens gleich dem der Absolutwert der Differenz zwischen zwei Ergebnissen, von denen jedes eine unter Wiederholbedingungen gewonnene Serie von Ermittlungsergebnissen repräsentiert und zwischen denen Vergleichsbedingungen vorlagen, mit einer vorgegebenen Wahrscheinlichkeit erwartet werden kann. Beispiele für solche Ergebnisse sind der arithmetische Mittelwert oder der Median einer Serie von Ermittlungsergebnissen, wobei die Serie aus nur einem Ermittlungsergebnis bestehen kann. (DIN 55350 Teil 13)
Norm: DIN ISO 5725
Kritischer Wert der Messgröße yk Der kritische Wert der Messgröße ist der Messwert, bei dessen Überschreitung unter Zugrundelegung einer festgelegten Irrtumswahrscheinlichkeit erkannt wird, dass der Gehalt des Bestandteils in der Analysenprobe größer als derjenige in der Leerprobe ist. Beim Leerwert- und Kalibrierkurvenverfahren ist der kritische Wert der Messgröße die Summe aus Leerwert bzw. Ordinatenabschnitt der Kalibrierfunktion und der Breite des einseitigen Prognoseintervalls.
kritischer Wiederholdifferenzbetrag Der kritische Wiederholdifferenzbetrag (repeatability critical difference) ist der Betrag, unter dem oder höchstens gleich dem der Absolutwert der Differenz zwischen zwei unter Wiederholbedingungen gewonnenen Ergebnissen, von denen jedes eine Serie von Ermittlungsergebnissen repräsentiert, mit einer vorgegebenen Wahrscheinlichkeit erwartet werden kann. Beispiele für solche Ergebnisse sind der arithmetische Mittelwert oder der Median einer Serie von Ermittlungsergebnissen, wobei die Serie aus nur einem Ermittlungsergebnis bestehen kann. (DIN 55350 Teil 13)
Laborvergleichsversuch Ein dem Ringversuch vergleichbarer Versuch (auch als Laborvergleichsprüfung bezeichnet), bei dem nur wenige oder auch nur 2 Labors teilnehmen. Er wird dann durchgeführt, wenn keine Ringversuche zu den Methoden angeboten wird oder auch zum Vergleichen der Ergebnisse zwischen Lieferant und Abnehmer. Weiteres siehe Ringversuch. Laborpräzision: Präzision bei den wiederholten Anwendungen eines festgelegten Verfahrens am identischen Objekt (Probe) durch Berücksichtigung möglichst aller realistischen Variablen in der späteren Routine: Verschiedene Analytiker, Geräte, Chemikalien, Tage etc. Die Laborpräzision kann als Maß für die Robustheit des Verfahrens unter Routinebedingungen angesehen werden.
Leerprobe Die Leerprobe ist unter Idealbedingungen eine Probe, die den zu bestimmenden oder nachzuweisenden Bestandteil nicht enthält, sonst aber mit der Analysenprobe übereinstimmt. Beide Forderungen sind häufig nicht erfüllbar. Die Messung der Leerprobe (Probenmatrix ohne den Analyten) ergibt Messwerte, deren Dichtemittel als Leerwert bezeichnet wird. Bei einer symmetrischen Verteilung ist dies der arithmetische Mittelwert. Diesem Leerwert entspricht der Ordinatenabschnitt einer Kalibriergeraden. Der Leerwert kann also auch Null sein (leerwertfreies Verfahren, Proportionalität). Unter realen Bedingungen ist die Leerprobe eine Probe, die nur einen sehr geringen Gehalt des gesuchten Bestandteils aufweist und in der restlichen Zusammensetzung der Analysenprobe möglichst nahe kommt.
Leerwert Der Leerwert ist der mit einer Leerprobe ermittelte Messwert.
Leerwertverfahren Das Leerwertverfahren (blank value method) dient zur Berechnung der Nachweisgrenze aus der Streuung der Messwerte einer Leerprobe. Es ist in DIN 32645 beschrieben. Für dieses Verfahren muss daher eine Leerprobe verfügbar sein. Zur Berechnung der Nachweisgrenze muss die Steigung der Kalibriergeraden bekannt sein. Das Leerwertverfahren wird auch als direktes Verfahren (oder direkte Methode) bezeichnet. Wo möglich, ist ihm der Vorzug gegenüber dem Kalibrierkurvenverfahren zu geben.
Leistungsqualifizierung (PQ) Überprüfung des Gesamtsystems (Beweisführung) mit Hilfe realer Proben auf Einhaltung der geforderten Spezifikationen.
LGC Abkürzung für "Laboratory of the Gouvernement Chemist". Die früher staatliche Stelle wurde privatisiert und bietet u.a. Standards, Referenzmaterialien und Ringversuche an (www.lgc.co.uk).
Linearität Definition 1:
Fähigkeit eines Verfahrens/einer Methode, innerhalb eines bestimmten Konzentrationsbereichs Messergebnisse zu generieren, deren Abhängigkeit von der Konzentration bzw. Menge des Analytes in der Probe durch eine Geradengleichung (lineare Regression) zu beschreiben ist.
Definition 2:
Unter Linearität (linearity) wird die Anwendung einer linearen Kalibrierfunktion bezeichnet nach: y = a + bx. Die Beziehung zwischen Messgröße und Gehalt des zu bestimmenden Stoffes kann also innerhalb des in der Methode genannten Mess- oder Arbeitsbereiches als Geradengleichung dargestellt werden. Die Linearität muss nachgewiesen werden z.B. mit Hilfe des Linearitätstest nach Mandel. Die Mehrzahl der Prüfmethoden beruht auf einer linearen Kalibrierbeziehung. Es ist zu beachten, dass von einigen Normen und Auswerteverfahren die Linearität vorausgesetzt wird, z.B. bei der Bestimmung der Nachweis- und Bestimmungsgrenze nach dem Kalibrierkurvenverfahren. Selbstverständlich sind auch nicht lineare Kalibrierfunktionen validierbar. Eine lineare Regression kann (ohne Test) auch erzwungen (festgelegt) werden, was nicht unbedingt zur besten Anpassung (geringste Abweichungen) führt.
Linearitätstest nach Mandel Synonyme: Mandel-Test
Der Linearitätstest nach Mandel prüft, ob die Regression 2. Ordnung (quadratische Regression) signifikant besser ist als die Regression 1. Ordnung (lineare Regression). Zur Prüfung werden die jeweiligen Quadrate der Reststandardabweichungen aus linearer und quadratischer Regression verwendet. Der Test selbst ist ein F-Test.
LLOQ Lower Limit of Quantitation
Matrix Alle Bestandteile der Probe mit Ausnahme des oder der zu bestimmenden Analyten. Die Matrix kann durch physikalisch-chemische Effekte wie z.B. Adsorption zu Fehlbefunden führen. Ihr Einfluss auf die Ergebnisse muss daher insbesondere bei Spurenbestimmungen und/oder variabler Matrix geprüft werden. Dies kann insbesondere die Prüfpunkte Kalibrierung, Spezifität, Richtigkeit (einschließlich Wiederfindung) betreffen.
Median Synonyme: Zentralwert
Wert, der eine aufsteigende Messwertreihe in zwei gleich große Teilmengen teilt.
Norm: DIN 55350 Teil 21, 23
Mehrfachbestimmung Mehrfache Bestimmung einer Komponente durch komplette Wiederholung des Analysengangs.
Mehrfachinjektion Mehrfache Injektion einer messfertigen Lösung, so dass sich zwar mehrere Messwerte ergeben, die aber alle aus derselben Probenlösung stammen. Die resultierende Streuung ist also eine Streuung des Messvorganges, nicht aber des kompletten Verfahrens. Man spricht manchmal auch von unechten Mehrfachbestimmungen bzw. Gerätepräzision.
Merkmalsniveau Der Mittelwert der Ermittlungsergebnisse aller Labors für ein bestimmtes untersuchtes Material oder Objekt.
Norm: DIN ISO 5725
Messabweichung Messabweichung ist ein bei einer Messung auftretende Differenz zum Erwartungswert, die auf zufällige oder systematische Fehlerursachen zurückgeht.
Messeinrichtung Vergleiche: Prüfmittel; Messgerät
Gesamtheit aller Messgeräte und zusätzlicher Einrichtungen zur Erzielung eines Messergebnisses. Anmerkung 1: Zusätzliche Einrichtungen sind Hilfsgeräte, die nicht unmittelbar zur Aufnahme, Umformung und Ausgabe dienen (Beispiele: Einrichtung für Hilfsenergie, Ableselupe, Thermostat). Anmerkung 2: Im einfachsten Fall besteht die Messeinrichtung aus einem einzigen Messgerät.
Norm: DGQ-Schrift 11-04
Messen Ermittlung einer quantitativen Aussage über eine physikalische Größe mittels einer Messeinrichtung. Der Vorgang des Messens heißt Messung. Die gemessene Größe ist meistens eine Eigenschaft eines Messobjektes. Das Ergebnis (quantitative Aussage) heißt Messwert, der durch ein Produkt aus Zahlenwert und Einheit angegeben wird.
Messergebnis Das Messergebnis (result of determination) ist der durch die Anwendung einer Messmethode festgestellte Merkmalswert.
Messgerät Vergleiche: Messeinrichtung; Prüfmittel
Gerät, das allein oder in Verbindung mit anderen Einrichtungen für die Messung einer Messgröße vorgesehen ist. Anmerkung 1: Auch Maßverkörperungen sind Messgeräte. Anmerkung 2: Ein Gerät ist auch dann ein Messgerät, wenn seine Ausgabe übertragen, umgeformt, bearbeitet oder gespeichert wird und nicht zur direkten Aufnahme durch den Beobachter geeignet ist (Beispiele: Messumformer, Strom- und Spannungswandler, Messumsetzer, Messverstärker). Anmerkung 3: Ein Messgerät kann auch Messobjekt sein, z. B. bei seiner Kalibrierung.
Norm: DGQ-Schrift 11-04
Messunsicherheit Definition 1:
Ergebnisunsicherheit eines Messwertes. Das ist also ein quantitativer Genauigkeitsgrad in der Messtechnik. Das entspricht dem Intervall für Werte um den wahren Wert für ein gegebenes Signifikanzniveau.
Definition 2:
Nach der klassischen Definition ist die Messunsicherheit (uncertainty of measurement) ein aus Messungen gewonnener Schätzbetrag zur Kennzeichnung eines Wertebereichs, innerhalb dessen der Bezugswert der Messgröße mit einer vorgegebenen Wahrscheinlichkeit liegt, wobei der Bezugswert je nach Festlegung oder Vereinbarung der wahre Wert, der richtige Wert oder der Erwartungswert sein kann. Nach dem internationalen Wörterbuch der Metrologie und dem GUM (Guide to the expression of Uncertainty in Measurement, Leitfaden zur Angabe der Unsicherheit beim Messen) ist sie ein dem Messergebnis zugeordneter Parameter, der die Streuung der Werte kennzeichnet, die vernünftigerweise der Messgröße zugeordnet werden können.
Norm: DIN 55350 Teil 13, DIN 1319 Teil 3
Methode, analytische Bemerkung: Diese Definition, sowie jene von „Verfahren“ und „Prüfvorschrift“ geben die Auffassung der Autoren wieder und decken sich mit dem üblichen Sprachgebrauch. Andere Auslegungen sind durchaus möglich. Anwendung einer Technik/eines physikalischen oder chemischen Prinzips, um eine Messung durchführen zu können. Beispiel: RP-Chromatographie für die Trennung von polyaromatischen Kohlenwasserstoffen (PAK´s) .
Methodenfähigkeit Die Methodenfähigkeit (lab capability) gibt Aufschluss über die Beziehung der durch den Messvorgang verursachten Streuung der Messwerte zu einer Forderung (z.B. Spezifikation). Sie nimmt eine Sonderstellung unter den Begriffen der Validierung ein, da sie keine ausschließlich auf die Analysenmethode bezogene Eigenschaft ist. Sie ist für eine sichere Bewertung der Prozessfähigkeit unerlässlich. Die Methodenfähigkeit erhält man entweder durch Prüfung eines Standmusters oder durch Doppelbestimmungen bei der Warenein- und -ausgangsprüfung.
Methodenfähigkeitsindex Vergleiche: Methodenfähigkeitsindex, korrigiert
Der Methodenfähigkeitsindex (lab capability index) ist ein quantitatives Maß für die Methodenfähigkeit. Er ist analog zum Prozessfähigkeitsindex definiert und berücksichtigt die Streuung im Verhältnis zur Breite des Spezifikationsfensters, aber nicht die Lage.
Methodenfähigkeitsindex, korrigiert Vergleiche: Methodenfähigkeitsindex
Der korrigierte Methodenfähigkeitsindex (corrected lab capability index) ist ein quantitatives Maß für die Methodenfähigkeit. Er ist analog zum kritischen Prozessfähigkeitsindex definiert und berücksichtigt neben der Streuung im Verhältnis zur Breite des Spezifikationsfensters auch die Lage. Die Berücksichtigung der Lage verschärft die Anforderungen, weshalb der korrigierte Methodenfähigkeitsindex nie besser sein kann als der Methodenfähigkeitsindex – bei zentrierter Lage sind beide gleich groß. Faustregel zur Bewertung: der korrigierte Methodenfähigkeitsindex ist ab einem Wert von 2 hoch, zwischen 1 und 2 in einem mittleren und je nach Einzelfall noch tolerierbaren Bereich und unter 1 inakzeptabel niedrig. Entscheidend für die Bewertung sind einerseits die Anforderungen an die Sicherheit des Prozesses und andererseits das Verhältnis von Prozess- zu Methodenfähigkeit (Produktion zu Analytik).
Methodenvergleich Beim Methodenvergleich (method comparison) gemäß ICH-Richtlinie kann die Richtigkeit durch den Vergleich mit einer zweiten bereits validierten Methode belegt werden. Dabei werden auf verschiedenen Konzentrationsniveaus die Differenzen der korrespondierenden Messwerte gebildet (möglichst 6 Proben mit unterschiedlichem Gehalt). Falls der Mittelwert der Differenzen kleiner als der Vertrauensbereich ist, so wird eine ausreichende Wiederfindung festgestellt. Wenn das Konfidenzband 0 enthält und der VK der Differenzen kleiner als ein vorgebbarer Wert ist, so wird das Verfahren als präzise angesehen. Alternativ kann auch eine Probe je 6 Mal mit beiden Methoden geprüft und die Mittelwerte mit Hilfe des t-Testes verglichen werden.
Methodenvergleich mit verbundener Stichprobe Vergleiche: Methodenvergleich
Bestimmt man von Proben (möglichst mehrere mit unterschiedlichem Gehalt) die Gehaltswerte mit zwei unterschiedlichen Methoden, können die Ergebnisse mit dem Differenzen-t-Test verglichen werden: ist der erhaltene Wert größer als der Tabellenwert, ist ein systematischer Unterschied mit gegebener Wahrscheinlichkeit erwiesen.
Modulvalidierung Synonyme: Modulare Validierung
Hiermit wird die Validierung oder genauer die Kalibrierung einzelner Module eines computerisierten Analysengerätes bezeichnet.
Nachweisgrenze Definition 1:
Geringster Gehalt, der noch nachgewiesen werden kann (Qualitative Ja/Nein-Aussage, Irrtum 50 %). Er gilt als nachgewiesen, wenn das Signal des Analyten sich signifikant vom Leerwert unterscheidet.
Definition 2:
Die Nachweisgrenze (detection limit) ist der kleinste, mit einer festzulegenden statistischen Aussagewahrscheinlichkeit erkennbare Gehalt eines Stoffes, der bei einmaliger Messung qualitativ nachgewiesen werden kann. Die Nachweisgrenze ist eine Entscheidungsgrenze für das Vorhandensein eines Bestandteils. An der Nachweisgrenze besteht eine Wahrscheinlichkeit von 50%, den Bestandteil zu finden bzw. nicht zu finden. Die Ermittlung kann über das Signal/Rausch-Verhältnis oder gemäß DIN 32645 nach dem Leerwert- oder dem Kalibrierkurvenverfahren erfolgen. Nach der ICH-Richtlinie kann die Nachweis- und Bestimmungsgrenze basierend auf der Standardabweichung des Signals und der Kalibrierfunktion (Steigung) ermittelt werden.
Norm: DIN 32645, ISO 11843-1
Nationales Normal Normal eines Landes als Basis zur Festlegung des Wertes aller anderen Normale der betreffenden Größe (national standard).
Neumann-Test Der Neumann-Test ist ein Trendtest und prüft eine zeitlich geordnete Wertereihe auf einen Trend. Ein Trend liegt dann vor, wenn die Werte der Reihe von einander abhängig sind (z.B.: Abbau von Lösungen, Temperaturdrift, schleichende Dejustierung). Prüfgröße ist der Quotient aus sukzessiver Differenzstreuung und der Varianz.
Nichtproportional-systematische Abweichung Bei nichtproportional-systematischen Abweichungen ist die Abweichungsfunktion nicht linear.
Ordinatenabschnitt Vergleiche: Achsenabschnitt
Der Abschnitt auf der Ordinate (Ordinatenabschnitt, Achsenabschnitt), der gebildet wird zwischen dem Schnittpunkt einer Funktion bei dem Abszissenwert x = 0 und dem y-Wert. Dieser Abschnitt ist immer vorhanden, wenn die Funktion nicht durch den 0-Punkt geht. Dieser Abschnitt kann als Leerwert gedeutet werden, allerdings nur dann, wenn statistisch geprüft wurde, dass dieser Wert nicht mit 0 vereinbar ist. Der Vertrauensbereich darf den 0-Punkt nicht einschließen.
Parameter Frei wählbarer, aber während der Anwendungsdauer festgehaltener Wert. Die charakteristischen Größen einer Grundgesamtheit wie Mittelwert oder Standardabweichung (die wahren aber unbekannten Werte) werden ebenfalls Parameter genannt. Parameter werden im Allgemeinen mit griechischen Buchstaben bezeichnet. Sie sind die Werte, die eigentlich bestimmt werden sollen, aber nur mit Hilfe der Stichproben durch „Kennwerte“ abgeschätzt werden können.
Präzision Synonyme: Wiederholgenauigkeit (früher)
Ausmaß der Übereinstimmung von Messwerten. Qualitatives Maß für die Streuung von Ergebnissen, also ein Maß für das Vorhandensein von zufälligen Fehlern. Abhängig davon, unter welchen Bedingungen die Ergebnisse ermittelt werden, unterscheidet man zwischen Wiederhol- und Vergleichspräzision; nach DIN 55350, Teil 13: Qualitative Bezeichnung für das Ausmaß der gegenseitigen Annäherung voneinander unabhängiger Ermittlungsergebnisse bei mehrfacher Anwendung eines festgelegten Ermittlungsverfahrens unter vorgegebenen Bedingungen.
Norm: DIN ISO 5725
Primärstandard Vergleiche: Referenzstandard
Ein Standard mit der höchsten metrologischen Qualität
Norm: ISO Guide 30
Progressive Validierung Validierung über einen längeren Zeitraum (z. B. Einsatz von Kontrollkarten)
Proportionaler systematischer Fehler Von der Konzentration des Analyten abhängiger konstanter Fehler (?)
Proportionalität Die Proportionalität (proportionality) ist ein Spezialfall der Linearität. Bei der Proportionalität erfolgt die Kalibrierung nach einem linearen Modell, bei dem definiert wird, dass die Kalibriergerade durch den Nullpunkt geht, der Ordinatenabschnitt a also gleich Null wird. Im unteren Arbeitsbereich einer proportionalen Kalibrierfunktion kann ein Proportionalitätsfehler auftreten, da häufig ein geringfügiger und durch den Test nicht nachgewiesener positiver oder negativer y-Achsenabschnitt existiert, der im Spurenbereich zu einer systematischen Abweichung führen kann, die bei größeren Konzentrationen vernachlässigbar klein ist.
Prospektive Validierung Synonyme: Vorausschauende Validierung
Validierung, die vor Nutzung des Prozesses abgeschlossen ist (vorausschauend)
Prüfeinrichtung Begriff der GLP, Bezeichnung für Mess- oder Prüflabor
Prüfen Prüfen heißt feststellen, ob der Prüfgegenstand (Probekörper, Probe, Messgerät) eine oder mehrere vorgegebene (vereinbarte, vorgeschriebene, erwartete) Bedingungen erfüllt. Mit dem Prüfen ist daher immer der Vergleich mit vorgegebenen Bedingungen verbunden.
Norm: DIN 13 19 Teil 1
Prüfhilfsmittel Zu den Prüfhilfsmitteln gehören beispielsweise Rechnerprogramme zur Durchführung von Qualitätsprüfungen, Anlegefelder für automatische Mehrfachprüfungen usw.
Norm: DGQ-Schrift 11-04
Prüfmittel Vergleiche: Messeinrichtung; Messgerät
Prüfmittel sind Messeinrichtungen, die für Qualitätsprüfungen eingesetzt sind. Anmerkung: Im Bereich der chemischen Analytik werden in Erweiterung der DGQ-Definitionen häufig auch Chemikalien, Reagenzien und Standards als Prüfmittel definiert. Eine Unterteilung in physikalische und chemisehe Prüfmittel ist hier also sinnvoll.
Norm: DGQ-Schrift 11-04
Prüfmittelüberwachung Gesamtheit der systematischen Tätigkeiten der Kalibrierung, Justierung, Eichung sowie der Instandhaltung von Prüfmitteln und Prüfhilfsmitteln.
Norm: DGQ-Schrift 11-04
Prüfung Vergleiche: Prüfen
Nach DIN/EN 45001 Oberbegriff für Messungen, Untersuchungen, Analysen usw. Technischer Vorgang, der aus dem Bestimmen eines oder mehrerer Merkmale eines bestimmten Erzeugnisses, Verfahrens oder einer Dienstleistung besteht und gemäß einer vorgeschriebenen Verfahrensweise durchzuführen ist.
Norm: EN 45020/12.1
Prüfvorschrift Vergleiche: Methode (unter Bemerkung)
Genaue Anleitung in schriftlicher Form, die notwendig ist, um eine Methode korrekt anwenden zu können.
Q-Methode Die Q-Methode ist eine Methode der robusten Statistik. Sie liefert einen robusten Schätzwert für die Dispersion, d.h., einen robusten Streuwert (Standardabweichung).
Sie wird z.B. zur Auswertung von Ringtestversuchen nach DIN 38402 - A45 "Ringversuche zur externen Qualitätskontrolle von Laboratorien" eingesetzt.
Qualifizierung Überprüfung der Funktionstüchtigkeit des Gerätes. Diese Überprüfung umfasst die Kalibrierung und bei Bedarf das Justieren von Mess-, Steuer- und Regeleinrichtung: Kann vereinfacht als die „Validierung“ des Messgerätes ohne Analysengut angesehen werden.
Qualitätskontrollprobe Typische Probe, die wiederholt innerhalb von Serien natürlicher Proben analysiert wird. Sie dient dazu, die Systemstabilität zu überwachen und unerwünschte Drift bei der Ausführung der Analyse aufzudecken.
Referenz Der Referenzbereich ist dasjenige Intervall, innerhalb dessen die Ausprägung eines Qualitätsindikators als „unauffällig“ definiert wird. Ein Referenzwert ist ein Referenzbereich, dessen Unter- und Obergrenze zusammenfallen. Referenzbereiche bzw. -werte müssen im Rahmen der Qualitätsforderung festgelegt werden. Diese Festlegung kann entweder empirisch (statistisch) oder normativ (Expertenkonsens) erfolgen.
Referenzmaterial Vergleiche: beglaubigtes Referenzmaterial
Stabiles, homogenes Material oder eine Substanz, von der eine oder mehrere Eigenschaften ausreichend bekannt sind, so dass es (sie) zur Kalibrierung von Apparaten, zur Beurteilung einer Messmethode oder zur Zuweisung von Werten an Materialien benutzt werden kann. Wenn technisch und wirtschaftlich vertretbar, sollen Kalibriermaterial und Kontrollmaterial nicht identisch sein.
Norm: ISO Guide 20, Abschnitt 3.2.1 und update ISO Guide 30
Referenzmaterial, zertifiziertes Zertifiziertes Referenzmaterial (ZRM) ist ein Referenzmaterial mit einem Zertifikat, in dem unter Angabe der Unsicherheit und des zugehörigen Vertrauensniveaus ein oder mehrere Merkmalswerte aufgrund eines Ermittlungsverfahrens zertifiziert sind, mit dem die Rückführung der Werte auf eine genaue Realisierung der Einheit erreicht wird.
Referenzverfahren In der Regel Normen oder Richtlinien (DIN, DEV, ISO, CEN, VDI) im Rahmen rechtlicher Regelungen.
Regression Regression (regression) ist eine mathematische Methode zur Aufstellung einer funktionalen Beziehung zwischen empirisch gefundenen Wertepaaren. Der Regressionsgrad einer Kalibrierfunktion ist abhängig von der Präzision der Messdaten und vom Arbeitsbereich: je höher die Präzision der Messdaten, desto größer ist die Wahrscheinlichkeit für eine höhere Ordnung, je kleiner der Arbeitsbereich, desto wahrscheinlicher ist eine lineare Beziehung.
Regression nach Passing und Bablok Passing und Bablok entwickelten ein spezielles Regressionsverfahren zum Vergleichen von 2 Messreihen für Methodenvergleiche unter Beachtung folgender Punkte:
  • Sowohl die Messreihe 1 als auch Messreihe 2 sind nicht frei von Fehlern.
  • Die Verteilung der Messwerte ist nicht unbedingt „normalverteilt“.
  • „Ausreißer“ sind nicht immer grobe Messfehler. Ohne weitere Überprüfung dürfen sie nicht gestrichen werden.
  • Die Varianzen sind nicht konstant über den gesamten Konzentrationsbereich. Die Varianz erhöht sich meist mit der Größe der Messwerte.
Regressionskoeffizient egressionskoeffizienten (regression coefficient) werden die Kennwerte der Regressionsgleichung, z.B. a, b bei y = a + bx, bezeichnet.
Relative Messunsicherheit Relative Messunsicherheit (relative uncertainty of measurement) ist die Messunsicherheit dividiert durch den Betrag des (berichtigten) Messergebnisses, sofern dieser Betrag verschieden von Null ist.
Relative Richtigkeit Vergleiche: Richtigkeit
Vergleich eines Ergebnisses nach einer neuen Methode mit dem Ergebnis (identische Probe!) nach einer Referenzmethode.
Relative Verfahrensstandardabweichung Synonyme: Verfahrensvariationskoeffizient
Auf die Mitte des Arbeitsbereichs normierte Verfahrensstandardabweichung
Relative Verfahrensstandardabweichung Die relative Verfahrensstandardabweichung (coefficient of variation of the procedure) ergibt sich aus der Division der Verfahrensstandardabweichung durch die Mitte des Kalibrierbereichs mal 100 und wird in % angegeben. Mit der relativen Verfahrensstandardabweichung kann die Streuung der Prüfmethode in verschiedenen Labors oder von unterschiedlichen Prüfmethoden verglichen werden.
Reproduzierbarkeit Als Reproduzierbarkeit (reproducibilty) wird die Präzision unter Vergleichsbedingungen (Vergleichspräzision) bezeichnet. Sie wird aber oft fälschlicherweise für die Präzision unter Wiederholbedingungen verwendet. Daher sollte der Begriff im Validierungsumfeld nicht verwendet werden, um Unklarheiten auszuschließen.
Residualanalyse Untersuchung der Residuen zur Bewertung einer Regression.
Residuen Als Residuen (residuals) oder Reste werden die Abweichungen e zwischen der Zielgröße y (z.B. Messwert einer Kalibrierung) und dem berechneten Wert der Zielgröße yo aus der Regressionsfunktion, bezeichnet: ei = yi - yoi. Mit ihrer Hilfe können Aussagen über die Korrektheit des gewählten Regressionsmodells (linear, quadratisch, exponentiell, ...) gemacht werden. Ist das Modell korrekt, müssen die Werte von ei im gesamten Bereich von yoi ohne erkennbare Struktur um 0 streuen (sie sind normalverteilt).
Reststandardabweichung Die Reststandardabweichung (rest standard deviation) ist ein Maß für die Streuung der Messwerte um die Regressionskurve.
Retrospektive Validierung Validierung bereits bestehender Prozesse anhand historischer Daten
Revalidierung Vergleiche: Justierbarkeit
Fortschreitende Validierung bei Verfahrensänderung.
Richtiger Wert Synonyme: Sollwert (früher); Zielwert (früher)
Wert für Vergleichszwecke, dessen Abweichung vom wahren Wert für den Vergleichszweck als vernachlässigbar betrachtet wird. Der richtige Wert ist somit ein Näherungswert für den wahren Wert.
Norm: DIN 55350 Teil 13
Richtigkeit Synonyme: Treffgenauigkeit (früher)
Definition 1:
Sie beschreibt die Übereinstimmung des erhaltenen Analysenwertes (Mittelwertes) mit einem als richtig akzeptierten Wert. Anm.: Sie ist also die qualitative Bezeichnung für den Abstand zwischen erhaltenem und richtigem Wert; je kleiner die systematischen Fehler sind, um so „richtiger“ arbeitet das Ermittlungsverfahren.
Definition 2:
Richtigkeit (trueness, accuracy {of the mean}) ist ein qualitativer Begriff und beschreibt das Ausmaß der Annäherung des Erwartungswertes an den richtigen Wert. Die Richtigkeit wird von systematischen Abweichungen beeinflusst. Man unterscheidet zwischen konstanten und proportionalen systematischen Abweichungen. Konstante systematische Abweichungen liegen vor, wenn die Abweichungen unabhängig von der Konzentration des zu bestimmenden Stoffes sind (z.B. Blindwerte). Liegt eine (proportionale) Abhängigkeit von der Konzentration vor, spricht man von proportionalen systematischen Abweichungen (z.B. Matrixeffekte). Als quantitatives Maß für die Richtigkeit kann die systematische Ergebnisabweichung angegeben werden. Die Ermittlung der systematischen Abweichung basiert stets auf dem Vergleich mit einer Referenz: (zertifiziertes) Referenzmaterial, Referenzprobe (synthetisch oder aufgestockt), Referenzverfahren (Methodenvergleich) oder Referenzlabor (Laborvergleich, Ringversuch).
Richtigkeitskontrolle Verfahren zur Qualitätskontrolle zur Feststellung der Validität von Messungen, z.B. im medizinischen Laboratorium. Es werden Untersuchungen von definierten Referenzmaterialien durchgeführt und diese Resultate mit den zuvor mit einer Referenzmethode ermittelten Sollwerten verglichen.
Ringversuch Synonyme: Ringtest
Im Ringversuch (ring experiment) wird überprüft, ob die Abweichungen der Einzelwerte von den Labormittelwerten rein zufälliger Natur sind und somit eine Abgrenzung zwischen zufallsbedingten Abweichungen (und somit unvermeidbar) oder nicht zufälligen Abweichungen (z. B. apparativ, methodisch oder personell bedingt) möglich ist. Ringversuche werden durchgeführt, um Labors zu überprüfen, um Referenzmaterialien zu charakterisieren oder um Prüfmethoden zu validieren. Ringversuche spielen als externe Qualitätskontrolle eine wichtige Rolle bei der Akkreditierung von Laboratorien.
Robustheit Qualitatives Maß, inwieweit variierende Bedingungen (Methodenparameter, Personal, techn. Ausrüstungen, Laboratorien etc.) das Analysenergebnis verändern. Oder: Fähigkeit eines Verfahrens/einer Methode, Ergebnisse zu liefern, die nicht oder unwesentlich durch Veränderungen der Umgebung, der experimentellen Bedingungen usw. verfälscht werden. Viele Störfaktoren sind durch Vereinheitlichung oder genauere Beschreibung der kritischen Arbeitsschritte zu beheben.
Rückführbarkeit Definition 1:
Die Eigenschaft eines Messresultats, welches mit angemessenen Standards („étalon“) durch eine ununterbrochene Reihe von Vergleichen verbunden ist.
Definition 2:
Rückführbarkeit bezeichnet die Möglichkeit zur Rückführung. Rückführbarkeit ist von Rückverfolgbarkeit zu unterscheiden.
scientific validation Dieser Begriff wird in F & E-Bereichen verwendet. Im Gegensatz zu einer „formalen“ Validierung wird hier bei neuen (Forschungs-)Substanzen nur ein Teil der Tests durchgeführt, in der Regel: Wiederholpräzision, Linearität, Wiederfindungsrate, Nachweisgrenze und Stabilität von Lösungen.
Sekundärstandard Ein Standard, dessen Eigenschaftswert durch Vergleich mit einem Primärstandard festgelegt wurde.
Selektivität Vergleiche: Spezifität
Definition 1:
Die Selektivität beschreibt das Ausmaß, mit dem mehrere Analyten in einer Mischung ohne Interferenzen in Gegenwart weiterer Mischungskomponenten bestimmt werden können.
Definition 2:
Selektivität (selectivity) ist die Fähigkeit eines Analysenverfahrens, den zu bestimmenden Stoff von anderen in der Probe zu unterscheiden. In der Chromatographie kann die Selektivität über eine relative Retention von Analyt und Störsubstanzen beschrieben werden. Je höher die Selektivität ist, desto größer ist auch die Auflösung R (bei konstanter Peakbreite). Häufig werden die Begriffe Spezifität und Selektivität bedeutungsgleich verwendet.
SI Système International d´Unités = Internationales Einheitensystem. Physikalische Größen und Messergebnisse sollten nach Möglichkeit in SI-Einheiten angegeben werden.
Signal-Rausch-Verhältnis Für Methoden, die eine Basislinie zeigen, ist eine Abschätzung der Nachweis- und Bestimmungsgrenze aus dem Signal/Rausch-Verhältnis (signal to noise ratio) möglich. Typische Beispiele sind chromatographische und spektroskopische Methoden. Nach ICH kann die Nachweis- und Bestimmungsgrenze basierend auf dem Signal-/Rauschverhältnis und durch „Visual Evaluation“ ermittelt werden. Die Nachweisgrenze ist die Konzentration, bei der die Signalhöhe des Analyten das 3-fache des Signalrauschens der Basislinie einer Leerprobe an der Stelle des Analyten bzw. in seiner direkten Umgebung erreicht. Die Bestimmungsgrenze ist die Konzentration, bei der die Signalhöhe des Analyten das 10-fache des Signalrauschens der Basislinie einer Leerprobe an der Stelle des Analyten bzw. in seiner direkten Umgebung erreicht. Beide Zahlenwerte sind durch Konvention festgelegt.
Signifikanzniveau Testniveau zur Prüfung einer statistischen Hypothese, d.h. die Wahrscheinlichkeit für die Richtigkeit einer Aussage. Das Signifikanzniveau (level of significance) alpha (Irrtumswahrscheinlichkeit) eines statistischen Tests bestimmt die maximale Eintrittswahrscheinlichkeit für das Eintreten eines Fehlers 1. Art (H0 wird verworfen, obwohl H0 wahr ist). Ein Signifikanzniveau von 95% würde bedeuten, dass im Durchschnitt von 100 Entscheidungen 5 falsch sind. Auf der Basis der vorgegebenen Signifikanzniveaus werden die Grenzen einer Shewhart-Karte berechnet.
Soll/Ist-Vergleich Der Soll-/Ist-Vergleich dient dem Richtigkeitsnachweis durch Nachweis der Abwesenheit konstanter und proportionaler systematischer Abweichungen. Dazu müssen eine Reihe Proben mit unterschiedlichem Gehalt zur Verfügung stehen. Die Gehaltswerte müssen dabei mit größenordnungsmäßig höherer Genauigkeit bekannt sein als die zu prüfende Analysenmethode erwarten lässt. Prinzip: Die Ergebnisse der Probenreihe werden gemessen, mit linearer Regression ausgewertet und der y-Achsenabschnitt a sowie die Steigung b ermittelt. Bei Zweifel an der Linearität ist ein Linearitätstest durchzuführen. Dann wird geprüft (t-Test), ob die für a und b erhaltenen Werte auf dem gewählten Signifikanzniveau von den Idealwerten a ideal=0 bzw. b ideal=1 zu unterscheiden sind. Ist dies der Fall, so gilt ein systematischer Fehler mit der vorgegebenen Wahrscheinlichkeit als nachgewiesen.
Sortieren Sortieren (Auslesen) heißt, verschiedenartige Elemente einer Menge nach ihrer Verschiedenartigkeit (nach vorgegebenen Sorten, Arten, Merkmalen oder Merkmalswerten) trennen.
Norm: DIN 1319 Teil 1
Spannweite Größter minus kleinstem Beobachtungswert.
Norm: DIN 55350 Teil 23
SPC Synonyme: SQC
Statistische Prozesskontrolle auch Statistische Qualitätskontrolle. Im Gegensatz zur SPR keine on-line-Regelung, sondern die retrospektive Analyse der Prozessergebnisse auch aus nicht beherrschten Prozessen als Zeitverteilungsreihe mit der Vorgabe, beim Über- oder Unterschreiten von vorgegebenen Werten Ursachenforschung zu betreiben und den Prozessablauf zu ändern.
Spezifikationsqualifizierung, SQ Spezifikationskatalog mit den Anforderungen des Kunden.
Spezifität Vergleiche: Selektivität
Definition 1:
Die Spezifität beschreibt das Ausmaß, mit dem ein Analyt in einer komplexen Mischung ohne Interferenzen in Gegenwart weiterer Mischungskomponenten bestimmt werden kann.
Definition 2:
Spezifität (specifity) ist die Fähigkeit einer Analysenmethode, den Analyten ohne Störung durch in der Probe enthaltene Substanzen oder Matrixbestandteile zu bestimmen. Eine niedrige "Querempfindlichkeit" entspricht einer hohen Spezifität. Häufig werden die Begriffe Spezifität und Selektivität bedeutungsgleich verwendet.
SPR Statistische Prozessregelung, on-line-Regelung eines Prozesses, bei dem alle qualitätsbestimmenden Parameter während des Prozesses auf den Verlauf innerhalb statistisch vorgegebener Regelgrenzen überprüft werden. Für alle diese Parameter wird eine nur rein zufällige Verteilung ihrer Einzelwerte zugelassen. Das Ergebnis ist ein beherrschter Prozess, bei dem das Prozessergebnis ausschließlich statistischen Verteilungen und nicht systematischen Störungen unterworfen ist.
Stabilität Die Stabilität (stability) der Proben und Kalibriersubstanzen als Reinstoffe, Mischungen oder Lösungen ist im Rahmen der üblichen Anwendung zu belegen. Die Stabilität wird meist im Rahmen der Robustheit geprüft.
Standardabweichung Positive Quadratwurzel aus der Varianz
Standardabweichung, relative Die relative Standardabweichung (relative standard deviation) ist die Standardabweichung bezogen auf den Mittelwert. Sie wird normalerweise in % angegeben und ist damit identisch mit dem Variationskoeffizienten VK.
Standardadditionsverfahren Das Standardadditionsverfahren (standard addition method) wird in der Analytik angewendet, wenn eine Aufnahme einer normalen Kalibrierkurve auf Grund von z.B. Matrixeffekten nicht möglich oder der Aufwand nicht gerechtfertigt ist.
Insbesondere bei spurenanalytischen Bestimmungen können sich Steigung und Linearität einer mit matrixfreien Kalibrierproben erstellten Kalibrierfunktion von denen einer mit matrixhaltigen Kalibrierproben erstellten Kalibrierfunktion unterscheiden. Solche Effekte lassen sich durch Standardaddition des Analyten zu einer matrixbehafteten Realprobe erkennen. Konstante systematische Abweichungen können so allerdings nicht erkannt werden. Man erstellt die Aufstockkalibrierfunktion und die matrixfreie Kalibrierfunktion mit jeweils 6 Kalibrierlösungen. Zur Erstellung der Aufstockkalibrierfunktion (Auftragung der Messwerte der nicht aufgestockten sowie der 5 aufgestockten Proben gegen die zugegebene Menge Analyt) wird der Analyt schrittweise zu einer Probe bekannten Gehaltes dosiert, wobei sich nach 5 Standardadditionen der Gehalt des Analyten in der Probe verdoppelt bis verdreifacht haben sollte. Wenn sich die Aufstockkalibrierfunktion als linear erweist (bei Nichtlinearität ist das Standardadditionsverfahren ungeeignet), vergleicht man deren Steigung mit der Steigung der (matrixfreien) Kalibrierfunktion (Mittelwert-t-Test) auf signifikante Unterschiede. Bei einem signifikanten Unterschied zwischen beiden Steigungen ist die mit matrixfreien Proben erstellte Kalibrierfunktion für die untersuchte Probe nicht geeignet. Das Verfahren wird auch als Aufstockverfahren bezeichnet.
Standardunsicherheit Unsicherheit eines Messergebnisses ausgedrückt als Standardabweichung.
Stochastisch unabhängige Prozesse Prozesse, bei denen die einzelnen Schritte des Prozesses sich gegenseitig nicht beeinflussen. Das bedeutet, dass eine Ursache, die zur Streuung von Werten im Schritt A führt, keinen Einfluss auf die Streuung der Werte während des Schrittes B hat. (Beispiel Chromatographie: Was im Detektor passiert ist unabhängig von der „Güte“ der Injektion).
Systematische Abweichung Systematische Abweichung (systematischer Fehler, systematic deviation, systematic error, Bias): Abweichung des unberichtigten Messergebnisses vom Erwartungswert. Systematische Messabweichungen treten einseitig auf, so dass sie durch Wiederholmessungen nicht erfassbar sind (Beispiele: Dejustierung des Messgerätes, Analytverluste bei Extraktion, Zersetzung einer Lösung). Es werden konstante und proportionale Messabweichungen unterschieden. Der Nachweis der Abwesenheit systematischer Messabweichungen ist unter dem Prüfpunkt Richtigkeit zu führen.
Systematischer Fehler Konstante Differenz zwischen dem richtigen und aus der Messung erhaltenen Mittelwert.
Systemeignungsparameter Im Rahmen der Robustheitsprüfung sollten laut ICH Systemeignungsparameter (repräsentative Indikatoren) identifiziert werden, um das Analysenverfahren in der späteren Anwendung überwachen zu können. Beispiele für Systemeignungsparameter sind die Mindestauflösung kritischer Peakpaare oder ein maximales Grundlinienrauschen. Hinweise auf Systemeignungsparameter sollten in die Prüfvorschrift aufgenommen werden.
Systemeignungstest Systemeignungstests (system suitability test) sind nach ICH integraler Bestandteil vieler Analysenvorschriften. Mit ihnen wird das Gesamtsystem einschließlich Messgerät, Elektronik, analytischer Operationen und Proben geprüft.
t-Test Der t-Test ist ein Hypothesentest, der auf der t-Verteilung beruht. Geprüft werden Lagekennwerte wie z.B. die Differenz zwischen zwei Mittelwerten bei unbekannter Varianz. Oft wird er auch als Student-t-Test bezeichnet.
t-Verteilung Die t-Verteilung (Student-t-Verteilung) ist stetig, symmetrisch und glockenförmig und hat einen Variationsbereich von -∞ bis +∞. Sie ist der Standardnormalverteilung ähnlich. Die Form der t-Verteilung ist aber unabhängig von μ und s, sie wird nur durch den Freiheitsgrad (FG) bestimmt. Bei kleiner Werteanzahl (kleine Stichprobe) ist sie flacher und breiter als die Standardnormalverteilung. Je kleiner der FG, umso größer sind die Abweichungen von der Standardnormalverteilung. Bei großem FG geht die t-Verteilung in die Standardnormalverteilung über. Die t-Verteilung ist die Anpassung der Normalverteilung an kleine Stichproben mit unbekannter Standardabweichung s (nur s ist bekannt).
Trendtest Der Trendtest prüft Wertereihen auf Abwesenheit von sich (zeitlich) verändernden systematischen Abweichungen (z.B.: Abbau von Lösungen, Temperaturdrift, schleichende Dejustierung). Häufig wird der Test nach Neumann verwendet.
Unabhängiges Analysenverfahren Analysenverfahren sind dann unabhängig, wenn ihre Analysenprinzipien völlig voneinander verschieden sind.
Untere Grenze des praktischen Arbeitsbereiches (uGpA) Dieser Begriff wird von der Deutschen Fettgesellschaft, DFG, vorgeschlagen. Niedrigste Konzentration des Analyten, die das Labor bei der Ausarbeitung der Methode verwendet hatte oder von der abgeschätzt werden konnte, dass die Methode zufriedenstellende Ergebnisse (auswertbare Messsignale) liefern würde. Anmerkung: uGpA ist keine statistisch abgeleitete Größe, sondern eine hilfsweise Abschätzung, wenn Nachweis- bzw. Bestimmungsgrenze nicht eigens ermittelt wurde.
Validation Master Plan, VMP Vergleiche: Validierungsplan
Dokument mit Informationen über das Validierungsprogramm im Unternehmen mit Zeit- und Prioritätenvorgaben, Verantwortlichkeiten etc.
Validierung Vergleiche: Verifizierung; Qualifizierung
Definition 1:
Bestätigen aufgrund einer Untersuchung und durch Bereitstellen eines Nachweises, dass die besonderen Forderungen für einen speziellen beabsichtigten Gebrauch erfüllt worden sind.
Definition 2:
Beweisführung in Übereinstimmung mit den Grundsätzen der Guten Herstellungspraxis, dass Verfahren, Prozesse, Geräte, Anlagen, Ausrüstungsgegenstände, Materialien, Arbeitsgänge oder Systeme tatsächlich zu den erwarteten Ergebnissen führen (siehe auch Qualifizierung).
Norm: ISO 8402
Validierungsbericht Dokument über die durchgeführten Validierungsaktivitäten incl. Validierungsdaten und Schlussfolgerungen.
Validierungsbericht Der Validierungsbericht (validation report) protokolliert die Durchführung der Validierung, die ermittelten Daten, eventuelle Besonderheiten und die Gesamtbeurteilung und beinhaltet die Freigabe des validierten Verfahrens durch die verantwortliche Person (Herstellungs- oder Kontrollleiter).
Validierungskit Vom Hersteller angebotene Software- Programme, Testprotokolle sowie weitere Hilfsmittel (z. B. HPLC-Säulen aus unterschiedlichen Chargen, Referenzstandards), um ein Gerät bzw. Applikation zu testen (zu „validieren“).
Validierungsplan Vergleiche: Validation master plan, VMP
Plan für die notwendigen Tatigkeiten im Labor, um die Parameter der zu validierenden Methode zu ermitteln.
Validität Validität ist ein qualitatives Maß der Gültigkeit eines Resultats oder einer Studie.
Varianz Definition 1:
Summe der quadrierten Abweichungen der Beobachtungswerte von ihrem arithmetischen Mittelwert dividiert durch die um 1 verminderte Anzahl der Beobachtungswerte.
Definition 2:
Die Varianz ist ein Streuungsmaß, d.h. ein Maß für die "mittlere" Abweichung einer Zufallsvariable X (z.B. Messwert) von ihrem Erwartungswert (z.B. Mittelwert). Die Varianz der Zufallsvariable X wird üblicherweise als σ2 (Grundgesamtheit) oder s2 (Stichprobe) geschrieben. Sie wird berechnet, indem man die Abweichungen vom Erwartungswert quadriert, addiert und durch den Freiheitsgrad f teilt. Der Unterschied zwischen der Varianz der Grundgesamtheit und der Stichprobe ist zu beachten. Ihr Nachteil für die Praxis ist, dass sie eine andere Einheit als die Daten besitzt. Dieser Nachteil kann behoben werden, indem man statt der Varianz die Standardabweichung benutzt. Die Standardabweichung ist die Quadratwurzel der Varianz. Die Varianz wird auch mittlere Quadratesumme (MQS) genannt.
Norm: DIN 55350 Teil 23
Varianzenhomogenität Unter Varianzenhomogenität versteht man die Gleichheit der Varianzen. Bei Anwendung varianzanalytischer Methoden (ANOVA, Kleinste Quadrate Methode) ist die Varianzenhomogenität eine vorher sicherzustellende Eigenschaft des Datenmaterials. Z.B. ist die Homogenität der Restvarianz (Homoskedastizität) über den gesamten Kalibrierbereich die Voraussetzung für eine ungewichtete Regression. Die Prüfung der Varianzenhomogenität erfolgt mit dem F-Test.
Varianzenhomogenitätstest Die Prüfung der Varianzenhomogenität erfolgt mit dem F-Test, s. dort.
Variationskoeffizient Synonyme: relative Standardabweichung
Quantitatives Maß für die Präzision. Standardabweichung dividiert durch den Betrag des arithmetischen Mittelwerts.
Anmerkung: Der Variationskoeffizient wird meist in Prozent angegeben.
Norm: DIN 55350 Teil 23
Verfahren (Analysenverfahren) Vergleiche: Methode (unter Bemerkung)
Gesamtheit aller Schritte wie Probenahme, Probenvorbereitung, Trennung bzw. Messung, Datengenerierung, die zur Ermittlung eines Ergebnisses notwendig sind.
Beispiel: PAK-Bestimmung in Schlamm.
Probenahme, Probenaufarbeitung, Extraktion, Aliquotieren, Kalibrierung, HPLC-Messung, Quantifizierung.
Norm: DIN 38402 Teil 51
Verfahrensstabilität Anmerkung: Ein Maß dafür kann beispielsweise die Differenz der Standardabweichung zum Zeitpunkt t = 0 und der nach 12, 24 Stunden usw. sein. Kann zur Robustheit gehörend angesehen werden.
Verfahrensstandardabweichung Vergleiche: relative Verfahrensstandardabweichung
Definition 1:
Quotient aus Reststandardabweichung (der linearen oder quadratischen Regression) und Steigung: Wichtiges Gütekriterium einer Methode.
Definition 2:
Aus der Reststandardabweichung und der Empfindlichkeit wird die Verfahrensstandardabweichung (standard deviation of the procedure) in der Mitte des Arbeitsbereichs berechnet. Die Verfahrensstandardabweichung ist ein Gütemaß für die Streuung einer Prüfmethode. Da sie die Einheit der x-Achse besitzt, können mit ihr Methoden direkt verglichen werden. Aus ihr lassen sich auch Nachweis- und Bestimmungsgrenze abschätzen.
Vergleichsbedingungen Definition 1:
Wiederholung der gleichen Messung an einem identischen Objekt unter verschiedenen äußeren Bedingungen.
Definition 2:
Vergleichsbedingungen (reproducibility conditions) liegen vor, wenn die gleiche Prüfmethode auf identische Proben von verschiedenen Mitarbeitern mit verschiedenen Geräten in verschiedenen Labors und/oder zu verschiedenen Zeiten angewendet wird. Vergleichsbedingungen entsprechen Ringversuchsbedingungen.
Vergleichsbedingungen, laborinterne Laborinterne Vergleichsbedingungen (intralaboratory reproducibility conditions) liegen vor, wenn identische Proben im selben Labor mit der gleichen Prüfmethode in größeren Zeitabständen und/oder von unterschiedlichen Personen und/oder mit unterschiedlichen Geräten untersucht werden. Sie werden auch als Zwischenbedingungen bezeichnet, da sie zwischen Wiederhol- und Vergleichsbedingungen liegen. (Vergleichspräzision). Idealerweise sollten sie die übliche Laborroutine widerspiegeln und somit eine gute Abschätzung für das Streuverhalten in Qualitätsregelkarten liefern.
Vergleichsdifferenzbetrag, kritischer Der kritische Vergleichsdifferenzbetrag (reproducibility critical difference) ist der Betrag, unter dem oder höchstens gleich dem der Absolutwert der Differenz zwischen zwei Ergebnissen, von denen jedes eine unter Wiederholbedingungen gewonnene Serie von Ermittlungsergebnissen repräsentiert und zwischen denen Vergleichsbedingungen vorlagen, mit einer vorgegebenen Wahrscheinlichkeit erwartet werden kann. Beispiele für solche Ergebnisse sind der arithmetische Mittelwert oder der Median einer Serie von Ermittlungsergebnissen, wobei die Serie aus nur einem Ermittlungsergebnis bestehen kann. (DIN 55350 Teil 13)
Vergleichsgrenze Synonyme: Vergleichbarkeit (früher)
Kritischer Vergleichsdifferenzbetrag für zwei Ermittlungsergebnisse und für eine vorgegebene Wahrscheinlichkeit von 95 %
Norm: DIN 55350 Teil 13
Vergleichspräzision Synonyme: Vergleichbarkeit; Reproduzierbarkeit; Übertragbarkeit (selten)
Präzision bei den wiederholten Anwendungen eines festgelegten Verfahrens am identischen Objekt (Probe) durch verschiedene Analytiker, mit verschiedenen Geräten in verschiedenen Laboratorien (Vergleichsbedingungen ?).
Anmerkung: Der im Laboralltag häufig verwendete Begriff „Reproduzierbarkeit“ führt häufig zu Missverständnissen („Die Reproduzierbarkeit der Retentionszeiten war gut“, gemeint sind hier wahrscheinlich Wiederholbedingungen) und sollte vermieden werden.
Vergleichsstandardabweichung Standardabweichung der Ermittlungsergebnisse unter Vergleichsbedingungen (Vergleichspräzision).
Anmerkung: Die Vergleichstandardabweichung ist ein Streuungsparameter für Ermittlungsergebnisse und daher ein Maß für die Vergleichspräzision.
Norm: DIN 55350 Teil 13
Verifizierung Vergleiche: Validierung; Qualifizierung
Bestätigen aufgrund einer Untersuchung und durch Bereitstellen eines Nachweises, dass festgelegte Forderungen erfüllt worden sind.
Norm: ISO 8402
Vertrauensbereich Synonyme: Konfidenzintervall
Definition 1:
Wertebereich, innerhalb dessen der Bezugswert mit einer vorgegebenen Wahrscheinlichkeit (meist 95 %) liegt.
Definition 2:
Der Vertrauensbereich (Vertrauensintervall, Konfidenzintervall, Konfidenzbereich) ist der Bereich, indem mit einer bestimmten Wahrscheinlichkeit der wahre Wert liegt. Aus Stichproben ermittelte Kennwerte sind grundsätzlich mit Unsicherheiten behaftet. Sie sind lediglich (wenn auch die besten) Schätzwerte für die unbekannten Parameter der Grundgesamtheit, denen das eigentliche Interesse gilt. Der Vorteil, die Messresultate mit Hilfe von Vertrauensintervallen anzugeben, liegt darin, dass die Verlässlichkeit der Resultate quantifiziert werden kann. Korrekterweise ist also immer die Kenngröße mit ihrem entsprechenden Vertrauensintervall zu einer definierten Wahrscheinlichkeit (z.B. 95%) anzugeben. Diese Wahrscheinlichkeit wird auch statistische Sicherheit genannt.
Wahrer Wert Vergleiche: richtiger Wert; exakter Wert
Definition 1:
Tatsächlicher, aber unbekannter Merkmalswert unter den bei der Ermittlung herrschenden Bedingungen.
Anmerkung: Das ist ein ideeller Wert, da er sich nur dann feststellen ließe, wenn sämtliche Abweichungen vermieden werden könnten.
Definition 2:
Der wahre Wert (true value) ist der tatsächliche Merkmalswert, der sich ist in der Regel praktisch durch Messen (stetige Messwertverteilung) nicht ermitteln lässt und somit unbekannt ist. Selbst wenn die Grundgesamtheit zur Prüfung zur Verfügung stehen würde, ist es theoretisch nicht möglich, alle möglichen Werte zu messen. Die wahren Werte können nur angenähert werden. Bei diskreten Werteverteilungen können wahre Werte ermittelt werden wie z.B. durch Zählen der Anzahl der in einer Grundgesamtheit enthaltenen Elemente.
Norm: DIN 55350 Teil 13
Wahrscheinlicher Wert Statistisch berechenbare Wahrscheinlichkeit mit der der Mittelwert einer zunehmenden Zahl von Wiederholuntersuchungen sich dem Mittelwert unendlich vieler Wiederholuntersuchungen asymmetrisch nähert.
Wiederfindungsfunktion Ist die Wiederfindungsrate konzentrationsabhängig, so sollte die Abhängigkeit der Wiederfindungsrate von der Konzentration im relevanten Arbeitsbereich durch eine Wiederfindungsfunktion (recovery function) dargestellt werden.
Wiederfindungsrate Synonyme: Wiederfindung
Definition 1:
Verhältnis des unter Wiederholbedingungen erhaltenen Mittelwertes zum tatsächlichen Gehalt einer Komponente in der Probe.
Definition 2:
Die Wiederfindung (recovery ) oder Wiederfindungsrate (recovery rate) W gibt das Verhältnis des unter Wiederholbedingungen gemessenen Mittelwertes zum richtigen Wert eines Analytgehaltes in Prozent an. Ihr Idealwert ist 100%. Sie wird durch den Vergleich der Messergebnisse eines Analyten mit einer Analytprobe in Gegenwart der Matrix (Wirkstoff: andere Verunreinigungen, Präparat: Hilfsstoffe) sichergestellt. Es ist sinnvoll, die Wiederfindung für unterschiedliche Konzentrationsniveaus sicherzustellen (siehe Wiederfindungsfunktion). In der Regel decken 3 Niveaus, z.B. 70, 100 und 130% des zu erwartenden Wertes den Arbeitsbereich ausreichend ab. Die Wiederfindungsrate ist lediglich ein anderes Maß zur Charakterisierung der Richtigkeit einer Methode. Die Wiederfindungsrate macht Aussagen über Verluste durch Probenvorbereitungsschritte oder Matrixeinfluss und ist in der Spurenanalytik besonders wichtig. Bei einer Wiederfindungsrate, die ungleich 100 Prozent und unabhängig vom Gehalt des Analyten ist, liegt ein proportionaler systematischer Fehler vor. Bei einer zu kleinen Wiederfindungsrate empfiehlt es sich, die Messsignale des Analyten auf eine dem Analyten möglichst ähnliche Hilfskalibriersubstanz (interner Standard) zu beziehen. Der interne Standard sollte in einem möglichst frühen Aufarbeitungsschritt der Probe in definierter Menge zugegeben werden.
Wiederholbarkeit Der Begriff Wiederholbarkeit (repeatability) wird in DIN-Normen nicht mehr verwendet und sollte durch Wiederholgrenze ersetzt werden. Dadurch werden auch Unklarheiten mit dem englischen Begriff repeatability vermieden, der für Wiederholbarkeit und Wiederholpräzision steht.
Wiederholbedingungen Definition 1:
Wiederholung der gleichen Messung an einem identischen Objekt, unter identischen Bedingungen, zu einem späteren Zeitpunkt.
Definition 2:
Wiederholbedingungen (repeatability conditions) liegen vor, wenn die gleiche Prüfmethode auf identische Proben vom selben Mitarbeiter mit demselben Gerät im selben Labor innerhalb einer kurzen Zeitspanne angewendet wird. Wiederholbedingungen führen zur geringstmöglichen Streuung der Messwerte (best case).
Wiederholgrenze Synonyme: Wiederholbarkeit (früher)
Kritischer Wiederholdifferenzbetrag für zwei einzelne Ermittlungsergebnisse und für eine Wahrscheinlichkeit von 95 %.
Norm: DIN 55350 Teil 13
Wiederholpräzision Synonyme: Wiederholbarkeit; Präzision unter Wiederholbedingungen
Präzision bei der wiederholten Anwendung eines festgelegten Verfahrens am identischen Objekt (Probe) durch denselben Analytiker, in kurzen Zeitabständen, mit demselben Gerät, im selben Labor (Wiederholbedingungen).
Wiederholstandardabweichung Standardabweichung der Ermittlungsergebnisse unter Wiederholbedingungen und daher ein Maß für die Wiederholpräzision.
Youden-Diagramm Grafisches Verfahren zum Vergleichen von Analysenergebnissen mit dem Ziel, relativ einfach Aussagen über Präzision und systematische Fehler zu gewinnen.
Z-Score Z-Score ist eine Kennzahl zur Charakterisierung von Ringtestergebnissen.
Er berechnet sich zu: Z-Score = (Messwert - Vorgabewert)/Standardabweichung
Liegt der Z-Score zwischen -2 und +2 ist der Ringtest für das Prüfverfahren bestanden.
Der Z-Score ist mit dem z-Wert der Gaußverteilung zu vergleichen. Dort beschreibt z = ±2 den 95%-Streubereich.
Zählen Zählen ist das Ermitteln der Anzahl von jeweils in bestimmter Hinsicht gleichartigen Elementen oder Ereignissen (z. B. Gegenständen, elektrischen Impulsen, Umdrehungen, Partikeln beim radioaktiven Zerfall), die bei dem zu untersuchenden Messobjekt in Erscheinung treten.
Norm: DIN 1319 Teil 1
Zertifizierung Zertifizierung ist die Feststellung, dass ein Produkt, ein Qualitätsmanagementsystem oder bestimmtes Personal mit speziellen Kriterien, die in einer Norm oder einem anderen Dokument festgelegt sind, übereinstimmen (Zertifizierung = Konformitätsfeststellung).
Zufällige Abweichung Abweichung des unberichtigten Messergebnisses vom Erwartungswert. Zufällige Messabweichungen (random deviation, random error) treten zweiseitig auf, so dass sie durch Wiederholmessungen erfassbar sind (Beispiele: Temperaturschwankungen im Labor, Ableseungenauigkeit, Rundungsfehler).
Zufällige Fehler Sie beruhen auf Messwertschwankungen, „Streuungen“, die entweder naturgesetzliche, messtechnische, aber auch personell-subjektive Gründe haben können. Als Maß für diese Messwertstreuung dient die Standardabweichung.
Zwischenbedingungen Zwischenbedingungen (intermediate conditions) liegen vor, wenn identische Proben im selben Labor mit der gleichen Prüfmethode in größeren Zeitabständen und/oder von unterschiedlichen Personen und/oder mit unterschiedlichen Geräten untersucht werden. Sie liegen damit zwischen Wiederhol- und Vergleichsbedingungen. Idealerweise sollten sie die übliche Laborroutine widerspiegeln und somit eine gute Abschätzung für das Streuverhalten in Qualitätsregelkarten liefern. Diese Messungen führen zur Feststellung der Laborpräzision (intermediate precision), selten als Zwischenpräzision bezeichnet.
Zwischenpräzision Unter Zwischenbedingungen gemessene Präzision (intermediate precision).