All Posts By

sk

Die kleine Frage zur Validierung …

By Allgemein, Monatstipp

Unser Kunde sagte: „Ich brauche für meinen Kunden eine Methode mit einer guten Präzision und ohne Ausreißer – alles andere interessiert mich nicht.“ Dieser Kunde ist wichtig, hat keine Ahnung und wir wollen ihn zufrieden stellen. Wie machen wir das?“

Zusammenfassung:
Gute Präzision? So klappt´s:
Hervorragende Werte für die Präzision werden bekannterweise durch eine große Anzahl an Werten erreicht; ferner auch, wenn Messpräzision (Streuung der Werte bedingt lediglich durch das Gerät) statt Methodenpräzision ermittelt wird. Noch „krasser“: Keine Injektion aus sechs vials mit je einer Standardlösung, sondern sechs (drei) Wiederholinjektionen aus einem vial.
Sind Ausreißer vorhanden? So sind keine zu befürchten:
Es sollte als Ausreißertest natürlich der Dixon-Test verwendet werden
a) Kleine Anzahl an Werten: Egal wie stark ein Wert abweicht, wird er kaum als Ausreißer zu deklarieren sein
b) Starke Streuung der Werte – keine Probleme
c) Große Anzahl an Werten (mehr als sechs); da der Dixon-Test hier ungeeignet ist, sind auch hier kaum Ausreißer zu „befürchten“

Die Story:
Anfang des Jahres hat manch eine(r) gute Vorsätze für das neue Jahr; einige wollen vielleicht gar „bessere“ Menschen werden. Lasst uns dennoch für einen Moment ein raffiniertes, böses Teufelchen spielen und uns überlegen, wie man einen Unwissenden begeistern kann. Neben legalen, seien einmal ausnahmsweise auch halblegale und moralisch „grenzwertige“ Tricks/Aussagen erlaubt, die jedoch auf den ersten Blick wahrhaftig erscheinen.

Garantiert „gute“ Präzision:

Klassische, legale Vorgehensweise: Viele Werte? Ein kleiner Variationskoeffizient, VK ist mehr als sicher.
Injektion lediglich von Standardlösungen? Da die Geräte heute in der Regel einen hohen technischen Standard aufweisen, ist ein kleiner VK ebenfalls ziemlich leicht zu erreichen.

Test auf Ausreißer – keine Probleme zu befürchten

Ein bekannter Test auf Ausreißer ist der Dixon-Test

Vorgehen: Man bildet die Größe Q nach

Q = | x1 – x2 | / R

x1: ausreißverdächtiger Wert

x2: benachbarter Wert

R : Spannweite (Differenz zwischen kleinstem und größtem
Wert)

Der Ausreißer gilt als erwiesen, wenn der berechnete Wert Q größer ist als ein entsprechender Tabellenwert: Q > Q(P) in der Dixon-Tabelle. Deswegen „Betrag“ in der Formel, weil es um die absolute Differenz zwischen ausreißverdächtigem und benachbartem Wert geht – egal ob sie negativ oder positiv ist.

Die berechnete Größe Q stellt man dem Tabellenwert Q (P) gegenüber:

niP = 0.90P = 0.95P = 0.99
30.890.940.99
40.680.770.89
50.560.640.76
60.480.560.70
70.430.510.64
80.400.480.58

 

P: Signifikanzniveau, d. h. Wahrscheinlichkeit für die Richtigkeit der getroffenen Aussage

ni: Anzahl der Werte

Es hat sich eingebürgert, dass die Werte der Spalte „P=0.99“ zurate gezogen werden: Ein Wert wäre als Ausreißer zu deklarieren, wenn dieser größer als der entsprechende Wert in der Dixon-Tabelle ist: Dieser Wert ist eben zu 99 % ein Ausreißer. Und bei der relativ kleinen Anzahl an Werten, die wir in der Labor-Welt haben, sollte man für eine bestimmte Aussage schon zu 99 % sicher sein (statistische Relevanz bewahrt!)

Beispiel 1

3 Werte: 4,0   6,0   12,0; der Ausreißer-verdächtige Wert ist definitiv die „12“.

Dixon-Text:

6 – 12 : 8 = 0,75

0,75 ist kleiner als 0,99, also muss die „12“ nicht eliminiert werden

Beispiel 2

7 Werte, die recht stark streuen (kleinster Wert 5, größter Wert 14):

7,0   7,8   5,0   8,3   9,0   6,9   14,0
Ausreißer-verdächtiger Wert ist die „14“

Dixon-Text:

9 – 14: 9 = 0,56

0,56 ist kleiner als 0,64, die „14“ ist „kein“ Ausreißer

Beispiel 3

8 Werte, die nicht so stark streuen
:

7,0   7,5   8,0   8,5   7,9   8,9   10,0   14,0
Ausreißer-verdächtigter Wert ist die „14“

Dixon-Text:

10 – 14 : 7 = 0,57

0,57 ist kleiner als 0,58, die „14“ ist „kein“ Ausreißer

Bemerkungen:

  • Drei Werte sind zu wenig, um von einer statistischen Relevanz zu sprechen
  • Je stärker Werte streuen, um so unwahrscheinlicher wird es, eine starke Abweichung als Ausreißer zu deklarieren
  • Je größer die Anzahl der Werte, um so ungeeigneter wird der Dixon-Test; bei diesem Test werden ja nur drei Werte für die Berechnung der Prüfgröße Q berücksichtigt: der Ausreißer-verdächtigte Wert, sein benachbarter Wert und der kleinste Wert. Wie viele Werte dazwischen liegen, ist irrelevant. Deswegen sollte ab ca. sechs Werte der Grubbs-Text verwendet werden (Mittelwert, Standardabweichung für die Berechnung)

Eine analytisch seriös, wahrhaftig klingende Aussage vom Teufelchen könnte in etwa wie folgt lauten:

„Lieber Kunde,
wir haben unsere Methode wirklich sehr gründlich getestet: Die Präzision ist wie du hier siehst, hervorragend. Ferner haben wir die Methode selbstverständlich sowohl für eine kleine Zahl (Beispiel 1) als auch für eine große Anzahl an Werten (Beispiel 3) getestet. Wir haben unsere Methode sogar für die schwierigste Matrix getestet, also nicht nur für Apfelsaft, sondern auch für Spinat (Beispiel 2). Es ergab in keinem einzigen Fall ein Ausreißer, unsere Methode ist somit für dich gut geeignet.“

Jetzt verwandeln wir uns von einem Teufelchen zu einem(r) kritischen Beobachter(in): Wenn Sie Daten erhalten, werfen Sie einen kritischen Blick auf diese sowie auf den verwendeten statistischen Test:

  • Anzahl der Werte?
  • Sind diese normal/gleichmäßig verteilt?
  • Passt der Test zu der Intention, zu den Werten: Wie streng will/muss ich sein (Signifikanzniveau 95 % oder 99 %)?

Präzision:
Wenn Sie das Ergebnis eines Tests zur Präzision mit auffallend vielen Werten bekommen: Handelt es sich um eine Methode mit beispielsweise komplexer Probenaufarbeitung (Extraktion, Derivatisierung)? Oder liegt vielleicht eine komplexe Matrix vor (biologische, Lebensmittel- oder Umweltmatrix)? Dann kann eine große Anzahl an Werten gerechtfertigt sein. Ist das nicht der Fall, liegt womöglich ein unnötiger Fleiß vor, oder … Jedenfalls sollte man schon nach dem Grund fragen.

Ausreißertest:
Bei einer kleinen Anzahl an Werten und/oder starker Streuung ebendieser ist das Fehlen von Ausreißern keinesfalls ein Qualitätsattribut der Methode. Und wenn für ab ca. sechs Werten der Dixon-Text verwendet wird, würde ich der Aussage keinen sonderlichen Wert beimessen.

Meine Erfahrung aus diversen Projekten:
– Nicht-zu-Ende gedachten Vorgaben (Notwendigkeit für diese?),
– starker Focus auf formale Anforderungen zu Lasten analytischer Relevanz und
– mangelndes Wissen um die Aussagekraft von statistisch „sauber“ ermittelten Größen …
… führen des Öfteren dazu, dass die Routineeignung einer Methode zu positiv eingeschätzt wird. Seien Sie kritisch und versuchen Sie praxis-nah zu denken (mir fällt es auch oft schwer).

Kann ChatGPT mittlerweile „besser“ HPLC? Und wie ist es mit Google oder Perplexity?

By Allgemein, Bodenzahl, Z - Sonstiges (Weihnachtsgeschichten, Peaky & Chromy, Kreuzworträtsel, ...)

Zusammenfassung Vor zwei Jahren habe ich ChatGPT Wissensfragen zu HPLC gestellt. Viele Antworten waren richtig, es gab aber auch frappierend falsche Antworten. Die gleichen Fragen habe ich jetzt wieder gestellt, Ergebnis: Bezahlversion ChatGPT; bei klaren Vorgaben („Bitte antworte nach wissenschaftlichen Standards, für ein Fachpublikum und hab´ ein besonderes Augenmerk auf den Praxisbezug im Labor“) gab erstens viel mehr Antworten und zweitens alle bis auf zwei – siehe weiter unten – waren richtig und hilfreich. Kostenlose Version, Google, Perplexity: Wesentlich kleinere Anzahl von (richtigen) Antworten, daneben auch völlig inhaltslose Aussagen. Schließlich: Je spezifischer die Frage (z. B. Probleme bei OPA-Derivatisierung), umso spezifischer – wenn auch nicht immer treffsicher – die Antworten. Das gilt für alle hier erwähnten Tools. Die Fragen: Retentionszeit und Bodenzahl Eine Frage war: Wie erhöhe ich die Retentionszeit in der RP-HPLC? Lediglich folgende zwei Antworten waren bei der Bezahlversion der ChatGPT falsch bzw. – etwas milder formuliert – ungenau: Bei Halbierung der Flussrate … * „… bleibt die Bodenzahl zunächst ähnlich“ (diese Aussage ist nur für ≤ 1,7 µm-Teilchen und kleine Moleküle weitestgehend wahr) * „… erfolgt keine Änderung der Selektivität“ (das gilt nur für isokratische Trennungen, bei Gradientenläufen kann bei einer Änderung der Flussrate die Selektivität sich…

Read More

Puffer in der RP-HPLC – was sind die wichtigsten Ursachen für mangelnde Reproduzierbarkeit von Retentionszeit und Peakfläche?

By A Fehlersuche, ACN, Eluent, Jahrestipps, pH-Wert des Eluenten

Zusammenfassung Verschiebung des pH-Wertes; kommt Puffer als „Übeltäter“ infrage, so wären folgende drei Ursachen zu nennen: Falsch gewählter Puffer für den gewünschten pH-Wert, geringe Puffer-Konzentration sowie keine gleiche Konzentration von Säure (Base) und korrespondierendem Salz. In den beiden letzten Fällen ergibt sich ein schwacher Puffer. Die nächsten zwei Punkte stellen zwar keine Fehler im engeren Sinne dar, sie sind dennoch Ursachen für mangelnde Reproduzierbarkeit: Verschiebung des pH-Wertes nach Zugabe des organischen Lösungsmittels und Änderung der Pufferstärke während eines Gradientenlaufs. Der Fall Sie übernehmen eine RP-HPLC-Methode, z.B. aus der Literatur, vom Kunden, von den Kollegen aus der Methodenentwicklung. Sie sind sicher, dass Sie keinen Fehler beim Ansetzen der mobilen Phase machen. Dennoch gibt es immer wieder Probleme mit schwankenden Retentionszeiten und/oder Peakflächen. Sie messen den pH-Wert des frischen Eluenten, dann wieder nach ca. 2-3 Stunden und auch den pH-Wert des Eluats (das, was von der Säule herauskommt). Sie erhalten unterschiedliche Werte, also bleibt der pH-Wert nicht konstant. Ergo: Der verwendete Puffer macht keinen guten „Job“. Wann ist dies der Fall? Die Lösung Nachfolgend die wichtigsten Ursachen: 1. Der verwendete Puffer ist zu schwach: Je geringer die Konzentration, desto kleiner der pH-Wert-Bereich, in dem der Puffer für einen konstanten pH-Wert sorgen kann,…

Read More

Die kleine Frage zur Validierung

By Allgemein, Monatstipp, Variationskoeffizient (Vk), Z - Sonstiges (Weihnachtsgeschichten, Peaky & Chromy, Kreuzworträtsel, ...)

„Wir erreichen den geforderten VK nicht. Der Kunde will aber nicht, dass wir an der Methode etwas ändern, was können wir tun?“

Antwort:
Einfach mehr Messwerte erzeugen; das klingt einfach, ist es auch, es funktioniert, ist oft das kleinste Übel und manchmal die beste und einzige Möglichkeit, „legal“ den VK (Variationskoeffizient/relative Standardabweichung, engl.: Relative Standard Deviation, RSD) „runterzudrücken“.
Erläuterung:
Die Standardabweichung ist ein Maß für die Präzision, je kleiner die relative Standardabweichung (RSD: Standardabweichung bezogen auf den Mittelwert), umso präziser die Methode. Wenn ich einen Wert erzeuge, ist die Standardabweichung 1, bei vier Werten ist sie 0,5 usw., siehe in der Abbildung die Abnahme der Standardabweichung mit der Anzahl der Messwerte.

Irgendwann lohnt sich der Aufwand allerdings nicht: Ob 20 oder 25 Messwerte – das macht beim VK kaum was aus. Aus der Abbildung wird ebenfalls ersichtlich, warum in der Analytik die Anzahl der Werte oft zwischen ca. 6 und 10 liegt: Das ist ein vernünftiger Kompromiss zwischen Aufwand und kleinem VK.
Wann sind ca. 10 Werte angebracht?
Im Falle einer komplexen Matrix (z. B. biologische Matrix, Lebensmittel-/Umwelt-Probe), da hier die Messwerte erfahrungsgemäß recht stark streuen. Oder auch wenn durch die Probenvorbereitung die Werte ebenfalls stark streuen können, z. B. Derivatisierung, Extraktion.
Wann sind ca. 6 Werte angebracht?
Im Falle einer einfachen Analytik und einer klaren, einfachen Probelösung, z. B. Wirkstoffanalytik in der Pharma.

Natürlich kann und wird auch vielfach der VK mit 3 Werten ermittelt. Die statistische Relevanz bleibt jedoch in solchen Fällen nicht gewahrt.

Weiterführende Infos zum Thema „Validierung“:

Artikel, Dokumente, Definitionen, Beratung, Bücher: https://www.kromidas.de/validierung/

Kurse:
Kompakter 1-tägiger Kurs „Das 1 x 1 der Validierung“ als firmeninterne Schulung (Online oder Präsenz) https://www.kromidas.de/das-1×1-der-validierung/

2-tägiger Intensivkurs „Chromatographische Methoden „richtig“ validieren“, als firmeninterne Schulung (Online oder Präsenz): https://www.kromidas.de/chromatographische-methoden-richtig-validieren/
Als offene Online-Schulung: https://seminare.provadis.de/seminare/seminar/2/700/31570

Die kleine Frage zur Validierung …

By Allgemein, Einstellparameter, Jahrestipps, Nachweisgrenze

„Wir haben bei der Bestimmung vom LOQ starke Schwankungen. Auch an unterschiedlichen Geräten und mit neuen Säulen. Woran kann das liegen? Als LOQ-Kriterium haben wir wie üblich ein S/N-Verhältnis von 10:1.“ Antwort: Die Erfahrung zeigt, dass hier mit recht großen Integrationsfehlern zu rechnen ist. Wir konnten zeigen (s. Infos am Ende des Beitrages), dass kaum eine kommerzielle Software in der Lage ist, bei automatischer Integration und einem S/N-Verhältnis von 10:1 so zu integrieren, dass der Fehler – bei optimalen (!) Bedingungen (BL-Trennung, kaum Drift usw.) – nicht mindestens 5-10 % beträgt. Siehe dazu weiter unten die Werte in der Tabelle für den ersten, kleinen Peak (oben): In den grau schraffierten Feldern befinden sich Werte mit einer Abweichung von mehr als 1 % vom richtigen Wert, bedingt durch eine fehlerhafte Integration.   Einige Kommentare und Erläuterungen zu den Werten der Tabelle: Die verwendeten Einstellparameter („Settings“) wie Dwell-Time, Time Constant, Sample Rate usw. können – vor allem bei kleinen Peaks – die Integration beeinflussen. So ist beispielsweise die Abweichung vom richtigen Wert beim ersten Peak bei einem Threshold-Wert von 50 12,50 %, bei einem Threshold-Wert von 100 17,78 % (EZChrom) Bei einigen Software-Programmen können unterschiedliche Integrationsalgorithmen angewandt werden. Die erhaltenen Ergebnisse können…

Read More

Die kleine Frage zur Validierung …

By Allgemein, Jahrestipps, Nachweisgrenze

„Validierung ist aufwendig und teuer; was ist das Minimum an Validierung, was wir machen müssen?“ Zwei Vorbemerkungen Vor einer Antwort halten wir wie folgt fest: 1. Es gibt viele Definitionen zur Validierung, eine davon lautet: „Das Ziel bei der Validierung einer analytischen Methode ist zu zeigen, dass sie für den beabsichtigten Zweck geeignet ist.“ 2. Validierung ist – anders als z. B. GLP – kein Gesetz. Es gibt demnach de jure keine offizielle Stelle, die bzgl. Umfangs, Validierungstiefe, Durchführung, Revalidierungbedarfs etc. gesetzlich bindende Vorgaben macht. Somit jetzt schon einige Schlussfolgerungen: Validierung ist demnach etwas recht Individuelles: Um was geht es in einem aktuellen Fall eigentlich? Muss ich eher formale Sachen beachten, muss also eine wichtige Person/Organisation lediglich „nicken“? Oder stehen analytische Gesichtspunkte im Vordergrund, die notwendiger-/sinnvollerweise zu beachten sind? Sehr wohl ergibt sich häufig de facto aus bestimmten Zwängen/Gegebenheiten genau „was“, „wie“, und „wieviel“ an Validierung zu tun ist. Wenn ich diese Vorgaben missachte, bekomme ich beispielsweise keine Zulassung für mein Produkt bzw. kann ich besagte Methode gar nicht anwenden. Wenn ich solchen Zwängen nicht unterliege, kann ich selbst denken und dem „beabsichtigten Zweck“ gemäß handeln. Das heißt, ich suche aus der „Validierungsklaviatur“ (Richtigkeit, Präzision, Linearität, Robustheit etc.) diejenigen Validierungsparameter…

Read More

Ist dieser HPLC-Peak „sauber“? Das Nonplusultra zur Überprüfung der Peakhomogenität: Multidetektion und 2D-Chromatographie

By B Optimierung, Chromatogramm, Detektor, Jahrestipps, LC-MS-Kopplung, Optimierung

Zusammenfassung Multidetektion und insbesondere 2D-Chromatographie sind die besten Tools, um Peakhomogenitäten zu überprüfen bzw. mittels letzterer die Auflösung zu verbessern. Der Aufwand jedoch bei der Etablierung einer 2D-HPLC sollte nicht unterschätzt werden. Ferner sind zwei Nachteile bei 2D-Anwendungen zu nennen: Mangelnde Robustheit und Verlust an Empfindlichkeit. Der Fall Beim letzten HPLC-Tipp haben wir uns den orthogonalen Test angeschaut: Eine gänzlich andere Säule und/oder ein gänzlich anderer Eluent sind sehr hilfreich, um die Peakhomogenität (Peakreinheit) zu überprüfen. Heute geht es um die in diesem Zusammenhang vermutlich zwei besten Tools: Stufe 1, recht einfach: Einsatz eines zweiten/dritten Detektors; Multidetektion ist mittlerweile in vielen Laboren eine Selbstverständlichkeit Stufe 2, recht aufwendig: „2D“ (2-dimensionale Chromatographie) anwenden; 3D gibt es zwar auch schon seit jeher – aber lassen wir es hier lieber … Was hat denn beides auf sich? Die Lösung Multidetektion Ein zweiter/dritter Detektor in Serie kann erstens Peaks detektieren, die bei Verwendung nur eines Detektors unsichtbar bleiben und zweitens Peaks, die schlecht abgetrennt sind, wenigstens als solche erkennen. In Abb. 1 wird die Verunreinigung bei 6,72 min nur mit MS (ESI-Positiv), jedoch nicht mit DAD erkannt (oberes Bild). Im ESI-Negativ-Modus (unteres Bild) ist zwar das Signal bei 6,72 min wesentlich größer, dafür fehlt…

Read More

Ist dieser HPLC-Peak „sauber“? Der orthogonale Test: Bester Test bzgl. Nutzen/Aufwand-Verhältnisses zur Prüfung der Peakhomogenität

By ACN, Allgemein, Chromatogramm, Eluent, Jahrestipps, Lösungsmittel, Optimierung, Säule, Säulenauswahl, Stationäre Phase, Veränderung des Chromatogramms

Zusammenfassung: Orthogonaler Text: Verwende eine „ganz“ andere Säule (z. B. statt einer C18 nun eine PFP oder eine Mixed Mode) und/oder einen anderen Eluenten (mobile Phase statt mit ACN nun mit MeOH) und injiziere erneut. Ähnliche Substanzen gehen wahrscheinlich (etwas) andere Wechselwirkungen mit der stationären Phase ein. Somit offenbart sich, dass ein symmetrischer Peak evtl. doch nicht homogen ist. Der Fall In den letzten zwei HPLC-Tipps haben wir folgendes gesehen: Eine Änderung von Einstellparametern („Settings“) sowie „Manipulationen“ der Probelösung stellen schnelle Möglichkeiten dar, die Peakhomogenität zu prüfen. Heute geht es um den orthogonalen Test. Was ist das und was „bringt“ er? Die Lösung Am Ende einer Methodenentwicklung kommt häufig die Frage auf: „Habe ich alle Peaks trennen können, oder liegt womöglich irgendwo im Chromatogramm doch eine Koelution vor“? Jetzt kommt der orthogonale Test ins Spiel – die Idee dahinter: Man verwende eine völlig andere stationäre Phase oder einen anderen Eluenten und injiziert erneut. Es ist ziemlich unwahrscheinlich, dass zwei oder drei Komponenten bei Verwendung zweier gänzlich (!) unterschiedlichen Säulen bzw. Eluenten in beiden Fällen völlig gleich starke Wechselwirkungen mit der stationären Phase eingehen. Wenn nun mit einem Eluenten an zwei unterschiedlichen Säulen oder mit zwei unterschiedlichen Eluenten an einer Säule…

Read More

Ist dieser HPLC-Peak „sauber“? Schnell durchzuführende Tests zur Prüfung der Peakhomogenität – im Focus heute: Die Probelösung (Diluent).

By Allgemein, B Optimierung, Injektionsvolumen, Jahrestipps, Lösungsmittel, pH-Wert der Probe (bzw. des Probenlösungsmittels), polare Komponenten, Probenlösungsmittel

Der Fall Wie beim vorherigen HPLC-Tipp geht es auch heute um die Frage, ob ein Peak homogen ist oder womöglich doch eine Koelution vorliegt. Beim letzten Mal haben wir gesehen, dass eine Änderung der Einstellparameter („Settings“) durchaus hilfreich sein kann. Heute steht die Probelösung im Focus: Schnell durchzuführende „Manipulationen“ bzgl. Probelösung können ebenso helfen. Welche wären das? Die Lösung Verdünne die Probelösung oder injiziere weniger Wir alle überladen öfters als gedacht die „arme“ Säule. Ergebnis: Verschlechterung der Auflösung. Eine lokale Überladung der Säule macht sich vor allem am Anfang des Chromatogramms bemerkbar; dort eluieren in einem RP-System polare Komponenten, die zusätzliche polare Wechselwirkungen mit der Oberfläche der stationären Phase eingehen können („Dualer Mechanismus“). Die Devise lautet: Probelösung, also Diluent, einfach mit Wasser verdünnen oder vielleicht noch einfacher: Weniger injizieren. In Abbildung 1, rechts, wird die Injektion von 20 µl Acetophenon gezeigt: Der erste Peak ist eine Verunreinigung, der zweite die Hauptkomponente Acetophenon. Anschließend wurde lediglich Eluent injiziert, linkes Chromatogramm. D.h. hier wurde der Memory-Effekt ausgenutzt: Es befindet sich häufig ein kleiner Rest der Probe an der Nadel, der nicht immer 100% weggespült wird. Wie man leicht erkennt, ist die Verunreinigung sauber, Acetophenon dagegen nicht: Auch mit 20 µl kann eine…

Read More

Ist dieser HPLC-Peak „sauber“? Einfache Tests zur Prüfung der Peakhomogenität

By Auflösung, B Optimierung, Chromatogramm, Einstellparameter, Jahrestipps, LC-MS-Kopplung, Nachweisgrenze, Optimierung, polare Komponenten, Veränderung des Chromatogramms

Der Fall Im HPLC-Tipp vom letzten Dezember war Peaky am Zweifeln, ob er es wirklich ist: „Bin ich überhaupt der Peaky? Und wenn ja, wieso fühlt es sich so an, als wäre ich mehrere …“ Es geht also um die Frage, ob ein Peak homogen ist oder womöglich doch eine Koelution vorliegt. Im vorliegenden HPLC-Tipp werden wir uns einfache Tests anschauen, die recht schnell durchzuführen sind: Keine Änderung der chromatographischen Parameter, keine Änderung der Apparatur. In den nächsten HPLC-Tipps werden wir uns sukzessiv mit aufwendigeren Methoden beschäftigen. Die Lösung Eine Veränderung von Einstellparameter („Settings“) kann helfen, innerhalb von Sekunden/Minuten die Peakhomogenität zu überprüfen. Es lohnt sich (auch) an solche „banale“, schnelle Möglichkeiten zu denken: Injektion bei einer anderen (niedrigeren) Wellenlänge, siehe Abbildung 1: Bei 271 nm erscheint der dritte Peak als ein Peak (unteres Chromatogramm), bei 225 nm sind zwei Peaks zu erkennen (oberes Chromatogramm)   2. Eine große Zeitkonstante („Filter Response“, „Filter Time Constant“) führt zwar zu einer ruhigeren Basislinie, die Peakbreite nimmt allerdings zu, man verliert an Auflösung. Folgendes Zahlenbeispiel aus einer „Technical Note“ von Waters, die freundlicherweise von Sascha Schifrin zur Verfügung gestellt wurde: Kein digitales Filtern: Auflösung (Resolution) 3,16, Peakkapazität 16 Zeitkonstante, 0,5 Min: Auflösung 1,82,…

Read More