Entwicklung einer Compton-Kamera für biologische und medizinische Bildgebung (SCoKa)
Projektbeschreibung:
Compton-Kameras sind bildgebende Geräte, die zum Nachweis von Gammastrahlung eingesetzt werden. In Zusammenarbeit mit dem Fachbereich Teilchenphysik der Universität Siegen soll in diesem Projekt ein Detektor entwickelt werden, der in der Lage ist, Quellenverteilungen von radioaktiven Isotopen, die Gammastrahlung im MeV-Bereich aussenden, für die medizinische und biologische Bildgebung zu rekonstruieren. Die Abteilung Eingebettete Systeme konzentriert sich auf die Entwicklung effizienter, optimierter Echtzeitlösungen für die Analyse und Verarbeitung von Detektorrohdaten. Sowohl die Erkennung von Ereignissen in der Streuschicht (basierend auf der Cherenkov-Photonen-Analyse) als auch die Bildrekonstruktion werden unter Verwendung traditioneller mathematischer Algorithmen sowie moderner Machine-Learning- und Deep-Learning-Modelle untersucht.
Beschreibung des Projekts
Die vorgeschlagene Compton-Kamera ist für die Rekonstruktion von Quellenverteilungen im MeV-Energiebereich konzipiert. Bei diesen Energien unterliegen Photonen hauptsächlich der Compton-Streuung, was die Bildgebung mit herkömmlichen Geräten erschwert. Der Ansatz in diesem Projekt besteht darin,
eine Compton-Kamera zu entwickeln, die in der Lage ist, sowohl das gestreute Photon als auch das Rückstoßelektron gleichzeitig zu erfassen.
Das Abbildungssystem besteht aus zwei Schichten: einer Streuschicht und einer Absorberschicht. In diesem Aufbau wird PMMA als Streumaterial und Szintillatoren in der Absorptionsschicht verwendet. Bei der medizinischen Bildgebung wird ein radioaktives Material an einer bestimmten Stelle in den Körper der Person eingebracht. Die emittierten Gammastrahlen interagieren mit dem Detektormaterial, und die daraus resultierenden Daten werden verwendet, um den Ursprungsort des Gammateilchens zu bestimmen.
Wenn ein Gammaphoton mit der PMMA-Streuebene interagiert, erzeugt es ein Cherenkov-Elektron und einen gestreuten niederenergetischen Gammastrahl. Bei diesem Compton-Streuprozess wird ein Teil der Energie des Photons auf ein freies Elektron übertragen und damit freigesetzt. Da sich das Elektron schneller als die Phasengeschwindigkeit des Lichts durch das Medium bewegt, sendet es Cherenkov-Photonen aus, die ein kegelförmiges Muster bilden (Cherenkov-Kegel). Die gestreuten Gammastrahlen werden in der Absorptionsschicht auf Szintillatorbasis absorbiert und mit SiPMs nachgewiesen.
Die von den SiPMs nachgewiesenen Cherenkov-Photonen bilden kreisförmige oder elliptische Muster, die Kegelschnitten entsprechen. Jedes Ereignis wird mit herkömmlichen Algorithmen zur Kantendetektion wie der Hough-Transformation oder RANSAC sowie mit Modellen des maschinellen Lernens wie CNNs verarbeitet, um Ellipsenparameter wie Zentralkoordinaten, Haupt- und Nebenachsen und Orientierung zu extrahieren. Anhand dieser Parameter wird die Elektronenbahn bis zum Interaktionspunkt (P1) zurückverfolgt. Die Algorithmen sind an die räumliche Auflösung des Detektors angepasst, und physikalische Effekte wie Mehrfachstreuung und partielle Kegelschnitte werden berücksichtigt. Die Methoden werden anhand von Monte-Carlo-simulierten Daten und GEANT4-Simulationen evaluiert, um ein realistisches Detektorverhalten zu modellieren.
Unter Verwendung des rekonstruierten Streupunkts (P1), des Absorptionspunkts (P2) und der gemessenen gestreuten Gammaenergie (E1) kann ein vollständiger Compton-Kegel projiziert werden.
Traditionelle Rekonstruktionsalgorithmen wie Simple Back Projection (SBP), Maximum Likelihood Expectation Maximization (MLEM) und Stochastic Origin Ensemble (SOE) werden verwendet, um die Quellenverteilung und den Standort des Gamma-Strahlers zu bestimmen. Darüber hinaus werden ML/DL-basierte Modelle für die Rekonstruktion von Punktquellen erforscht. Die Auswirkungen von Unsicherheiten, die sich aus der räumlichen und energetischen Auflösung des Detektors ergeben, werden analysiert und in den Rekonstruktionsprozess einbezogen. Diese Algorithmen werden anhand von idealen, simulierten und GEANT4-Datensätzen bewertet.
Schwerpunkte des Projekts sind:
●Entwicklung einer Compton-Kamera für die Gammabildgebung im MeV-Bereich
● Algorithmus- und Hardware-Co-Design für die Echtzeit-Ereignisdetektion
● Detektion und Analyse von Cherenkov-Ereignissen in der Streuschicht
● Anwendung traditioneller und ML-basierter Algorithmen für die Datenverarbeitung
● Echtzeit-Kanten- und Ellipsendetektion mit CNN-Modellen
● Bildrekonstruktion mit klassischen und datengesteuerten Ansätzen
● FPGA-basierte Beschleunigung für Low-Latency-Verarbeitung
Überblick
Methodik
Forschungsziel 1: Algorithmus- und Hardware-Co-Design für die Erkennung von Ereignissen in Echtzeit - Beschreibung (Charles)
Diese Forschungsarbeit widmet sich der grundlegenden Herausforderung der Erkennung und Analyse von Cherenkov-Ereignissen in der Streuschicht der Compton-Kamera durch die Entwicklung robuster, modellbasierter Algorithmen
. Das Hauptziel besteht darin, den dreidimensionalen Cherenkov-Kegel, der von einem energiereichen Compton-Elektron ausgesandt wird, originalgetreu zu rekonstruieren. Dies wird durch eine präzise Analyse der zweidimensionalen Cherenkov-Ellipse erreicht, die auf die Detektorebene projiziert wird. Die genaue Bestimmung der Eigenschaften des Kegels ist von entscheidender Bedeutung, da diese Parameter direkt die Richtung und die Energie des Compton-Elektrons kodieren, die für die endgültige Rekonstruktion der Gammastrahlenquelle unerlässlich sind.
Im Gegensatz zu den lernbasierten Methoden, die ebenfalls im Rahmen dieses Projekts erforscht werden, passt unser Ansatz klassische Computer-Vision- und Datenanalysetechniken an die einzigartige Natur der Detektorausgabe an. Bei den Rohdaten handelt es sich nicht um ein herkömmliches Bild, sondern um eine spärliche, unstrukturierte Punktwolke aus einzelnen Photonentreffern, was eine Anpassung der Algorithmen erfordert, um direkt mit koordinatenbasierten Daten zu arbeiten. Diese Methodik wird in Form einer mehrstufigen Verarbeitungspipeline realisiert, die mit Rauschfilterung und Ereignisclusterung beginnt. Dies gipfelt in der geometrischen Inversion, bei der die geschätzten Parameter der Ellipse - ihr Zentrum, ihre Größe und ihre Ausrichtung - verwendet werden, um die Form mathematisch in den dreidimensionalen Raum zurückzuprojizieren und den ursprünglichen Cherenkov-Kegel zu rekonstruieren.
Letztendlich besteht das Ziel dieser Forschung darin, eine hocheffiziente und wettbewerbsfähige Lösung zu entwickeln, die eine Ereignisrekonstruktion in Echtzeit ermöglicht. Um dies zu erreichen, werden unsere Algorithmen mit Blick auf ihre Hardware-Implementierung mitentwickelt und zielen speziell auf den Einsatz auf speziellen Hardware-Beschleunigern wie FPGAs (Field-Programmable Gate Arrays) ab. Dieser hardwarezentrierte Ansatz ist entscheidend für die Nutzung der massiven Parallelität, die für die Verarbeitung von Ereignisdaten mit der für praktische Bildgebungsanwendungen erforderlichen extrem niedrigen Latenzzeit erforderlich ist. Diese Synergie zwischen einem interpretierbaren, modellbasierten Algorithmus und einer optimierten Hardware-Architektur ist entscheidend für die Schaffung eines robusten, energieeffizienten Systems, das eine fliegende Ereignisrekonstruktion durchführen kann, was diesen Weg zu einer leistungsstarken Lösung für Compton-Kameras der nächsten Generation macht.
Forschungsziel 2: Auf maschinellem Lernen basierende Ereignisdetektion in der Streuschicht (Kritima)
Diese Forschung konzentriert sich auf die Erkennung von Cherenkov-Ereignissen in der Streuschicht der Compton-Kamera mit Hilfe von Ansätzen des maschinellen Lernens. Wenn hochenergetische Gammastrahlen in dieser Schicht wechselwirken, erzeugen sie Cherenkov-Photonen, die kreisförmige oder elliptische Muster auf dem Detektor bilden. Die genaue Identifizierung dieser Muster ist entscheidend für die Rekonstruktion der Richtung der eintreffenden Gammastrahlen und die Bestimmung der Position ihrer Quelle.
Herkömmliche Methoden wie die Hough-Transformation und die Ellipsenanpassung wurden in früheren Arbeiten untersucht, stoßen aber bei der Behandlung von Rauschen an ihre Grenzen und erfordern umfangreiche Berechnungen. Um diese Herausforderungen zu überwinden, werden moderne Architekturen des maschinellen Lernens
, einschließlich Convolutional Neural Networks (CNNs), erforscht, um diese geometrischen Muster direkt aus Detektordaten zu lernen und zu erkennen.
Die Modelle werden sowohl mit simulierten als auch mit realistischen Datensätzen trainiert und validiert, die Detektorreaktionen unter verschiedenen Bedingungen darstellen. Dies gewährleistet eine robuste Leistung und die Anpassungsfähigkeit der Algorithmen an experimentelle Daten.
Parallel dazu wird der Einsatz dieser Modelle auf Hardware-Beschleunigern wie FPGAs zur Echtzeit- und energieeffizienten Verarbeitung untersucht. Mit Tools wie FINN werden die Modelle durch Quantisierung und hardwarespezifische Beschleunigung optimiert. Diese Integration von KI und Hardwaredesign ermöglicht Inferenzen mit extrem geringer Latenz und bringt die Compton-Kamera näher an Echtzeit-Bildgebungsanwendungen in der medizinischen und biologischen Diagnostik.
Forschungsziel 3 (Bild-Rekonstruktion): (Lasya)
Die Bildrekonstruktion konzentriert sich auf verschiedene traditionelle Rekonstruktionsalgorithmen wie Simple Back Projection (SBP), Filtered Back Projection (FBP), Maximum Likelihood Expectation Maximization (MLEM), Stochastic Origin Ensemble Method. Diese Algorithmen werden ausgehend von einer Punktquellenrekonstruktion implementiert, um die Komplexität bis zur 2D-Verteilung und schließlich 3D-Verteilung der Quelle zu erhöhen.
Die Rekonstruktionsalgorithmen arbeiten mit den Rohmessdaten des Detektors. Dabei erhalten wir Informationen über die Koordinaten des Schnittpunkts in der Streuebene P1 (sx,sy,sz) und der Absorptionsebene P2 (ax,ay,az). Wir erhalten auch Informationen über den Streuwinkel (β), die Energie der gestreuten Elektronen (Ee) und die Energie der gestreuten Gammastrahlen (Eγ). Alle diese vom Detektor gemessenen Parameter sind aufgrund der physikalischen, geometrischen und empfindlichen Grenzen des Detektors mit Unsicherheiten behaftet. Diese Unsicherheiten müssen untersucht und in die Rekonstruktionsalgorithmen einbezogen werden.
Andererseits werden Modelle neuronaler Netze, sowohl des maschinellen Lernens als auch des Deep Learning, erforscht, um eine direkte Rekonstruktion aus den Rohdaten zu erhalten. Es wurden mehrere Modelle wie Random Forest, Transfer-Learning-Modell und XGB-Boost getestet. Keines dieser Modelle zeigte jedoch gute Ergebnisse für die erforderliche Vorhersage. Einige hybride Architekturen mit Faltungsschichten, Dense-Schichten, Transformator- und LSTM-Schichten wurden getestet und zeigten eine hohe Genauigkeit für ideale Ereignisse. Diese Architekturen werden für realistischere Daten mit Ungewissheiten weiter verbessert.