Logo ZeTeM

Zentrum für Technomathematik

ZeTeM > Forschung und Anwendungen > Projekte > BMBF-HYPERMATH: Hyperspektrale Bildgebung: Mathematische Methoden für Innovationen in Medizin und Industrie

Kontakt Sitemap Impressum [ English | Deutsch ]

BMBF-HYPERMATH: Hyperspektrale Bildgebung: Mathematische Methoden für Innovationen in Medizin und Industrie

Arbeitsgruppe:AG Technomathematik
Leitung: Prof. Dr. Dr. h.c. Peter Maaß ((0421) 218-63801, E-Mail: pmaass@math.uni-bremen.de)
Bearbeiter: Dr. Andreas Bartels
Sabine Eifeld
Dr. Yovany Cordero Hernandez
Projektförderung: BMBF
Projektpartner: Prof. Dr. Martin Burger, Westfälische Wilhelms-Universität Münster
Dr. Henrike Stephani, Fraunhofer-Institut für Techno- und Wirtschaftsmathematik
SCiLS GmbH, Bremen
Prof. Dr. Thomas Schuster, Universität des Saarlandes
MALDI Imaging Lab, Universität Bremen
Laufzeit: 01.07.2013 - 30.10.2016
Webseite:https://www.math.uni-sb.de/hypermath/
Bild des Projekts BMBF-HYPERMATH: Hyperspektrale Bildgebung: Mathematische Methoden für Innovationen in Medizin und Industrie

Die konventionelle Bildverarbeitung befasst sich fast ausschließlich mit ein- (Grauwerte) oder dreikanäligen (RGB) Daten. In verschiedenen Technologiefeldern von zerstörungsfreien Prüfverfahren über moderne Kommunikations- oder Kameratechnik bis hin zu neuen bildgebenden Technologien der Pharma-, Gesundheits- oder Ernährungsindustrie haben sich die Anforderungen in den letzten Jahren jedoch grundlegend geändert, und die Geräte und Anlagen der nächsten Generation erfordern die Analyse von Datensätzen mit einer Vielzahl von Farb- oder Spektralkanälen. Die Anzahl der Kanäle kann dabei  mehrere hundert oder sogar mehrere hunderttausend erreichen, d.h. hyperspektrale Bildgebung erzeugt einen Datenwürfel mit zwei Raum- und einer mindestens gleichwertigen Spektralkoordinate.

Hypermath Hypermath

In der bildgebenden Massenspektrometrie werden beispielsweise auf einer biologischen Probe an den „Pixeln“ des Bildes Spektralanalysen zur chemischen Zusammensetzung der Probe durchgeführt. Wird bei der zugrunde liegenden Probe eine Messauflösung von 100 x 200 Pixeln eingestellt, sind also – vereinfacht gesprochen – 20.000 einzelne Spektren aufzunehmen. Für jeden dieser Pixel liegen dann 10.000 bis 25.000 Messwerte vor, die jeweils die chemische Zusammensetzung des Pixels beschreiben. Bezieht man den örtlichen Zusammenhang mit ein, dann können die Daten der bildgebenden Massenspektrometrie als hyperspektrale Bilddaten interpretiert werden, die in zehntausenden Bildkanälen die Informationen zur chemischen Zusammensetzung der gemessenen Probe enthalten.

Die aktuellen Herausforderungen des Hyperspectral Imaging unterscheiden sich grundsätzlich von denen der klassischen Bildgebung sowie Bildverarbeitung  und sind ohne Berücksichtigung des technischen Prozesses der Datenerfassung sowie der anwendungsbezogenen konkreten Fragestellung nicht lösbar. Das entscheidende Problem ist hierbei die Extraktion, Aufbereitung und Darstellung der relevanten Informationen (u.a. Segmentierung, Klassifikation, Quantifizierung) aus den vorliegenden Daten. Bei der Umsetzung dieser Verfahren mit immer höherdimensionalen Daten  für zeitkritische oder echtzeitfähige Anwendungen kommt zudem Fragen der Approximation und Effizienz der Algorithmen eine entscheidende Bedeutung zu. Die Komplexität der Daten erfordert hierbei in mehrfacher Hinsicht neue Konzepte. Die konventionellen, Pixel-orientierten Verfahren sind in diesem Bereich ausgeschöpft und bei realen Datenvolumina ineffizient. Von zentraler Bedeutung sind Ansätze, die strukturelle Informationen in allen Koordinaten zusammenfassen und  unterschiedliche Rauschmodelle für Datenfehler in Orts-, beziehungsweise Spektralkoordinaten, berücksichtigen.

In dem BMBF-Verbundprojekt „Hyperspectral Imaging: Mathematische Methoden für Innovationen in Medizin und Industrie“ wurden zentrale Fragen des Hyperspectral Imaging behandelt und damit wichtige Beiträge für einen technologischen Durchbruch geleistet. Es wurden daten-adaptierte und anwendungsspezifische Ansatzfunktionen für eine effiziente Datenauswertung und Approximationen (Sparsity-Konzepte, Dictionary Learning) bestimmt. Zudem wurden inhärente Lokalisierungsprobleme der zugrunde liegenden Messverfahren (Peak-Shifts) mathematisch erfasst und analysiert. Die darauf aufbauenden Verfahren berücksichtigen Multi-Skalen-Strukturen, um Datensätze mit einer Billion und mehr Werten effizient bearbeiten zu können.