Biointelligentes System Vision: Mit Machine Learning Zebrafischeier automatisch sortieren
Was bislang in der Gen- und Wirkstoffforschung manuell erfolgen musste, kann nun durch einen Machine-Learning-Algorithmus automatisch ausgeführt werden: Die Probenvorbereitung von Zebrafischeiern. Forscher des Fraunhofer IPA demonstrieren dieses neue Verfahren erstmals auf der Fachmesse Vision in Stuttgart.
Anbieter zum Thema

Der Zebrafisch, auch Zebrabärbling genannt, ist seit langem ein beliebter Modellorganismus in der Zell- und Molekularbiologie. Die 6 cm langen Winzlinge entwickeln sich in durchsichtigen Eiern außerhalb des Mutterleibs. Forscher schätzen den Fisch wegen seiner Transparenz – bis ins frühe Larvenstadium hinein können sie seine Zellen und Organe unter dem Lichtmikroskop beobachten, ohne die Embryonen dabei zu verletzen. Ein geschlechtsreifes Weibchen kann wöchentlich mehrere hundert Eier legen, die sich für die Gen- und Wirkstoffforschung im Labor eignen, etwa für die krebstoxikologische Forschung oder die Untersuchung von Herzkrankheiten. Das Genom des Zebrafischs stimmt zu 70 Prozent mit dem des Menschen überein, auch wichtige Organsysteme sind identisch – eine ideale Voraussetzung für die biomedizinische Forschung.
Kamerasystem mit Machine-Learning-Algorithmus sortiert
Diffizil ist jedoch die Probenvorbereitung der Fischeier: Diese müssen von einer Fachkraft einzeln auf ihren Befruchtungszustand untersucht, mikroskopisch klassifiziert und anschließend in einer Mikrotiterplatte abgelegt werden. Um eine Mikrotiterplatte mit 96 Gefäßen zu befüllen, benötigt eine trainierte Laborangestellte etwa zwölf Minuten, die Fehlerrate ist aufgrund der monotonen Tätigkeit erhöht. Forschende des Fraunhofer-Instituts für Produktionstechnik und Automatisierung IPA in Stuttgart wollen diesen Arbeitsvorgang erheblich beschleunigen: Eine neue automatisierte Lösung soll künftig drei Eier pro Sekunde klassifizieren. Die befruchteten Eier werden in weniger als zwei Minuten in eine 96-Well-Mikrotiterplatte einsortiert. Ziel ist es, ein Hochdurchsatz-Analyseverfahren zu etablieren, das sich in eine vollautomatisierte Anlage integrieren lässt, um den Probendurchsatz zusätzlich zu erhöhen. Herzstück des Sortierers ist ein Kamerasystem, das den Befruchtungszustand in Kombination mit einem Machine-Learning-Algorithmus erkennt.
System optimiert sich selbst
Die befruchteten und unbefruchteten Eier werden zunächst aus einem belüfteten Behälter mit einer rotierenden Spritze aufgesaugt und in eine Transferflüssigkeit verteilt, um im nächsten Schritt in einen Fluidik-Kanal geleitet und dort vereinzelt zu werden. Optische Sensoren prüfen, ob der Vorgang erfolgreich war. Das Kamerasystem detektiert anschließend den Befruchtungszustand mithilfe des Deep-Learning-Algorithmus, der die verschiedenen Zellstadien identifiziert. „Wir trainieren den Algorithmus durch eine Datenbank mit Bildern von klassifizierten Fischeiern. Dabei definiert er die diversen Merkmale der Zellstadien und trifft so eine Aussage, ob ein Ei befruchtet ist oder nicht“, erläutert Bastian Standfest, Wissenschaftler der Gruppe Technologie- und Geräteentwicklung in der Abteilung Laborautomatisierung und Bioproduktionstechnik am Fraunhofer IPA, den Prozess. Die befruchteten Eier werden durch einen Druckstoß vom Fluidik-Chip in die Mikrotiterplatte abgelegt. Erste Tests sind vielversprechend, die falsch-positiv-Rate ist gering – unbefruchtete Eier wurden nur in 0,2 Prozent der Fälle als befruchtet klassifiziert. Das Forscher-Team geht davon aus, mehrere tausend Eier pro Stunde einsortieren zu können. Derzeit arbeiten Standfest und seine Kollegen daran, die Geschwindigkeit des Prozesses zu maximieren, auch der Algorithmus wird optimiert. „Durch die ständige Rückkopplung der neu aufgenommenen Bilder verbessern wir diesen sukzessive, Ziel ist die Entwicklung eines selbstlernenden Systems“, so Standfest. Der aktuelle Aufbau dient als erster Anwendungsfall für ein intelligentes und selbstlernendes System. Diese Plattformtechnologie dient als Einstieg in Biointelligente Systeme und kann zukünftig an verschiedene Anwendungsbereiche angepasst werden.
Vision 2018: Halle1, Stand G42
(ID:45514191)