https://videopress.com/v/cBeNFnbM?resizeToParent=true&cover=true&posterUrl=https%3A%2F%2Fwww.botany.one%2Fwp-content%2Fuploads%2F2022%2F02%2Fwiwam-vid_mp4_hd.original.jpg&preloadContent=metadataDieser WIWAM-Roboter besteht aus einem Förderbandnetz, das die Pflanzen zu Wiege-Bewässerungsstationen und Bildgebungskabinen bringt und eine Reihe zerstörungsfreier Kamerasysteme beherbergt.

Pflanzen bewegen sich kontinuierlich auf einem Förderband an Sensoren vorbei, die riesige Sammlungen von Daten sammeln, darunter Bilder, die verwendet werden können, um Pflanzenmerkmale zu extrahieren, während die Pflanzen wachsen. Hochdurchsatz-Phänotypisierung wie diese hilft Pflanzenzüchtern zu bestimmen, welche Merkmale und genomischen Eigenschaften für die Pflanzenverbesserung am wichtigsten sind.

Obwohl die Systeme zum Erhalten dieser Bilder und Daten kompliziert sind, ist die Interpretation der riesigen Bildmengen eine größere Herausforderung.

Computervisionsalgorithmen, die künstliche neuronale Netze und Deep Learning einsetzen, um relevante Aspekte von Nutzpflanzen zu erkennen und zu quantifizieren, sind vielversprechend, um dieser Herausforderung zu begegnen. Diese neuronalen Netze müssen jedoch unter Verwendung großer Sätze annotierter Bilder trainiert werden, in denen interessante architektonische Merkmale gekennzeichnet sind, was zeitaufwändig und teuer zu erhalten ist.

Die Verwendung von annotierten synthetischen Bildern von Pflanzen bietet eine praktikable Alternative.

In einem neuen Artikel, erschienen in in silico Asphaltmischanlagen, Mikolaj Cieslak, Senior Research Associate an der University of Calgary, und Kollegen stellen einen neuen Modellierungsprozess vor, der eine praktisch unbegrenzte Anzahl kommentierter Bilder liefert, die die individuelle Variation von Pflanzen widerspiegeln, um neuronale Netze zu trainieren. Die Arbeit stellt die vegetative Entwicklung von Mais vor (Zea Mays L.) und sowohl die vegetative als auch die blühende Entwicklung von Raps (Brassica napus L.) als Beispiele.

Der Modellierungsprozess für jede Art wurde in zwei Phasen unterteilt: (1) die Konstruktion eines L-Systems, das die wesentlichen Elemente der interessierenden Pflanzenart qualitativ erfasst, und (2) die Modellkalibrierung anhand einer Reihe von Fotografien von Referenzpflanzen.

„Für beide Arten verwendeten wir parametrische L-Systeme, um ein einfaches, beschreibendes Entwicklungsmodell zu erstellen. Das L-System-Modell basiert auf dem Konzept der Positionsinformation. Das bedeutet, dass die wichtigsten quantitativen Aspekte der Zielpflanzenform, wie die Verteilung von Ästen, Blättern und Fortpflanzungsorganen, als intuitive, leicht handhabbare Positionsfunktionen auf ihren Achsen ausgedrückt werden. Entwicklungsprozesse werden simuliert, indem Positionsfunktionen mit Zeitfunktionen multipliziert werden“, erklären die Autoren.

Die Kalibrierung basierte auf dem Abgleich des Modells mit einer Referenzanlage unter Verwendung einer grafischen Oberfläche. Die Referenzpflanzen können ein bestimmtes Entwicklungsstadium oder eine Abfolge von Stadien darstellen. Die Modelle können kalibriert werden, um die genetische Vielfalt, den Einfluss der Umwelt (z. B. Wassermangel) und/oder die individuelle Variation von Pflanzen zu erfassen.

Kalibrierung eines Maismodells.
Kalibrierung eines Maismodells.

Einmal kalibriert, kann das Modell eine praktisch unbegrenzte Anzahl annotierter Bilder synthetischer Pflanzen erzeugen, indem es die Parameter mit normalverteilten Zufallsvariablen randomisiert (siehe Abbildung 1). Die kalibrierten Pflanzen können verwendet werden, um Pflanzen in verschiedenen Entwicklungsstadien einzeln zu visualisieren (siehe Abbildung 2 oben) oder zu Modellen ganzer Parzellen zusammengesetzt werden (siehe Abbildung 2 unten).

Probieren Sie Rapspflanzen mit kontrastierenden Architekturen (oben) und ihren kalibrierten Modellen (unten).
Abbildung 1: Beispiele für Rapspflanzen mit kontrastierenden Architekturen (oben) und ihre kalibrierten Modelle (unten).
Simulierte Rapspflanzen
Abbildung 2: Oben – Simulierte Stadien der Entwicklung einer einzelnen Pflanze (Tage nach der Aussaat). Unten – Modell einer Rapsparzelle.

Cieslak fügt hinzu: „Die synthetischen annotierten Daten werden dabei helfen, neuronale Netze zu trainieren, um semantische Pflanzenmerkmale in bildbasierten Phänotypisierungsaufgaben zu identifizieren. Unser nächster Schritt besteht darin, phänotypische Merkmale aus den Mais- und Rapsdatensätzen zu extrahieren. Die Nützlichkeit der kalibrierten Modelle geht jedoch über Annotationen zum Trainieren neuronaler Netze hinaus. Die Modelle liefern eine quantitative Schätzung der architektonischen Parameter dieser Anlagen über die Zeit ohne direkte Messungen (ein sehr zeitaufwändiger Prozess). Sie können auch eine Grundlage für die Konstruktion umfassenderer Modelle liefern, die funktionale Aspekte der Entwicklung einer Anlage einbeziehen.“

DER ARTIKEL::

Mikolaj Cieslak, Nazifa Khan, Pascal Ferraro, Raju Soolanayakanahally, Stephen J Robinson, Isobel Parkin, Ian McQuillan, Przemyslaw Prusinkiewicz, L-System-Modelle für bildbasierte Phänomenologie: Fallstudien zu Mais und Raps, in silico Plants, 2021;, diab039, https://doi.org/10.1093/insilicoplants/diab039


MODELLVERFÜGBARKEIT

Die Modelle wurden mit der Pflanzenmodellierungssoftware Virtual Laboratory 4.5.1 (algorithmicbotany.org/virtual_laboratory) macOS High Sierra v.10.13.6 implementiert und sind auf der Algorithmic Botany-Website (algorithmicbotany.org/papers/l-phenomics2021.html).