Adrian Wolny

1 Colaboratorul Heidelberg pentru procesarea imaginilor, Universitatea Heidelberg, Heidelberg, Germania

plantelor

2 EMBL, Heidelberg, Germania

Lorenzo Cerrone

1 Colaboratorul Heidelberg pentru procesarea imaginilor, Universitatea Heidelberg, Heidelberg, Germania

Athul Vijayan

3 Școala de Științe ale Vieții Weihenstephan, Universitatea Tehnică din München, Freising, Germania

Rachele Tofanelli

3 Școala de Științe ale Vieții Weihenstephan, Universitatea Tehnică din München, Freising, Germania

Amaya Vilches Barro

4 Centrul de Studii Organismale, Universitatea Heidelberg, Heidelberg, Germania

Marion Louveaux

4 Centrul de Studii Organismale, Universitatea Heidelberg, Heidelberg, Germania

Christian Wenzl

4 Centrul de Studii Organismale, Universitatea Heidelberg, Heidelberg, Germania

Sören Strauss

5 Departamentul de dezvoltare comparativă și genetică, Institutul Max Planck pentru Cercetarea Creșterii Plantelor, Köln, Germania

David Wilson-Sánchez

5 Departamentul de dezvoltare comparativă și genetică, Institutul Max Planck pentru Cercetarea Creșterii Plantelor, Köln, Germania

Rena Lymbouridou

5 Departamentul de dezvoltare comparativă și genetică, Institutul Max Planck pentru Cercetarea Creșterii Plantelor, Köln, Germania

Susanne S Steizder

4 Centrul de Studii Organismale, Universitatea Heidelberg, Heidelberg, Germania

Constantin Pape

1 Colaboratorul Heidelberg pentru procesarea imaginilor, Universitatea Heidelberg, Heidelberg, Germania

2 EMBL, Heidelberg, Germania

Alberto Bailoni

1 Colaboratorul Heidelberg pentru procesarea imaginilor, Universitatea Heidelberg, Heidelberg, Germania

Salva Duran-Nebreda

6 Școala de Științe ale Vieții, Universitatea din Warwick, Coventry, Regatul Unit

George W Bassel

6 Școala de Științe ale Vieții, Universitatea din Warwick, Coventry, Regatul Unit

Jan U Lohmann

4 Centrul de Studii Organismale, Universitatea Heidelberg, Heidelberg, Germania

Miltos Tsiantis

5 Departamentul de dezvoltare comparativă și genetică, Institutul Max Planck pentru Cercetarea Creșterii Plantelor, Köln, Germania

Fred A Hamprecht

1 Colaboratorul Heidelberg pentru procesarea imaginilor, Universitatea Heidelberg, Heidelberg, Germania

Kay Schneitz

3 Școala de Științe ale Vieții Weihenstephan, Universitatea Tehnică din München, Freising, Germania

Alexis Maizel

4 Centrul de Studii Organismale, Universitatea Heidelberg, Heidelberg, Germania

Anna Kreshuk

2 EMBL, Heidelberg, Germania

Date asociate

Toate datele utilizate în acest studiu au fost depuse în Open Science Framework: https://osf.io/uzq3w.

Au fost generate următoarele seturi de date:

Wilson-Sánchez D, Lymbouridou R, Strauss S, Tsiantis M. 2019. CLSM Leaf. Open Science Framework. 10.17605/OSF.IO/KFX3D

Wenzl C, Lohmann JU. 2019. Inflorescența Meristem. Open Science Framework. 10.17605/OSF.IO/295SU

Louveaux M, Maizel A. 2019. A. Thaliana Lateral Root. Open Science Framework. 10.17605/OSF.IO/2RSZY

Tofanelli R, Vijayan A, Schneitz K. 2019. A. Thaliana Ovules. Open Science Framework. 10.17605/OSF.IO/W38UF

A fost utilizat următorul set de date publicat anterior:

Duran-Nebreda S, Bassel G. 2019. Arabidopsis 3D Digital Tissue Atlas. Open Science Framework. OSF

Abstract

Analiza cantitativă a morfogenezei vegetale și animale necesită o segmentare exactă a celulelor individuale în imagini volumetrice ale organelor în creștere. În ultimii ani, învățarea profundă a oferit algoritmi automatizați robusti care abordează performanța umană, acum începând să apară aplicații pentru analiza bio-imaginii. Aici, vă prezentăm PlantSeg, o conductă pentru segmentarea volumetrică a țesuturilor plantelor în celule. PlantSeg folosește o rețea neuronală convoluțională pentru a prezice limitele celulare și partiția grafică pentru a segmenta celulele pe baza previziunilor rețelei neuronale. PlantSeg a fost instruit pe organe de plante fixe și vii, imaginate cu microscopuri confocale și cu foi luminoase. PlantSeg oferă rezultate exacte și generalizează bine în diferite țesuturi, scări, setări de achiziție chiar și pe probe care nu sunt plante. Prezentăm rezultatele aplicațiilor PlantSeg în diverse contexte de dezvoltare. PlantSeg este gratuit și open-source, cu o linie de comandă și o interfață grafică ușor de utilizat.

Introducere

Studiul cantitativ la scară largă al morfogenezei într-un organism multicelular implică o estimare exactă a formei tuturor celulelor din mai multe specimene. Microscoapele luminoase de ultimă generație permit o astfel de analiză prin surprinderea anatomiei și dezvoltării plantelor și animalelor în terabyți de imagini volumetrice de înaltă rezoluție. Cu astfel de microscoape acum utilizate în mod obișnuit, segmentarea imaginilor rezultate a devenit un blocaj major în analiza din aval a experimentelor imagistice la scară largă. Au fost propuse câteva conducte de segmentare (Fernandez și colab., 2010; Stegmaier și colab., 2016), dar acestea fie nu valorifică evoluțiile recente în domeniul viziunii computerizate, fie sunt dificil de utilizat pentru non-experți.

Cu câteva excepții notabile, cum ar fi experimentele Brainbow (Weissman și Pan, 2015), imagistica formei celulei în timpul morfogenezei se bazează pe colorarea membranei plasmatice cu un marker fluorescent. Segmentarea celulelor se realizează apoi pe baza predicției lor la graniță. În primele zile ale viziunii computerizate, granițele erau de obicei găsite de algoritmi de detectare a muchiilor (Canny, 1986). Mai recent, o combinație de detectoare de margine și alte filtre de imagine a fost folosită în mod obișnuit ca intrare pentru un algoritm de învățare automată, instruit pentru a detecta limitele (Lucchi și colab., 2012). În prezent, cei mai puternici detectori de graniță se bazează pe rețelele neuronale convoluționale (CNN) (Long și colab., 2015; Kokkinos, 2015; Xie și Tu, 2015). În special, arhitectura U-Net (Ronneberger și colab., 2015) a demonstrat performanțe excelente pe imaginile biomedicale 2D și a fost ulterior extinsă în continuare pentru prelucrarea datelor volumetrice (çiçek și colab., 2016).

Odată găsite limitele, alți pixeli trebuie grupați în obiecte delimitate de limitele detectate. Pentru date de microscopie zgomotoase, din lumea reală, această etapă de post-procesare reprezintă încă o provocare și a atras o atenție destul de mare din partea comunității de viziune pe computer (Turaga și colab., 2010; Nunez-Iglesias și colab., 2014; Beier și colab. . al., 2017; Wolf și colab., 2018; Funke și colab., 2019a). Dacă sunt cunoscuți sau pot fi învățați centroizi („semințe”) ale obiectelor, problema poate fi rezolvată de algoritmul bazinului hidrografic (Couprie și colab., 2011; Cerrone și colab., 2019). De exemplu, în Eschweiler și colab., 2018, un 3D U-Net a fost instruit pentru a prezice contururile celulare împreună cu centroizii celulari ca semințe pentru bazinul apei în imagini de microscopie confocală 3D. Cu toate acestea, această metodă suferă de dezavantajul obișnuit al algoritmului bazinului hidrografic: clasificarea greșită a unui centroid unic celular are ca rezultat însămânțarea sub-optimă și duce la erori de segmentare.

Recent, o abordare care combină ieșirea a două rețele neuronale și a bazinului hidrografic pentru a detecta celule individuale a arătat rezultate promițătoare privind segmentarea celulară în 2D (Wang și colab., 2019). Deși această metodă poate fi, în principiu, generalizată la imagini 3D, necesitatea de a antrena două rețele separate pune dificultăți suplimentare pentru non-experți.

În timp ce metodele bazate pe învățarea profundă definesc stadiul tehnicii pentru toate problemele de segmentare a imaginilor, doar o mână de pachete software se străduiește să le facă accesibile utilizatorilor non-experți în biologie [revizuit în [Moen și colab., 2019] ). În special, pluginul de segmentare U-Net pentru ImageJ (Falk și colab., 2019) expune convenabil predicțiile U-Net și calculează segmentarea finală de la pragul simplu al hărților de probabilitate. CDeep3M (Haberl și colab., 2018) și DeepCell (Van Valen și colab., 2016) permit, prin linia de comandă, pragul hărților de probabilitate date de rețea, iar DeepCell permite segmentarea instanțelor așa cum este descris în Wang și colab. ., 2019. Metode mai avansate de post-procesare sunt furnizate de fluxul de lucru ilastik Multicut (Berg și colab., 2019), cu toate acestea, acestea nu sunt integrate cu predicția bazată pe CNN.

Rezultate

O conductă pentru segmentarea țesuturilor plantelor în celule

Algoritmul de segmentare pe care îl propunem conține doi pași majori. În primul pas, o rețea neuronală complet convoluțională (o variantă a U-Net) este antrenată pentru a prezice limitele celulare. Apoi, un grafic de adiacență a regiunii este construit din pixeli cu greutăți de margine calculate din predicțiile la graniță. În al doilea pas, segmentarea finală este calculată ca o partiționare a acestui grafic într-un număr necunoscut de obiecte (vezi Figura 1). Alegerea noastră de partiționare a graficului ca al doilea pas este inspirată de un corp de lucrări de segmentare pentru conectomică la scară nanomatică (segmentarea celulelor în imagini de microscopie electronică a țesutului neuronal), în care s-a demonstrat că astfel de metode depășesc post-procesarea mai simplă a limitei hărți (Beier și colab., 2017; Funke și colab., 2019a; Briggman și colab., 2009).