AUTOMATIC CONTOUR ADAPTATION USING NEURAL NETWORKS
Systems and methods are disclosed for performing operations comprising: receiving first and second images depicting an anatomy of a subject; obtaining a segmentation associated with the first image; applying a trained neural network to estimate the adapted segmentation corresponding to the anatomy d...
Saved in:
Main Authors | , |
---|---|
Format | Patent |
Language | English French |
Published |
16.06.2022
|
Subjects | |
Online Access | Get full text |
Cover
Summary: | Systems and methods are disclosed for performing operations comprising: receiving first and second images depicting an anatomy of a subject; obtaining a segmentation associated with the first image; applying a trained neural network to estimate the adapted segmentation corresponding to the anatomy depicted in the second image, the trained network consisting of two sub-networks: a registration sub-network, generating an initial segmentation estimate representing a deformation of the segmentation associated with the first image to fit the anatomy depicted in the second image, and a segmentation refinement sub-network, predicting a refined segmentation for the second image given the initial segmentation estimate.
L'invention concerne des systèmes et des procédés pour effectuer des opérations consistant à : recevoir des première et seconde images représentant une anatomie d'un sujet; obtenir une segmentation associée à la première image; appliquer un réseau de neurones entraîné pour estimer la segmentation adaptée correspondant à l'anatomie représentée dans la seconde image, le réseau entraîné étant constitué de deux sous-réseaux: un sous-réseau d'enregistrement, générant une estimation de segmentation initiale représentant une déformation de la segmentation associée à la première image pour ajuster l'anatomie représentée dans la seconde image, et un sous-réseau d'affinement de segmentation, prédisant une segmentation affinée pour la seconde image compte tenu de l'estimation de segmentation initiale. |
---|---|
Bibliography: | Application Number: WO2021CA51769 |