DEEP LEARNING IMAGE ANALYSIS WITH INCREASED MODULARITY AND REDUCED FOOTPRINT

Systems/techniques that facilitate deep learning image analysis with increased modularity and reduced footprint are provided. In various embodiments, a system can access medical imaging data. In various aspects, the system can perform, via execution of a deep learning neural network, a plurality of...

Full description

Saved in:
Bibliographic Details
Main Authors SONI, Ravi, AVINASH, Gopal Biligeri, TAN, Tao, TEGZES, Pál, CZIRIA, Balázs Péter, FERENCZI, Lehel Mihály, YANG, Hongxu, DONG, Xiaomeng, RUSKO, Laszlo
Format Patent
LanguageEnglish
French
Published 18.04.2024
Subjects
Online AccessGet full text

Cover

Loading…
More Information
Summary:Systems/techniques that facilitate deep learning image analysis with increased modularity and reduced footprint are provided. In various embodiments, a system can access medical imaging data. In various aspects, the system can perform, via execution of a deep learning neural network, a plurality of inferencing tasks on the medical imaging data. In various instances, the deep learning neural network can comprise a common backbone in parallel with a plurality of task-specific backbones. In various cases, the plurality of task-specific backbones can respectively correspond to the plurality of inferencing tasks. L'invention concerne des systèmes/techniques qui facilitent une analyse d'images en apprentissage profond avec une modularité accrue et un encombrement réduit. Selon divers modes de réalisation, un système peut accéder à des données d'imagerie médicale. Selon divers aspects, le système peut effectuer, par le biais de l'exécution d'un réseau de neurones d'apprentissage profond, une pluralité de tâches d'inférence sur les données d'imagerie médicale. Dans divers cas, le réseau de neurones d'apprentissage profond peut comprendre un squelette commun en parallèle avec une pluralité de squelettes spécifiques de tâche. Dans divers cas, la pluralité de squelettes spécifiques de tâche peuvent correspondre respectivement à la pluralité de tâches d'inférence.
Bibliography:Application Number: WO2023US30746