SEMANTICALLY-AUGMENTED CONTEXT REPRESENTATION GENERATION

A device includes a memory configured to store instructions. The device also includes one or more processors configured to execute the instructions to provide context and one or more items of interest corresponding to the context to a dependency network encoder to generate a semantic-based represent...

Full description

Saved in:
Bibliographic Details
Main Authors KIM, Lae-Hoon, SRIDHAR, Arvind Krishna, VISSER, Erik, CHOUDHARY, Ravi
Format Patent
LanguageEnglish
French
Published 26.01.2023
Subjects
Online AccessGet full text

Cover

Loading…
More Information
Summary:A device includes a memory configured to store instructions. The device also includes one or more processors configured to execute the instructions to provide context and one or more items of interest corresponding to the context to a dependency network encoder to generate a semantic-based representation of the context. The one or more processors are also configured to provide the context to a data dependent encoder to generate a context-based representation. The one or more processors are further configured to combine the semantic-based representation and the context-based representation to generate a semantically-augmented representation of the context. Un dispositif comprend une mémoire configurée pour stocker des instructions. Le dispositif comprend également un ou plusieurs processeurs configurés pour exécuter les instructions pour fournir un contexte et un ou plusieurs éléments d'intérêt correspondant au contexte à un codeur de réseau de dépendance, pour générer une représentation basée sur la sémantique du contexte. Le ou les processeurs sont également configurés pour fournir le contexte à un codeur dépendant des données, pour générer une représentation basée sur le contexte. Le ou les processeurs sont en outre configurés pour combiner la représentation basée sur la sémantique et la représentation basée sur le contexte, pour générer une représentation sémantiquement augmentée du contexte.
Bibliography:Application Number: WO2022US73930