MULTI-ENDPOINT MIXED-REALITY MEETINGS
A method of providing a geographically distributed live mixed-reality meeting is described. The method comprises receiving, from a camera (108) at a first endpoint (102), a live video stream; generating, at a mixed reality service (106), a mixed reality view incorporating the received video stream;...
Saved in:
Main Authors | , , , , , , , , , , |
---|---|
Format | Patent |
Language | English French |
Published |
26.09.2019
|
Subjects | |
Online Access | Get full text |
Cover
Loading…
Summary: | A method of providing a geographically distributed live mixed-reality meeting is described. The method comprises receiving, from a camera (108) at a first endpoint (102), a live video stream; generating, at a mixed reality service (106), a mixed reality view incorporating the received video stream; rendering the mixed reality view at a display at the first endpoint and transmitting the mixed reality view to at least one other geographically distant endpoint (103, 104); receiving, at the mixed reality service, data defining a bounding area; calculating, by the mixed reality service, a real world anchor for the bounding area using the data defining the bounding area; rendering the bounding area in the mixed reality view at a real world position determined using the real world anchor; and applying different rule sets to content objects placed into the mixed reality view by users dependent upon the position of the content objects relative to the bounding area in real world space.
L'invention concerne un procédé de fourniture d'une réunion en réalité mixte en direct répartie géographiquement. Le procédé consiste à recevoir, à partir d'une caméra (108) à un premier point d'extrémité (102), un flux de vidéo en direct; produire, au niveau d'un service de réalité mixte (106), une vue de réalité mixte incorporant le flux de vidéo reçu; effectuer le rendu de la vue de réalité mixte sur un affichage au premier point d'extrémité et transmettre la vue de réalité mixte à au moins un autre point d'extrémité distant géographiquement (103, 104); recevoir, au niveau du service de réalité mixte, des données définissant une zone de délimitation; calculer, par le service de réalité mixte, un ancrage du monde réel pour la zone de délimitation en utilisant les données définissant la zone de délimitation; effectuer le rendu de la zone de délimitation dans la vue de réalité mixte à une position du monde réel déterminée en utilisant l'ancrage du monde réel; et appliquer différents ensembles de règles à des objets de contenu placés dans la vue de réalité mixte par des utilisateurs en fonction de la position des objets de contenu par rapport à la zone de délimitation dans l'espace du monde réel. |
---|---|
Bibliography: | Application Number: WO2019US21519 |