SPECKLE SENSING FOR MOTION TRACKING

Speckle sensing for motion tracking is described, for example, to track a user's finger or head in an environment to control a graphical user interface, to track a hand-held device, to track digits of a hand for gesture-based control, and to track 3D motion of other objects or parts of objects...

Full description

Saved in:
Bibliographic Details
Main Authors HASTINGS, BRIAN LEE, FITZGIBBON, ANDREW WILLIAM, IZADI, SHAHRAM, CHEN, NICHOLAS YENRNG, HODGES, STEPHEN EDWARD, GORIS, ANDREW CLARK
Format Patent
LanguageEnglish
French
Published 12.02.2015
Subjects
Online AccessGet full text

Cover

Loading…
Abstract Speckle sensing for motion tracking is described, for example, to track a user's finger or head in an environment to control a graphical user interface, to track a hand-held device, to track digits of a hand for gesture-based control, and to track 3D motion of other objects or parts of objects in a real-world environment. In various examples a stream of images of a speckle pattern from at least one coherent light source illuminating the object, or which is generated by a light source at the object to be tracked, is used to compute an estimate of 3D position of the object. In various examples the estimate is transformed using information about position and/or orientation of the object from another source. In various examples the other source is a time of flight system, a structured light system, a stereo system, a sensor at the object, or other sources. L'invention concerne une détection de taches pour suivi de mouvement, destinée par exemple à suivre le doigt ou la tête d'un utilisateur dans un environnement afin de commander une interface graphique d'utilisateur, à suivre un dispositif portatif, à suivre les doigts d'une main pour une commande par gestes, et à suivre un mouvement 3D d'autres objets ou parties d'objets dans un environnement du monde réel. Dans divers exemples, un flux d'images d'un motif tacheté provenant d'au moins une source de lumière cohérente éclairant l'objet, ou qui est généré par une source lumineuse au niveau de l'objet à suivre, est utilisé pour calculer une estimation de position 3D de l'objet. Dans divers exemples, l'estimation est transformée en utilisant des informations concernant la position et/ou l'orientation de l'objet et provenant d'une autre source. Dans divers exemples, l'autre source est un système à temps de vol, un système à lumière structurée, un système stéréo, un capteur au niveau de l'objet, ou d'autres sources.
AbstractList Speckle sensing for motion tracking is described, for example, to track a user's finger or head in an environment to control a graphical user interface, to track a hand-held device, to track digits of a hand for gesture-based control, and to track 3D motion of other objects or parts of objects in a real-world environment. In various examples a stream of images of a speckle pattern from at least one coherent light source illuminating the object, or which is generated by a light source at the object to be tracked, is used to compute an estimate of 3D position of the object. In various examples the estimate is transformed using information about position and/or orientation of the object from another source. In various examples the other source is a time of flight system, a structured light system, a stereo system, a sensor at the object, or other sources. L'invention concerne une détection de taches pour suivi de mouvement, destinée par exemple à suivre le doigt ou la tête d'un utilisateur dans un environnement afin de commander une interface graphique d'utilisateur, à suivre un dispositif portatif, à suivre les doigts d'une main pour une commande par gestes, et à suivre un mouvement 3D d'autres objets ou parties d'objets dans un environnement du monde réel. Dans divers exemples, un flux d'images d'un motif tacheté provenant d'au moins une source de lumière cohérente éclairant l'objet, ou qui est généré par une source lumineuse au niveau de l'objet à suivre, est utilisé pour calculer une estimation de position 3D de l'objet. Dans divers exemples, l'estimation est transformée en utilisant des informations concernant la position et/ou l'orientation de l'objet et provenant d'une autre source. Dans divers exemples, l'autre source est un système à temps de vol, un système à lumière structurée, un système stéréo, un capteur au niveau de l'objet, ou d'autres sources.
Author IZADI, SHAHRAM
CHEN, NICHOLAS YENRNG
HODGES, STEPHEN EDWARD
FITZGIBBON, ANDREW WILLIAM
GORIS, ANDREW CLARK
HASTINGS, BRIAN LEE
Author_xml – fullname: HASTINGS, BRIAN LEE
– fullname: FITZGIBBON, ANDREW WILLIAM
– fullname: IZADI, SHAHRAM
– fullname: CHEN, NICHOLAS YENRNG
– fullname: HODGES, STEPHEN EDWARD
– fullname: GORIS, ANDREW CLARK
BookMark eNrjYmDJy89L5WRQDg5wdfb2cVUIdvUL9vRzV3DzD1Lw9Q_x9PdTCAlydPYGivEwsKYl5hSn8kJpbgZlN9cQZw_d1IL8-NTigsTk1LzUkvhwfyMDQ1MDI0MDCxNHQ2PiVAEAzDwlVA
ContentType Patent
DBID EVB
DatabaseName esp@cenet
DatabaseTitleList
Database_xml – sequence: 1
  dbid: EVB
  name: esp@cenet
  url: http://worldwide.espacenet.com/singleLineSearch?locale=en_EP
  sourceTypes: Open Access Repository
DeliveryMethod fulltext_linktorsrc
Discipline Medicine
Chemistry
Sciences
Physics
DocumentTitleAlternate DÉTECTION DE TACHES POUR SUIVI DE MOUVEMENT
ExternalDocumentID WO2015021084A1
GroupedDBID EVB
ID FETCH-epo_espacenet_WO2015021084A13
IEDL.DBID EVB
IngestDate Fri Jul 19 15:02:10 EDT 2024
IsOpenAccess true
IsPeerReviewed false
IsScholarly false
Language English
French
LinkModel DirectLink
MergedId FETCHMERGED-epo_espacenet_WO2015021084A13
Notes Application Number: WO2014US49841
OpenAccessLink https://worldwide.espacenet.com/publicationDetails/biblio?FT=D&date=20150212&DB=EPODOC&CC=WO&NR=2015021084A1
ParticipantIDs epo_espacenet_WO2015021084A1
PublicationCentury 2000
PublicationDate 20150212
PublicationDateYYYYMMDD 2015-02-12
PublicationDate_xml – month: 02
  year: 2015
  text: 20150212
  day: 12
PublicationDecade 2010
PublicationYear 2015
RelatedCompanies MICROSOFT CORPORATION
RelatedCompanies_xml – name: MICROSOFT CORPORATION
Score 2.9761636
Snippet Speckle sensing for motion tracking is described, for example, to track a user's finger or head in an environment to control a graphical user interface, to...
SourceID epo
SourceType Open Access Repository
SubjectTerms CALCULATING
COMPUTING
COUNTING
ELECTRIC DIGITAL DATA PROCESSING
PHYSICS
Title SPECKLE SENSING FOR MOTION TRACKING
URI https://worldwide.espacenet.com/publicationDetails/biblio?FT=D&date=20150212&DB=EPODOC&locale=&CC=WO&NR=2015021084A1
hasFullText 1
inHoldings 1
isFullTextHit
isPrint
link http://utb.summon.serialssolutions.com/2.0.0/link/0/eLvHCXMwfV1ZS8NAEB5KPd80Kh5VApW8BdMm2TYPRdocrUIOmqh9K7sxC4KkxUT8-84ujfapjzsLe7GzM9_sHAD3hHNR8z3XDSZCcvoDW6cM77JD6PuwZ1BOZCqlMCKzF-t5YS9a8NnEwsg8oT8yOSJyVI78Xsv3ev1vxPKkb2X1wD6QtHoMspGnbdAxajf4FGveZOQnsRe7musibtOiedNnDK0xYqU9VKQHwgHMf52IuJT1tlAJTmA_wfHK-hRaRanAkdvUXlPgMNx8eStwIH008wqJGz6szqCbJr7QLdXUj9KnaKoillPDWJib1Gw-dhGTT8-hG_iZO9Nx3uXfNpdv8fYizQtol6uyuASVUysnPcL63Mkt07QYtTkhjDIbpUvh0Cvo7Brpenf3DRyLpi6LnHSgXX99F7coaGt2J8_nF7FAfCE
link.rule.ids 230,309,783,888,25578,76884
linkProvider European Patent Office
linkToHtml http://utb.summon.serialssolutions.com/2.0.0/link/0/eLvHCXMwfV1LT8JAEJ4QfOBNUYOK2gTTWyOPdqUHYmDbUpS2BKpyI7u1m5iYQmyNf9_ZDSgnrjvJvrLz-GbnAXBHhJA93xOjyWVKTvvBMhjHt2wT9t5tNZkgqpRSEBL_xXyaW_MSfG5yYVSd0B9VHBE5KkF-L5S8Xv07sRwVW5nf8w8cWj56cc_R1-gYrRsUxboz6LmTyImoTiniNj2cbmjNrtlHrLSHRnZXVtp3XwcyL2W1rVS8Y9if4HxZcQKlNKtChW56r1XhMFh_eVfhQMVoJjkOrvkwP4XGbOJK21KbueFsFA41xHJaEEl3kxZP-xQx-fAMGp4bU9_AdRd_x1y8Rdub7JxDOVtmaQ00wcyEtAhvCzsxOx2TM0sQwhm3ULukNruA-q6ZLneTb6Hix8F4MR6Fz1dwJEmGanhSh3Lx9Z1eo9It-I26q1-rYH8R
openUrl ctx_ver=Z39.88-2004&ctx_enc=info%3Aofi%2Fenc%3AUTF-8&rfr_id=info%3Asid%2Fsummon.serialssolutions.com&rft_val_fmt=info%3Aofi%2Ffmt%3Akev%3Amtx%3Apatent&rft.title=SPECKLE+SENSING+FOR+MOTION+TRACKING&rft.inventor=HASTINGS%2C+BRIAN+LEE&rft.inventor=FITZGIBBON%2C+ANDREW+WILLIAM&rft.inventor=IZADI%2C+SHAHRAM&rft.inventor=CHEN%2C+NICHOLAS+YENRNG&rft.inventor=HODGES%2C+STEPHEN+EDWARD&rft.inventor=GORIS%2C+ANDREW+CLARK&rft.date=2015-02-12&rft.externalDBID=A1&rft.externalDocID=WO2015021084A1