Ultrahaptics IP Two Limited

Royaume‑Uni

Retour au propriétaire

1-100 de 310 pour Ultrahaptics IP Two Limited Trier par
Recheche Texte
Affiner par
Type PI
        Brevet 306
        Marque 4
Juridiction
        États-Unis 307
        Canada 1
        International 1
        Europe 1
Date
Nouveautés (dernières 4 semaines) 5
2025 mai 6
2025 avril 5
2025 mars 4
2025 février 2
Voir plus
Classe IPC
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur 237
G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément 100
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales 96
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie 86
G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes 57
Voir plus
Statut
En Instance 42
Enregistré / En vigueur 268
  1     2     3     4        Prochaine page

1.

MODE SWITCHING FOR INTEGRATED GESTURAL INTERACTION AND MULTI-USER COLLABORATION IN IMMERSIVE VIRTUAL REALITY ENVIRONMENTS

      
Numéro d'application 19031373
Statut En instance
Date de dépôt 2025-01-18
Date de la première publication 2025-05-29
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s) Holz, David Samuel

Abrégé

The technology disclosed relates to user interfaces for controlling augmented reality (AR) or virtual reality (VR) environments. Real and virtual objects can be seamlessly integrated to form an augmented reality by tracking motion of one or more real objects within view of a wearable sensor system. Switching the AR/VR presentation on or off to interact with the real world surrounding them, for example to drink some soda, can be addressed with a convenient mode switching gesture associated with switching between operational modes in a VR/AR enabled device.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie

2.

ENHANCED FIELD OF VIEW TO AUGMENT THREE-DIMENSIONAL (3D) SENSORY SPACE FOR FREE-SPACE GESTURE INTERPRETATION

      
Numéro d'application 19031318
Statut En instance
Date de dépôt 2025-01-17
Date de la première publication 2025-05-22
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Durdik, Paul

Abrégé

The technology disclosed relates to enhancing the fields of view of one or more cameras of a gesture recognition system for augmenting the three-dimensional (3D) sensory space of the gesture recognition system. The augmented 3D sensory space allows for inclusion of previously uncaptured of regions and points for which gestures can be interpreted i.e. blind spots of the cameras of the gesture recognition system. Some examples of such blind spots include areas underneath the cameras and/or within 20-85 degrees of a tangential axis of the cameras. In particular, the technology disclosed uses a Fresnel prismatic element and/or a triangular prism element to redirect the optical axis of the cameras, giving the cameras fields of view that cover at least 45 to 80 degrees from tangential to the vertical axis of a display screen on which the cameras are mounted.

Classes IPC  ?

  • G06F 1/16 - Détails ou dispositions de structure
  • G02B 5/04 - Prismes
  • G02B 7/18 - Montures, moyens de réglage ou raccords étanches à la lumière pour éléments optiques pour prismesMontures, moyens de réglage ou raccords étanches à la lumière pour éléments optiques pour miroirs
  • G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateurDispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p. ex. dispositions d'interface
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/042 - Numériseurs, p. ex. pour des écrans ou des pavés tactiles, caractérisés par les moyens de transduction par des moyens opto-électroniques
  • H04N 23/67 - Commande de la mise au point basée sur les signaux électroniques du capteur d'image
  • H04N 23/90 - Agencement de caméras ou de modules de caméras, p. ex. de plusieurs caméras dans des studios de télévision ou des stades de sport

3.

PREDICTIVE INFORMATION FOR FREE SPACE GESTURE CONTROL AND COMMUNICATION

      
Numéro d'application 19031367
Statut En instance
Date de dépôt 2025-01-18
Date de la première publication 2025-05-22
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Horowitz, Kevin
  • Bedikian, Raffi
  • Yang, Hua

Abrégé

The technology disclosed relates to simplifying updating of a predictive model using clustering observed points. In particular, it relates to observing a set of points in 3D sensory space, determining surface normal directions from the points, clustering the points by their surface normal directions and adjacency, accessing a predictive model of a hand, refining positions of segments of the predictive model, matching the clusters of the points to the segments, and using the matched clusters to refine the positions of the matched segments. It also relates to distinguishing between alternative motions between two observed locations of a control object in a 3D sensory space by accessing first and second positions of a segment of a predictive model of a control object such that motion between the first position and the second position was at least partially occluded from observation in a 3D sensory space.

Classes IPC  ?

  • G06F 30/20 - Optimisation, vérification ou simulation de l’objet conçu
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06V 20/64 - Objets tridimensionnels
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes

4.

SYSTEMS AND METHODS FOR MACHINE CONTROL

      
Numéro d'application 19026259
Statut En instance
Date de dépôt 2025-01-16
Date de la première publication 2025-05-22
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

A region of space may be monitored for the presence or absence of one or more control objects, and object attributes and changes thereto may be interpreted as control information provided as input to a machine or application. In some embodiments, the region is monitored using a combination of scanning and image-based sensing.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06V 10/145 - Éclairage spécialement adapté à la reconnaissance de formes, p. ex. utilisant des réseaux
  • G06V 40/10 - Corps d’êtres humains ou d’animaux, p. ex. occupants de véhicules automobiles ou piétonsParties du corps, p. ex. mains

5.

ADJUSTING MOTION CAPTURE BASED ON THE DISTANCE BETWEEN TRACKED OBJECTS

      
Numéro d'application 19031392
Statut En instance
Date de dépôt 2025-01-18
Date de la première publication 2025-05-22
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

The technology disclosed relates to adjusting the monitored field of view of a camera and/or a view of a virtual scene from a point of view of a virtual camera based on the distance between tracked objects. For example, if the user's hand is being tracked for gestures, the closer the hand gets to another object, the tighter the frame can become—i.e., the more the camera can zoom in so that the hand and the other object occupy most of the frame. The camera can also be reoriented so that the hand and the other object remain in the center of the field of view. The distance between two objects in a camera's field of view can be determined and a parameter adjusted based thereon. In particular, the pan and/or zoom levels of the camera may be adjusted in accordance with the distance.

Classes IPC  ?

  • H04N 23/611 - Commande des caméras ou des modules de caméras en fonction des objets reconnus les objets reconnus comprenant des parties du corps humain
  • G06T 7/50 - Récupération de la profondeur ou de la forme
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes

6.

ANALYZING CONTROL OBJECTS IN A FREE SPACE GESTURE CONTROL ENVIRONMENT

      
Numéro d'application 19021044
Statut En instance
Date de dépôt 2025-01-14
Date de la première publication 2025-05-15
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s)
  • Horowitz, Kevin A.
  • Holz, David S.

Abrégé

Free space machine interface and control can be facilitated by predictive entities useful in interpreting a control object's position and/or motion (including objects having one or more articulating members, i.e., humans and/or animals and/or machines). Predictive entities can be driven using motion information captured using image information or the equivalents. Predictive information can be improved applying techniques for correlating with information from observations.

Classes IPC  ?

  • G06T 17/10 - Description de volumes, p. ex. de cylindres, de cubes ou utilisant la GSC [géométrie solide constructive]
  • A61B 17/00 - Instruments, dispositifs ou procédés chirurgicaux
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/0487 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique
  • G06F 3/0488 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant un écran tactile ou une tablette numérique, p. ex. entrée de commandes par des tracés gestuels
  • G06T 3/40 - Changement d'échelle d’images complètes ou de parties d’image, p. ex. agrandissement ou rétrécissement
  • G06T 7/11 - Découpage basé sur les zones
  • G06T 7/13 - Détection de bords
  • G06T 7/136 - DécoupageDétection de bords impliquant un seuillage
  • G06T 7/194 - DécoupageDétection de bords impliquant une segmentation premier plan-arrière-plan
  • G06T 7/246 - Analyse du mouvement utilisant des procédés basés sur les caractéristiques, p. ex. le suivi des coins ou des segments
  • G06T 7/593 - Récupération de la profondeur ou de la forme à partir de plusieurs images à partir d’images stéréo
  • G06T 17/00 - Modélisation tridimensionnelle [3D] pour infographie
  • G06T 17/20 - Description filaire, p. ex. polygonalisation ou tessellation
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06V 10/75 - Organisation de procédés de l’appariement, p. ex. comparaisons simultanées ou séquentielles des caractéristiques d’images ou de vidéosApproches-approximative-fine, p. ex. approches multi-échellesAppariement de motifs d’image ou de vidéoMesures de proximité dans les espaces de caractéristiques utilisant l’analyse de contexteSélection des dictionnaires
  • G06V 40/10 - Corps d’êtres humains ou d’animaux, p. ex. occupants de véhicules automobiles ou piétonsParties du corps, p. ex. mains
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes
  • H04N 13/275 - Générateurs de signaux d’images à partir de modèles 3D d’objets, p. ex. des signaux d’images stéréoscopiques générés par ordinateur

7.

VIRTUAL INTERACTIONS FOR MACHINE CONTROL

      
Numéro d'application 18929463
Statut En instance
Date de dépôt 2024-10-28
Date de la première publication 2025-04-24
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Bedikian, Raffi
  • Gasinski, Adrian
  • Yang, Hua
  • Hare, Gabriel A.
  • Sills, Maxwell

Abrégé

The technology disclosed relates to providing simplified manipulation of virtual objects by detected hand motions. In particular, it relates to a detecting hand motion and positions of the calculation points relative to a virtual object to be manipulated, dynamically selecting at least one manipulation point proximate to the virtual object based on the detected hand motion and positions of one or more of the calculation points, and manipulating the virtual object by interaction between the detected hand motion and positions of one or more of the calculation points and the dynamically selected manipulation point.

Classes IPC  ?

  • G06F 3/04842 - Sélection des objets affichés ou des éléments de texte affichés
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/02 - Dispositions d'entrée utilisant des interrupteurs actionnés manuellement, p. ex. des claviers ou des cadrans
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/042 - Numériseurs, p. ex. pour des écrans ou des pavés tactiles, caractérisés par les moyens de transduction par des moyens opto-électroniques
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06V 10/147 - Détails de capteurs, p. ex. lentilles de capteurs
  • G06V 10/44 - Extraction de caractéristiques locales par analyse des parties du motif, p. ex. par détection d’arêtes, de contours, de boucles, d’angles, de barres ou d’intersectionsAnalyse de connectivité, p. ex. de composantes connectées
  • G06V 40/10 - Corps d’êtres humains ou d’animaux, p. ex. occupants de véhicules automobiles ou piétonsParties du corps, p. ex. mains
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes

8.

IDENTIFYING AN OBJECT IN A FIELD OF VIEW

      
Numéro d'application 18950720
Statut En instance
Date de dépôt 2024-11-18
Date de la première publication 2025-04-24
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s) Holz, David

Abrégé

The technology disclosed relates to identifying an object in a field of view of a camera. In particular, it relates to identifying a display in the field of view of the camera. This is achieved by monitoring a space including acquiring a series of image frames of the space using the camera and detecting one or more light sources in the series of image frames. Further, one or more frequencies of periodic intensity or brightness variations, also referred to as ‘refresh rate’, of light emitted from the light sources is measured. Based on the one or more frequencies of periodic intensity variations of light emitted from the light sources, at least one display that includes the light sources is identified.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/042 - Numériseurs, p. ex. pour des écrans ou des pavés tactiles, caractérisés par les moyens de transduction par des moyens opto-électroniques
  • G06T 7/55 - Récupération de la profondeur ou de la forme à partir de plusieurs images
  • G06V 10/20 - Prétraitement de l’image
  • G06V 10/40 - Extraction de caractéristiques d’images ou de vidéos
  • G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée
  • G06V 20/64 - Objets tridimensionnels
  • G09G 3/34 - Dispositions ou circuits de commande présentant un intérêt uniquement pour l'affichage utilisant des moyens de visualisation autres que les tubes à rayons cathodiques pour la présentation d'un ensemble de plusieurs caractères, p. ex. d'une page, en composant l'ensemble par combinaison d'éléments individuels disposés en matrice en commandant la lumière provenant d'une source indépendante
  • H04N 23/71 - Circuits d'évaluation de la variation de luminosité
  • H04N 23/73 - Circuits de compensation de la variation de luminosité dans la scène en influençant le temps d'exposition
  • H04N 23/74 - Circuits de compensation de la variation de luminosité dans la scène en influençant la luminosité de la scène à l'aide de moyens d'éclairage

9.

DYNAMIC, FREE-SPACE USER INTERACTIONS FOR MACHINE CONTROL

      
Numéro d'application 18988746
Statut En instance
Date de dépôt 2024-12-19
Date de la première publication 2025-04-24
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Bedikian, Raffi
  • Marsden, Jonathan
  • Mertens, Keith
  • Holz, David
  • Sills, Maxwell
  • Perez, Matias
  • Hare, Gabriel
  • Julian, Ryan

Abrégé

Embodiments of display control based on dynamic user interactions generally include capturing a plurality of temporally sequential images of the user, or a body part or other control object manipulated by the user, and computationally analyzing the images to recognize a gesture performed by the user. In some embodiments, a scale indicative of an actual gesture distance traversed in performance of the gesture is identified, and a movement or action is displayed on the device based, at least in part, on a ratio between the identified scale and the scale of the displayed movement. In some embodiments, a degree of completion of the recognized gesture is determined, and the display contents are modified in accordance therewith. In some embodiments, a dominant gesture is computationally determined from among a plurality of user gestures, and an action displayed on the device is based on the dominant gesture.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes

10.

INTERACTION ENGINE FOR CREATING A REALISTIC EXPERIENCE IN VIRTUAL REALITY/AUGMENTED REALITY ENVIRONMENTS

      
Numéro d'application 18915063
Statut En instance
Date de dépôt 2024-10-14
Date de la première publication 2025-04-10
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s)
  • Johnston, John Adrian Arthur
  • Selstad, Johnathon Scott
  • Marcolina, Alex

Abrégé

The technology disclosed relates to a method of realistic simulation of real world interactions as virtual interactions between a control object sensed acting in a three-dimensional (3D) sensory space and the virtual object in a virtual space that the control object interacts with. In particular, it relates to detecting free-form gestures of a control object in a three-dimensional (3D) sensory space and generating for display a 3D solid control object model for the control object during the free-form gestures, including sub-components of the control object and in response to detecting a free-form gesture of the control object in the 3D sensory space in virtual contact with the virtual object, depicting, in the generated display, the virtual contact and resulting motions of the virtual object by the 3D solid control object model.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G02B 27/00 - Systèmes ou appareils optiques non prévus dans aucun des groupes ,
  • G06F 1/16 - Détails ou dispositions de structure
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie

11.

METHOD AND APPARATUS FOR CALIBRATING AUGMENTED REALITY HEADSETS

      
Numéro d'application 18980964
Statut En instance
Date de dépôt 2024-12-13
Date de la première publication 2025-04-03
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Selstad, Johnathon Scott
  • Holz, David Samuel

Abrégé

An AR calibration system for correcting AR headset distortions. A calibration image is provided to a screen and viewable through a headset reflector, and an inverse of the calibration image is provided to a headset display, reflected off the reflector and observed by a camera of the system while it is simultaneously observing the calibration image on the screen. One or more cameras are located to represent a user's point of view and aligned to observe the inverse calibration image projected onto the reflector. A distortion mapping transform is created using an algorithm to search through projection positions of the inverse calibration image until the inverse image observed by the camera(s) cancels out an acceptable portion of the calibration image provided to the screen as observed through the reflector by the camera, and the transform is used by the headset, to compensate for distortions.

Classes IPC  ?

  • G06T 5/80 - Correction géométrique
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties

12.

INTERACTIONS WITH VIRTUAL OBJECTS FOR MACHINE CONTROL

      
Numéro d'application 18973903
Statut En instance
Date de dépôt 2024-12-09
Date de la première publication 2025-03-27
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Bedikian, Raffi
  • Gasinski, Adrian
  • Sills, Maxwell
  • Yang, Hua
  • Hare, Gabriel

Abrégé

The technology disclosed relates to manipulating a virtual object. In particular, it relates to detecting a hand in a three-dimensional (3D) sensory space and generating a predictive model of the hand, and using the predictive model to track motion of the hand. The predictive model includes positions of calculation points of fingers, thumb and palm of the hand. The technology disclosed relates to dynamically selecting at least one manipulation point proximate to a virtual object based on the motion tracked by the predictive model and positions of one or more of the calculation points, and manipulating the virtual object by interaction between at least some of the calculation points of the predictive model and the dynamically selected manipulation point.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/042 - Numériseurs, p. ex. pour des écrans ou des pavés tactiles, caractérisés par les moyens de transduction par des moyens opto-électroniques
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/04842 - Sélection des objets affichés ou des éléments de texte affichés
  • G06N 5/04 - Modèles d’inférence ou de raisonnement

13.

Hand initialization for machine learning based gesture recognition

      
Numéro d'application 18391574
Numéro de brevet 12260679
Statut Délivré - en vigueur
Date de dépôt 2023-12-20
Date de la première publication 2025-03-25
Date d'octroi 2025-03-25
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s)
  • Marsden, Jonathan
  • Bedikian, Raffi
  • Holz, David Samuel

Abrégé

The technology disclosed also initializes a new hand that enters the field of view of a gesture recognition system using a parallax detection module. The parallax detection module determines candidate regions of interest (ROI) for a given input hand image and computes depth, rotation and position information for the candidate ROI. Then, for each of the candidate ROI, an ImagePatch, which includes the hand, is extracted from the original input hand image to minimize processing of low-information pixels. Further, a hand classifier neural network is used to determine which ImagePatch most resembles a hand. For the qualified, most-hand like ImagePatch, a 3D virtual hand is initialized with depth, rotation and position matching that of the qualified ImagePatch.

Classes IPC  ?

  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 18/21 - Conception ou mise en place de systèmes ou de techniquesExtraction de caractéristiques dans l'espace des caractéristiquesSéparation aveugle de sources
  • G06F 18/22 - Critères d'appariement, p. ex. mesures de proximité
  • G06V 10/44 - Extraction de caractéristiques locales par analyse des parties du motif, p. ex. par détection d’arêtes, de contours, de boucles, d’angles, de barres ou d’intersectionsAnalyse de connectivité, p. ex. de composantes connectées
  • G06V 30/194 - Références réglables par une méthode adaptative, p. ex. par apprentissage
  • G06V 40/10 - Corps d’êtres humains ou d’animaux, p. ex. occupants de véhicules automobiles ou piétonsParties du corps, p. ex. mains

14.

Wearable Augmented Reality Devices with Object Detection and Tracking

      
Numéro d'application 18957585
Statut En instance
Date de dépôt 2024-11-22
Date de la première publication 2025-03-13
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

The technology disclosed can provide capabilities to view and/or interact with the real world to the user of a wearable (or portable) device using a sensor configured to capture motion and/or determining the path of an object based on imaging, acoustic or vibrational waves. Implementations can enable improved user experience, greater safety, greater functionality to users of virtual reality for machine control and/or machine communications applications using wearable (or portable) devices, e.g., head mounted devices (HMDs), wearable goggles, watch computers, smartphones, and so forth, or mobile devices, e.g., autonomous and semi-autonomous robots, factory floor material handling systems, autonomous mass-transit vehicles, automobiles (human or machine driven), and so forth, equipped with suitable sensors and processors employing optical, audio or vibrational detection.

Classes IPC  ?

  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/147 - Sortie numérique vers un dispositif de visualisation utilisant des panneaux de visualisation
  • G09G 5/18 - Circuits de synchronisation pour l'affichage à balayage par trame

15.

Hand pose estimation for machine learning based gesture recognition

      
Numéro d'application 18224551
Numéro de brevet 12243238
Statut Délivré - en vigueur
Date de dépôt 2023-07-20
Date de la première publication 2025-03-04
Date d'octroi 2025-03-04
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s)
  • Marsden, Jonathan
  • Bedikian, Raffi
  • Holz, David Samuel

Abrégé

The technology disclosed performs hand pose estimation on a so-called “joint-by-joint” basis. So, when a plurality of estimates for the 28 hand joints are received from a plurality of expert networks (and from master experts in some high-confidence scenarios), the estimates are analyzed at a joint level and a final location for each joint is calculated based on the plurality of estimates for a particular joint. This is a novel solution discovered by the technology disclosed because nothing in the field of art determines hand pose estimates at such granularity and precision. Regarding granularity and precision, because hand pose estimates are computed on a joint-by-joint basis, this allows the technology disclosed to detect in real time even the minutest and most subtle hand movements, such a bend/yaw/tilt/roll of a segment of a finger or a tilt an occluded finger, as demonstrated supra in the Experimental Results section of this application.

Classes IPC  ?

16.

Machine learning based gesture recognition

      
Numéro d'application 18536151
Numéro de brevet 12229217
Statut Délivré - en vigueur
Date de dépôt 2023-12-11
Date de la première publication 2025-02-18
Date d'octroi 2025-02-18
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s)
  • Marsden, Jonathan
  • Bedikian, Raffi
  • Holz, David Samuel

Abrégé

The technology disclosed introduces two types of neural networks: “master” or “generalists” networks and “expert” or “specialists” networks. Both, master networks and expert networks, are fully connected neural networks that take a feature vector of an input hand image and produce a prediction of the hand pose. Master networks and expert networks differ from each other based on the data on which they are trained. In particular, master networks are trained on the entire data set. In contrast, expert networks are trained only on a subset of the entire dataset. In regards to the hand poses, master networks are trained on the input image data representing all available hand poses comprising the training data (including both real and simulated hand images).

Classes IPC  ?

  • G06F 18/214 - Génération de motifs d'entraînementProcédés de Bootstrapping, p. ex. ”bagging” ou ”boosting”
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 18/24 - Techniques de classification
  • G06N 3/04 - Architecture, p. ex. topologie d'interconnexion
  • G06N 3/08 - Méthodes d'apprentissage
  • G06T 7/246 - Analyse du mouvement utilisant des procédés basés sur les caractéristiques, p. ex. le suivi des coins ou des segments
  • G06T 7/285 - Analyse du mouvement utilisant une séquence de paires d'images stéréo
  • G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
  • G06V 10/70 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique
  • G06V 20/64 - Objets tridimensionnels
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes

17.

Safety for Wearable Virtual Reality Devices Via Object Detection and Tracking

      
Numéro d'application 18922018
Statut En instance
Date de dépôt 2024-10-21
Date de la première publication 2025-02-13
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Gordon, Robert Samuel
  • Perez, Matias

Abrégé

The technology disclosed can provide improved safety by detecting potential unsafe conditions (e.g., collisions, loss of situational awareness, etc.) confronting the user of a wearable (or portable) sensor configured to capture motion and/or determining the path of an object based on imaging, acoustic or vibrational waves. Implementations can enable improved safety to users of virtual reality for machine control and/or machine communications applications using wearable (or portable) devices, e.g., head mounted displays (HMDs), wearable goggles, watch computers, smartphones, and so forth, or mobile devices, e.g., autonomous and semi-autonomous robots, factory floor material handling systems, autonomous mass-transit vehicles, automobiles (human or machine driven), and so forth, equipped with suitable sensors and processors employing optical, audio or vibrational detection.

Classes IPC  ?

  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateurDispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p. ex. dispositions d'interface
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes

18.

DIFFERENTIATING A DETECTED OBJECT FROM A BACKGROUND USING A GAUSSIAN BRIGHTNESS FALLOFF PATTERN

      
Numéro d'application 18780192
Statut En instance
Date de dépôt 2024-07-22
Date de la première publication 2025-01-16
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Yang, Hua

Abrégé

A method for detecting a finger is provided. The method includes obtaining a plurality of digital images including a first digital image captured by a camera from a field of view containing a background and a hand including at least one finger, and obtaining an identification of pixels of the plurality of digital images that correspond to at least one finger that is visible in the plurality of digital images rather than to the background, the pixels being identified by: obtaining, from the digital images, a Gaussian brightness falloff pattern indicative of at least one finger, identifying an axis of the at least one finger based on the obtained Gaussian brightness falloff pattern indicative of the at least one finger without identifying edges of the at least one finger, and identifying the pixels that correspond to the at least one finger based on the identified axis.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06T 7/10 - DécoupageDétection de bords
  • G06T 7/11 - Découpage basé sur les zones
  • G06T 7/194 - DécoupageDétection de bords impliquant une segmentation premier plan-arrière-plan
  • G06T 7/215 - Découpage basé sur le mouvement
  • G06T 7/246 - Analyse du mouvement utilisant des procédés basés sur les caractéristiques, p. ex. le suivi des coins ou des segments
  • G06T 7/254 - Analyse du mouvement impliquant de la soustraction d’images
  • G06T 7/262 - Analyse du mouvement utilisant des procédés de transformation de domaine, p. ex. des procédés de transformée de Fourier
  • G06T 7/33 - Détermination des paramètres de transformation pour l'alignement des images, c.-à-d. recalage des images utilisant des procédés basés sur les caractéristiques
  • G06T 7/37 - Détermination des paramètres de transformation pour l'alignement des images, c.-à-d. recalage des images utilisant des procédés de transformation de domaine
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06T 7/90 - Détermination de caractéristiques de couleur
  • G06V 20/64 - Objets tridimensionnels
  • G06V 40/10 - Corps d’êtres humains ou d’animaux, p. ex. occupants de véhicules automobiles ou piétonsParties du corps, p. ex. mains
  • H04N 13/254 - Générateurs de signaux d’images utilisant des caméras à images stéréoscopiques en combinaison avec des sources de rayonnement électromagnétique pour l’éclairage du sujet
  • H04N 23/661 - Transmission des signaux de commande de la caméra par le biais de réseaux, p. ex. la commande via Internet

19.

USER-DEFINED VIRTUAL INTERACTION SPACE AND MANIPULATION OF VIRTUAL CAMERAS IN THE INTERACTION SPACE

      
Numéro d'application 18893916
Statut En instance
Date de dépôt 2024-09-23
Date de la première publication 2025-01-09
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s)
  • Cohen, Isaac
  • Sills, Maxwell

Abrégé

The technology disclosed relates to creating user-defined interaction spaces and modalities in a three dimensional (3D) sensor space in response to control gestures. It also relates to controlling virtual cameras in the 3D sensor space using control gestures and manipulating controls of the virtual cameras through the control gestures. In particular, it relates to defining one or more spatial attributes of the interaction spaces and modalities in response to one or more gesture parameters of the control gesture. It also particularly relates to defining one or more visual parameters of a virtual camera in response to one or more gesture parameters of the control gesture.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/04842 - Sélection des objets affichés ou des éléments de texte affichés
  • G06F 3/04845 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p. ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs pour la transformation d’images, p. ex. glissement, rotation, agrandissement ou changement de couleur
  • G06T 15/20 - Calcul de perspectives

20.

USER-DEFINED VIRTUAL INTERACTION SPACE AND MANIPULATION OF VIRTUAL CAMERAS WITH VECTORS

      
Numéro d'application 18827206
Statut En instance
Date de dépôt 2024-09-06
Date de la première publication 2024-12-26
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s)
  • Cohen, Isaac
  • Sills, Maxwell
  • Durdik, Paul

Abrégé

The technology disclosed relates to creating user-defined interaction spaces and modalities in a three dimensional (3D) sensor space in response to control gestures. It also relates to controlling virtual cameras in the 3D sensor space using control gestures and manipulating controls of the virtual cameras through the control gestures. In particular, it relates to defining one or more spatial attributes of the interaction spaces and modalities in response to one or more gesture parameters of the control gesture. It also particularly relates to defining one or more visual parameters of a virtual camera in response to one or more gesture parameters of the control gesture.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/04842 - Sélection des objets affichés ou des éléments de texte affichés
  • G06F 3/04845 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p. ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs pour la transformation d’images, p. ex. glissement, rotation, agrandissement ou changement de couleur
  • G06T 15/20 - Calcul de perspectives

21.

PREDICTIVE INFORMATION FOR FREE SPACE GESTURE CONTROL AND COMMUNICATION

      
Numéro d'application 18827544
Statut En instance
Date de dépôt 2024-09-06
Date de la première publication 2024-12-26
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s)
  • Horowitz, Kevin A.
  • Holz, David S.

Abrégé

Free space machine interface and control can be facilitated by predictive entities useful in interpreting a control object's position and/or motion (including objects having one or more articulating members, i.e., humans and/or animals and/or machines). Predictive entities can be driven using motion information captured using image information or the equivalents. Predictive information can be improved applying techniques for correlating with information from observations.

Classes IPC  ?

  • G06T 17/10 - Description de volumes, p. ex. de cylindres, de cubes ou utilisant la GSC [géométrie solide constructive]
  • A61B 17/00 - Instruments, dispositifs ou procédés chirurgicaux
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/0487 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique
  • G06F 3/0488 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant un écran tactile ou une tablette numérique, p. ex. entrée de commandes par des tracés gestuels
  • G06T 3/40 - Changement d'échelle d’images complètes ou de parties d’image, p. ex. agrandissement ou rétrécissement
  • G06T 7/11 - Découpage basé sur les zones
  • G06T 7/13 - Détection de bords
  • G06T 7/136 - DécoupageDétection de bords impliquant un seuillage
  • G06T 7/194 - DécoupageDétection de bords impliquant une segmentation premier plan-arrière-plan
  • G06T 7/246 - Analyse du mouvement utilisant des procédés basés sur les caractéristiques, p. ex. le suivi des coins ou des segments
  • G06T 7/593 - Récupération de la profondeur ou de la forme à partir de plusieurs images à partir d’images stéréo
  • G06T 17/00 - Modélisation tridimensionnelle [3D] pour infographie
  • G06T 17/20 - Description filaire, p. ex. polygonalisation ou tessellation
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06V 10/75 - Organisation de procédés de l’appariement, p. ex. comparaisons simultanées ou séquentielles des caractéristiques d’images ou de vidéosApproches-approximative-fine, p. ex. approches multi-échellesAppariement de motifs d’image ou de vidéoMesures de proximité dans les espaces de caractéristiques utilisant l’analyse de contexteSélection des dictionnaires
  • G06V 40/10 - Corps d’êtres humains ou d’animaux, p. ex. occupants de véhicules automobiles ou piétonsParties du corps, p. ex. mains
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes
  • H04N 13/275 - Générateurs de signaux d’images à partir de modèles 3D d’objets, p. ex. des signaux d’images stéréoscopiques générés par ordinateur

22.

AUGMENTED REALITY WITH MOTION SENSING

      
Numéro d'application 18829032
Statut En instance
Date de dépôt 2024-09-09
Date de la première publication 2024-12-26
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Roy, Neeloy
  • He, Hongyuan

Abrégé

A motion sensory and imaging device capable of acquiring imaging information of the scene and providing at least a near real time pass-through of imaging information to a user. The sensory and imaging device can be used stand-alone or coupled to a wearable or portable device to create a wearable sensory system capable of presenting to the wearer the imaging information augmented with virtualized or created presentations of information.

Classes IPC  ?

  • H04N 13/239 - Générateurs de signaux d’images utilisant des caméras à images stéréoscopiques utilisant deux capteurs d’images 2D dont la position relative est égale ou en correspondance à l’intervalle oculaire
  • G02B 27/00 - Systèmes ou appareils optiques non prévus dans aucun des groupes ,
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • H04N 13/257 - Aspects en rapport avec la couleur
  • H04N 13/296 - Leur synchronisationLeur commande
  • H04N 23/11 - Caméras ou modules de caméras comprenant des capteurs d'images électroniquesLeur commande pour générer des signaux d'image à partir de différentes longueurs d'onde pour générer des signaux d'image à partir de longueurs d'onde de lumière visible et infrarouge
  • H04N 23/54 - Montage de tubes analyseurs, de capteurs d'images électroniques, de bobines de déviation ou de focalisation
  • H04N 23/56 - Caméras ou modules de caméras comprenant des capteurs d'images électroniquesLeur commande munis de moyens d'éclairage
  • H04S 7/00 - Dispositions pour l'indicationDispositions pour la commande, p. ex. pour la commande de l'équilibrage

23.

DETERMINING A PRIMARY CONTROL MODE OF CONTROLLING AN ELECTRONIC DEVICE USING 3D GESTURES OR USING CONTROL MANIPULATIONS FROM A USER MANIPULABLE INPUT DEVICE

      
Numéro d'application 18820050
Statut En instance
Date de dépôt 2024-08-29
Date de la première publication 2024-12-19
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David

Abrégé

The technology disclosed relates to using gestures to supplant or augment use of a standard input device coupled to a system. It also relates to controlling a display using gestures. It further relates to controlling a system using more than one input device. In particular, it relates to detecting a standard input device that causes on-screen actions on a display in response to control manipulations performed using the standard input device. Further, a library of analogous gestures is identified, which includes gestures that are analogous to the control manipulations and also cause the on-screen actions responsive to the control manipulations. Thus, when a gesture from the library of analogous gestures is detected, a signal is generated that mimics a standard signal from the standard input device and causes at least one on-screen action.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 9/4401 - Amorçage
  • G06F 13/10 - Commande par programme pour dispositifs périphériques
  • G06F 16/50 - Recherche d’informationsStructures de bases de données à cet effetStructures de systèmes de fichiers à cet effet de données d’images fixes

24.

Three Dimensional (3D) Modeling of a Complex Control Object

      
Numéro d'application 18817068
Statut En instance
Date de dépôt 2024-08-27
Date de la première publication 2024-12-19
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Horowitz, Kevin A.

Abrégé

The technology disclosed relates to automatically (e.g., programmatically) initializing predictive information for tracking a control object (e.g., hand, hand and tool combination, robot end effector) based upon information about characteristics of the object determined from sets of collected observed information. Automated initialization techniques obviate the need for special and often bizarre start-up rituals (place your hands on the screen at the places indicated during a full moon, and so forth) required by conventional techniques. In implementations, systems can refine initial predictive information to reflect an observed condition based on comparison of the observed with an analysis of sets of collected observed information.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 7/246 - Analyse du mouvement utilisant des procédés basés sur les caractéristiques, p. ex. le suivi des coins ou des segments
  • G06V 20/64 - Objets tridimensionnels
  • G06V 40/10 - Corps d’êtres humains ou d’animaux, p. ex. occupants de véhicules automobiles ou piétonsParties du corps, p. ex. mains

25.

DRIFT CANCELATION FOR PORTABLE OBJECT DETECTION AND TRACKING

      
Numéro d'application 18796192
Statut En instance
Date de dépôt 2024-08-06
Date de la première publication 2024-11-28
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

The technology disclosed can provide capabilities such as using motion sensors and/or other types of sensors coupled to a motion-capture system to monitor motions within a real environment. A virtual object can be projected to a user of a portable device integrated into an augmented rendering of a real environment about the user. Motion information of a user body portion is determined based at least in part upon sensory information received from imaging or acoustic sensory devices. Control information is communicated to a system based in part on a combination of the motion of the portable device and the detected motion of the user. The virtual device experience can be augmented in some implementations by the addition of haptic, audio and/or other sensory information projectors.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G02B 27/01 - Dispositifs d'affichage "tête haute"

26.

Hand pose estimation for machine learning based gesture recognition

      
Numéro d'application 18224373
Numéro de brevet 12147505
Statut Délivré - en vigueur
Date de dépôt 2023-07-20
Date de la première publication 2024-11-19
Date d'octroi 2024-11-19
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s)
  • Marsden, Jonathan
  • Bedikian, Raffi
  • Holz, David Samuel

Abrégé

The technology disclosed performs hand pose estimation on a so-called “joint-by-joint” basis. So, when a plurality of estimates for the 28 hand joints are received from a plurality of expert networks (and from master experts in some high-confidence scenarios), the estimates are analyzed at a joint level and a final location for each joint is calculated based on the plurality of estimates for a particular joint. This is a novel solution discovered by the technology disclosed because nothing in the field of art determines hand pose estimates at such granularity and precision. Regarding granularity and precision, because hand pose estimates are computed on a joint-by-joint basis, this allows the technology disclosed to detect in real time even the minutest and most subtle hand movements, such a bend/yaw/tilt/roll of a segment of a finger or a tilt an occluded finger, as demonstrated supra in the Experimental Results section of this application.

Classes IPC  ?

  • G06K 9/62 - Méthodes ou dispositions pour la reconnaissance utilisant des moyens électroniques
  • G06F 18/2411 - Techniques de classification relatives au modèle de classification, p. ex. approches paramétriques ou non paramétriques basées sur la proximité d’une surface de décision, p. ex. machines à vecteurs de support
  • G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
  • G06T 7/13 - Détection de bords
  • G06V 10/44 - Extraction de caractéristiques locales par analyse des parties du motif, p. ex. par détection d’arêtes, de contours, de boucles, d’angles, de barres ou d’intersectionsAnalyse de connectivité, p. ex. de composantes connectées
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes

27.

CURSOR MODE SWITCHING

      
Numéro d'application 18776239
Statut En instance
Date de dépôt 2024-07-17
Date de la première publication 2024-11-07
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

Methods and systems for processing input from an image-capture device for gesture-recognition. The method further includes computationally interpreting user gestures in accordance with a first mode of operation; analyzing the path of movement of an object to determine an intent of a user to change modes of operation; and, upon determining an intent of the user to change modes of operation, subsequently interpreting user gestures in accordance with the second mode of operation.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • B65D 75/58 - Dispositifs d'ouverture ou servant à retirer le contenu, ajoutés ou incorporés lors de la confection du paquet
  • G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateurDispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p. ex. dispositions d'interface
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p. ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaison
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes

28.

SYSTEMS AND METHODS OF DETERMINING INTERACTION INTENT IN THREE-DIMENSIONAL (3D) SENSORY SPACE

      
Numéro d'application 18769353
Statut En instance
Date de dépôt 2024-07-10
Date de la première publication 2024-11-07
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s)
  • Chen, Pohung
  • Holz, David S.

Abrégé

The technology disclosed relates to determining intent for the interaction by calculating a center of effort for the applied forces. Movement of the points of virtual contacts and the center of effort are then monitored to determine a gesture-type intended for the interaction. The number of points of virtual contacts of the feeler zones and proximities between the points of virtual contacts are used to determine a degree of precision of a control object-gesture.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p. ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaison
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes

29.

MULTI-USER CONTENT SHARING IN IMMERSIVE VIRTUAL REALITY ENVIRONMENTS

      
Numéro d'application 18769325
Statut En instance
Date de dépôt 2024-07-10
Date de la première publication 2024-10-31
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Fox, Barrett
  • Hay, Kyle A.
  • Hare, Gabriel A.
  • Yu, Wilbur Yung Sheng
  • Edelhart, Dave
  • Medich, Jody
  • Plemmons, Daniel

Abrégé

The technology disclosed relates to user interfaces for controlling augmented reality environments. Real and virtual objects can be seamlessly integrated to form an augmented reality by tracking motion of one or more real objects within view of a wearable sensor system using a combination a RGB (red, green, and blue) and IR (infrared) pixels of one or more cameras. It also relates to enabling multi-user collaboration and interaction in an immersive virtual environment. In particular, it relates to capturing different sceneries of a shared real world space from the perspective of multiple users. The technology disclosed further relates to sharing content between wearable sensor systems. In particular, it relates to capturing images and video streams from the perspective of a first user of a wearable sensor system and sending an augmented version of the captured images and video stream to a second user of the wearable sensor system.

Classes IPC  ?

  • G06F 3/04812 - Techniques d’interaction fondées sur l’aspect ou le comportement du curseur, p. ex. sous l’influence de la présence des objets affichés
  • G06F 1/16 - Détails ou dispositions de structure
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/0482 - Interaction avec des listes d’éléments sélectionnables, p. ex. des menus
  • G06F 3/04847 - Techniques d’interaction pour la commande des valeurs des paramètres, p. ex. interaction avec des règles ou des cadrans
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie

30.

SYSTEMS AND METHODS OF CREATING A REALISTIC DISPLACEMENT OF A VIRTUAL OBJECT IN VIRTUAL REALITY/AUGMENTED REALITY ENVIRONMENTS

      
Numéro d'application 18759735
Statut En instance
Date de dépôt 2024-06-28
Date de la première publication 2024-10-31
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s)
  • Marcolina, Alex
  • Holz, David S.

Abrégé

The technology disclosed relates to a method of realistic displacement of a virtual object for an interaction between a control object in a three-dimensional (3D) sensory space and the virtual object in a virtual space that the control object interacts with. In particular, it relates to detecting free-form gestures of a control object in a three-dimensional (3D) sensory space and generating for display a 3D solid control object model for the control object during the free-form gestures, including sub-components of the control object and in response to detecting a 2D sub-component free-form gesture of the control object in the 3D sensory space in virtual contact with the virtual object, depicting, in the generated display, the virtual contact and resulting rotation of the virtual object by the 3D solid control object model.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 1/16 - Détails ou dispositions de structure
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06T 17/10 - Description de volumes, p. ex. de cylindres, de cubes ou utilisant la GSC [géométrie solide constructive]
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties

31.

DETERMINING THE ORIENTATION OF AN OBJECT IN SPACE

      
Numéro d'application 18757280
Statut En instance
Date de dépôt 2024-06-27
Date de la première publication 2024-10-17
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s) Holz, David

Abrégé

A method and system determines object orientation using a light source to create a shadow line extending from the light source. A camera captures an image including the shadow line on an object surface. An orientation module determines the surface orientation from the shadow line. In some examples a transparency imperfection in a window through which a camera receives light can be detected and a message sent to a user as to the presence of a light-blocking or light-distorting substance or particle. A system can control illumination while imaging an object in space using a light source mounted to a support structure so a camera captures an image of the illuminated object. Direct illumination of the camera by light from the light source can be prevented such as by blocking the light or using a light-transmissive window adjacent the camera to reject light transmitted directly from the light source.

Classes IPC  ?

  • G01S 3/786 - Systèmes pour déterminer une direction ou une déviation par rapport à une direction prédéterminée utilisant le réglage d'une orientation des caractéristiques de directivité d'un détecteur ou d'un système de détecteurs afin d'obtenir une valeur désirée du signal provenant de ce détecteur ou de ce système de détecteurs la valeur désirée étant maintenue automatiquement
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G01S 17/46 - Détermination indirecte des données relatives à la position

32.

USER-DEFINED VIRTUAL INTERACTION SPACE AND MANIPULATION OF VIRTUAL CONFIGURATION

      
Numéro d'application 18674697
Statut En instance
Date de dépôt 2024-05-24
Date de la première publication 2024-09-19
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s)
  • Cohen, Isaac
  • Sills, Maxwell

Abrégé

The technology disclosed relates to creating user-defined interaction spaces and modalities in a three dimensional (3D) sensor space in response to control gestures. It also relates to controlling virtual cameras in the 3D sensor space using control gestures and manipulating controls of the virtual cameras through the control gestures. In particular, it relates to defining one or more spatial attributes of the interaction spaces and modalities in response to one or more gesture parameters of the control gesture. It also particularly relates to defining one or more visual parameters of a virtual camera in response to one or more gesture parameters of the control gesture.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/04842 - Sélection des objets affichés ou des éléments de texte affichés
  • G06F 3/04845 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p. ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs pour la transformation d’images, p. ex. glissement, rotation, agrandissement ou changement de couleur
  • G06T 15/20 - Calcul de perspectives

33.

SYSTEMS AND METHODS OF LOCATING A CONTROL OBJECT APPENDAGE IN THREE DIMENSIONAL (3D) SPACE

      
Numéro d'application 18664251
Statut En instance
Date de dépôt 2024-05-14
Date de la première publication 2024-09-12
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

Methods and systems for determining a gesture command from analysis of differences in positions of fit closed curves fit to observed edges of a control object to track motion of the control object while making a gesture in a 3D space include repeatedly obtaining captured images of a control object moving in 3D space and calculating observed edges of the control object from the captured images. Closed curves are fit to the observed edges of the control object, including control object appendages for multiple portions of any complex control objects, as captured in the captured images by selecting a closed curve from a family of similar closed curves that fit the observed edges of the control object as captured using an assumed parameter. Using fitted closed curves, a complex control object is constructed from multiple portions of any complex control objects and one or more of control object appendages appended.

Classes IPC  ?

  • G01B 11/24 - Dispositions pour la mesure caractérisées par l'utilisation de techniques optiques pour mesurer des contours ou des courbes
  • A61B 17/00 - Instruments, dispositifs ou procédés chirurgicaux
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 7/292 - Suivi à plusieurs caméras
  • G06T 7/507 - Récupération de la profondeur ou de la forme à partir de l'ombrage
  • G06T 7/586 - Récupération de la profondeur ou de la forme à partir de plusieurs images à partir de plusieurs sources de lumière, p. ex. stéréophotométrie
  • G06T 7/593 - Récupération de la profondeur ou de la forme à partir de plusieurs images à partir d’images stéréo
  • G06T 17/00 - Modélisation tridimensionnelle [3D] pour infographie
  • G06T 17/10 - Description de volumes, p. ex. de cylindres, de cubes ou utilisant la GSC [géométrie solide constructive]
  • G06V 10/145 - Éclairage spécialement adapté à la reconnaissance de formes, p. ex. utilisant des réseaux
  • G06V 20/40 - ScènesÉléments spécifiques à la scène dans le contenu vidéo
  • G06V 20/64 - Objets tridimensionnels
  • G06V 40/10 - Corps d’êtres humains ou d’animaux, p. ex. occupants de véhicules automobiles ou piétonsParties du corps, p. ex. mains
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes

34.

DETERMINING THE RELATIVE LOCATIONS OF MULTIPLE MOTION-TRACKING DEVICES

      
Numéro d'application 18662932
Statut En instance
Date de dépôt 2024-05-13
Date de la première publication 2024-09-05
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

The technology disclosed relates to coordinating motion-capture of a hand by a network of motion-capture sensors having overlapping fields of view. In particular, it relates to designating a first sensor among three or more motion-capture sensors as having a master frame of reference, observing motion of a hand as it passes through overlapping fields of view of the respective motion-capture sensors, synchronizing capture of images of the hand within the overlapping fields of view by pairs of the motion-capture devices, and using the pairs of the hand images captured by the synchronized motion-capture devices to automatically calibrate the motion-capture sensors to the master frame of reference frame.

Classes IPC  ?

  • G06T 7/80 - Analyse des images capturées pour déterminer les paramètres de caméra intrinsèques ou extrinsèques, c.-à-d. étalonnage de caméra
  • G06T 7/30 - Détermination des paramètres de transformation pour l'alignement des images, c.-à-d. recalage des images
  • G06V 10/147 - Détails de capteurs, p. ex. lentilles de capteurs
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes

35.

Rerendering a position of a hand to decrease a size of a hand to create a realistic virtual/augmented reality environment

      
Numéro d'application 18629845
Numéro de brevet 12293478
Statut Délivré - en vigueur
Date de dépôt 2024-04-08
Date de la première publication 2024-08-01
Date d'octroi 2025-05-06
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Marcolina, Alex
  • Holz, David

Abrégé

The technology disclosed relates to a method of realistic rendering of a real object as a virtual object in a virtual space using an offset in the position of the hand in a three-dimensional (3D) sensory space. An offset between expected positions of the eye(s) of a wearer of a head mounted device and a sensor attached to the head mounted device for sensing a position of at least one hand in a three-dimensional (3D) sensory space is determined. A position of the hand in the three-dimensional (3D) sensory space can be sensed using a sensor. The sensed position of the hand can be transformed by the offset into a re-rendered position of the hand as would appear to the wearer of the head mounted device if the wearer were looking at the actual hand. The re-rendered hand can be depicted to the wearer of the head mounted device.

Classes IPC  ?

  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
  • G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes

36.

Systems and methods of tracking moving hands and recognizing gestural interactions

      
Numéro d'application 18587257
Numéro de brevet 12314478
Statut Délivré - en vigueur
Date de dépôt 2024-02-26
Date de la première publication 2024-06-20
Date d'octroi 2025-05-27
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s)
  • Horowitz, Kevin A.
  • Perez, Matias
  • Bedikian, Raffi
  • Holz, David S.
  • Hare, Gabriel A.

Abrégé

The technology disclosed relates to relates to providing command input to a machine under control. It further relates to gesturally interacting with the machine. The technology disclosed also relates to providing monitoring information about a process under control. The technology disclosed further relates to providing biometric information about an individual. The technology disclosed yet further relates to providing abstract features information (pose, grab strength, pinch strength, confidence, and so forth) about an individual.

Classes IPC  ?

  • G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateurDispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p. ex. dispositions d'interface
  • G01S 3/00 - Radiogoniomètres pour déterminer la direction d'où proviennent des ondes infrasonores, sonores, ultrasonores ou électromagnétiques ou des émissions de particules sans caractéristiques de direction
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p. ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaison
  • G06T 7/20 - Analyse du mouvement
  • G06T 7/246 - Analyse du mouvement utilisant des procédés basés sur les caractéristiques, p. ex. le suivi des coins ou des segments
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06V 40/10 - Corps d’êtres humains ou d’animaux, p. ex. occupants de véhicules automobiles ou piétonsParties du corps, p. ex. mains
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes
  • H04N 13/296 - Leur synchronisationLeur commande

37.

THROWABLE INTERFACE FOR AUGMENTED REALITY AND VIRTUAL REALITY ENVIRONMENTS

      
Numéro d'application 18410697
Statut En instance
Date de dépôt 2024-01-11
Date de la première publication 2024-05-23
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s) Benson, Nicholas James

Abrégé

The technology disclosed relates to positioning and revealing a control interface in a virtual or augmented reality that includes causing display of a plurality of interface projectiles at a first region of a virtual or augmented reality. Input is received that is interpreted as user interaction with an interface projectile. User interaction includes selecting and throwing the interface projectile in a first direction. An animation of the interface projectile is displayed along a trajectory in the first directions to a place where it lands. A blooming of the control interface blooming from the interface projectile at the place where it lands is displayed.

Classes IPC  ?

  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/0486 - Glisser-déposer
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06V 10/764 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique utilisant la classification, p. ex. des objets vidéo
  • G06V 10/82 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique utilisant les réseaux neuronaux
  • G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes

38.

Predictive information for free space gesture control and communication

      
Numéro d'application 18406059
Numéro de brevet 12265761
Statut Délivré - en vigueur
Date de dépôt 2024-01-05
Date de la première publication 2024-05-02
Date d'octroi 2025-04-01
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Horowitz, Kevin
  • Bedikian, Raffi
  • Yang, Hua

Abrégé

The technology disclosed relates to simplifying updating of a predictive model using clustering observed points. In particular, it relates to observing a set of points in 3D sensory space, determining surface normal directions from the points, clustering the points by their surface normal directions and adjacency, accessing a predictive model of a hand, refining positions of segments of the predictive model, matching the clusters of the points to the segments, and using the matched clusters to refine the positions of the matched segments. It also relates to distinguishing between alternative motions between two observed locations of a control object in a 3D sensory space by accessing first and second positions of a segment of a predictive model of a control object such that motion between the first position and the second position was at least partially occluded from observation in a 3D sensory space.

Classes IPC  ?

  • G06F 30/20 - Optimisation, vérification ou simulation de l’objet conçu
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06V 20/64 - Objets tridimensionnels
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes

39.

Multi-user content sharing in immersive virtual reality environments

      
Numéro d'application 18114156
Numéro de brevet 12050757
Statut Délivré - en vigueur
Date de dépôt 2023-02-24
Date de la première publication 2024-03-21
Date d'octroi 2024-07-30
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Fox, Barrett
  • Hay, Kyle A.
  • Hare, Gabriel A.
  • Yu, Wilbur Yung Sheng
  • Edelhart, Dave
  • Medich, Jody
  • Plemmons, Daniel

Abrégé

The technology disclosed relates to user interfaces for controlling augmented reality environments. Real and virtual objects can be seamlessly integrated to form an augmented reality by tracking motion of one or more real objects within view of a wearable sensor system using a combination a RGB (red, green, and blue) and IR (infrared) pixels of one or more cameras. It also relates to enabling multi-user collaboration and interaction in an immersive virtual environment. In particular, it relates to capturing different sceneries of a shared real world space from the perspective of multiple users. The technology disclosed further relates to sharing content between wearable sensor systems. In particular, it relates to capturing images and video streams from the perspective of a first user of a wearable sensor system and sending an augmented version of the captured images and video stream to a second user of the wearable sensor system.

Classes IPC  ?

  • G06F 3/04812 - Techniques d’interaction fondées sur l’aspect ou le comportement du curseur, p. ex. sous l’influence de la présence des objets affichés
  • G06F 1/16 - Détails ou dispositions de structure
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/0482 - Interaction avec des listes d’éléments sélectionnables, p. ex. des menus
  • G06F 3/04847 - Techniques d’interaction pour la commande des valeurs des paramètres, p. ex. interaction avec des règles ou des cadrans
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie

40.

FREE-SPACE USER INTERFACE AND CONTROL USING VIRTUAL CONSTRUCTS

      
Numéro d'application 18506009
Statut En instance
Date de dépôt 2023-11-09
Date de la première publication 2024-03-07
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Bedikian, Raffi
  • Marsden, Jonathan
  • Mertens, Keith
  • Holz, David

Abrégé

During control of a user interface via free-space motions of a hand or other suitable control object, switching between control modes can be facilitated by tracking the control object's movements relative to, and its penetration of, a virtual control construct (such as a virtual surface construct). The technology disclosed includes determining from the motion information whether a motion of the control object with respect to the virtual control construct is an engagement gesture, such as a virtual mouse click or other control device operation. The position of the virtual control construct can be updated, continuously or from time to time, based on the control object's location.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/04845 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p. ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs pour la transformation d’images, p. ex. glissement, rotation, agrandissement ou changement de couleur
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes

41.

Identifying an object in a field of view

      
Numéro d'application 18387142
Numéro de brevet 12147609
Statut Délivré - en vigueur
Date de dépôt 2023-11-06
Date de la première publication 2024-02-29
Date d'octroi 2024-11-19
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s) Holz, David

Abrégé

The technology disclosed relates to identifying an object in a field of view of a camera. In particular, it relates to identifying a display in the field of view of the camera. This is achieved by monitoring a space including acquiring a series of image frames of the space using the camera and detecting one or more light sources in the series of image frames. Further, one or more frequencies of periodic intensity or brightness variations, also referred to as ‘refresh rate’, of light emitted from the light sources is measured. Based on the one or more frequencies of periodic intensity variations of light emitted from the light sources, at least one display that includes the light sources is identified.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/042 - Numériseurs, p. ex. pour des écrans ou des pavés tactiles, caractérisés par les moyens de transduction par des moyens opto-électroniques
  • G06T 7/55 - Récupération de la profondeur ou de la forme à partir de plusieurs images
  • G06V 10/20 - Prétraitement de l’image
  • G06V 10/40 - Extraction de caractéristiques d’images ou de vidéos
  • G06V 20/64 - Objets tridimensionnels
  • G09G 3/34 - Dispositions ou circuits de commande présentant un intérêt uniquement pour l'affichage utilisant des moyens de visualisation autres que les tubes à rayons cathodiques pour la présentation d'un ensemble de plusieurs caractères, p. ex. d'une page, en composant l'ensemble par combinaison d'éléments individuels disposés en matrice en commandant la lumière provenant d'une source indépendante
  • H04N 23/71 - Circuits d'évaluation de la variation de luminosité
  • H04N 23/73 - Circuits de compensation de la variation de luminosité dans la scène en influençant le temps d'exposition
  • H04N 23/74 - Circuits de compensation de la variation de luminosité dans la scène en influençant la luminosité de la scène à l'aide de moyens d'éclairage
  • G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée

42.

Dynamic, free-space user interactions for machine control

      
Numéro d'application 18219517
Numéro de brevet 12204695
Statut Délivré - en vigueur
Date de dépôt 2023-07-07
Date de la première publication 2024-02-22
Date d'octroi 2025-01-21
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Bedikian, Raffi
  • Marsden, Jonathan
  • Mertens, Keith
  • Holz, David
  • Sills, Maxwell
  • Perez, Matias
  • Hare, Gabriel
  • Julian, Ryan

Abrégé

Embodiments of display control based on dynamic user interactions generally include capturing a plurality of temporally sequential images of the user, or a body part or other control object manipulated by the user, and computationally analyzing the images to recognize a gesture performed by the user. In some embodiments, the gesture is identified as an engagement gesture, and compared with reference gestures from a library of reference gestures. In some embodiments, a degree of completion of the recognized engagement gesture is determined, and the display contents are modified in accordance therewith. In some embodiments, a dominant gesture is computationally determined from among a plurality of user gestures, and an action displayed on the device is based on the dominant gesture.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes

43.

Mode switching for integrated gestural interaction and multi-user collaboration in immersive virtual reality environments

      
Numéro d'application 18374588
Numéro de brevet 12299207
Statut Délivré - en vigueur
Date de dépôt 2023-09-28
Date de la première publication 2024-02-08
Date d'octroi 2025-05-13
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s) Holz, David Samuel

Abrégé

The technology disclosed relates to user interfaces for controlling augmented reality (AR) or virtual reality (VR) environments. Real and virtual objects can be seamlessly integrated to form an augmented reality by tracking motion of one or more real objects within view of a wearable sensor system. Switching the AR/VR presentation on or off to interact with the real world surrounding them, for example to drink some soda, can be addressed with a convenient mode switching gesture associated with switching between operational modes in a VR/AR enabled device.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie

44.

User-defined virtual interaction space and manipulation of virtual cameras with vectors

      
Numéro d'application 18373243
Numéro de brevet 12086328
Statut Délivré - en vigueur
Date de dépôt 2023-09-26
Date de la première publication 2024-01-25
Date d'octroi 2024-09-10
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s)
  • Cohen, Isaac
  • Sills, Maxwell
  • Durdik, Paul

Abrégé

The technology disclosed relates to creating user-defined interaction spaces and modalities in a three dimensional (3D) sensor space in response to control gestures. It also relates to controlling virtual cameras in the 3D sensor space using control gestures and manipulating controls of the virtual cameras through the control gestures. In particular, it relates to defining one or more spatial attributes of the interaction spaces and modalities in response to one or more gesture parameters of the control gesture. It also particularly relates to defining one or more visual parameters of a virtual camera in response to one or more gesture parameters of the control gesture.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/04842 - Sélection des objets affichés ou des éléments de texte affichés
  • G06F 3/04845 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p. ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs pour la transformation d’images, p. ex. glissement, rotation, agrandissement ou changement de couleur
  • G06T 15/20 - Calcul de perspectives

45.

Augmented reality with motion sensing

      
Numéro d'application 18374661
Numéro de brevet 12095969
Statut Délivré - en vigueur
Date de dépôt 2023-09-28
Date de la première publication 2024-01-25
Date d'octroi 2024-09-17
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Roy, Neeloy
  • He, Hongyuan

Abrégé

A motion sensory and imaging device capable of acquiring imaging information of the scene and providing at least a near real time pass-through of imaging information to a user. The sensory and imaging device can be used stand-alone or coupled to a wearable or portable device to create a wearable sensory system capable of presenting to the wearer the imaging information augmented with virtualized or created presentations of information.

Classes IPC  ?

  • H04N 13/239 - Générateurs de signaux d’images utilisant des caméras à images stéréoscopiques utilisant deux capteurs d’images 2D dont la position relative est égale ou en correspondance à l’intervalle oculaire
  • G02B 27/00 - Systèmes ou appareils optiques non prévus dans aucun des groupes ,
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • H04N 13/257 - Aspects en rapport avec la couleur
  • H04N 13/296 - Leur synchronisationLeur commande
  • H04N 23/11 - Caméras ou modules de caméras comprenant des capteurs d'images électroniquesLeur commande pour générer des signaux d'image à partir de différentes longueurs d'onde pour générer des signaux d'image à partir de longueurs d'onde de lumière visible et infrarouge
  • H04N 23/54 - Montage de tubes analyseurs, de capteurs d'images électroniques, de bobines de déviation ou de focalisation
  • H04N 23/56 - Caméras ou modules de caméras comprenant des capteurs d'images électroniquesLeur commande munis de moyens d'éclairage
  • H04S 7/00 - Dispositions pour l'indicationDispositions pour la commande, p. ex. pour la commande de l'équilibrage

46.

Predictive information for free space gesture control and communication

      
Numéro d'application 18373214
Numéro de brevet 12086935
Statut Délivré - en vigueur
Date de dépôt 2023-09-26
Date de la première publication 2024-01-25
Date d'octroi 2024-09-10
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s)
  • Horowitz, Kevin A.
  • Holz, David S.

Abrégé

Free space machine interface and control can be facilitated by predictive entities useful in interpreting a control object's position and/or motion (including objects having one or more articulating members, i.e., humans and/or animals and/or machines). Predictive entities can be driven using motion information captured using image information or the equivalents. Predictive information can be improved applying techniques for correlating with information from observations.

Classes IPC  ?

  • G06T 17/10 - Description de volumes, p. ex. de cylindres, de cubes ou utilisant la GSC [géométrie solide constructive]
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 7/11 - Découpage basé sur les zones
  • G06T 7/136 - DécoupageDétection de bords impliquant un seuillage
  • G06T 7/194 - DécoupageDétection de bords impliquant une segmentation premier plan-arrière-plan
  • G06T 7/246 - Analyse du mouvement utilisant des procédés basés sur les caractéristiques, p. ex. le suivi des coins ou des segments
  • G06T 7/593 - Récupération de la profondeur ou de la forme à partir de plusieurs images à partir d’images stéréo
  • G06T 17/20 - Description filaire, p. ex. polygonalisation ou tessellation
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes

47.

RESOURCE-RESPONSIVE MOTION CAPTURE

      
Numéro d'application 18373889
Statut En instance
Date de dépôt 2023-09-27
Date de la première publication 2024-01-18
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s) Holz, David

Abrégé

The technology disclosed relates to operating a motion-capture system responsive to available computational resources. In particular, it relates to assessing a level of image acquisition and image-analysis resources available using benchmarking of system components. In response, one or more image acquisition parameters and/or image-analysis parameters are adjusted. Acquisition and/or analysis of image data are then made compliant with the adjusted image acquisition parameters and/or image-analysis parameters. In some implementations, image acquisition parameters include frame resolution and frame capture rate and image-analysis parameters include analysis algorithm and analysis density.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateurDispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p. ex. dispositions d'interface

48.

Differentiating a detected object from a background using a gaussian brightness falloff pattern

      
Numéro d'application 18369768
Numéro de brevet 12086327
Statut Délivré - en vigueur
Date de dépôt 2023-09-18
Date de la première publication 2024-01-04
Date d'octroi 2024-09-10
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Yang, Hua

Abrégé

A method for detecting a finger is provided. The method includes obtaining a plurality of digital images including a first digital image captured by a camera from a field of view containing a background and a hand including at least one finger, and obtaining an identification of pixels of the plurality of digital images that correspond to at least one finger that is visible in the plurality of digital images rather than to the background, the pixels being identified by: obtaining, from the digital images, a Gaussian brightness falloff pattern indicative of at least one finger, identifying an axis of the at least one finger based on the obtained Gaussian brightness falloff pattern indicative of the at least one finger without identifying edges of the at least one finger, and identifying the pixels that correspond to the at least one finger based on the identified axis.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06T 7/10 - DécoupageDétection de bords
  • G06T 7/11 - Découpage basé sur les zones
  • G06T 7/194 - DécoupageDétection de bords impliquant une segmentation premier plan-arrière-plan
  • G06T 7/215 - Découpage basé sur le mouvement
  • G06T 7/246 - Analyse du mouvement utilisant des procédés basés sur les caractéristiques, p. ex. le suivi des coins ou des segments
  • G06T 7/254 - Analyse du mouvement impliquant de la soustraction d’images
  • G06T 7/262 - Analyse du mouvement utilisant des procédés de transformation de domaine, p. ex. des procédés de transformée de Fourier
  • G06T 7/33 - Détermination des paramètres de transformation pour l'alignement des images, c.-à-d. recalage des images utilisant des procédés basés sur les caractéristiques
  • G06T 7/37 - Détermination des paramètres de transformation pour l'alignement des images, c.-à-d. recalage des images utilisant des procédés de transformation de domaine
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06T 7/90 - Détermination de caractéristiques de couleur
  • G06V 20/64 - Objets tridimensionnels
  • G06V 40/10 - Corps d’êtres humains ou d’animaux, p. ex. occupants de véhicules automobiles ou piétonsParties du corps, p. ex. mains
  • H04N 13/254 - Générateurs de signaux d’images utilisant des caméras à images stéréoscopiques en combinaison avec des sources de rayonnement électromagnétique pour l’éclairage du sujet
  • H04N 23/661 - Transmission des signaux de commande de la caméra par le biais de réseaux, p. ex. la commande via Internet

49.

Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation

      
Numéro d'application 18370338
Numéro de brevet 12242312
Statut Délivré - en vigueur
Date de dépôt 2023-09-19
Date de la première publication 2024-01-04
Date d'octroi 2025-03-04
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Durdik, Paul

Abrégé

The technology disclosed relates to enhancing the fields of view of one or more cameras of a gesture recognition system for augmenting the three-dimensional (3D) sensory space of the gesture recognition system. The augmented 3D sensory space allows for inclusion of previously uncaptured of regions and points for which gestures can be interpreted i.e. blind spots of the cameras of the gesture recognition system. Some examples of such blind spots include areas underneath the cameras and/or within 20-85 degrees of a tangential axis of the cameras. In particular, the technology disclosed uses a Fresnel prismatic element and/or a triangular prism element to redirect the optical axis of the cameras, giving the cameras fields of view that cover at least 45 to 80 degrees from tangential to the vertical axis of a display screen on which the cameras are mounted.

Classes IPC  ?

  • G02B 5/04 - Prismes
  • G02B 7/18 - Montures, moyens de réglage ou raccords étanches à la lumière pour éléments optiques pour prismesMontures, moyens de réglage ou raccords étanches à la lumière pour éléments optiques pour miroirs
  • G06F 1/16 - Détails ou dispositions de structure
  • G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateurDispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p. ex. dispositions d'interface
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/042 - Numériseurs, p. ex. pour des écrans ou des pavés tactiles, caractérisés par les moyens de transduction par des moyens opto-électroniques
  • H04N 5/232 - Dispositifs pour la commande des caméras de télévision, p.ex. commande à distance
  • H04N 23/67 - Commande de la mise au point basée sur les signaux électroniques du capteur d'image
  • H04N 23/90 - Agencement de caméras ou de modules de caméras, p. ex. de plusieurs caméras dans des studios de télévision ou des stades de sport

50.

Method and apparatus for calibrating augmented reality headsets

      
Numéro d'application 18367947
Numéro de brevet 12169918
Statut Délivré - en vigueur
Date de dépôt 2023-09-13
Date de la première publication 2023-12-28
Date d'octroi 2024-12-17
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Selstad, Johnathon Scott
  • Holz, David Samuel

Abrégé

An AR calibration system for correcting AR headset distortions. A calibration image is provided to a screen and viewable through a headset reflector, and an inverse of the calibration image is provided to a headset display, reflected off the reflector and observed by a camera of the system while it is simultaneously observing the calibration image on the screen. One or more cameras are located to represent a user's point of view and aligned to observe the inverse calibration image projected onto the reflector. A distortion mapping transform is created using an algorithm to search through projection positions of the inverse calibration image until the inverse image observed by the camera(s) cancels out an acceptable portion of the calibration image provided to the screen as observed through the reflector by the camera, and the transform is used by the headset, to compensate for distortions.

Classes IPC  ?

  • G06T 5/80 - Correction géométrique
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties

51.

Hand initialization for machine learning based gesture recognition

      
Numéro d'application 15432876
Numéro de brevet 11854308
Statut Délivré - en vigueur
Date de dépôt 2017-02-14
Date de la première publication 2023-12-26
Date d'octroi 2023-12-26
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s)
  • Marsden, Jonathan
  • Bedikian, Raffi
  • Holz, David Samuel

Abrégé

The technology disclosed also initializes a new hand that enters the field of view of a gesture recognition system using a parallax detection module. The parallax detection module determines candidate regions of interest (ROI) for a given input hand image and computes depth, rotation and position information for the candidate ROI. Then, for each of the candidate ROI, an ImagePatch, which includes the hand, is extracted from the original input hand image to minimize processing of low-information pixels. Further, a hand classifier neural network is used to determine which ImagePatch most resembles a hand. For the qualified, most-hand like ImagePatch, a 3D virtual hand is initialized with depth, rotation and position matching that of the qualified ImagePatch.

Classes IPC  ?

  • G06K 9/62 - Méthodes ou dispositions pour la reconnaissance utilisant des moyens électroniques
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06V 10/44 - Extraction de caractéristiques locales par analyse des parties du motif, p. ex. par détection d’arêtes, de contours, de boucles, d’angles, de barres ou d’intersectionsAnalyse de connectivité, p. ex. de composantes connectées
  • G06V 30/194 - Références réglables par une méthode adaptative, p. ex. par apprentissage
  • G06V 40/10 - Corps d’êtres humains ou d’animaux, p. ex. occupants de véhicules automobiles ou piétonsParties du corps, p. ex. mains
  • G06F 18/22 - Critères d'appariement, p. ex. mesures de proximité
  • G06F 18/21 - Conception ou mise en place de systèmes ou de techniquesExtraction de caractéristiques dans l'espace des caractéristiquesSéparation aveugle de sources

52.

Machine learning based gesture recognition

      
Numéro d'application 15432869
Numéro de brevet 11841920
Statut Délivré - en vigueur
Date de dépôt 2017-02-14
Date de la première publication 2023-12-12
Date d'octroi 2023-12-12
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Marsden, Jonathan
  • Bedikian, Raffi
  • Holz, David Samuel

Abrégé

The technology disclosed introduces two types of neural networks: “master” or “generalists” networks and “expert” or “specialists” networks. Both, master networks and expert networks, are fully connected neural networks that take a feature vector of an input hand image and produce a prediction of the hand pose. Master networks and expert networks differ from each other based on the data on which they are trained. In particular, master networks are trained on the entire data set. In contrast, expert networks are trained only on a subset of the entire dataset. In regards to the hand poses, master networks are trained on the input image data representing all available hand poses comprising the training data (including both real and simulated hand images).

Classes IPC  ?

  • G06K 9/62 - Méthodes ou dispositions pour la reconnaissance utilisant des moyens électroniques
  • G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
  • G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
  • G06K 9/78 - Combinaison de l'obtention de l'image et de fonctions de reconnaissance
  • G06T 7/285 - Analyse du mouvement utilisant une séquence de paires d'images stéréo
  • G06T 7/246 - Analyse du mouvement utilisant des procédés basés sur les caractéristiques, p. ex. le suivi des coins ou des segments
  • G06N 3/04 - Architecture, p. ex. topologie d'interconnexion
  • G06N 3/08 - Méthodes d'apprentissage
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06V 10/10 - Acquisition d’images
  • G06V 20/64 - Objets tridimensionnels
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes
  • G06F 18/214 - Génération de motifs d'entraînementProcédés de Bootstrapping, p. ex. ”bagging” ou ”boosting”
  • G06F 18/24 - Techniques de classification
  • G06V 10/70 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique

53.

Cursor mode switching

      
Numéro d'application 18226762
Numéro de brevet 12045394
Statut Délivré - en vigueur
Date de dépôt 2023-07-26
Date de la première publication 2023-11-16
Date d'octroi 2024-07-23
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

Methods and systems for processing input from an image-capture device for gesture-recognition. The method further includes computationally interpreting user gestures in accordance with a first mode of operation; analyzing the path of movement of an object to determine an intent of a user to change modes of operation; and, upon determining an intent of the user to change modes of operation, subsequently interpreting user gestures in accordance with the second mode of operation.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • B65D 75/58 - Dispositifs d'ouverture ou servant à retirer le contenu, ajoutés ou incorporés lors de la confection du paquet
  • G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateurDispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p. ex. dispositions d'interface
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p. ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaison
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes

54.

AUTOMOTIVE AND INDUSTRIAL MOTION SENSORY DEVICE

      
Numéro d'application 18225598
Statut En instance
Date de dépôt 2023-07-24
Date de la première publication 2023-11-16
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Schunick, Justin
  • Roy, Neeloy
  • Zheng, Chen
  • Travis, Ward

Abrégé

The technology disclosed relates to highly functional/highly accurate motion sensory control devices for use in automotive and industrial control systems capable of capturing and providing images to motion capture systems that detect gestures in a three dimensional (3D) sensory space.

Classes IPC  ?

  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes
  • G06F 3/042 - Numériseurs, p. ex. pour des écrans ou des pavés tactiles, caractérisés par les moyens de transduction par des moyens opto-électroniques
  • G01P 13/00 - Indication ou enregistrement de l'existence ou de l'absence d'un mouvementIndication ou enregistrement de la direction d'un mouvement
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06V 20/59 - Contexte ou environnement de l’image à l’intérieur d’un véhicule, p. ex. concernant l’occupation des sièges, l’état du conducteur ou les conditions de l’éclairage intérieur
  • H04N 23/11 - Caméras ou modules de caméras comprenant des capteurs d'images électroniquesLeur commande pour générer des signaux d'image à partir de différentes longueurs d'onde pour générer des signaux d'image à partir de longueurs d'onde de lumière visible et infrarouge
  • G06T 7/20 - Analyse du mouvement
  • H04N 7/18 - Systèmes de télévision en circuit fermé [CCTV], c.-à-d. systèmes dans lesquels le signal vidéo n'est pas diffusé

55.

Systems and Methods of Interacting with a Virtual Grid in a Three-dimensional (3D) Sensory Space

      
Numéro d'application 18216522
Statut En instance
Date de dépôt 2023-06-29
Date de la première publication 2023-10-26
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Ku, Bingxin
  • Chen, Pohung
  • Cohen, Isaac
  • Durdik, Paul A.

Abrégé

The technology disclosed relates to selecting a virtual item from a virtual grid in a three-dimensional (3D) sensory space. It also relates to navigating a virtual modality displaying a plurality of virtual items arranged in a grid by and automatically selecting a virtual item in a virtual grid at a terminal end of a control gesture of a control object responsive to a terminal gesture that transitions the control object from one physical arrangement to another. In one implementation, the control object is a hand. In some implementations, physical arrangements of the control object include at least a flat hand with thumb parallel to fingers, closed, half-open, pinched, curled, fisted, mime gun, okay sign, thumbs-up, ILY sign, one-finger point, two-finger point, thumb point, or pinkie point.

Classes IPC  ?

  • G06F 3/04883 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant un écran tactile ou une tablette numérique, p. ex. entrée de commandes par des tracés gestuels pour l’entrée de données par calligraphie, p. ex. sous forme de gestes ou de texte
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie

56.

Velocity field interaction for free space gesture interface and control

      
Numéro d'application 18213729
Numéro de brevet 12105889
Statut Délivré - en vigueur
Date de dépôt 2023-06-23
Date de la première publication 2023-10-19
Date d'octroi 2024-10-01
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Cohen, Isaac
  • Holz, David S.
  • Sills, Maxwell

Abrégé

The technology disclosed relates to automatically interpreting motion of a control object in a three dimensional (3D) sensor space by sensing a movement of the control object in the (3D) sensor space, interpreting movement of the control object, and presenting the interpreted movement as a path on a display. The path may be displayed once the speed of the movement exceeds a pre-determined threshold measured in cm per second. Once the path is displayed, the technology duplicates a display object that intersects the path on the display. In some implementations, the control object may be a device, a hand, or a portion of a hand (such as a finger).

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/0483 - Interaction avec des environnements structurés en pages, p. ex. métaphore livresque
  • G06F 3/04842 - Sélection des objets affichés ou des éléments de texte affichés
  • G06F 3/04847 - Techniques d’interaction pour la commande des valeurs des paramètres, p. ex. interaction avec des règles ou des cadrans
  • G06F 3/0485 - Défilement ou défilement panoramique
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes

57.

Wearable augmented reality devices with object detection and tracking

      
Numéro d'application 18207663
Numéro de brevet 12154238
Statut Délivré - en vigueur
Date de dépôt 2023-06-08
Date de la première publication 2023-10-19
Date d'octroi 2024-11-26
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

The technology disclosed can provide capabilities to view and/or interact with the real world to the user of a wearable (or portable) device using a sensor configured to capture motion and/or determining the path of an object based on imaging, acoustic or vibrational waves. Implementations can enable improved user experience, greater safety, greater functionality to users of virtual reality for machine control and/or machine communications applications using wearable (or portable) devices, e.g., head mounted devices (HMDs), wearable goggles, watch computers, smartphones, and so forth, or mobile devices, e.g., autonomous and semi-autonomous robots, factory floor material handling systems, autonomous mass-transit vehicles, automobiles (human or machine driven), and so forth, equipped with suitable sensors and processors employing optical, audio or vibrational detection.

Classes IPC  ?

  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/147 - Sortie numérique vers un dispositif de visualisation utilisant des panneaux de visualisation
  • G09G 5/18 - Circuits de synchronisation pour l'affichage à balayage par trame

58.

Systems and methods for machine control

      
Numéro d'application 18209259
Numéro de brevet 12260023
Statut Délivré - en vigueur
Date de dépôt 2023-06-13
Date de la première publication 2023-10-12
Date d'octroi 2025-03-25
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

A region of space may be monitored for the presence or absence of one or more control objects, and object attributes and changes thereto may be interpreted as control information provided as input to a machine or application. In some embodiments, the region is monitored using a combination of scanning and image-based sensing.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06V 10/145 - Éclairage spécialement adapté à la reconnaissance de formes, p. ex. utilisant des réseaux
  • G06V 40/10 - Corps d’êtres humains ou d’animaux, p. ex. occupants de véhicules automobiles ou piétonsParties du corps, p. ex. mains

59.

Determining positional information of an object in space

      
Numéro d'application 18197961
Numéro de brevet 12306301
Statut Délivré - en vigueur
Date de dépôt 2023-05-16
Date de la première publication 2023-09-14
Date d'octroi 2025-05-20
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David

Abrégé

The technology disclosed relates to determining positional information of an object in a field of view. In particular, it relates to measuring, using a light sensitive sensor, returning light that is (i) emitted from respective directionally oriented non-coplanar light sources of a plurality of directionally oriented light sources and (ii) returning from the target object, such as an automobile, as the target object moves through a region of space monitored by the light sensitive sensor. The technology disclosed compares the measured returning light to a look-up table that comprises mappings of measurements from the light sensitive sensor to a corresponding incoming angle of light; and determines positional information for the target object using the incoming angle of light.

Classes IPC  ?

  • G01S 17/36 - Systèmes déterminant les données relatives à la position d'une cible pour mesurer la distance uniquement utilisant la transmission d'ondes continues, soit modulées en amplitude, en fréquence ou en phase, soit non modulées avec comparaison en phase entre le signal reçu et le signal transmis au même moment
  • G01S 7/481 - Caractéristiques de structure, p. ex. agencements d'éléments optiques
  • G01S 7/483 - Détails de systèmes à impulsions
  • G01S 17/00 - Systèmes utilisant la réflexion ou la reradiation d'ondes électromagnétiques autres que les ondes radio, p. ex. systèmes lidar
  • G01S 17/04 - Systèmes de détermination de la présence d'une cible
  • G01S 17/42 - Mesure simultanée de la distance et d'autres coordonnées
  • G01S 17/48 - Systèmes de triangulation active, c.-à-d. utilisant la transmission et la réflexion d'ondes électromagnétiques autres que les ondes radio
  • G01S 17/89 - Systèmes lidar, spécialement adaptés pour des applications spécifiques pour la cartographie ou l'imagerie

60.

BIOMETRIC AWARE OBJECT DETECTION AND TRACKING

      
Numéro d'application 18129599
Statut En instance
Date de dépôt 2023-03-31
Date de la première publication 2023-08-03
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s)
  • Sills, Maxwell
  • Smith, Aaron
  • Holz, David S.
  • He, Hongyuan (jimmy)

Abrégé

The technology disclosed can provide methods and systems for identifying users while capturing motion and/or determining the path of a portion of the user with one or more optical, acoustic or vibrational sensors. Implementations can enable use of security aware devices, e.g., automated teller machines (ATMs), cash registers and banking machines, other secure vending or service machines, security screening apparatus, secure terminals, airplanes, automobiles and so forth that comprise sensors and processors employing optical, audio or vibrational detection mechanisms suitable for providing gesture detection, personal identification, user recognition, authorization of control inputs, and other machine control and/or machine communications applications. A virtual experience can be provided to the user in some implementations by the addition of haptic, audio and/or other sensory information projectors.

Classes IPC  ?

  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06V 40/10 - Corps d’êtres humains ou d’animaux, p. ex. occupants de véhicules automobiles ou piétonsParties du corps, p. ex. mains

61.

Hand pose estimation for machine learning based gesture recognition

      
Numéro d'application 16508231
Numéro de brevet 11714880
Statut Délivré - en vigueur
Date de dépôt 2019-07-10
Date de la première publication 2023-07-06
Date d'octroi 2023-08-01
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Marsden, Jonathan
  • Bedikian, Raffi
  • Holz, David Samuel

Abrégé

The technology disclosed performs hand pose estimation on a so-called “joint-by-joint” basis. So, when a plurality of estimates for the 28 hand joints are received from a plurality of expert networks (and from master experts in some high-confidence scenarios), the estimates are analyzed at a joint level and a final location for each joint is calculated based on the plurality of estimates for a particular joint. This is a novel solution discovered by the technology disclosed because nothing in the field of art determines hand pose estimates at such granularity and precision. Regarding granularity and precision, because hand pose estimates are computed on a joint-by-joint basis, this allows the technology disclosed to detect in real time even the minutest and most subtle hand movements, such a bend/yaw/tilt/roll of a segment of a finger or a tilt an occluded finger, as demonstrated supra in the Experimental Results section of this application.

Classes IPC  ?

  • G06K 9/62 - Méthodes ou dispositions pour la reconnaissance utilisant des moyens électroniques
  • G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
  • G06T 7/13 - Détection de bords
  • G06K 9/46 - Extraction d'éléments ou de caractéristiques de l'image

62.

Systems and methods of tracking moving hands and recognizing gestural interactions

      
Numéro d'application 18111089
Numéro de brevet 11914792
Statut Délivré - en vigueur
Date de dépôt 2023-02-17
Date de la première publication 2023-06-29
Date d'octroi 2024-02-27
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Horowitz, Kevin A.
  • Perez, Matias
  • Bedikian, Raffi
  • Holz, David S.
  • Hare, Gabriel A.

Abrégé

The technology disclosed relates to relates to providing command input to a machine under control. It further relates to gesturally interacting with the machine. The technology disclosed also relates to providing monitoring information about a process under control. The technology disclosed further relates to providing biometric information about an individual. The technology disclosed yet further relates to providing abstract features information (pose, grab strength, pinch strength, confidence, and so forth) about an individual.

Classes IPC  ?

  • G09G 5/00 - Dispositions ou circuits de commande de l'affichage communs à l'affichage utilisant des tubes à rayons cathodiques et à l'affichage utilisant d'autres moyens de visualisation
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06T 7/20 - Analyse du mouvement
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • H04N 13/296 - Leur synchronisationLeur commande
  • G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p. ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaison
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes
  • G06V 40/10 - Corps d’êtres humains ou d’animaux, p. ex. occupants de véhicules automobiles ou piétonsParties du corps, p. ex. mains
  • G06T 7/246 - Analyse du mouvement utilisant des procédés basés sur les caractéristiques, p. ex. le suivi des coins ou des segments
  • G01S 3/00 - Radiogoniomètres pour déterminer la direction d'où proviennent des ondes infrasonores, sonores, ultrasonores ou électromagnétiques ou des émissions de particules sans caractéristiques de direction

63.

SYSTEMS AND METHODS OF GESTURAL INTERACTION IN A PERVASIVE COMPUTING ENVIRONMENT

      
Numéro d'application 18093257
Statut En instance
Date de dépôt 2023-01-04
Date de la première publication 2023-06-29
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Gordon, Robert Samuel
  • Durdik, Paul Alan
  • Sills, Maxwell

Abrégé

The technology disclosed relates to selecting among devices to interact with. It also relates operating a smart phone with reduced power consumption. It further relates to gesturally interacting with devices that lack gestural responsiveness. The technology disclosed also relates to distinguishing control gestures from proximate non-control gestures in a pervasive three dimensional (3D) sensory space. The technology disclosed further relates to selecting among virtual interaction modalities to interact with.

Classes IPC  ?

  • G05B 15/02 - Systèmes commandés par un calculateur électriques
  • H04L 12/28 - Réseaux de données à commutation caractérisés par la configuration des liaisons, p. ex. réseaux locaux [LAN Local Area Networks] ou réseaux étendus [WAN Wide Area Networks]

64.

Predictive information for free space gesture control and communication

      
Numéro d'application 18161811
Numéro de brevet 11868687
Statut Délivré - en vigueur
Date de dépôt 2023-01-30
Date de la première publication 2023-06-01
Date d'octroi 2024-01-09
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Horowitz, Kevin
  • Bedikian, Raffi
  • Yang, Hua

Abrégé

The technology disclosed relates to simplifying updating of a predictive model using clustering observed points. In particular, it relates to observing a set of points in 3D sensory space, determining surface normal directions from the points, clustering the points by their surface normal directions and adjacency, accessing a predictive model of a hand, refining positions of segments of the predictive model, matching the clusters of the points to the segments, and using the matched clusters to refine the positions of the matched segments. It also relates to distinguishing between alternative motions between two observed locations of a control object in a 3D sensory space by accessing first and second positions of a segment of a predictive model of a control object such that motion between the first position and the second position was at least partially occluded from observation in a 3D sensory space.

Classes IPC  ?

  • G06F 17/00 - Équipement ou méthodes de traitement de données ou de calcul numérique, spécialement adaptés à des fonctions spécifiques
  • G06F 30/20 - Optimisation, vérification ou simulation de l’objet conçu
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06V 20/64 - Objets tridimensionnels
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes

65.

SYSTEMS AND METHODS OF FREE-SPACE GESTURAL INTERACTION

      
Numéro d'application 18094272
Statut En instance
Date de dépôt 2023-01-06
Date de la première publication 2023-05-25
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Yang, Hua
  • Kontsevich, Leonid
  • Donald, James
  • Holz, David S.
  • Marsden, Jonathan
  • Durdik, Paul

Abrégé

During control of a user interface via free-space motions of a hand or other suitable control object, switching between control modes can be facilitated by tracking the control object's movements relative to, and its contact with a “virtual touch plane or surface” (i.e., a plane, portion of a plane, and/or surface computationally defined in space, or corresponding to any physical surface).

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/0486 - Glisser-déposer

66.

User-defined virtual interaction space and manipulation of virtual configuration

      
Numéro d'application 18099779
Numéro de brevet 11995245
Statut Délivré - en vigueur
Date de dépôt 2023-01-20
Date de la première publication 2023-05-25
Date d'octroi 2024-05-28
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s)
  • Cohen, Isaac
  • Sills, Maxwell

Abrégé

The technology disclosed relates to creating user-defined interaction spaces and modalities in a three dimensional (3D) sensor space in response to control gestures. It also relates to controlling virtual cameras in the 3D sensor space using control gestures and manipulating controls of the virtual cameras through the control gestures. In particular, it relates to defining one or more spatial attributes of the interaction spaces and modalities in response to one or more gesture parameters of the control gesture. It also particularly relates to defining one or more visual parameters of a virtual camera in response to one or more gesture parameters of the control gesture.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/04842 - Sélection des objets affichés ou des éléments de texte affichés
  • G06F 3/04845 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p. ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs pour la transformation d’images, p. ex. glissement, rotation, agrandissement ou changement de couleur
  • G06T 15/20 - Calcul de perspectives

67.

Drift cancelation for portable object detection and tracking

      
Numéro d'application 18088496
Numéro de brevet 12067157
Statut Délivré - en vigueur
Date de dépôt 2022-12-23
Date de la première publication 2023-05-04
Date d'octroi 2024-08-20
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

The technology disclosed can provide capabilities such as using motion sensors and/or other types of sensors coupled to a motion-capture system to monitor motions within a real environment. A virtual object can be projected to a user of a portable device integrated into an augmented rendering of a real environment about the user. Motion information of a user body portion is determined based at least in part upon sensory information received from imaging or acoustic sensory devices. Control information is communicated to a system based in part on a combination of the motion of the portable device and the detected motion of the user. The virtual device experience can be augmented in some implementations by the addition of haptic, audio and/or other sensory information projectors.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G02B 27/01 - Dispositifs d'affichage "tête haute"

68.

Safety for wearable virtual reality devices via object detection and tracking

      
Numéro d'application 18069455
Numéro de brevet 12125157
Statut Délivré - en vigueur
Date de dépôt 2022-12-21
Date de la première publication 2023-04-27
Date d'octroi 2024-10-22
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Gordon, Robert Samuel
  • Perez, Matias

Abrégé

The technology disclosed can provide improved safety by detecting potential unsafe conditions (e.g., collisions, loss of situational awareness, etc.) confronting the user of a wearable (or portable) sensor configured to capture motion and/or determining the path of an object based on imaging, acoustic or vibrational waves. Implementations can enable improved safety to users of virtual reality for machine control and/or machine communications applications using wearable (or portable) devices, e.g., head mounted displays (HMDs), wearable goggles, watch computers, smartphones, and so forth, or mobile devices, e.g., autonomous and semi-autonomous robots, factory floor material handling systems, autonomous mass-transit vehicles, automobiles (human or machine driven), and so forth, equipped with suitable sensors and processors employing optical, audio or vibrational detection.

Classes IPC  ?

  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateurDispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p. ex. dispositions d'interface
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes

69.

Systems and methods of determining interaction intent in three-dimensional (3D) sensory space

      
Numéro d'application 18084516
Numéro de brevet 12039103
Statut Délivré - en vigueur
Date de dépôt 2022-12-19
Date de la première publication 2023-04-20
Date d'octroi 2024-07-16
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Chen, Pohung
  • Holz, David S.

Abrégé

The technology disclosed relates to determining intent for the interaction by calculating a center of effort for the applied forces. Movement of the points of virtual contacts and the center of effort are then monitored to determine a gesture-type intended for the interaction. The number of points of virtual contacts of the feeler zones and proximities between the points of virtual contacts are used to determine a degree of precision of a control object-gesture.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p. ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaison
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes

70.

Determining spans and span lengths of a control object in a free space gesture control environment

      
Numéro d'application 17958089
Numéro de brevet 12236528
Statut Délivré - en vigueur
Date de dépôt 2022-09-30
Date de la première publication 2023-03-30
Date d'octroi 2025-02-25
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Horowitz, Kevin A.
  • Holz, David S.

Abrégé

Free space machine interface and control can be facilitated by predictive entities useful in interpreting a control object's position and/or motion (including objects having one or more articulating members, i.e., humans and/or animals and/or machines). Predictive entities can be driven using motion information captured using image information or the equivalents. Predictive information can be improved applying techniques for correlating with information from observations.

Classes IPC  ?

  • G06T 17/10 - Description de volumes, p. ex. de cylindres, de cubes ou utilisant la GSC [géométrie solide constructive]
  • A61B 17/00 - Instruments, dispositifs ou procédés chirurgicaux
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/0487 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique
  • G06F 3/0488 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant un écran tactile ou une tablette numérique, p. ex. entrée de commandes par des tracés gestuels
  • G06T 3/40 - Changement d'échelle d’images complètes ou de parties d’image, p. ex. agrandissement ou rétrécissement
  • G06T 7/11 - Découpage basé sur les zones
  • G06T 7/13 - Détection de bords
  • G06T 7/136 - DécoupageDétection de bords impliquant un seuillage
  • G06T 7/194 - DécoupageDétection de bords impliquant une segmentation premier plan-arrière-plan
  • G06T 7/246 - Analyse du mouvement utilisant des procédés basés sur les caractéristiques, p. ex. le suivi des coins ou des segments
  • G06T 7/593 - Récupération de la profondeur ou de la forme à partir de plusieurs images à partir d’images stéréo
  • G06T 17/00 - Modélisation tridimensionnelle [3D] pour infographie
  • G06T 17/20 - Description filaire, p. ex. polygonalisation ou tessellation
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06V 10/75 - Organisation de procédés de l’appariement, p. ex. comparaisons simultanées ou séquentielles des caractéristiques d’images ou de vidéosApproches-approximative-fine, p. ex. approches multi-échellesAppariement de motifs d’image ou de vidéoMesures de proximité dans les espaces de caractéristiques utilisant l’analyse de contexteSélection des dictionnaires
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes
  • H04N 13/275 - Générateurs de signaux d’images à partir de modèles 3D d’objets, p. ex. des signaux d’images stéréoscopiques générés par ordinateur
  • G06V 40/10 - Corps d’êtres humains ou d’animaux, p. ex. occupants de véhicules automobiles ou piétonsParties du corps, p. ex. mains

71.

User-defined virtual interaction space and manipulation of virtual cameras in the interaction space

      
Numéro d'application 17984964
Numéro de brevet 12099660
Statut Délivré - en vigueur
Date de dépôt 2022-11-10
Date de la première publication 2023-03-09
Date d'octroi 2024-09-24
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Cohen, Isaac
  • Sills, Maxwell

Abrégé

The technology disclosed relates to creating user-defined interaction spaces and modalities in a three dimensional (3D) sensor space in response to control gestures. It also relates to controlling virtual cameras in the 3D sensor space using control gestures and manipulating controls of the virtual cameras through the control gestures. In particular, it relates to defining one or more spatial attributes of the interaction spaces and modalities in response to one or more gesture parameters of the control gesture. It also particularly relates to defining one or more visual parameters of a virtual camera in response to one or more gesture parameters of the control gesture.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/0481 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p. ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comportement ou d’aspect
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/0484 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p. ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs
  • G06F 3/04842 - Sélection des objets affichés ou des éléments de texte affichés
  • G06F 3/04845 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p. ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs pour la transformation d’images, p. ex. glissement, rotation, agrandissement ou changement de couleur
  • G06T 15/20 - Calcul de perspectives

72.

Augmented reality with motion sensing

      
Numéro d'application 17972288
Numéro de brevet 11778159
Statut Délivré - en vigueur
Date de dépôt 2022-10-24
Date de la première publication 2023-02-09
Date d'octroi 2023-10-03
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Roy, Neeloy
  • He, Hongyuan

Abrégé

A motion sensory and imaging device capable of acquiring imaging information of the scene and providing at least a near real time pass-through of imaging information to a user. The sensory and imaging device can be used stand-alone or coupled to a wearable or portable device to create a wearable sensory system capable of presenting to the wearer the imaging information augmented with virtualized or created presentations of information.

Classes IPC  ?

  • H04N 13/239 - Générateurs de signaux d’images utilisant des caméras à images stéréoscopiques utilisant deux capteurs d’images 2D dont la position relative est égale ou en correspondance à l’intervalle oculaire
  • H04N 13/257 - Aspects en rapport avec la couleur
  • H04N 13/296 - Leur synchronisationLeur commande
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G02B 27/00 - Systèmes ou appareils optiques non prévus dans aucun des groupes ,
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • H04N 5/225 - Caméras de télévision
  • H04N 5/33 - Transformation des rayonnements infrarouges
  • H04N 23/11 - Caméras ou modules de caméras comprenant des capteurs d'images électroniquesLeur commande pour générer des signaux d'image à partir de différentes longueurs d'onde pour générer des signaux d'image à partir de longueurs d'onde de lumière visible et infrarouge
  • H04N 23/54 - Montage de tubes analyseurs, de capteurs d'images électroniques, de bobines de déviation ou de focalisation
  • H04N 23/56 - Caméras ou modules de caméras comprenant des capteurs d'images électroniquesLeur commande munis de moyens d'éclairage
  • H04S 7/00 - Dispositions pour l'indicationDispositions pour la commande, p. ex. pour la commande de l'équilibrage

73.

User-defined virtual interaction space and manipulation of virtual cameras with vectors

      
Numéro d'application 17959269
Numéro de brevet 11775080
Statut Délivré - en vigueur
Date de dépôt 2022-10-03
Date de la première publication 2023-01-26
Date d'octroi 2023-10-03
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Cohen, Isaac
  • Sills, Maxwell
  • Durdik, Paul

Abrégé

The technology disclosed relates to creating user-defined interaction spaces and modalities in a three dimensional (3D) sensor space in response to control gestures. It also relates to controlling virtual cameras in the 3D sensor space using control gestures and manipulating controls of the virtual cameras through the control gestures. In particular, it relates to defining one or more spatial attributes of the interaction spaces and modalities in response to one or more gesture parameters of the control gesture. It also particularly relates to defining one or more visual parameters of a virtual camera in response to one or more gesture parameters of the control gesture.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/04845 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p. ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs pour la transformation d’images, p. ex. glissement, rotation, agrandissement ou changement de couleur
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/04842 - Sélection des objets affichés ou des éléments de texte affichés
  • G06T 15/20 - Calcul de perspectives

74.

Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation

      
Numéro d'application 17901542
Numéro de brevet 11775033
Statut Délivré - en vigueur
Date de dépôt 2022-09-01
Date de la première publication 2022-12-29
Date d'octroi 2023-10-03
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Durdik, Paul

Abrégé

The technology disclosed relates to enhancing the fields of view of one or more cameras of a gesture recognition system for augmenting the three-dimensional (3D) sensory space of the gesture recognition system. The augmented 3D sensory space allows for inclusion of previously uncaptured of regions and points for which gestures can be interpreted i.e. blind spots of the cameras of the gesture recognition system. Some examples of such blind spots include areas underneath the cameras and/or within 20-85 degrees of a tangential axis of the cameras. In particular, the technology disclosed uses a Fresnel prismatic element and/or a triangular prism element to redirect the optical axis of the cameras, giving the cameras fields of view that cover at least 45 to 80 degrees from tangential to the vertical axis of a display screen on which the cameras are mounted.

Classes IPC  ?

  • G02B 5/04 - Prismes
  • G02B 7/18 - Montures, moyens de réglage ou raccords étanches à la lumière pour éléments optiques pour prismesMontures, moyens de réglage ou raccords étanches à la lumière pour éléments optiques pour miroirs
  • G06F 1/16 - Détails ou dispositions de structure
  • H04N 5/232 - Dispositifs pour la commande des caméras de télévision, p.ex. commande à distance
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateurDispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p. ex. dispositions d'interface
  • G06F 3/042 - Numériseurs, p. ex. pour des écrans ou des pavés tactiles, caractérisés par les moyens de transduction par des moyens opto-électroniques
  • H04N 23/67 - Commande de la mise au point basée sur les signaux électroniques du capteur d'image
  • H04N 23/90 - Agencement de caméras ou de modules de caméras, p. ex. de plusieurs caméras dans des studios de télévision ou des stades de sport

75.

Cursor mode switching

      
Numéro d'application 17896619
Numéro de brevet 11720181
Statut Délivré - en vigueur
Date de dépôt 2022-08-26
Date de la première publication 2022-12-22
Date d'octroi 2023-08-08
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

Methods and systems for processing input from an image-capture device for gesture-recognition. The method further includes computationally interpreting user gestures in accordance with a first mode of operation; analyzing the path of movement of an object to determine an intent of a user to change modes of operation; and, upon determining an intent of the user to change modes of operation, subsequently interpreting user gestures in accordance with the second mode of operation.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p. ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaison
  • B65D 75/58 - Dispositifs d'ouverture ou servant à retirer le contenu, ajoutés ou incorporés lors de la confection du paquet
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateurDispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p. ex. dispositions d'interface
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes

76.

Determining the relative locations of multiple motion-tracking devices

      
Numéro d'application 17578236
Numéro de brevet 12020458
Statut Délivré - en vigueur
Date de dépôt 2022-01-18
Date de la première publication 2022-12-08
Date d'octroi 2024-06-25
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

The technology disclosed relates to coordinating motion-capture of a hand by a network of motion-capture sensors having overlapping fields of view. In particular, it relates to designating a first sensor among three or more motion-capture sensors as having a master frame of reference, observing motion of a hand as it passes through overlapping fields of view of the respective motion-capture sensors, synchronizing capture of images of the hand within the overlapping fields of view by pairs of the motion-capture devices, and using the pairs of the hand images captured by the synchronized motion-capture devices to automatically calibrate the motion-capture sensors to the master frame of reference frame.

Classes IPC  ?

  • G06K 9/20 - Obtention de l'image
  • G06T 7/30 - Détermination des paramètres de transformation pour l'alignement des images, c.-à-d. recalage des images
  • G06T 7/80 - Analyse des images capturées pour déterminer les paramètres de caméra intrinsèques ou extrinsèques, c.-à-d. étalonnage de caméra
  • G06V 10/147 - Détails de capteurs, p. ex. lentilles de capteurs
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes

77.

Adjusting motion capture based on the distance between tracked objects

      
Numéro d'application 17887378
Numéro de brevet 12225280
Statut Délivré - en vigueur
Date de dépôt 2022-08-12
Date de la première publication 2022-12-01
Date d'octroi 2025-02-11
Propriétaire ULTRAHAPTICS IP TWO LIMITED (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

The technology disclosed relates to adjusting the monitored field of view of a camera and/or a view of a virtual scene from a point of view of a virtual camera based on the distance between tracked objects. For example, if the user's hand is being tracked for gestures, the closer the hand gets to another object, the tighter the frame can become—i.e., the more the camera can zoom in so that the hand and the other object occupy most of the frame. The camera can also be reoriented so that the hand and the other object remain in the center of the field of view. The distance between two objects in a camera's field of view can be determined and a parameter adjusted based thereon. In particular, the pan and/or zoom levels of the camera may be adjusted in accordance with the distance.

Classes IPC  ?

  • G06T 7/50 - Récupération de la profondeur ou de la forme
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes
  • H04N 23/611 - Commande des caméras ou des modules de caméras en fonction des objets reconnus les objets reconnus comprenant des parties du corps humain

78.

Resource-responsive motion capture

      
Numéro d'application 17865283
Numéro de brevet 11775078
Statut Délivré - en vigueur
Date de dépôt 2022-07-14
Date de la première publication 2022-11-10
Date d'octroi 2023-10-03
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David

Abrégé

The technology disclosed relates to operating a motion-capture system responsive to available computational resources. In particular, it relates to assessing a level of image acquisition and image-analysis resources available using benchmarking of system components. In response, one or more image acquisition parameters and/or image-analysis parameters are adjusted. Acquisition and/or analysis of image data are then made compliant with the adjusted image acquisition parameters and/or image-analysis parameters. In some implementations, image acquisition parameters include frame resolution and frame capture rate and image-analysis parameters include analysis algorithm and analysis density.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateurDispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p. ex. dispositions d'interface

79.

Systems and methods of creating a realistic displacement of a virtual object in virtual reality/augmented reality environments

      
Numéro d'application 17867648
Numéro de brevet 12032746
Statut Délivré - en vigueur
Date de dépôt 2022-07-18
Date de la première publication 2022-11-10
Date d'octroi 2024-07-09
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Marcolina, Alex
  • Holz, David S.

Abrégé

The technology disclosed relates to a method of realistic displacement of a virtual object for an interaction between a control object in a three-dimensional (3D) sensory space and the virtual object in a virtual space that the control object interacts with. In particular, it relates to detecting free-form gestures of a control object in a three-dimensional (3D) sensory space and generating for display a 3D solid control object model for the control object during the free-form gestures, including sub-components of the control object and in response to detecting a 2D sub-component free-form gesture of the control object in the 3D sensory space in virtual contact with the virtual object, depicting, in the generated display, the virtual contact and resulting rotation of the virtual object by the 3D solid control object model.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 1/16 - Détails ou dispositions de structure
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06T 17/10 - Description de volumes, p. ex. de cylindres, de cubes ou utilisant la GSC [géométrie solide constructive]
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties

80.

Systems and methods for machine control

      
Numéro d'application 17862212
Numéro de brevet 11720180
Statut Délivré - en vigueur
Date de dépôt 2022-07-11
Date de la première publication 2022-11-03
Date d'octroi 2023-08-08
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

A region of space may be monitored for the presence or absence of one or more control objects, and object attributes and changes thereto may be interpreted as control information provided as input to a machine or application. In some embodiments, the region is monitored using a combination of scanning and image-based sensing.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06V 10/145 - Éclairage spécialement adapté à la reconnaissance de formes, p. ex. utilisant des réseaux
  • G06V 40/10 - Corps d’êtres humains ou d’animaux, p. ex. occupants de véhicules automobiles ou piétonsParties du corps, p. ex. mains

81.

Automotive and industrial motion sensory device

      
Numéro d'application 17848181
Numéro de brevet 11749026
Statut Délivré - en vigueur
Date de dépôt 2022-06-23
Date de la première publication 2022-10-06
Date d'octroi 2023-09-05
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Schunick, Justin
  • Roy, Neeloy
  • Zheng, Chen
  • Travis, Ward

Abrégé

The technology disclosed relates to highly functional/highly accurate motion sensory control devices for use in automotive and industrial control systems capable of capturing and providing images to motion capture systems that detect gestures in a three dimensional (3D) sensory space.

Classes IPC  ?

  • G06F 3/042 - Numériseurs, p. ex. pour des écrans ou des pavés tactiles, caractérisés par les moyens de transduction par des moyens opto-électroniques
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes
  • G01P 13/00 - Indication ou enregistrement de l'existence ou de l'absence d'un mouvementIndication ou enregistrement de la direction d'un mouvement
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06V 20/59 - Contexte ou environnement de l’image à l’intérieur d’un véhicule, p. ex. concernant l’occupation des sièges, l’état du conducteur ou les conditions de l’éclairage intérieur
  • H04N 23/11 - Caméras ou modules de caméras comprenant des capteurs d'images électroniquesLeur commande pour générer des signaux d'image à partir de différentes longueurs d'onde pour générer des signaux d'image à partir de longueurs d'onde de lumière visible et infrarouge
  • G06T 7/20 - Analyse du mouvement
  • H04N 7/18 - Systèmes de télévision en circuit fermé [CCTV], c.-à-d. systèmes dans lesquels le signal vidéo n'est pas diffusé

82.

Determining spans and span lengths of a control object in a free space gesture control environment

      
Numéro d'application 17100786
Numéro de brevet 11461966
Statut Délivré - en vigueur
Date de dépôt 2020-11-20
Date de la première publication 2022-10-04
Date d'octroi 2022-10-04
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Horowitz, Kevin A
  • Holz, David S

Abrégé

Free space machine interface and control can be facilitated by predictive entities useful in interpreting a control object's position and/or motion (including objects having one or more articulating members, i.e., humans and/or animals and/or machines). Predictive entities can be driven using motion information captured using image information or the equivalents. Predictive information can be improved applying techniques for correlating with information from observations.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 17/10 - Description de volumes, p. ex. de cylindres, de cubes ou utilisant la GSC [géométrie solide constructive]
  • G06T 7/593 - Récupération de la profondeur ou de la forme à partir de plusieurs images à partir d’images stéréo
  • G06T 7/11 - Découpage basé sur les zones
  • G06T 7/246 - Analyse du mouvement utilisant des procédés basés sur les caractéristiques, p. ex. le suivi des coins ou des segments
  • G06T 7/194 - DécoupageDétection de bords impliquant une segmentation premier plan-arrière-plan
  • G06T 7/136 - DécoupageDétection de bords impliquant un seuillage
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06T 17/20 - Description filaire, p. ex. polygonalisation ou tessellation
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes

83.

Free-space user interface and control using virtual constructs

      
Numéro d'application 17833556
Numéro de brevet 11874970
Statut Délivré - en vigueur
Date de dépôt 2022-06-06
Date de la première publication 2022-09-22
Date d'octroi 2024-01-16
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Bedikian, Raffi
  • Marsden, Jonathan
  • Mertens, Keith
  • Holz, David

Abrégé

During control of a user interface via free-space motions of a hand or other suitable control object, switching between control modes can be facilitated by tracking the control object's movements relative to, and its penetration of, a virtual control construct (such as a virtual surface construct). The position of the virtual control construct can be updated, continuously or from time to time, based on the control object's location.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes
  • G06F 3/04845 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p. ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs pour la transformation d’images, p. ex. glissement, rotation, agrandissement ou changement de couleur

84.

Rerendering a position of a hand to decrease a size of a hand to create a realistic virtual/augmented reality environment

      
Numéro d'application 17666533
Numéro de brevet 11954808
Statut Délivré - en vigueur
Date de dépôt 2022-02-07
Date de la première publication 2022-09-01
Date d'octroi 2024-04-09
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Marcolina, Alex
  • Holz, David

Abrégé

The technology disclosed relates to a method of realistic rendering of a real object as a virtual object in a virtual space using an offset in the position of the hand in a three-dimensional (3D) sensory space. An offset between expected positions of the eye(s) of a wearer of a head mounted device and a sensor attached to the head mounted device for sensing a position of at least one hand in a three-dimensional (3D) sensory space is determined. A position of the hand in the three-dimensional (3D) sensory space can be sensed using a sensor. The sensed position of the hand can be transformed by the offset into a re-rendered position of the hand as would appear to the wearer of the head mounted device if the wearer were looking at the actual hand. The re-rendered hand can be depicted to the wearer of the head mounted device.

Classes IPC  ?

  • G09G 5/00 - Dispositions ou circuits de commande de l'affichage communs à l'affichage utilisant des tubes à rayons cathodiques et à l'affichage utilisant d'autres moyens de visualisation
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes

85.

METHOD FOR CREATING A GESTURE LIBRARY

      
Numéro d'application 17741076
Statut En instance
Date de dépôt 2022-05-10
Date de la première publication 2022-08-25
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

The technology disclosed relates to the creation of a gesture library for subsequent use in filtering gestures. In particular, the methods disclosed here generate and store gestures and their characteristic values to create a set of user-defined reference gestures that can be compared against characteristics of actual gestures performed in a 3D sensory space. Based on these comparisons, a set of gestures of interest may be filtered from all the gestures performed in the 3D sensory space. The technology disclosed also relates to customizing gesture interpretation for a particular user, and to setting parameters for recognizing gestures by prompting the user to select values for characteristics of the gestures. In one implementation, the technology disclosed includes performing characteristic focused demonstrations of boundaries of the gesture. It further includes testing the interpretation of gestures by prompting the user to perform complete gesture demonstrations and receiving user evaluation regarding the interpretation.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes

86.

Method and apparatus for calibrating augmented reality headsets

      
Numéro d'application 17741096
Numéro de brevet 11798141
Statut Délivré - en vigueur
Date de dépôt 2022-05-10
Date de la première publication 2022-08-25
Date d'octroi 2023-10-24
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Selstad, Johnathon Scott
  • Holz, David Samuel

Abrégé

An AR calibration system for correcting AR headset distortions. A calibration image is provided to an external screen and viewable through a headset reflector, and an inverse of the calibration image is provided to a headset display, reflected off the reflector and observed by a camera of the system while it is simultaneously observing the calibration image on the external screen. One or more cameras are located to represent a user's point of view and aligned to observe the inverse calibration image projected onto the reflector. A distortion mapping transform is created using an algorithm to search through projection positions of the inverse calibration image until the inverse image observed by the camera(s) cancels out an acceptable portion of the calibration image provided to the external screen as observed through the reflector by the camera, and the transform is used by the headset, to compensate for distortions.

Classes IPC  ?

  • G06T 5/00 - Amélioration ou restauration d'image
  • G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie

87.

Identifying an object in a field of view

      
Numéro d'application 17734973
Numéro de brevet 11809634
Statut Délivré - en vigueur
Date de dépôt 2022-05-02
Date de la première publication 2022-08-11
Date d'octroi 2023-11-07
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David

Abrégé

The technology disclosed relates to identifying an object in a field of view of a camera. In particular, it relates to identifying a display in the field of view of the camera. This is achieved by monitoring a space including acquiring a series of image frames of the space using the camera and detecting one or more light sources in the series of image frames. Further, one or more frequencies of periodic intensity or brightness variations, also referred to as ‘refresh rate’, of light emitted from the light sources is measured. Based on the one or more frequencies of periodic intensity variations of light emitted from the light sources, at least one display that includes the light sources is identified.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 7/55 - Récupération de la profondeur ou de la forme à partir de plusieurs images
  • G06F 3/042 - Numériseurs, p. ex. pour des écrans ou des pavés tactiles, caractérisés par les moyens de transduction par des moyens opto-électroniques
  • H04N 23/70 - Circuits de compensation de la variation de luminosité dans la scène
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G09G 3/34 - Dispositions ou circuits de commande présentant un intérêt uniquement pour l'affichage utilisant des moyens de visualisation autres que les tubes à rayons cathodiques pour la présentation d'un ensemble de plusieurs caractères, p. ex. d'une page, en composant l'ensemble par combinaison d'éléments individuels disposés en matrice en commandant la lumière provenant d'une source indépendante
  • H04N 23/71 - Circuits d'évaluation de la variation de luminosité
  • H04N 23/73 - Circuits de compensation de la variation de luminosité dans la scène en influençant le temps d'exposition
  • H04N 23/74 - Circuits de compensation de la variation de luminosité dans la scène en influençant la luminosité de la scène à l'aide de moyens d'éclairage
  • G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée

88.

Method and system for controlling a machine according to a characteristic of a control object

      
Numéro d'application 17666534
Numéro de brevet 11740705
Statut Délivré - en vigueur
Date de dépôt 2022-02-07
Date de la première publication 2022-07-28
Date d'octroi 2023-08-29
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Bedikian, Raffi
  • Marsden, Jonathan
  • Mertens, Keith
  • Holz, David
  • Sills, Maxwell
  • Perez, Matias
  • Hare, Gabriel
  • Julian, Ryan

Abrégé

A method and system are provided for controlling a machine using gestures. The method includes sensing a variation of position of a control object using an imaging system, determining, from the variation, one or more primitives describing a characteristic of a control object moving in space, comparing the one or more primitives to one or more gesture templates in a library of gesture templates, selecting, based on a result of the comparing, one or more gesture templates corresponding to the one or more primitives, and providing at least one gesture template of the selected one or more gesture templates as an indication of a command to issue to a machine under control responsive to the variation.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes

89.

Predictive information for free space gesture control and communication

      
Numéro d'application 17700199
Numéro de brevet 11776208
Statut Délivré - en vigueur
Date de dépôt 2022-03-21
Date de la première publication 2022-07-07
Date d'octroi 2023-10-03
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Horowitz, Kevin A.
  • Holz, David S.

Abrégé

Free space machine interface and control can be facilitated by predictive entities useful in interpreting a control object's position and/or motion (including objects having one or more articulating members, i.e., humans and/or animals and/or machines). Predictive entities can be driven using motion information captured using image information or the equivalents. Predictive information can be improved applying techniques for correlating with information from observations.

Classes IPC  ?

  • G06T 17/10 - Description de volumes, p. ex. de cylindres, de cubes ou utilisant la GSC [géométrie solide constructive]
  • G06T 17/20 - Description filaire, p. ex. polygonalisation ou tessellation
  • G06T 7/593 - Récupération de la profondeur ou de la forme à partir de plusieurs images à partir d’images stéréo
  • G06T 7/11 - Découpage basé sur les zones
  • G06T 7/246 - Analyse du mouvement utilisant des procédés basés sur les caractéristiques, p. ex. le suivi des coins ou des segments
  • G06T 7/194 - DécoupageDétection de bords impliquant une segmentation premier plan-arrière-plan
  • G06T 7/136 - DécoupageDétection de bords impliquant un seuillage
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes

90.

CHANGING A PRESENTATION PROPERTY OF A DYNAMIC INTERACTIVE OBJECT

      
Numéro d'application 17689950
Statut En instance
Date de dépôt 2022-03-08
Date de la première publication 2022-06-23
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

A method is provided, which includes identifying, for presentation, separate interactive objects, each separate interactive object being associated with a particular finger of two or more fingers, wherein a position of each separate interactive object changes in response to a movement of the associated finger of the two or more fingers, obtaining, for at least one separate interactive object, a determination of a property of a screen area surrounding the at least one separate interactive object, and modifying a presentation property of the at least one separate interactive object based on the determined property of the screen area surrounding the at least one separate interactive object. The property of the screen area surrounding the at least one separate interactive object is determined based on at least one of: a brightness, a color and a pattern of the screen area surrounding the at least one separate interactive object.

Classes IPC  ?

  • G06F 3/04812 - Techniques d’interaction fondées sur l’aspect ou le comportement du curseur, p. ex. sous l’influence de la présence des objets affichés

91.

Differentiating a detected object from a background using a gaussian brightness falloff pattern

      
Numéro d'application 17693200
Numéro de brevet 11782516
Statut Délivré - en vigueur
Date de dépôt 2022-03-11
Date de la première publication 2022-06-23
Date d'octroi 2023-10-10
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Yang, Hua

Abrégé

A method for detecting a finger is provided. The method includes obtaining a plurality of digital images including a first digital image captured by a camera from a field of view containing a background and a hand including at least one finger, and obtaining an identification of pixels of the plurality of digital images that correspond to at least one finger that is visible in the plurality of digital images rather than to the background, the pixels being identified by: obtaining, from the digital images, a Gaussian brightness falloff pattern indicative of at least one finger, identifying an axis of the at least one finger based on the obtained Gaussian brightness falloff pattern indicative of the at least one finger without identifying edges of the at least one finger, and identifying the pixels that correspond to the at least one finger based on the identified axis.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 7/246 - Analyse du mouvement utilisant des procédés basés sur les caractéristiques, p. ex. le suivi des coins ou des segments
  • G06T 7/254 - Analyse du mouvement impliquant de la soustraction d’images
  • H04N 13/254 - Générateurs de signaux d’images utilisant des caméras à images stéréoscopiques en combinaison avec des sources de rayonnement électromagnétique pour l’éclairage du sujet
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06T 7/11 - Découpage basé sur les zones
  • G06T 7/215 - Découpage basé sur le mouvement
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06V 20/64 - Objets tridimensionnels
  • G06V 40/10 - Corps d’êtres humains ou d’animaux, p. ex. occupants de véhicules automobiles ou piétonsParties du corps, p. ex. mains
  • H04N 23/661 - Transmission des signaux de commande de la caméra par le biais de réseaux, p. ex. la commande via Internet
  • G06T 7/194 - DécoupageDétection de bords impliquant une segmentation premier plan-arrière-plan
  • G06T 7/10 - DécoupageDétection de bords
  • G06T 7/262 - Analyse du mouvement utilisant des procédés de transformation de domaine, p. ex. des procédés de transformée de Fourier
  • G06T 7/33 - Détermination des paramètres de transformation pour l'alignement des images, c.-à-d. recalage des images utilisant des procédés basés sur les caractéristiques
  • G06T 7/37 - Détermination des paramètres de transformation pour l'alignement des images, c.-à-d. recalage des images utilisant des procédés de transformation de domaine
  • G06T 7/90 - Détermination de caractéristiques de couleur
  • G06F 18/00 - Reconnaissance de formes

92.

Determining a primary control mode of controlling an electronic device using 3D gestures or using control manipulations from a user manipulable input device

      
Numéro d'application 17532990
Numéro de brevet 12086323
Statut Délivré - en vigueur
Date de dépôt 2021-11-22
Date de la première publication 2022-05-19
Date d'octroi 2024-09-10
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David

Abrégé

A method and system for controlling an electronic device using gesture and/or a device is provided. The method includes capturing, in a 3D sensor space, an image including a user manipulable hand-held input device and a body part of a user, finding an entry in a database of multiple user manipulable hand-held input devices that matches the image of the user manipulable hand-held input device, wherein each user manipulable hand-held input device, having an entry in the database, respectively generates signals in response to performing one or more specific control manipulations, determining a primary control mode of primarily controlling the electronic device using 3D gestures or using control manipulations directly from the user manipulable hand-held input device, the primary control mode being determined based on a predetermined priority level associated with the user manipulable hand-held input device and controlling the electronic device using the determined primary control mode.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 9/4401 - Amorçage
  • G06F 13/10 - Commande par programme pour dispositifs périphériques
  • G06F 16/50 - Recherche d’informationsStructures de bases de données à cet effetStructures de systèmes de fichiers à cet effet de données d’images fixes

93.

Interaction engine for creating a realistic experience in virtual reality/augmented reality environments

      
Numéro d'application 17586622
Numéro de brevet 12118134
Statut Délivré - en vigueur
Date de dépôt 2022-01-27
Date de la première publication 2022-05-12
Date d'octroi 2024-10-15
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Johnston, John Adrian Arthur
  • Selstad, Johnathon Scott
  • Marcolina, Alex

Abrégé

The technology disclosed relates to a method of realistic simulation of real world interactions as virtual interactions between a control object sensed acting in a three-dimensional (3D) sensory space and the virtual object in a virtual space that the control object interacts with. In particular, it relates to detecting free-form gestures of a control object in a three-dimensional (3D) sensory space and generating for display a 3D solid control object model for the control object during the free-form gestures, including sub-components of the control object and in response to detecting a free-form gesture of the control object in the 3D sensory space in virtual contact with the virtual object, depicting, in the generated display, the virtual contact and resulting motions of the virtual object by the 3D solid control object model.

Classes IPC  ?

  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G02B 27/00 - Systèmes ou appareils optiques non prévus dans aucun des groupes ,
  • G06F 1/16 - Détails ou dispositions de structure
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie

94.

Cursor mode switching

      
Numéro d'application 17542990
Numéro de brevet 11429194
Statut Délivré - en vigueur
Date de dépôt 2021-12-06
Date de la première publication 2022-03-24
Date d'octroi 2022-08-30
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

Methods and systems for processing input from an image-capture device for gesture-recognition. The method further includes computationally interpreting user gestures in accordance with a first mode of operation; analyzing the path of movement of an object to determine an intent of a user to change modes of operation; and, upon determining an intent of the user to change modes of operation, subsequently interpreting user gestures in accordance with the second mode of operation.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p. ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaison
  • B65D 75/58 - Dispositifs d'ouverture ou servant à retirer le contenu, ajoutés ou incorporés lors de la confection du paquet
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateurDispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p. ex. dispositions d'interface
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes

95.

Interactions with virtual objects for machine control

      
Numéro d'application 17532976
Numéro de brevet 12164694
Statut Délivré - en vigueur
Date de dépôt 2021-11-22
Date de la première publication 2022-03-17
Date d'octroi 2024-12-10
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Holz, David S.
  • Bedikian, Raffi
  • Gasinski, Adrian
  • Sills, Maxwell
  • Yang, Hua
  • Hare, Gabriel

Abrégé

The technology disclosed relates to manipulating a virtual object. In particular, it relates to detecting a hand in a three-dimensional (3D) sensory space and generating a predictive model of the hand, and using the predictive model to track motion of the hand. The predictive model includes positions of calculation points of fingers, thumb and palm of the hand. The technology disclosed relates to dynamically selecting at least one manipulation point proximate to a virtual object based on the motion tracked by the predictive model and positions of one or more of the calculation points, and manipulating the virtual object by interaction between at least some of the calculation points of the predictive model and the dynamically selected manipulation point.

Classes IPC  ?

  • G06F 3/04842 - Sélection des objets affichés ou des éléments de texte affichés
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/042 - Numériseurs, p. ex. pour des écrans ou des pavés tactiles, caractérisés par les moyens de transduction par des moyens opto-électroniques
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06N 5/04 - Modèles d’inférence ou de raisonnement

96.

User-defined virtual interaction space and manipulation of virtual configuration

      
Numéro d'application 17486755
Numéro de brevet 11567583
Statut Délivré - en vigueur
Date de dépôt 2021-09-27
Date de la première publication 2022-01-13
Date d'octroi 2023-01-31
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Cohen, Isaac
  • Sills, Maxwell

Abrégé

The technology disclosed relates to creating user-defined interaction spaces and modalities in a three dimensional (3D) sensor space in response to control gestures. It also relates to controlling virtual cameras in the 3D sensor space using control gestures and manipulating controls of the virtual cameras through the control gestures. In particular, it relates to defining one or more spatial attributes of the interaction spaces and modalities in response to one or more gesture parameters of the control gesture. It also particularly relates to defining one or more visual parameters of a virtual camera in response to one or more gesture parameters of the control gesture.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/04845 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p. ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs pour la transformation d’images, p. ex. glissement, rotation, agrandissement ou changement de couleur
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/04842 - Sélection des objets affichés ou des éléments de texte affichés
  • G06T 15/20 - Calcul de perspectives

97.

Drift cancelation for portable object detection and tracking

      
Numéro d'application 17409675
Numéro de brevet 11537196
Statut Délivré - en vigueur
Date de dépôt 2021-08-23
Date de la première publication 2021-12-09
Date d'octroi 2022-12-27
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

The technology disclosed can provide capabilities such as using motion sensors and/or other types of sensors coupled to a motion-capture system to monitor motions within a real environment. A virtual object can be projected to a user of a portable device integrated into an augmented rendering of a real environment about the user. Motion information of a user body portion is determined based at least in part upon sensory information received from imaging or acoustic sensory devices. Control information is communicated to a system based in part on a combination of the motion of the portable device and the detected motion of the user. The virtual device experience can be augmented in some implementations by the addition of haptic, audio and/or other sensory information projectors.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G02B 27/01 - Dispositifs d'affichage "tête haute"

98.

Interacting with a machine using gestures in first and second user-specific virtual planes

      
Numéro d'application 17409767
Numéro de brevet 12333081
Statut Délivré - en vigueur
Date de dépôt 2021-08-23
Date de la première publication 2021-12-09
Date d'octroi 2025-06-17
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Dabir, Avinash
  • Durdik, Paul
  • Mertens, Keith
  • Zagorsek, Michael

Abrégé

Methods and systems for processing an input are disclosed that detect a portion of a hand and/or other detectable object in a region of space monitored by a 3D sensor. The method further includes determining a zone corresponding to the region of space in which the portion of the hand or other detectable object was detected. Also, the method can include determining from the zone a correct way to interpret inputs made by a position, shape or a motion of the portion of the hand or other detectable object.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06V 40/10 - Corps d’êtres humains ou d’animaux, p. ex. occupants de véhicules automobiles ou piétonsParties du corps, p. ex. mains
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes

99.

Wearable augmented reality devices with object detection and tracking

      
Numéro d'application 17384699
Numéro de brevet 11676349
Statut Délivré - en vigueur
Date de dépôt 2021-07-23
Date de la première publication 2021-11-11
Date d'octroi 2023-06-13
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s) Holz, David S.

Abrégé

The technology disclosed can provide capabilities to view and/or interact with the real world to the user of a wearable (or portable) device using a sensor configured to capture motion and/or determining the path of an object based on imaging, acoustic or vibrational waves. Implementations can enable improved user experience, greater safety, greater functionality to users of virtual reality for machine control and/or machine communications applications using wearable (or portable) devices, e.g., head mounted devices (HMDs), wearable goggles, watch computers, smartphones, and so forth, or mobile devices, e.g., autonomous and semi-autonomous robots, factory floor material handling systems, autonomous mass-transit vehicles, automobiles (human or machine driven), and so forth, equipped with suitable sensors and processors employing optical, audio or vibrational detection.

Classes IPC  ?

  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G09G 5/18 - Circuits de synchronisation pour l'affichage à balayage par trame
  • G06F 3/147 - Sortie numérique vers un dispositif de visualisation utilisant des panneaux de visualisation

100.

User-defined virtual interaction space and manipulation of virtual cameras with vectors

      
Numéro d'application 17378428
Numéro de brevet 11460929
Statut Délivré - en vigueur
Date de dépôt 2021-07-16
Date de la première publication 2021-11-04
Date d'octroi 2022-10-04
Propriétaire Ultrahaptics IP Two Limited (Royaume‑Uni)
Inventeur(s)
  • Cohen, Isaac
  • Sills, Maxwell
  • Durdik, Paul

Abrégé

The technology disclosed relates to creating user-defined interaction spaces and modalities in a three dimensional (3D) sensor space in response to control gestures. It also relates to controlling virtual cameras in the 3D sensor space using control gestures and manipulating controls of the virtual cameras through the control gestures. In particular, it relates to defining one or more spatial attributes of the interaction spaces and modalities in response to one or more gesture parameters of the control gesture. It also particularly relates to defining one or more visual parameters of a virtual camera in response to one or more gesture parameters of the control gesture.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
  • G06F 3/04845 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p. ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs pour la transformation d’images, p. ex. glissement, rotation, agrandissement ou changement de couleur
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/04842 - Sélection des objets affichés ou des éléments de texte affichés
  • G06T 15/20 - Calcul de perspectives
  1     2     3     4        Prochaine page