Tomahawk Robotics, Inc.

États‑Unis d’Amérique

Retour au propriétaire

1-30 de 30 pour Tomahawk Robotics, Inc. Trier par
Recheche Texte
Affiner par
Type PI
        Brevet 28
        Marque 2
Juridiction
        États-Unis 24
        International 6
Date
2025 juillet 4
2025 mai 1
2025 (AACJ) 15
2024 4
2023 5
Voir plus
Classe IPC
G05D 1/00 - Commande de la position, du cap, de l'altitude ou de l'attitude des véhicules terrestres, aquatiques, aériens ou spatiaux, p. ex. utilisant des pilotes automatiques 10
G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p. ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaison 8
B62D 57/02 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques 5
G05D 1/24 - Dispositions pour déterminer la position ou l’orientation 5
G06V 10/70 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique 5
Voir plus
Classe NICE
09 - Appareils et instruments scientifiques et électriques 2
42 - Services scientifiques, technologiques et industriels, recherche et conception 2
35 - Publicité; Affaires commerciales 1
Statut
En Instance 10
Enregistré / En vigueur 20

1.

MOTION PLANNING USING ACCELERATION PROFILES

      
Numéro d'application US2024061988
Numéro de publication 2025/151295
Statut Délivré - en vigueur
Date de dépôt 2024-12-26
Date de publication 2025-07-17
Propriétaire TOMAHAWK ROBOTICS, INC. (USA)
Inventeur(s)
  • Moffett, Mark B.
  • Bowman, William S.
  • Summer, Matthew D.
  • Williams, Timothy M.

Abrégé

Methods and systems are described herein for navigating a vehicle. A target location may be received, and based on the target location and vehicle parameters, an acceleration profile for the vehicle may be generated. The acceleration profile may include a first duration for accelerating the vehicle and a second duration for not accelerating the vehicle. When the acceleration profile is generated, a trajectory profile for travelling to the target location may be generated using the acceleration profile. The trajectory profile may include multiple instances of the acceleration profile. When the trajectory profile is being executed, a distance travelled by the vehicle after each instance of the acceleration profile is executed may be calculated. Based on the distance travelled after each instance of the acceleration profile is executed, an instance of when the target location is reached may be determined.

Classes IPC  ?

  • G01C 21/10 - NavigationInstruments de navigation non prévus dans les groupes en utilisant des mesures de la vitesse ou de l'accélération
  • G01C 21/00 - NavigationInstruments de navigation non prévus dans les groupes
  • G01C 21/34 - Recherche d'itinéraireGuidage en matière d'itinéraire
  • G01C 22/00 - Mesure de la distance parcourue sur le sol par des véhicules, des personnes, des animaux ou autres corps solides en mouvement, p. ex. en utilisant des odomètres ou en utilisant des podomètres

2.

COMPUTER VISION CLASSIFIER DEFINED PATH PLANNING FOR UNMANNED AERIAL VEHICLES

      
Numéro d'application 19172411
Statut En instance
Date de dépôt 2025-04-07
Date de la première publication 2025-07-17
Propriétaire Tomahawk Robotics, Inc. (USA)
Inventeur(s)
  • Bowman, William S.
  • Moffett, Mark B.
  • Falendysz, Andrew D.
  • Bowman, Michael E.
  • Holt, Michael W.
  • Williams, Timothy M.
  • Danko, Matthew R.
  • Summer, Matthew D.

Abrégé

Methods and systems are described herein for enabling aerial vehicle navigation in GPS-denied areas. The system may use a camera to record images of terrain as the aerial vehicle is flying to a target location. The system may then detect (e.g., using a machine learning model) objects within those images and compare those objects with objects within an electronic map that was loaded onto the aerial vehicle. When the system finds one or more objects within the electronic map that match the objects detected within the recorded images, the system may retrieve locations (e.g., GPS coordinates) of the objects within the electronic map and calculate, based on the coordinates, the location of the aerial vehicle. Once the location of the aerial vehicle is determined, the system may navigate to a target location or otherwise adjust a flight path of the aerial vehicle.

Classes IPC  ?

  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06T 7/50 - Récupération de la profondeur ou de la forme
  • G06T 7/90 - Détermination de caractéristiques de couleur

3.

TRAJECTORY MAPPING USING ACCELERATION PROFILES

      
Numéro d'application US2024061990
Numéro de publication 2025/151296
Statut Délivré - en vigueur
Date de dépôt 2024-12-26
Date de publication 2025-07-17
Propriétaire TOMAHAWK ROBOTICS, INC. (USA)
Inventeur(s)
  • Bowman, William S.
  • Bowman, Michael E.
  • Moffett, Mark B.
  • Summer, Matthew D.
  • Danko, Matthew R.

Abrégé

Methods and systems are described herein for navigating a vehicle. A target location may be received, and based on the target location and vehicle parameters, an acceleration profile for the vehicle may be generated. The acceleration profile may include a first duration for accelerating the vehicle and a second duration for not accelerating the vehicle. When the acceleration profile is generated, a trajectory profile for travelling to the target location may be generated using the acceleration profile. The trajectory profile may include multiple instances of the acceleration profile. When the trajectory profile is being executed, a distance travelled by the vehicle after each instance of the acceleration profile is executed may be calculated. Based on the distance travelled after each instance of the acceleration profile is executed, an instance of when the target location is reached may be determined.

Classes IPC  ?

  • G01C 21/10 - NavigationInstruments de navigation non prévus dans les groupes en utilisant des mesures de la vitesse ou de l'accélération
  • G01C 21/00 - NavigationInstruments de navigation non prévus dans les groupes
  • G01C 21/34 - Recherche d'itinéraireGuidage en matière d'itinéraire
  • G01C 22/00 - Mesure de la distance parcourue sur le sol par des véhicules, des personnes, des animaux ou autres corps solides en mouvement, p. ex. en utilisant des odomètres ou en utilisant des podomètres

4.

MOTION PLANNING USING ACCELERATION PROFILES

      
Numéro d'application 18409720
Statut En instance
Date de dépôt 2024-01-10
Date de la première publication 2025-07-10
Propriétaire Tomahawk Robotics, Inc. (USA)
Inventeur(s)
  • Moffett, Mark B.
  • Bowman, William S.
  • Summer, Matthew D.
  • Williams, Timothy M.

Abrégé

Methods and systems are described herein for navigating a vehicle. A target location may be received, and based on the target location and vehicle parameters, an acceleration profile for the vehicle may be generated. The acceleration profile may include a first duration for accelerating the vehicle and a second duration for not accelerating the vehicle. When the acceleration profile is generated, a trajectory profile for travelling to the target location may be generated using the acceleration profile. The trajectory profile may include multiple instances of the acceleration profile. When the trajectory profile is being executed, a distance travelled by the vehicle after each instance of the acceleration profile is executed may be calculated. Based on the distance travelled after each instance of the acceleration profile is executed, an instance of when the target location is reached may be determined.

Classes IPC  ?

  • G05D 1/229 - Données d’entrée de commande, p. ex. points de passage
  • G05D 1/245 - Dispositions pour déterminer la position ou l’orientation utilisant la navigation à l’estime
  • G05D 109/20 - Aéronefs, p. ex. drones
  • G05D 111/50 - Signaux internes, c.-à-d. provenant de capteurs situés à l’intérieur du véhicule, p. ex. boussoles ou capteurs angulaires

5.

INERTIALLY ISOLATED SPATIAL CONTROL

      
Numéro d'application 19014558
Statut En instance
Date de dépôt 2025-01-09
Date de la première publication 2025-05-08
Propriétaire Tomahawk Robotics, Inc. (USA)
Inventeur(s)
  • Bowman, Michael E.
  • Bowman, William S.
  • Hedman, Daniel R.
  • Summer, Matthew D.
  • Falendysz, Andrew D.
  • Makovy, Kevin
  • Holt, Michael W.

Abrégé

Methods and systems are described herein for detecting motion-induced errors received from inertial-type input devices and for generating accurate vehicle control commands that account for operator movement. These methods and systems may determine, using motion data from inertial sensors, whether the hand/arm of the operator is moving in the same motion as the body of the operator, and if both are moving in the same way, these systems and methods may determine that the motion is not intended to be a motion-induced command. However, if the hand/arm of the operator is moving in a different motion from the body of the operator, these methods and systems may determine that the operator intended the motion to be a motion-induced command to a vehicle.

Classes IPC  ?

  • G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p. ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaison

6.

POINT OF INTEREST TRACKING AND ESTIMATION

      
Numéro d'application 18959555
Statut En instance
Date de dépôt 2024-11-25
Date de la première publication 2025-03-13
Propriétaire Tomahawk Robotics, Inc. (USA)
Inventeur(s)
  • Hedman, Daniel R.
  • Summer, Matthew D.
  • Bowman, William S.
  • Bowman, Michael E.
  • Truesdell, Brad
  • Falendysz, Andrew D.

Abrégé

Methods and systems are described herein for determining three-dimensional locations of objects within identified portions of images. An image processing system may receive an image and an identification of location within an image. The image may be input into a machine learning model to detect one or more objects within the identified location. Multiple images may then be used to generate location estimations of those objects. Based on the location estimations, an accurate three-dimensional location may be calculated.

Classes IPC  ?

  • G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
  • G06T 7/60 - Analyse des attributs géométriques
  • G06V 10/774 - Génération d'ensembles de motifs de formationTraitement des caractéristiques d’images ou de vidéos dans les espaces de caractéristiquesDispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique utilisant l’intégration et la réduction de données, p. ex. analyse en composantes principales [PCA] ou analyse en composantes indépendantes [ ICA] ou cartes auto-organisatrices [SOM]Séparation aveugle de source méthodes de Bootstrap, p. ex. "bagging” ou “boosting”
  • G06V 20/17 - Scènes terrestres transmises par des avions ou des drones
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes
  • H04N 7/18 - Systèmes de télévision en circuit fermé [CCTV], c.-à-d. systèmes dans lesquels le signal vidéo n'est pas diffusé
  • H04N 23/661 - Transmission des signaux de commande de la caméra par le biais de réseaux, p. ex. la commande via Internet

7.

UNIVERSAL MULTIMODAL PAYLOAD CONTROL

      
Numéro d'application 18453778
Statut En instance
Date de dépôt 2023-08-22
Date de la première publication 2025-02-27
Propriétaire Tomahawk Robotics, Inc (USA)
Inventeur(s)
  • Holt, Michael W.
  • Bowman, William S.
  • Summer, Matthew D.
  • Moffett, Mark B.

Abrégé

Methods and systems are described herein for a payload management system that may detect that a payload has been attached to an uncrewed vehicle and determine whether the payload is a restricted payload or an unrestricted payload. Based on determining that the payload is an unrestricted payload, the payload management system may establish a connection between the payload and the operator using a first communication channel that has already been established between the uncrewed vehicle and the operator. Based on determining that the payload is a restricted payload, the payload management system may establish a connection between the payload and operator using a second communication channel. The payload management system may listen for restricted payload commands over the second communication channel, and when a payload command is received via the second communication channel, the payload command may be executed using the restricted payload.

Classes IPC  ?

  • G05B 15/02 - Systèmes commandés par un calculateur électriques
  • G05D 1/00 - Commande de la position, du cap, de l'altitude ou de l'attitude des véhicules terrestres, aquatiques, aériens ou spatiaux, p. ex. utilisant des pilotes automatiques

8.

UNIVERSAL MULTIMODAL PAYLOAD CONTROL

      
Numéro d'application US2024042962
Numéro de publication 2025/042854
Statut Délivré - en vigueur
Date de dépôt 2024-08-19
Date de publication 2025-02-27
Propriétaire TOMAHAWK ROBOTICS, INC. (USA)
Inventeur(s)
  • Holt, Michael W.
  • Bowman, William S.
  • Summer, Matthew D.
  • Moffett, Mark B.

Abrégé

Methods and systems are described herein for a payload management system that may detect that a payload has been attached to an uncrewed vehicle and determine whether the payload is a restricted payload or an unrestricted payload. Based on determining that the payload is an unrestricted payload, the payload management system may establish a connection between the payload and the operator using a first communication channel that has already been established between the uncrewed vehicle and the operator. Based on determining that the payload is a restricted payload, the payload management system may establish a connection between the payload and operator using a second communication channel. The payload management system may listen for restricted payload commands over the second communication channel, and when a payload command is received via the second communication channel, the payload command may be executed using the restricted payload.

Classes IPC  ?

  • B25J 9/16 - Commandes à programme
  • B25J 13/08 - Commandes pour manipulateurs au moyens de dispositifs sensibles, p. ex. à la vue ou au toucher
  • B25J 19/02 - Dispositifs sensibles

9.

Computer vision classifier defined path planning for unmanned aerial vehicles

      
Numéro d'application 18446450
Numéro de brevet 12293538
Statut Délivré - en vigueur
Date de dépôt 2023-08-08
Date de la première publication 2025-02-13
Date d'octroi 2025-05-06
Propriétaire Tomahawk Robotics, Inc. (USA)
Inventeur(s)
  • Bowman, William S.
  • Moffett, Mark B.
  • Falendysz, Andrew D.
  • Bowman, Michael E.
  • Holt, Michael W.
  • Williams, Timothy M.
  • Danko, Matthew R.
  • Summer, Matthew D.

Abrégé

Methods and systems are described herein for enabling aerial vehicle navigation in GPS-denied areas. The system may use a camera to record images of terrain as the aerial vehicle is flying to a target location. The system may then detect (e.g., using a machine learning model) objects within those images and compare those objects with objects within an electronic map that was loaded onto the aerial vehicle. When the system finds one or more objects within the electronic map that match the objects detected within the recorded images, the system may retrieve locations (e.g., GPS coordinates) of the objects within the electronic map and calculate, based on the coordinates, the location of the aerial vehicle. Once the location of the aerial vehicle is determined, the system may navigate to a target location or otherwise adjust a flight path of the aerial vehicle.

Classes IPC  ?

  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06T 7/50 - Récupération de la profondeur ou de la forme
  • G06T 7/90 - Détermination de caractéristiques de couleur

10.

COMPUTER VISION CLASSIFIER DEFINED PATH PLANNING FOR UNMANNED AERIAL VEHICLES

      
Numéro d'application US2024041348
Numéro de publication 2025/034910
Statut Délivré - en vigueur
Date de dépôt 2024-08-07
Date de publication 2025-02-13
Propriétaire TOMAHAWK ROBOTICS, INC. (USA)
Inventeur(s)
  • Bowman, William S.
  • Moffett, Mark B.
  • Falendysz, Andrew D.
  • Bowman, Michael E.
  • Holt, Michael W.
  • Williams, Timothy M.
  • Danko, Matthew R.
  • Summer, Matthew D.

Abrégé

Methods and systems are described herein for enabling aerial vehicle navigation in GPS-denied areas. The system may use a camera to record images of terrain as the aerial vehicle is flying to a target location. The system may then detect (e.g., using a machine learning model) objects within those images and compare those objects with objects within an electronic map that was loaded onto the aerial vehicle. When the system finds one or more objects within the electronic map that match the objects detected within the recorded images, the system may retrieve locations (e.g., GPS coordinates) of the objects within the electronic map and calculate, based on the coordinates, the location of the aerial vehicle. Once the location of the aerial vehicle is determined, the system may navigate to a target location or otherwise adjust a flight path of the aerial vehicle.

Classes IPC  ?

  • G05D 1/80 - Dispositions visant à réagir aux défaillances du système ou d’origine humaine ou à les prévenir
  • G05D 1/46 - Commande de la position ou du cap dans les trois dimensions
  • G05D 1/243 - Moyens de capture de signaux provenant naturellement de l’environnement, p. ex. signaux optiques, acoustiques, gravitationnels ou magnétiques ambiants
  • G05D 1/246 - Dispositions pour déterminer la position ou l’orientation utilisant des cartes d’environnement, p. ex. localisation et cartographie simultanées [SLAM]
  • G06V 20/17 - Scènes terrestres transmises par des avions ou des drones
  • G06T 7/90 - Détermination de caractéristiques de couleur
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06V 10/762 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique utilisant le regroupement, p. ex. de visages similaires sur les réseaux sociaux
  • B64U 20/87 - Montage des dispositifs d’imagerie, p. ex. montage des suspensions à cardan
  • G06N 20/00 - Apprentissage automatique

11.

LAYERED FAIL-SAFE REDUNDANCY ARCHITECTURE AND PROCESS FOR USE BY SINGLE DATA BUS MOBILE DEVICE

      
Numéro d'application 18353866
Statut En instance
Date de dépôt 2023-07-17
Date de la première publication 2025-01-23
Propriétaire Tomahawk Robotics, Inc. (USA)
Inventeur(s)
  • Bowman, William S.
  • Falendysz, Andrew D.
  • Makovy, Kevin M.
  • Summer, Matthew D.
  • Bowman, Michael E.
  • Holt, Michael W.
  • Moffett, Mark B.

Abrégé

Methods and systems are described herein for a layered fail-safe redundancy system and architecture for privileged operation execution. The system may receive vehicle maneuvering commands from a controller over a first channel. When a user input is received to initiate a privileged mode for executing privileged commands, the system may receive a privileged command over a second channel. The system may identify, based on the privileged mode of operation and the privileged command, a privileged operation to be performed by a vehicle. The system may then transmit a request to the vehicle to perform the privileged operation.

Classes IPC  ?

  • H04L 12/40 - Réseaux à ligne bus
  • G05D 1/00 - Commande de la position, du cap, de l'altitude ou de l'attitude des véhicules terrestres, aquatiques, aériens ou spatiaux, p. ex. utilisant des pilotes automatiques

12.

SYSTEMS AND METHODS OF DETECTING INTENT OF SPATIAL CONTROL

      
Numéro d'application 18908639
Statut En instance
Date de dépôt 2024-10-07
Date de la première publication 2025-01-23
Propriétaire Tomahawk Robotics, Inc. (USA)
Inventeur(s)
  • Summer, Matthew D.
  • Bowman, William S.
  • Falendysz, Andrew D.
  • Makovy, Kevin M.
  • Hedman, Daniel R.
  • Truesdell, Bradley D.

Abrégé

Systems and methods of manipulating/controlling robots. In many scenarios, data collected by a sensor (connected to a robot) may not have very high precision (e.g., a regular commercial/inexpensive sensor) or may be subjected to dynamic environmental changes. Thus, the data collected by the sensor may not indicate the parameter captured by the sensor with high accuracy. The present robotic control system is directed at such scenarios. In some embodiments, the disclosed embodiments can be used for computing a sliding velocity limit boundary for a spatial controller. In some embodiments, the disclosed embodiments can be used for teleoperation of a vehicle located in the field of view of a camera.

Classes IPC  ?

  • G05D 1/00 - Commande de la position, du cap, de l'altitude ou de l'attitude des véhicules terrestres, aquatiques, aériens ou spatiaux, p. ex. utilisant des pilotes automatiques
  • B62D 57/02 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques
  • G05D 1/222 - Dispositions de commande à distance actionnées par des humains
  • G05D 1/223 - Dispositions d’entrée de commande sur les dispositifs de commande à distance, p. ex. manches à balai ou écrans tactiles
  • G05D 1/224 - Dispositions de sortie sur les dispositifs de commande à distance, p. ex. écrans, dispositifs haptiques ou haut-parleurs
  • G05D 1/24 - Dispositions pour déterminer la position ou l’orientation
  • G05D 1/65 - Suivi d’un profil de vitesse souhaité
  • G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p. ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaison

13.

LAYERED FAIL-SAFE REDUNDANCY ARCHITECTURE AND PROCESS FOR USE BY SINGLE DATA BUS MOBILE DEVICE

      
Numéro d'application US2024038114
Numéro de publication 2025/019462
Statut Délivré - en vigueur
Date de dépôt 2024-07-15
Date de publication 2025-01-23
Propriétaire TOMAHAWK ROBOTICS, INC. (USA)
Inventeur(s)
  • Bowman, William S.
  • Falendysz, Andrew D.
  • Makovy, Kevin M.
  • Summer, Matthew D.
  • Bowman, Michael E.
  • Holt, Michael W.
  • Moffett, Mark B.

Abrégé

Methods and systems are described herein for a layered fail-safe redundancy system and architecture for privileged operation execution. The system may receive vehicle maneuvering commands from a controller over a first channel. When a user input is received to initiate a privileged mode for executing privileged commands, the system may receive a privileged command over a second channel. The system may identify, based on the privileged mode of operation and the privileged command, a privileged operation to be performed by a vehicle. The system may then transmit a request to the vehicle to perform the privileged operation.

Classes IPC  ?

  • G05D 1/226 - Liaisons de communication avec les dispositions de commande à distance
  • G05D 1/80 - Dispositions visant à réagir aux défaillances du système ou d’origine humaine ou à les prévenir
  • H04W 12/06 - Authentification
  • H04W 12/03 - Protection de la confidentialité, p. ex. par chiffrement

14.

POINT OF INTEREST TRACKING AND ESTIMATION

      
Numéro d'application US2024037481
Numéro de publication 2025/015113
Statut Délivré - en vigueur
Date de dépôt 2024-07-10
Date de publication 2025-01-16
Propriétaire TOMAHAWK ROBOTICS, INC. (USA)
Inventeur(s)
  • Hedman, Daniel R.
  • Summer, Matthew D.
  • Bowman, William S.
  • Bowman, Michael E.
  • Truesdell, Brad
  • Falendysz, Andrew D.

Abrégé

Methods and systems are described herein for determining three-dimensional locations of objects within identified portions of images. An image processing system may receive an image and an identification of location within an image. The image may be input into a machine learning model to detect one or more objects within the identified location. Multiple images may then be used to generate location estimations of those objects. Based on the location estimations, an accurate three-dimensional location may be calculated.

Classes IPC  ?

  • G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
  • G05D 1/24 - Dispositions pour déterminer la position ou l’orientation

15.

Point of interest tracking and estimation

      
Numéro d'application 18350722
Numéro de brevet 12198377
Statut Délivré - en vigueur
Date de dépôt 2023-07-11
Date de la première publication 2025-01-14
Date d'octroi 2025-01-14
Propriétaire Tomahawk Robotics, Inc. (USA)
Inventeur(s)
  • Hedman, Daniel R.
  • Summer, Matthew D.
  • Bowman, William S.
  • Bowman, Michael E.
  • Truesdell, Brad
  • Falendysz, Andrew D.

Abrégé

Methods and systems are described herein for determining three-dimensional locations of objects within identified portions of images. An image processing system may receive an image and an identification of location within an image. The image may be input into a machine learning model to detect one or more objects within the identified location. Multiple images may then be used to generate location estimations of those objects. Based on the location estimations, an accurate three-dimensional location may be calculated.

Classes IPC  ?

  • H04N 7/18 - Systèmes de télévision en circuit fermé [CCTV], c.-à-d. systèmes dans lesquels le signal vidéo n'est pas diffusé
  • G06T 7/60 - Analyse des attributs géométriques
  • G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
  • G06V 10/774 - Génération d'ensembles de motifs de formationTraitement des caractéristiques d’images ou de vidéos dans les espaces de caractéristiquesDispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique utilisant l’intégration et la réduction de données, p. ex. analyse en composantes principales [PCA] ou analyse en composantes indépendantes [ ICA] ou cartes auto-organisatrices [SOM]Séparation aveugle de source méthodes de Bootstrap, p. ex. "bagging” ou “boosting”
  • G06V 20/17 - Scènes terrestres transmises par des avions ou des drones
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes
  • H04N 23/661 - Transmission des signaux de commande de la caméra par le biais de réseaux, p. ex. la commande via Internet

16.

CLASSIFICATION PARALLELIZATION ARCHITECTURE

      
Numéro d'application 18800296
Statut En instance
Date de dépôt 2024-08-12
Date de la première publication 2024-12-05
Propriétaire Tomahawk Robotics, Inc. (USA)
Inventeur(s)
  • Bowman, William S.
  • Wagoner, Sean
  • Falendysz, Andrew D.
  • Summer, Matthew D.
  • Makovy, Kevin
  • Cooper, Jeffrey S.
  • Truesdell, Brad

Abrégé

Methods and systems are described herein for hosting and arbitrating algorithms for the generation of structured frames of data from one or more sources of unstructured input frames. A plurality of frames may be received from a recording device and a plurality of object types to be recognized in the plurality of frames may be determined. A determination may be made of multiple machine learning models for recognizing the object types. The frames may be sequentially input into the machine learning models to obtain a plurality of sets of objects from the plurality of machine learning models and object indicators may be received from those machine learning models. A set of composite frames with the plurality of indicators corresponding to the plurality of objects may be generated, and an output stream may be generated including the set of composite frames to be played back in chronological order.

Classes IPC  ?

  • G06V 10/96 - Gestion de tâches de reconnaissance d’images ou de vidéos
  • G05B 13/02 - Systèmes de commande adaptatifs, c.-à-d. systèmes se réglant eux-mêmes automatiquement pour obtenir un rendement optimal suivant un critère prédéterminé électriques
  • G06V 10/70 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique
  • G06V 10/764 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique utilisant la classification, p. ex. des objets vidéo
  • G06V 10/94 - Architectures logicielles ou matérielles spécialement adaptées à la compréhension d’images ou de vidéos
  • G06V 20/56 - Contexte ou environnement de l’image à l’extérieur d’un véhicule à partir de capteurs embarqués

17.

Classification parallelization architecture

      
Numéro d'application 18772099
Numéro de brevet 12266164
Statut Délivré - en vigueur
Date de dépôt 2024-07-12
Date de la première publication 2024-11-14
Date d'octroi 2025-04-01
Propriétaire Tomahawk Robotics, Inc. (USA)
Inventeur(s)
  • Bowman, William S.
  • Wagoner, Sean
  • Falendysz, Andrew D.
  • Summer, Matthew D.
  • Makovy, Kevin
  • Cooper, Jeffrey S.
  • Truesdell, Brad

Abrégé

Methods and systems are described herein for hosting and arbitrating algorithms for the generation of structured frames of data from one or more sources of unstructured input frames. A plurality of frames may be received from a recording device and a plurality of object types to be recognized in the plurality of frames may be determined. A determination may be made of multiple machine learning models for recognizing the object types. The frames may be sequentially input into the machine learning models to obtain a plurality of sets of objects from the plurality of machine learning models and object indicators may be received from those machine learning models. A set of composite frames with the plurality of indicators corresponding to the plurality of objects may be generated, and an output stream may be generated including the set of composite frames to be played back in chronological order.

Classes IPC  ?

  • G06V 10/764 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique utilisant la classification, p. ex. des objets vidéo
  • G05B 13/02 - Systèmes de commande adaptatifs, c.-à-d. systèmes se réglant eux-mêmes automatiquement pour obtenir un rendement optimal suivant un critère prédéterminé électriques
  • G06V 10/70 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique
  • G06V 10/94 - Architectures logicielles ou matérielles spécialement adaptées à la compréhension d’images ou de vidéos
  • G06V 10/96 - Gestion de tâches de reconnaissance d’images ou de vidéos
  • G06V 20/56 - Contexte ou environnement de l’image à l’extérieur d’un véhicule à partir de capteurs embarqués

18.

Systems and methods of detecting intent of spatial control

      
Numéro d'application 18540632
Numéro de brevet 12189386
Statut Délivré - en vigueur
Date de dépôt 2023-12-14
Date de la première publication 2024-04-04
Date d'octroi 2025-01-07
Propriétaire Tomahawk Robotics, Inc. (USA)
Inventeur(s)
  • Summer, Matthew D.
  • Bowman, William S.
  • Falendysz, Andrew D.
  • Makovy, Kevin M.
  • Hedman, Daniel R.
  • Truesdell, Bradley D.

Abrégé

Systems and methods of manipulating/controlling robots. In many scenarios, data collected by a sensor (connected to a robot) may not have very high precision (e.g., a regular commercial/inexpensive sensor) or may be subjected to dynamic environmental changes. Thus, the data collected by the sensor may not indicate the parameter captured by the sensor with high accuracy. The present robotic control system is directed at such scenarios. In some embodiments, the disclosed embodiments can be used for computing a sliding velocity limit boundary for a spatial controller. In some embodiments, the disclosed embodiments can be used for teleoperation of a vehicle located in the field of view of a camera.

Classes IPC  ?

  • G05D 1/00 - Commande de la position, du cap, de l'altitude ou de l'attitude des véhicules terrestres, aquatiques, aériens ou spatiaux, p. ex. utilisant des pilotes automatiques
  • B62D 57/02 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques
  • G05D 1/222 - Dispositions de commande à distance actionnées par des humains
  • G05D 1/223 - Dispositions d’entrée de commande sur les dispositifs de commande à distance, p. ex. manches à balai ou écrans tactiles
  • G05D 1/224 - Dispositions de sortie sur les dispositifs de commande à distance, p. ex. écrans, dispositifs haptiques ou haut-parleurs
  • G05D 1/24 - Dispositions pour déterminer la position ou l’orientation
  • G05D 1/65 - Suivi d’un profil de vitesse souhaité
  • G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p. ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaison

19.

ARCHITECTURE FOR DISTRIBUTED ARTIFICIAL INTELLIGENCE AUGMENTATION

      
Numéro d'application 17930399
Statut En instance
Date de dépôt 2022-09-07
Date de la première publication 2024-03-07
Propriétaire Tomahawk Robotics, Inc. (USA)
Inventeur(s)
  • Hedman, Daniel R.
  • Bowman, William S.
  • Summer, Matthew D.
  • Korte, Bryce
  • Falendysz, Andrew D.

Abrégé

Methods and systems are described herein for determining three-dimensional locations of objects within a video stream and linking those objects with known objects. An image processing system may receive an image and image metadata and detect an object and a location of the object within the image. The estimated location of each object is then determined within the three-dimensional space. In addition, the image processing system may retrieve, for a plurality of known objects, a plurality of known locations within the three-dimensional space and determine, based on estimated location and the known location data, which of the known objects matches the detected object in the image. An indicator for the object is then generated at the location of the object within the image.

Classes IPC  ?

  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06V 10/764 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique utilisant la classification, p. ex. des objets vidéo

20.

Classification parallelization architecture

      
Numéro d'application 18454055
Numéro de brevet 12067768
Statut Délivré - en vigueur
Date de dépôt 2023-08-22
Date de la première publication 2023-12-07
Date d'octroi 2024-08-20
Propriétaire Tomahawk Robotics, Inc. (USA)
Inventeur(s)
  • Bowman, William S.
  • Wagoner, Sean
  • Falendysz, Andrew D.
  • Summer, Matthew D.
  • Makovy, Kevin
  • Cooper, Jeffrey S.
  • Truesdell, Brad

Abrégé

Methods and systems are described herein for hosting and arbitrating algorithms for the generation of structured frames of data from one or more sources of unstructured input frames. A plurality of frames may be received from a recording device and a plurality of object types to be recognized in the plurality of frames may be determined. A determination may be made of multiple machine learning models for recognizing the object types. The frames may be sequentially input into the machine learning models to obtain a plurality of sets of objects from the plurality of machine learning models and object indicators may be received from those machine learning models. A set of composite frames with the plurality of indicators corresponding to the plurality of objects may be generated, and an output stream may be generated including the set of composite frames to be played back in chronological order.

Classes IPC  ?

  • G06V 10/70 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique
  • G05B 13/02 - Systèmes de commande adaptatifs, c.-à-d. systèmes se réglant eux-mêmes automatiquement pour obtenir un rendement optimal suivant un critère prédéterminé électriques
  • G06V 10/764 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique utilisant la classification, p. ex. des objets vidéo
  • G06V 10/94 - Architectures logicielles ou matérielles spécialement adaptées à la compréhension d’images ou de vidéos
  • G06V 10/96 - Gestion de tâches de reconnaissance d’images ou de vidéos
  • G06V 20/56 - Contexte ou environnement de l’image à l’extérieur d’un véhicule à partir de capteurs embarqués

21.

Inertially isolated spatial control

      
Numéro d'application 18311370
Numéro de brevet 12223124
Statut Délivré - en vigueur
Date de dépôt 2023-05-03
Date de la première publication 2023-10-19
Date d'octroi 2025-02-11
Propriétaire Tomahawk Robotics, Inc. (USA)
Inventeur(s)
  • Bowman, Michael E.
  • Bowman, William S.
  • Hedman, Daniel R.
  • Summer, Matthew D.
  • Falendysz, Andrew D.
  • Makovy, Kevin
  • Holt, Michael W.

Abrégé

Methods and systems are described herein for detecting motion-induced errors received from inertial-type input devices and for generating accurate vehicle control commands that account for operator movement. These methods and systems may determine, using motion data from inertial sensors, whether the hand/arm of the operator is moving in the same motion as the body of the operator, and if both are moving in the same way, these systems and methods may determine that the motion is not intended to be a motion-induced command. However, if the hand/arm of the operator is moving in a different motion from the body of the operator, these methods and systems may determine that the operator intended the motion to be a motion-induced command to a vehicle.

Classes IPC  ?

  • G06F 3/0488 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant un écran tactile ou une tablette numérique, p. ex. entrée de commandes par des tracés gestuels
  • G05D 1/00 - Commande de la position, du cap, de l'altitude ou de l'attitude des véhicules terrestres, aquatiques, aériens ou spatiaux, p. ex. utilisant des pilotes automatiques
  • G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p. ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaison

22.

Architecture for distributed artificial intelligence augmentation with objects detected using artificial intelligence models from data received from multiple sources

      
Numéro d'application 17702669
Numéro de brevet 12417629
Statut Délivré - en vigueur
Date de dépôt 2022-03-23
Date de la première publication 2023-07-27
Date d'octroi 2025-09-16
Propriétaire Tomahawk Robotics, Inc. (USA)
Inventeur(s)
  • Falendysz, Andrew D.
  • Bowman, William S.
  • Summer, Matthew D.
  • Hedman, Daniel R.
  • Wagoner, Sean

Abrégé

Methods and systems are described herein for generating composite data streams. A data stream processing system may receive multiple data streams from, for example, multiple unmanned vehicles and determine, based on the type of data within each data stream, a machine learning model for each data stream for processing the type of data. Each machine learning model may receive the frames of a corresponding data stream and output indications and locations of objects within those data streams. The data stream processing system may then generate a composite data stream with indications of the detected objects.

Classes IPC  ?

  • G06V 20/40 - ScènesÉléments spécifiques à la scène dans le contenu vidéo
  • B64C 39/02 - Aéronefs non prévus ailleurs caractérisés par un emploi spécial
  • G06N 20/20 - Techniques d’ensemble en apprentissage automatique
  • G06V 10/70 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique
  • B64U 101/30 - Véhicules aériens sans pilote spécialement adaptés à des utilisations ou à des applications spécifiques à l’imagerie, à la photographie ou à la vidéographie

23.

Classification parallelization architecture

      
Numéro d'application 17571081
Numéro de brevet 11776247
Statut Délivré - en vigueur
Date de dépôt 2022-01-07
Date de la première publication 2023-07-13
Date d'octroi 2023-10-03
Propriétaire TOMAHAWK ROBOTICS, INC. (USA)
Inventeur(s)
  • Bowman, William S.
  • Wagoner, Sean
  • Falendysz, Andrew D.
  • Summer, Matthew D.
  • Makovy, Kevin
  • Cooper, Jeffrey S.
  • Truesdell, Brad

Abrégé

Methods and systems are described herein for hosting and arbitrating algorithms for the generation of structured frames of data from one or more sources of unstructured input frames. A plurality of frames may be received from a recording device and a plurality of object types to be recognized in the plurality of frames may be determined. A determination may be made of multiple machine learning models for recognizing the object types. The frames may be sequentially input into the machine learning models to obtain a plurality of sets of objects from the plurality of machine learning models and object indicators may be received from those machine learning models. A set of composite frames with the plurality of indicators corresponding to the plurality of objects may be generated, and an output stream may be generated including the set of composite frames to be played back in chronological order.

Classes IPC  ?

  • G06V 10/70 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique
  • G06V 10/96 - Gestion de tâches de reconnaissance d’images ou de vidéos
  • G05B 13/02 - Systèmes de commande adaptatifs, c.-à-d. systèmes se réglant eux-mêmes automatiquement pour obtenir un rendement optimal suivant un critère prédéterminé électriques
  • G06V 10/94 - Architectures logicielles ou matérielles spécialement adaptées à la compréhension d’images ou de vidéos
  • G06V 20/56 - Contexte ou environnement de l’image à l’extérieur d’un véhicule à partir de capteurs embarqués
  • G06V 10/764 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique utilisant la classification, p. ex. des objets vidéo

24.

Inertially isolated spatial control

      
Numéro d'application 17720130
Numéro de brevet 11675445
Statut Délivré - en vigueur
Date de dépôt 2022-04-13
Date de la première publication 2023-06-13
Date d'octroi 2023-06-13
Propriétaire TOMAHAWK ROBOTICS, INC. (USA)
Inventeur(s)
  • Bowman, Michael E.
  • Bowman, William S.
  • Hedman, Daniel R.
  • Summer, Matthew D.
  • Falendysz, Andrew D.
  • Makovy, Kevin
  • Holt, Michael W.

Abrégé

Methods and systems are described herein for detecting motion-induced errors received from inertial-type input devices and for generating accurate vehicle control commands that account for operator movement. These methods and systems may determine, using motion data from inertial sensors, whether the hand/arm of the operator is moving in the same motion as the body of the operator, and if both are moving in the same way, these systems and methods may determine that the motion is not intended to be a motion-induced command. However, if the hand/arm of the operator is moving in a different motion from the body of the operator, these methods and systems may determine that the operator intended the motion to be a motion-induced command to a vehicle.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p. ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaison
  • G05D 1/00 - Commande de la position, du cap, de l'altitude ou de l'attitude des véhicules terrestres, aquatiques, aériens ou spatiaux, p. ex. utilisant des pilotes automatiques

25.

UNIVERSAL CONTROL ARCHITECTURE FOR CONTROL OF UNMANNED SYSTEMS

      
Numéro d'application 17571305
Statut En instance
Date de dépôt 2022-01-07
Date de la première publication 2022-12-29
Propriétaire TOMAHAWK ROBOTICS, INC. (USA)
Inventeur(s)
  • Summer, Matthew D.
  • Bowman, William S.
  • Falendysz, Andrew D.
  • Hedman, Daniel R.
  • Truesdell, Brad
  • Cooper, Jeffrey S.
  • Bowman, Michael E.
  • Wagoner, Sean
  • Makovy, Kevin

Abrégé

A common command and control architecture (alternatively termed herein as a “universal control architecture”) is disclosed that allows different unmanned systems, including different types of unmanned systems (e.g., air, ground, and/or maritime unmanned systems), to be controlled simultaneously through a common control device (e.g., a controller that can be an input and/or output device). The universal control architecture brings significant efficiency gains in engineering, deployment, training, maintenance, and future upgrades of unmanned systems. In addition, the disclosed common command and control architecture breaks the traditional stovepipe development involving deployment models and thus reducing hardware and software maintenance, creating a streamlined training/proficiency initiative, reducing physical space requirements for transport, and creating a scalable, more connected interoperable approach to control of unmanned systems over existing unmanned systems technology.

Classes IPC  ?

  • G05D 1/00 - Commande de la position, du cap, de l'altitude ou de l'attitude des véhicules terrestres, aquatiques, aériens ou spatiaux, p. ex. utilisant des pilotes automatiques

26.

Systems and methods of detecting intent of spatial control

      
Numéro d'application 17417176
Numéro de brevet 11886182
Statut Délivré - en vigueur
Date de dépôt 2019-12-31
Date de la première publication 2022-03-17
Date d'octroi 2024-01-30
Propriétaire Tomahawk Robotics, Inc. (USA)
Inventeur(s)
  • Summer, Matthew D.
  • Bowman, William S.
  • Falendysz, Andrew D.
  • Makovy, Kevin M.
  • Hedman, Daniel R.
  • Truesdell, Bradley D.

Abrégé

Systems and methods of manipulating/controlling robots. In many scenarios, data collected by a sensor (connected to a robot) may not have very high precision (e.g., a regular commercial/inexpensive sensor) or may be subjected to dynamic environmental changes. Thus, the data collected by the sensor may not indicate the parameter captured by the sensor with high accuracy. The present robotic control system is directed at such scenarios. In some embodiments, the disclosed embodiments can be used for computing a sliding velocity limit boundary for a spatial controller. In some embodiments, the disclosed embodiments can be used for teleoperation of a vehicle located in the field of view of a camera.

Classes IPC  ?

  • G05D 1/00 - Commande de la position, du cap, de l'altitude ou de l'attitude des véhicules terrestres, aquatiques, aériens ou spatiaux, p. ex. utilisant des pilotes automatiques
  • B62D 57/02 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques
  • G05D 1/02 - Commande de la position ou du cap par référence à un système à deux dimensions
  • G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p. ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaison

27.

Systems and methods of remote teleoperation of robotic vehicles

      
Numéro d'application 17417194
Numéro de brevet 12124256
Statut Délivré - en vigueur
Date de dépôt 2019-12-31
Date de la première publication 2022-03-17
Date d'octroi 2024-10-22
Propriétaire Tomahawk Robotics, Inc. (USA)
Inventeur(s)
  • Summer, Matthew D.
  • Bowman, William S.
  • Falendysz, Andrew D.
  • Makovy, Kevin M
  • Hedman, Daniel R
  • Truesdell, Bradley D.

Abrégé

Systems and methods of manipulating/controlling robots. In many scenarios, data collected by a sensor (connected to a robot) may not have very high precision (e.g., a regular commercial/inexpensive sensor) or may be subjected to dynamic environmental changes. Thus, the data collected by the sensor may not indicate the parameter captured by the sensor with high accuracy. The present robotic control system is directed at such scenarios. In some embodiments, the disclosed embodiments can be used for computing a sliding velocity limit boundary for a spatial controller. In some embodiments, the disclosed embodiments can be used for teleoperation of a vehicle located in the field of view of a camera.

Classes IPC  ?

  • G05D 1/00 - Commande de la position, du cap, de l'altitude ou de l'attitude des véhicules terrestres, aquatiques, aériens ou spatiaux, p. ex. utilisant des pilotes automatiques
  • B62D 57/02 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques
  • G05D 1/222 - Dispositions de commande à distance actionnées par des humains
  • G05D 1/223 - Dispositions d’entrée de commande sur les dispositifs de commande à distance, p. ex. manches à balai ou écrans tactiles
  • G05D 1/224 - Dispositions de sortie sur les dispositifs de commande à distance, p. ex. écrans, dispositifs haptiques ou haut-parleurs
  • G05D 1/24 - Dispositions pour déterminer la position ou l’orientation
  • G05D 1/65 - Suivi d’un profil de vitesse souhaité
  • G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p. ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaison

28.

Spatial teleoperation of legged vehicles

      
Numéro d'application 17417206
Numéro de brevet 12372958
Statut Délivré - en vigueur
Date de dépôt 2019-12-31
Date de la première publication 2022-03-10
Date d'octroi 2025-07-29
Propriétaire Tomahawk Robotics, Inc. (USA)
Inventeur(s)
  • Summer, Matthew D.
  • Bowman, William S.
  • Falendysz, Andrew D.
  • Makovy, Kevin M.
  • Hedman, Daniel R.
  • Truesdell, Bradley D.

Abrégé

Systems and methods of manipulating/controlling robots. In many scenarios, data collected by a sensor (connected to a robot) may not have very high precision (e.g., a regular commercial/inexpensive sensor) or may be subjected to dynamic environmental changes. Thus, the data collected by the sensor may not indicate the parameter captured by the sensor with high accuracy. The present robotic control system is directed at such scenarios. In some embodiments, the disclosed embodiments can be used for computing a sliding velocity limit boundary for a spatial controller. In some embodiments, the disclosed embodiments can be used for teleoperation of a vehicle located in the field of view of a camera.

Classes IPC  ?

  • G05D 1/00 - Commande de la position, du cap, de l'altitude ou de l'attitude des véhicules terrestres, aquatiques, aériens ou spatiaux, p. ex. utilisant des pilotes automatiques
  • B62D 57/02 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques
  • G05D 1/222 - Dispositions de commande à distance actionnées par des humains
  • G05D 1/223 - Dispositions d’entrée de commande sur les dispositifs de commande à distance, p. ex. manches à balai ou écrans tactiles
  • G05D 1/224 - Dispositions de sortie sur les dispositifs de commande à distance, p. ex. écrans, dispositifs haptiques ou haut-parleurs
  • G05D 1/24 - Dispositions pour déterminer la position ou l’orientation
  • G05D 1/65 - Suivi d’un profil de vitesse souhaité
  • G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p. ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaison

29.

TOMAHAWK ROBOTICS

      
Numéro de série 88215764
Statut Enregistrée
Date de dépôt 2018-12-04
Date d'enregistrement 2020-10-27
Propriétaire Tomahawk Robotics, Inc. ()
Classes de Nice  ?
  • 09 - Appareils et instruments scientifiques et électriques
  • 35 - Publicité; Affaires commerciales
  • 42 - Services scientifiques, technologiques et industriels, recherche et conception

Produits et services

Software for monitoring and controlling communication between computers and automated machine systems; automated process control system, namely, software used to monitor the status of industrial processes, namely, power generation, electrical distribution, and oil and gas processing; computer software system for remotely monitoring environmental conditions and controlling devices; computer software for use in connection with the operation of autonomous vehicles, drones, robotic control systems, and remote monitoring devices Business advisory services in the field of robotic control systems and remote monitoring systems; business management consultation in the field of robotic control systems and remote monitoring systems Integration of computer systems for engineering computer programs in the fields of robotics, control systems, computer systems and electrical systems; engineering design services in the fields of robotics, control systems, computer systems, process automation systems, electrical systems; installation of computer software for automation and systems integration services in the fields of robotics, control systems, computer systems, process automation systems, electrical systems; providing temporary use of non-downloadable cloud-based software for use in connection with the operation of autonomous vehicles, drones, robotic control systems, and remote monitoring devices; software as a service (SAAS) services, namely, hosting software for use by others for providing integrated communication with computerized global networks in the field of robotics; software as a service (SAAS) services, namely, hosting software for use by others for video telephony in the field of robotics; software as a service (SAAS) services, namely, hosting software for use by others for the transmission of voice, data, images, audio, video and, text between fixed or remote stations and devices in the field of robotics; software as a service (SAAS) services, namely, hosting software and data for use by others for wireless content delivery in the field of robotics; electronic data storage services for archiving electronic data; cloud computing featuring software to enable uploading, posting, showing, displaying, sharing, analyzing or otherwise providing electronic media or information over the internet or other communications networks and database management in the field of robotics; providing temporary use of online non-downloadable cloud computing software for use by others for viewing, analyzing, displaying, playing, uploading, downloading, sharing, analyzing and transmitting audio, video, text and data in the field of robotics; Design and implementation of custom robotic software and custom robotic technology solutions to be used in connection with customized robotic control systems and remote monitoring devices, all the forgoing excluding consulting services relating to prefabricated hardware and prefabricated software systems for others

30.

KINESIS

      
Numéro de série 88215775
Statut Enregistrée
Date de dépôt 2018-12-04
Date d'enregistrement 2021-10-19
Propriétaire Tomahawk Robotics, Inc. ()
Classes de Nice  ?
  • 09 - Appareils et instruments scientifiques et électriques
  • 42 - Services scientifiques, technologiques et industriels, recherche et conception

Produits et services

Downloadable computer software for use in connection with the operation of autonomous vehicles, drones, robotic control systems, and remote monitoring devices Integration of computer systems for engineering computer programs in the fields of robotics and robotics control systems; integration services in the fields of robotics and robotics control systems; providing temporary use of non-downloadable cloudbased software for use in connection with drones, robotic control systems and remote monitoring devices; design and implementation of software and technology solutions to be used in connection with robotic control systems and remote monitoring devices; downloading, sharing, analyzing and transmitting audio, video, text and data; design and implementation of software and technology solutions to be used in connection with robotic control systems and remote monitoring devices