A content generation platform is generally described herein. More specifically, interactive image generation and techniques and features thereof are disclosed herein. One or more sets of images of a scene are captured in an imaging studio. The captured one or more sets of images of the scene are processed using one or more machine learning based networks to generate an interactive image of the scene comprising a plurality of interactive features. One or more of the plurality of interactive features of the generated interactive image may be modified or edited according to user preferences.
G06T 17/20 - Description filaire, p. ex. polygonalisation ou tessellation
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
G06V 10/70 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique
G06V 20/00 - ScènesÉléments spécifiques à la scène
G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée
H04N 23/74 - Circuits de compensation de la variation de luminosité dans la scène en influençant la luminosité de la scène à l'aide de moyens d'éclairage
A content generation platform is generally described herein. More specifically, interactive image generation and techniques and features thereof are disclosed herein. One or more sets of images of a scene are captured in an imaging studio. The captured one or more sets of images of the scene are processed using one or more machine learning based networks to generate an interactive image of the scene comprising a plurality of interactive features. One or more of the plurality of interactive features of the generated interactive image may be modified or edited according to user preferences.
G06T 17/20 - Description filaire, p. ex. polygonalisation ou tessellation
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
G06V 10/70 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique
G06V 20/00 - ScènesÉléments spécifiques à la scène
G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée
H04N 5/222 - Circuits de studioDispositifs de studioÉquipements de studio
H04N 13/239 - Générateurs de signaux d’images utilisant des caméras à images stéréoscopiques utilisant deux capteurs d’images 2D dont la position relative est égale ou en correspondance à l’intervalle oculaire
H04N 23/56 - Caméras ou modules de caméras comprenant des capteurs d'images électroniquesLeur commande munis de moyens d'éclairage
H04N 23/74 - Circuits de compensation de la variation de luminosité dans la scène en influençant la luminosité de la scène à l'aide de moyens d'éclairage
A machine learning based image processing and generation framework is disclosed. In some embodiments, depth values of an image comprising a scene are determined by estimating depth values and subsequently refining the estimated depth values at least in part using a machine learning based framework. Determined depth values facilitate generation of other views or perspectives of the scene.
G06F 16/58 - Recherche caractérisée par l’utilisation de métadonnées, p. ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement
G06T 5/50 - Amélioration ou restauration d'image utilisant plusieurs images, p. ex. moyenne ou soustraction
G06T 7/32 - Détermination des paramètres de transformation pour l'alignement des images, c.-à-d. recalage des images utilisant des procédés basés sur la corrélation
A content generation platform is generally described herein. More specifically, interactive image generation and techniques and features thereof are disclosed herein. One or more sets of images of a scene are captured in an imaging studio. The captured one or more sets of images of the scene are processed using one or more machine learning based networks to generate an interactive image of the scene comprising a plurality of interactive features. One or more of the plurality of interactive features of the generated interactive image may be modified or edited according to user preferences.
G06T 17/20 - Description filaire, p. ex. polygonalisation ou tessellation
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
G06V 10/70 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique
G06V 20/00 - ScènesÉléments spécifiques à la scène
G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée
H04N 5/222 - Circuits de studioDispositifs de studioÉquipements de studio
H04N 13/239 - Générateurs de signaux d’images utilisant des caméras à images stéréoscopiques utilisant deux capteurs d’images 2D dont la position relative est égale ou en correspondance à l’intervalle oculaire
H04N 23/56 - Caméras ou modules de caméras comprenant des capteurs d'images électroniquesLeur commande munis de moyens d'éclairage
H04N 23/74 - Circuits de compensation de la variation de luminosité dans la scène en influençant la luminosité de la scène à l'aide de moyens d'éclairage
Techniques for providing blended physical and virtual reality experiences are disclosed. In some embodiments, a rendering of an actual view of a scene as seen by a camera capturing the scene is obtained from existing assets associated with a virtualized version of the scene and displayed. The actual view of the scene comprises a known environment that includes one or more of a constrained set of objects. The rendering facilitates surfacing information associated with one or more objects comprising the actual view.
Techniques for generating an arbitrary view of a scene from existing images are disclosed. In some embodiments, in response to receiving a request for a desired perspective of an interactive scene, the requested desired perspective of the interactive scene is generated at least in part by combining pixels from a set of existing images of the interactive scene, wherein the set of existing images of the interactive scene has different perspectives than the desired perspective.
A content generation platform is generally described herein. More specifically, interactive image generation and techniques and features thereof are disclosed herein. One or more sets of images of a scene are captured in an imaging studio. The captured one or more sets of images of the scene are processed using one or more machine learning based networks to generate an interactive image of the scene comprising a plurality of interactive features. One or more of the plurality of interactive features of the generated interactive image may be modified or edited according to user preferences.
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
H04N 5/222 - Circuits de studioDispositifs de studioÉquipements de studio
H04N 13/239 - Générateurs de signaux d’images utilisant des caméras à images stéréoscopiques utilisant deux capteurs d’images 2D dont la position relative est égale ou en correspondance à l’intervalle oculaire
H04N 23/56 - Caméras ou modules de caméras comprenant des capteurs d'images électroniquesLeur commande munis de moyens d'éclairage
Techniques associated with adaptive sampling are disclosed. In some embodiments, in response to receiving a specification of a scene to render, a sampling of each portion of the scene is determined based at least in part on the specification of the scene such that the scene is not uniformly sampled, and the scene is rendered according to the determined sampling of each portion of the scene.
A content generation platform is generally described herein. More specifically, interactive image generation and techniques and features thereof are disclosed herein. One or more sets of images of a scene are captured in an imaging studio. The captured one or more sets of images of the scene are processed using one or more machine learning based networks to generate an interactive image of the scene comprising a plurality of interactive features. One or more of the plurality of interactive features of the generated interactive image may be modified or edited according to user preferences.
G06T 17/20 - Description filaire, p. ex. polygonalisation ou tessellation
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
G06V 10/70 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique
G06V 20/00 - ScènesÉléments spécifiques à la scène
G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée
A content generation platform is generally described herein. More specifically, interactive image generation and techniques and features thereof are disclosed herein. One or more sets of images of a scene are captured in an imaging studio. The captured one or more sets of images of the scene are processed using one or more machine learning based networks to generate an interactive image of the scene comprising a plurality of interactive features. One or more of the plurality of interactive features of the generated interactive image may be modified or edited according to user preferences.
G06T 17/20 - Description filaire, p. ex. polygonalisation ou tessellation
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
G06V 10/70 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique
G06V 20/00 - ScènesÉléments spécifiques à la scène
G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée
Techniques for generating three-dimensional content from the recordings of one or more independently operated cameras that are not constrained to fixed positions and orientations are disclosed. In some embodiments, data associated with a camera recording a scene is received, wherein camera pose with respect to the scene is not known; camera pose with respect to the scene is determined based on received image data captured by the camera and received sensor data associated with the camera; and the received data and determined camera pose are used to facilitate generation of at least a portion of a point cloud corresponding to the scene.
H04N 13/239 - Générateurs de signaux d’images utilisant des caméras à images stéréoscopiques utilisant deux capteurs d’images 2D dont la position relative est égale ou en correspondance à l’intervalle oculaire
Techniques for generating three-dimensional content from the recordings of one or more independently operated cameras that are not constrained to fixed positions and orientations are disclosed. In some embodiments, data associated with a camera recording a scene is received, wherein camera pose with respect to the scene is not known; camera pose with respect to the scene is determined based on received image data captured by the camera and received sensor data associated with the camera; and the received data and determined camera pose are used to facilitate generation of at least a portion of a point cloud corresponding to the scene.
H04N 13/239 - Générateurs de signaux d’images utilisant des caméras à images stéréoscopiques utilisant deux capteurs d’images 2D dont la position relative est égale ou en correspondance à l’intervalle oculaire
13.
MACHINE LEARNING BASED IMAGE PROCESSING TECHNIQUES
A machine learning based image processing architecture and associated applications are disclosed herein. In some embodiments, a machine learning framework is trained to learn low level image attributes such as object/scene types, geometries, placements, materials and textures, camera characteristics, lighting characteristics, contrast, noise statistics, etc. Thereafter, the machine learning framework may be employed to detect such attributes in other images and process the images at the attribute level.
G06F 18/21 - Conception ou mise en place de systèmes ou de techniquesExtraction de caractéristiques dans l'espace des caractéristiquesSéparation aveugle de sources
G06F 18/214 - Génération de motifs d'entraînementProcédés de Bootstrapping, p. ex. ”bagging” ou ”boosting”
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
G06V 10/774 - Génération d'ensembles de motifs de formationTraitement des caractéristiques d’images ou de vidéos dans les espaces de caractéristiquesDispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique utilisant l’intégration et la réduction de données, p. ex. analyse en composantes principales [PCA] ou analyse en composantes indépendantes [ ICA] ou cartes auto-organisatrices [SOM]Séparation aveugle de source méthodes de Bootstrap, p. ex. "bagging” ou “boosting”
G06V 10/776 - ValidationÉvaluation des performances
Two-dimensional compositing that preserves the curvatures of non-flat surfaces is disclosed. In some embodiments, a mapping is associated with a two-dimensional rendering that maps a potentially variable portion of the two-dimensional rendering to a canvas. The mapping is generated from a three-dimensional model of the potentially variable portion of the two-dimensional rendering. The potentially variable portion of the two-dimensional rendering is dynamically modified according to the mapping to reflect content comprising the canvas or edits received with respect to the canvas.
G09G 3/20 - Dispositions ou circuits de commande présentant un intérêt uniquement pour l'affichage utilisant des moyens de visualisation autres que les tubes à rayons cathodiques pour la présentation d'un ensemble de plusieurs caractères, p. ex. d'une page, en composant l'ensemble par combinaison d'éléments individuels disposés en matrice
G06T 11/40 - Remplissage d'une surface plane par addition d'attributs de surface, p. ex. de couleur ou de texture
G09G 5/36 - Dispositions ou circuits de commande de l'affichage communs à l'affichage utilisant des tubes à rayons cathodiques et à l'affichage utilisant d'autres moyens de visualisation caractérisés par l'affichage de dessins graphiques individuels en utilisant une mémoire à mappage binaire
Techniques for generating aligned, augmented reality views are disclosed. In some embodiments, an estimate of a floorplan of a three-dimensional space is first generated based on one or more received views of the three-dimensional space from a camera located in the three-dimensional space. A camera pose of the camera in the three-dimensional space is next determined based on generating a corrected floorplan from the estimate of the floorplan based on foreknowledge associated with the floorplan. Display of a rendering having the determined camera pose is facilitated in an actual view of the camera, resulting in an aligned, augmented reality view.
Techniques for machine learning based image attribute determination are disclosed. In some embodiments, one or more unknown attributes of a received image comprising a prescribed environment are determined using a machine learning based framework. The machine learning based framework is at least in part trained on image data sets comprising a model environment that substantially simulates the prescribed environment.
G06F 16/58 - Recherche caractérisée par l’utilisation de métadonnées, p. ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement
G06T 5/50 - Amélioration ou restauration d'image utilisant plusieurs images, p. ex. moyenne ou soustraction
G06T 7/32 - Détermination des paramètres de transformation pour l'alignement des images, c.-à-d. recalage des images utilisant des procédés basés sur la corrélation
Techniques for rendering a scene are disclosed. In some embodiments, a scene definition is modified to generate a modified scene definition based at least in part on a current state of a local database at a device. The modified scene definition is constrained to include references to objects locally available in the local database, and at least one object referenced in the scene definition is substituted with a different object in the modified scene definition that is locally available in the local database. The scene is rendered at the device according to the modified scene definition.
H04N 21/234 - Traitement de flux vidéo élémentaires, p. ex. raccordement de flux vidéo ou transformation de graphes de scènes du flux vidéo codé
H04N 21/44 - Traitement de flux élémentaires vidéo, p. ex. raccordement d'un clip vidéo récupéré d'un stockage local avec un flux vidéo en entrée ou rendu de scènes selon des graphes de scène du flux vidéo codé
H04N 21/84 - Génération ou traitement de données de description, p. ex. descripteurs de contenu
A machine learning based image processing and generation framework is disclosed. In some embodiments, depth values of an object or asset in a received input image are at least in part determined using a machine learning based framework that is constrained to a known prescribed environment. Determined depth values facilitate generation of other views of the object or asset.
G06K 9/36 - Prétraitement de l'image, c. à d. traitement de l'information image sans se préoccuper de l'identité de l'image
G06F 16/58 - Recherche caractérisée par l’utilisation de métadonnées, p. ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement
G06T 5/50 - Amélioration ou restauration d'image utilisant plusieurs images, p. ex. moyenne ou soustraction
G06T 7/32 - Détermination des paramètres de transformation pour l'alignement des images, c.-à-d. recalage des images utilisant des procédés basés sur la corrélation
Techniques for generating an image are disclosed. In some embodiments, a received input image is transformed to generate an output image using a machine learning based framework that is trained on a constrained set of images. The generated output image comprises an attribute learned by the machine learning based framework from the set of images.
G06F 16/58 - Recherche caractérisée par l’utilisation de métadonnées, p. ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement
G06T 5/50 - Amélioration ou restauration d'image utilisant plusieurs images, p. ex. moyenne ou soustraction
G06T 7/32 - Détermination des paramètres de transformation pour l'alignement des images, c.-à-d. recalage des images utilisant des procédés basés sur la corrélation
Techniques for delivering virtualized content are disclosed. In some embodiments, elements in source content are mapped to a set of corresponding database objects, and the set of database objects is modified to generate a virtualized version of the source content. A specification of the virtualized version of the source content is provided to an output device in response to a request from the output device for the source content.
H04N 21/2343 - Traitement de flux vidéo élémentaires, p. ex. raccordement de flux vidéo ou transformation de graphes de scènes du flux vidéo codé impliquant des opérations de reformatage de signaux vidéo pour la distribution ou la mise en conformité avec les requêtes des utilisateurs finaux ou les exigences des dispositifs des utilisateurs finaux
A content generation platform is generally described herein. More specifically, interactive image generation and techniques and features thereof are disclosed herein. One or more sets of images of a scene are captured in an imaging studio. The captured one or more sets of images of the scene are processed using one or more machine learning based networks to generate an interactive image of the scene comprising a plurality of interactive features. One or more of the plurality of interactive features of the generated interactive image may be modified or edited according to user preferences.
G06T 17/20 - Description filaire, p. ex. polygonalisation ou tessellation
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
G06V 10/70 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique
G06V 20/00 - ScènesÉléments spécifiques à la scène
G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée
H04N 5/222 - Circuits de studioDispositifs de studioÉquipements de studio
H04N 13/239 - Générateurs de signaux d’images utilisant des caméras à images stéréoscopiques utilisant deux capteurs d’images 2D dont la position relative est égale ou en correspondance à l’intervalle oculaire
H04N 13/254 - Générateurs de signaux d’images utilisant des caméras à images stéréoscopiques en combinaison avec des sources de rayonnement électromagnétique pour l’éclairage du sujet
H04N 23/56 - Caméras ou modules de caméras comprenant des capteurs d'images électroniquesLeur commande munis de moyens d'éclairage
H04N 23/60 - Commande des caméras ou des modules de caméras
H04N 23/61 - Commande des caméras ou des modules de caméras en fonction des objets reconnus
H04N 23/62 - Commande des paramètres via des interfaces utilisateur
H04N 23/69 - Commande de moyens permettant de modifier l'angle du champ de vision, p. ex. des objectifs de zoom optique ou un zoom électronique
H04N 23/695 - Commande de la direction de la caméra pour modifier le champ de vision, p. ex. par un panoramique, une inclinaison ou en fonction du suivi des objets
H04N 23/74 - Circuits de compensation de la variation de luminosité dans la scène en influençant la luminosité de la scène à l'aide de moyens d'éclairage
Techniques for tagging a scene are disclosed. In some embodiments, information about a scene is inferred by at least in part automatically interpreting a metric associated with the scene that is determined by analyzing data comprising a primitive form of the scene, wherein analyzed data comprising the primitive form of the scene comprises positions of three-dimensional objects in the scene. The scene is tagged with a tag comprising the inferred information.
Techniques for generating an arbitrary view or perspective of an ensemble scene are disclosed. In some embodiments, in response to a received request for a prescribed perspective of an ensemble scene comprising a plurality of assets, an output image of the ensemble scene that approximates the requested prescribed perspective is generated using existing images of the plurality of assets.
G06T 5/50 - Amélioration ou restauration d'image utilisant plusieurs images, p. ex. moyenne ou soustraction
G06T 7/32 - Détermination des paramètres de transformation pour l'alignement des images, c.-à-d. recalage des images utilisant des procédés basés sur la corrélation
G06T 17/00 - Modélisation tridimensionnelle [3D] pour infographie
Various techniques associated with automatic mesh generation are disclosed. One or more center curves of an outline of an object or figure are first determined. Next, for each of a plurality of points of each of the one or more center curves, a pair of rays is cast from a center curve in opposite directions, wherein the rays collide with opposite sides of the outline, and a collision pair is generated that comprises a line connecting collision points of the pair of rays on opposite sides of the outline. A mesh model of the object or figure is generated by mapping each of a set of collision pairs to polygons used to define the mesh model.
Techniques for generating a prescribed perspective of a composite object are disclosed. In some embodiments, a specification of a composite object comprising a plurality of objects is specified using object views of the plurality of objects that comprise a fixed depth, and a prescribed perspective of the composite object is at least in part generated by populating the prescribed perspective of the composite object with pixels from existing images of the plurality of objects.
G06T 5/50 - Amélioration ou restauration d'image utilisant plusieurs images, p. ex. moyenne ou soustraction
G06T 7/32 - Détermination des paramètres de transformation pour l'alignement des images, c.-à-d. recalage des images utilisant des procédés basés sur la corrélation
G06T 17/00 - Modélisation tridimensionnelle [3D] pour infographie
26.
MACHINE LEARNING BASED IMAGE PROCESSING TECHNIQUES
A machine learning based image processing architecture and associated applications are disclosed herein. In some embodiments, a machine learning framework is trained to learn low level image attributes such as object/scene types, geometries, placements, materials and textures, camera characteristics, lighting characteristics, contrast, noise statistics, etc. Thereafter, the machine learning framework may be employed to detect such attributes in other images and process the images at the attribute level.
G06F 18/21 - Conception ou mise en place de systèmes ou de techniquesExtraction de caractéristiques dans l'espace des caractéristiquesSéparation aveugle de sources
G06F 18/214 - Génération de motifs d'entraînementProcédés de Bootstrapping, p. ex. ”bagging” ou ”boosting”
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
G06V 10/774 - Génération d'ensembles de motifs de formationTraitement des caractéristiques d’images ou de vidéos dans les espaces de caractéristiquesDispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique utilisant l’intégration et la réduction de données, p. ex. analyse en composantes principales [PCA] ou analyse en composantes indépendantes [ ICA] ou cartes auto-organisatrices [SOM]Séparation aveugle de source méthodes de Bootstrap, p. ex. "bagging” ou “boosting”
G06V 10/776 - ValidationÉvaluation des performances
A machine learning based image processing architecture and associated applications are disclosed herein. In some embodiments, a machine learning framework is trained to learn low level image attributes such as object/scene types, geometries, placements, materials and textures, camera characteristics, lighting characteristics, contrast, noise statistics, etc. Thereafter, the machine learning framework may be employed to detect such attributes in other images and process the images at the attribute level.
G06F 18/21 - Conception ou mise en place de systèmes ou de techniquesExtraction de caractéristiques dans l'espace des caractéristiquesSéparation aveugle de sources
G06F 18/214 - Génération de motifs d'entraînementProcédés de Bootstrapping, p. ex. ”bagging” ou ”boosting”
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
G06V 10/774 - Génération d'ensembles de motifs de formationTraitement des caractéristiques d’images ou de vidéos dans les espaces de caractéristiquesDispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique utilisant l’intégration et la réduction de données, p. ex. analyse en composantes principales [PCA] ou analyse en composantes indépendantes [ ICA] ou cartes auto-organisatrices [SOM]Séparation aveugle de source méthodes de Bootstrap, p. ex. "bagging” ou “boosting”
G06V 10/776 - ValidationÉvaluation des performances
Two-dimensional compositing that preserves the curvatures of non-flat surfaces is disclosed. In some embodiments, a mapping is associated with a two-dimensional rendering that maps a potentially variable portion of the two-dimensional rendering to a canvas. The mapping is generated from a three-dimensional model of the potentially variable portion of the two-dimensional rendering. The potentially variable portion of the two-dimensional rendering is dynamically modified according to the mapping to reflect content comprising the canvas or edits received with respect to the canvas.
G09G 3/20 - Dispositions ou circuits de commande présentant un intérêt uniquement pour l'affichage utilisant des moyens de visualisation autres que les tubes à rayons cathodiques pour la présentation d'un ensemble de plusieurs caractères, p. ex. d'une page, en composant l'ensemble par combinaison d'éléments individuels disposés en matrice
G06T 11/40 - Remplissage d'une surface plane par addition d'attributs de surface, p. ex. de couleur ou de texture
G09G 5/36 - Dispositions ou circuits de commande de l'affichage communs à l'affichage utilisant des tubes à rayons cathodiques et à l'affichage utilisant d'autres moyens de visualisation caractérisés par l'affichage de dessins graphiques individuels en utilisant une mémoire à mappage binaire
Improved techniques for generating video content are disclosed. In some embodiments, it is determined whether a frame comprising a scene is an independent frame or a predictive frame. In the event that the frame is an independent frame, the frame is encoded independently. In the event that the frame is a predictive frame, block differences and motion vectors are encoded, wherein motion vectors are determined from a known three-dimensional model and time evolution of the scene.
H04N 19/597 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage prédictif spécialement adapté pour l’encodage de séquences vidéo multi-vues
A content generation platform is generally described herein. More specifically, interactive image generation and techniques and features thereof are disclosed herein. One or more sets of images of a scene are captured in an imaging studio. The captured one or more sets of images of the scene are processed using one or more machine learning based networks to generate an interactive image of the scene comprising a plurality of interactive features. One or more of the plurality of interactive features of the generated interactive image may be modified or edited according to user preferences.
A content generation platform is generally described herein. More specifically, interactive image generation and techniques and features thereof are disclosed herein. One or more sets of images of a scene are captured in an imaging studio. The captured one or more sets of images of the scene are processed using one or more machine learning based networks to generate an interactive image of the scene comprising a plurality of interactive features. One or more of the plurality of interactive features of the generated interactive image may be modified or edited according to user preferences.
G06T 17/20 - Description filaire, p. ex. polygonalisation ou tessellation
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
G06V 10/70 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique
G06V 20/00 - ScènesÉléments spécifiques à la scène
G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée
A content generation platform is generally described herein. More specifically, interactive image generation and techniques and features thereof are disclosed herein. One or more sets of images of a scene are captured in an imaging studio. The captured one or more sets of images of the scene are processed using one or more machine learning based networks to generate an interactive image of the scene comprising a plurality of interactive features. One or more of the plurality of interactive features of the generated interactive image may be modified or edited according to user preferences.
G06T 17/20 - Description filaire, p. ex. polygonalisation ou tessellation
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
G06V 10/70 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique
G06V 20/00 - ScènesÉléments spécifiques à la scène
G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée
H04N 5/222 - Circuits de studioDispositifs de studioÉquipements de studio
H04N 13/239 - Générateurs de signaux d’images utilisant des caméras à images stéréoscopiques utilisant deux capteurs d’images 2D dont la position relative est égale ou en correspondance à l’intervalle oculaire
H04N 13/254 - Générateurs de signaux d’images utilisant des caméras à images stéréoscopiques en combinaison avec des sources de rayonnement électromagnétique pour l’éclairage du sujet
H04N 23/56 - Caméras ou modules de caméras comprenant des capteurs d'images électroniquesLeur commande munis de moyens d'éclairage
H04N 23/60 - Commande des caméras ou des modules de caméras
H04N 23/61 - Commande des caméras ou des modules de caméras en fonction des objets reconnus
H04N 23/62 - Commande des paramètres via des interfaces utilisateur
H04N 23/69 - Commande de moyens permettant de modifier l'angle du champ de vision, p. ex. des objectifs de zoom optique ou un zoom électronique
H04N 23/695 - Commande de la direction de la caméra pour modifier le champ de vision, p. ex. par un panoramique, une inclinaison ou en fonction du suivi des objets
H04N 23/74 - Circuits de compensation de la variation de luminosité dans la scène en influençant la luminosité de la scène à l'aide de moyens d'éclairage
A content generation platform is generally described herein. More specifically, interactive image generation and techniques and features thereof are disclosed herein. One or more sets of images of a scene are captured in an imaging studio. The captured one or more sets of images of the scene are processed using one or more machine learning based networks to generate an interactive image of the scene comprising a plurality of interactive features. One or more of the plurality of interactive features of the generated interactive image may be modified or edited according to user preferences.
G06T 17/20 - Description filaire, p. ex. polygonalisation ou tessellation
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
G06V 10/70 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique
G06V 20/00 - ScènesÉléments spécifiques à la scène
G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée
H04N 23/74 - Circuits de compensation de la variation de luminosité dans la scène en influençant la luminosité de la scène à l'aide de moyens d'éclairage
A content generation platform is generally described herein. More specifically, interactive image generation and techniques and features thereof are disclosed herein. One or more sets of images of a scene are captured in an imaging studio. The captured one or more sets of images of the scene are processed using one or more machine learning based networks to generate an interactive image of the scene comprising a plurality of interactive features. One or more of the plurality of interactive features of the generated interactive image may be modified or edited according to user preferences.
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
G06V 10/70 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique
G06V 20/00 - ScènesÉléments spécifiques à la scène
G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée
H04N 23/74 - Circuits de compensation de la variation de luminosité dans la scène en influençant la luminosité de la scène à l'aide de moyens d'éclairage
A content generation platform is generally described herein. More specifically, interactive image generation and techniques and features thereof are disclosed herein. An arbitrary input image captured in an unknown environment is processed using one or more machine learning based networks to generate an interactive reconstruction or floorplan of the input image.
G06T 17/20 - Description filaire, p. ex. polygonalisation ou tessellation
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
G06V 10/70 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique
G06V 20/00 - ScènesÉléments spécifiques à la scène
G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée
H04N 23/74 - Circuits de compensation de la variation de luminosité dans la scène en influençant la luminosité de la scène à l'aide de moyens d'éclairage
A content generation platform is generally described herein. More specifically, interactive image generation and techniques and features thereof are disclosed herein. An arbitrary input image captured in an unknown environment is processed using one or more machine learning based networks to generate an interactive reconstruction or floorplan of the input image.
A content generation platform is generally described herein. More specifically, interactive image generation and techniques and features thereof are disclosed herein. One or more sets of images of a scene are captured in an imaging studio. The captured one or more sets of images of the scene are processed using one or more machine learning based networks to generate an interactive image of the scene comprising a plurality of interactive features. One or more of the plurality of interactive features of the generated interactive image may be modified or edited according to user preferences.
G06T 17/20 - Description filaire, p. ex. polygonalisation ou tessellation
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
G06V 10/70 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique
G06V 20/00 - ScènesÉléments spécifiques à la scène
G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée
H04N 23/74 - Circuits de compensation de la variation de luminosité dans la scène en influençant la luminosité de la scène à l'aide de moyens d'éclairage
A content generation platform is generally described herein. More specifically, interactive image generation and techniques and features thereof are disclosed herein. One or more sets of images of a scene are captured in an imaging studio. The captured one or more sets of images of the scene are processed using one or more machine learning based networks to generate an interactive image of the scene comprising a plurality of interactive features. One or more of the plurality of interactive features of the generated interactive image may be modified or edited according to user preferences.
G06T 17/20 - Description filaire, p. ex. polygonalisation ou tessellation
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
G06V 10/70 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique
G06V 20/00 - ScènesÉléments spécifiques à la scène
G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée
H04N 23/74 - Circuits de compensation de la variation de luminosité dans la scène en influençant la luminosité de la scène à l'aide de moyens d'éclairage
A content generation platform is generally described herein. More specifically, interactive image generation and techniques and features thereof are disclosed herein. One or more sets of images of a scene are captured in an imaging studio. The captured one or more sets of images of the scene are processed using one or more machine learning based networks to generate an interactive image of the scene comprising a plurality of interactive features. One or more of the plurality of interactive features of the generated interactive image may be modified or edited according to user preferences.
G06T 17/20 - Description filaire, p. ex. polygonalisation ou tessellation
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
G06V 10/70 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique
G06V 20/00 - ScènesÉléments spécifiques à la scène
G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée
H04N 5/222 - Circuits de studioDispositifs de studioÉquipements de studio
H04N 23/61 - Commande des caméras ou des modules de caméras en fonction des objets reconnus
H04N 23/62 - Commande des paramètres via des interfaces utilisateur
H04N 23/74 - Circuits de compensation de la variation de luminosité dans la scène en influençant la luminosité de la scène à l'aide de moyens d'éclairage
A content generation platform is generally described herein. More specifically, interactive image generation and techniques and features thereof are disclosed herein. In some embodiments, one or more sets of images of a scene are captured in an imaging studio. The captured one or more sets of images of the scene are processed using one or more machine learning based networks to generate an interactive image of the scene comprising a plurality of interactive features. One or more of the plurality of interactive features of the generated interactive image may be modified or edited according to user preferences. In some embodiments, an arbitrary input image captured in an unknown environment is processed using one or more machine learning based networks to generate an interactive reconstruction or floorplan of the input image.
Techniques for generating an arbitrary view of a scene from existing images are disclosed. In some embodiments, in response to receiving a request for an image comprising a desired perspective of a scene, the image comprising the desired perspective of the scene is generated using pixels obtained from a plurality of existing images having the desired perspective, wherein one or more of the plurality of existing images are transformed to the desired perspective from other perspectives.
Techniques for generating aligned, augmented reality views are disclosed. In some embodiments, an estimate of a floorplan of a three-dimensional space is first generated based on one or more received views of the three-dimensional space from a camera located in the three-dimensional space. A camera pose of the camera in the three-dimensional space is next determined based on generating a corrected floorplan from the estimate of the floorplan based on foreknowledge associated with the floorplan. Display of a rendering having the determined camera pose is facilitated in an actual view of the camera, resulting in an aligned, augmented reality view.
09 - Appareils et instruments scientifiques et électriques
22 - Cordes; filets; tentes, auvents, voiles et sacs; matières de rembourrage
41 - Éducation, divertissements, activités sportives et culturelles
42 - Services scientifiques, technologiques et industriels, recherche et conception
Produits et services
Apparatus for capturing, processing, editing and
transmitting images and data; light directors and
photographic lighting, all for use with equipment for
professional photography; on-premises software for
capturing, creating, processing, editing and transmitting
images and data related to such images. Tents for use as a photographic studio; tent structure
including lighting and photographic equipment for capturing,
processing, editing and transmitting images and data. Photographic services, namely, photographic capture
services; photography studio rental services. Digital imaging services; providing temporary use of a
non-downloadable web-based software applications for
capturing, creating, processing, editing and transmitting
images and data related to such images.
44.
Machine learning training images from a constrained set of three-dimensional object models associated with prescribed scene types
A machine learning based image processing architecture and associated applications are disclosed herein. In some embodiments, a machine learning framework is trained to learn low level image attributes such as object/scene types, geometries, placements, materials and textures, camera characteristics, lighting characteristics, contrast, noise statistics, etc. Thereafter, the machine learning framework may be employed to detect such attributes in other images and process the images at the attribute level.
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
G06V 10/46 - Descripteurs pour la forme, descripteurs liés au contour ou aux points, p. ex. transformation de caractéristiques visuelles invariante à l’échelle [SIFT] ou sacs de mots [BoW]Caractéristiques régionales saillantes
G06N 3/04 - Architecture, p. ex. topologie d'interconnexion
G06F 18/214 - Génération de motifs d'entraînementProcédés de Bootstrapping, p. ex. ”bagging” ou ”boosting”
G06F 18/21 - Conception ou mise en place de systèmes ou de techniquesExtraction de caractéristiques dans l'espace des caractéristiquesSéparation aveugle de sources
G06V 10/774 - Génération d'ensembles de motifs de formationTraitement des caractéristiques d’images ou de vidéos dans les espaces de caractéristiquesDispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique utilisant l’intégration et la réduction de données, p. ex. analyse en composantes principales [PCA] ou analyse en composantes indépendantes [ ICA] ou cartes auto-organisatrices [SOM]Séparation aveugle de source méthodes de Bootstrap, p. ex. "bagging” ou “boosting”
G06V 10/776 - ValidationÉvaluation des performances
Techniques for rendering a scene are disclosed. In some embodiments, a scene definition is modified to generate a modified scene definition based at least in part on a current state of a local database at a device. The modified scene definition is constrained to include references to objects locally available in the local database, and at least one object referenced in the scene definition is substituted with a different object in the modified scene definition that is locally available in the local database. The scene is rendered at the device according to the modified scene definition.
H04N 21/234 - Traitement de flux vidéo élémentaires, p. ex. raccordement de flux vidéo ou transformation de graphes de scènes du flux vidéo codé
H04N 21/44 - Traitement de flux élémentaires vidéo, p. ex. raccordement d'un clip vidéo récupéré d'un stockage local avec un flux vidéo en entrée ou rendu de scènes selon des graphes de scène du flux vidéo codé
H04N 21/84 - Génération ou traitement de données de description, p. ex. descripteurs de contenu
42 - Services scientifiques, technologiques et industriels, recherche et conception
Produits et services
(1) Providing temporary use of a non-downloadable web-based software applications for capturing, creating, processing, editing and transmitting images and data related to such images
42 - Services scientifiques, technologiques et industriels, recherche et conception
Produits et services
providing temporary use of a non-downloadable web-based software applications for capturing, creating, processing, editing and transmitting images and data related to such images
48.
MACHINE LEARNING BASED IMAGE PROCESSING TECHNIQUES
A machine learning based image processing architecture and associated applications are disclosed herein. In some embodiments, a machine learning framework is trained to learn low level image attributes such as object/scene types, geometries, placements, materials and textures, camera characteristics, lighting characteristics, contrast, noise statistics, etc. Thereafter, the machine learning framework may be employed to detect such attributes in other images and process the images at the attribute level.
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
G06V 10/46 - Descripteurs pour la forme, descripteurs liés au contour ou aux points, p. ex. transformation de caractéristiques visuelles invariante à l’échelle [SIFT] ou sacs de mots [BoW]Caractéristiques régionales saillantes
Techniques associated with adaptive sampling are disclosed. In some embodiments, in response to receiving a specification of a scene to render, a sampling of each portion of the scene is determined based at least in part on the specification of the scene such that the scene is not uniformly sampled, and the scene is rendered according to the determined sampling of each portion of the scene.
Techniques for providing blended physical and virtual reality experiences are disclosed. In some embodiments, a rendering of an actual view of a scene as seen by a camera capturing the scene is obtained from existing assets associated with a virtualized version of the scene and displayed. The actual view of the scene comprises a known environment that includes one or more of a constrained set of objects. The rendering facilitates surfacing information associated with one or more objects comprising the actual view.
Techniques for machine learning based image attribute determination are disclosed. In some embodiments, one or more unknown attributes of a received image comprising a prescribed environment are determined using a machine learning based framework. The machine learning based framework is at least in part trained on image data sets comprising a model environment that substantially simulates the prescribed environment.
G06K 9/36 - Prétraitement de l'image, c. à d. traitement de l'information image sans se préoccuper de l'identité de l'image
G06F 16/58 - Recherche caractérisée par l’utilisation de métadonnées, p. ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement
G06T 5/50 - Amélioration ou restauration d'image utilisant plusieurs images, p. ex. moyenne ou soustraction
G06T 7/32 - Détermination des paramètres de transformation pour l'alignement des images, c.-à-d. recalage des images utilisant des procédés basés sur la corrélation
Adaptive sampling of pixels is disclosed. In some embodiments, convergence of pixels of a rendering is evaluated by removing texture from the rendering to eliminate non-convergence due to texture complexity and determining whether pixels values satisfy convergence criteria associated with pixel sampling. Those pixels of the rendering that have not converged are sampled with one or more additional samples. The completed rendering is output. Pixels of the completed rendering satisfy the convergence criteria and are not uniformly sampled.
Techniques for generating an arbitrary view of an asset are disclosed. In some embodiments, arbitrary view generation includes storing a set of images associated with an asset in a database and generating an image comprising a requested view of the asset using at least a subset of the set of images associated with the asset that are stored in the database.
G06F 16/58 - Recherche caractérisée par l’utilisation de métadonnées, p. ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement
G06T 5/50 - Amélioration ou restauration d'image utilisant plusieurs images, p. ex. moyenne ou soustraction
G06T 7/32 - Détermination des paramètres de transformation pour l'alignement des images, c.-à-d. recalage des images utilisant des procédés basés sur la corrélation
Improved techniques for generating video content are disclosed. In some embodiments, a frame is rendered using a first rendering option. It is then determined whether the frame is an independent frame (I-frame) or a predictive frame (P-frame). In the event that the frame is an I-frame, the frame is rendered using a second rendering option that has a higher computational complexity than the first rendering option and encoded independently. In the event that the frame is a P-frame, motion vectors and prediction error with respect to the frame and one or more other frames are determined and encoded.
H04N 19/597 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage prédictif spécialement adapté pour l’encodage de séquences vidéo multi-vues
Techniques for generating three-dimensional content from the recordings of multiple independently operated cameras that are not constrained to fixed positions and orientations are disclosed. In some embodiments, data from a plurality of cameras configured to capture a scene is received; a relative pose of each camera with respect to the scene is determined based at least in part on a first estimate and a second estimate, wherein the first estimate is based on image data and the second estimate is based on sensor data; relative poses of cameras with respect to one or more other cameras are determined based on determined relative poses of individual cameras with respect to the scene; and a three-dimensional reconstruction of at least a portion of the scene is generated based on the received data and determined relative poses.
H04N 13/239 - Générateurs de signaux d’images utilisant des caméras à images stéréoscopiques utilisant deux capteurs d’images 2D dont la position relative est égale ou en correspondance à l’intervalle oculaire
Techniques for virtualizing content are disclosed. Elements comprising source content are virtualized by mapping each to and representing each with a corresponding database object. A specification of the corresponding database objects is provided for rendering the source content instead of any original pixel information of the source content so that a virtualized version of the source content is rendered.
H04N 21/2343 - Traitement de flux vidéo élémentaires, p. ex. raccordement de flux vidéo ou transformation de graphes de scènes du flux vidéo codé impliquant des opérations de reformatage de signaux vidéo pour la distribution ou la mise en conformité avec les requêtes des utilisateurs finaux ou les exigences des dispositifs des utilisateurs finaux
Techniques for delivering virtualized content are disclosed. In some embodiments, elements in source content are mapped to a set of corresponding database objects, and the set of database objects is modified to generate a virtualized version of the source content. A specification of the virtualized version of the source content is provided to an output device in response to a request from the output device for the source content.
H04N 21/2343 - Traitement de flux vidéo élémentaires, p. ex. raccordement de flux vidéo ou transformation de graphes de scènes du flux vidéo codé impliquant des opérations de reformatage de signaux vidéo pour la distribution ou la mise en conformité avec les requêtes des utilisateurs finaux ou les exigences des dispositifs des utilisateurs finaux
A machine learning based image processing architecture and associated applications are disclosed herein. In some embodiments, a machine learning framework is trained to learn low level image attributes such as object/scene types, geometries, placements, materials and textures, camera characteristics, lighting characteristics, contrast, noise statistics, etc. Thereafter, the machine learning framework may be employed to detect such attributes in other images and process the images at the attribute level.
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
G06V 10/46 - Descripteurs pour la forme, descripteurs liés au contour ou aux points, p. ex. transformation de caractéristiques visuelles invariante à l’échelle [SIFT] ou sacs de mots [BoW]Caractéristiques régionales saillantes
Techniques for generating an arbitrary view of an asset are disclosed. In some embodiments, arbitrary view generation includes storing a set of images of an asset, wherein each image comprising at least a subset of the set of images is rendered from a three-dimensional model of the asset, and generating an image comprising an arbitrary perspective of the asset at least in part by populating the image comprising the arbitrary perspective with pixels harvested from one or more images comprising the set of images.
G06K 9/36 - Prétraitement de l'image, c. à d. traitement de l'information image sans se préoccuper de l'identité de l'image
G06F 16/58 - Recherche caractérisée par l’utilisation de métadonnées, p. ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement
G06T 5/50 - Amélioration ou restauration d'image utilisant plusieurs images, p. ex. moyenne ou soustraction
G06T 7/32 - Détermination des paramètres de transformation pour l'alignement des images, c.-à-d. recalage des images utilisant des procédés basés sur la corrélation
Techniques for generating an arbitrary view or perspective of an ensemble scene are disclosed. In some embodiments, in response to a received request for a prescribed perspective of an ensemble scene comprising a plurality of assets, an output image of the ensemble scene for the requested prescribed perspective is generated based at least in part on combining at least a portion of an existing image of each of at least a subset of the plurality of assets.
Techniques for generating an image are disclosed. In some embodiments, a received input image is transformed to generate an output image using a machine learning based framework that is trained on a constrained set of images. The generated output image comprises an attribute learned by the machine learning based framework from the set of images.
A machine learning based image processing and generation framework is disclosed. In some embodiments, depth values of an object or asset in a received input image are at least in part determined using a machine learning based framework that is constrained to a known prescribed environment. Determined depth values facilitate generation of other views of the object or asset.
Techniques for generating an image are disclosed. In some embodiments, a received input image is transformed to generate an output image using a machine learning based framework that is trained on a constrained set of images. The generated output image comprises an attribute learned by the machine learning based framework from the set of images.
G06K 9/36 - Prétraitement de l'image, c. à d. traitement de l'information image sans se préoccuper de l'identité de l'image
G06F 16/58 - Recherche caractérisée par l’utilisation de métadonnées, p. ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement
G06T 5/50 - Amélioration ou restauration d'image utilisant plusieurs images, p. ex. moyenne ou soustraction
G06T 7/32 - Détermination des paramètres de transformation pour l'alignement des images, c.-à-d. recalage des images utilisant des procédés basés sur la corrélation
A machine learning based image processing and generation framework is disclosed. In some embodiments, depth values of an object or asset in a received input image are at least in part determined using a machine learning based framework that is constrained to a known prescribed environment. Determined depth values facilitate generation of other views of the object or asset.
G06K 9/36 - Prétraitement de l'image, c. à d. traitement de l'information image sans se préoccuper de l'identité de l'image
G06F 16/58 - Recherche caractérisée par l’utilisation de métadonnées, p. ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement
G06T 5/50 - Amélioration ou restauration d'image utilisant plusieurs images, p. ex. moyenne ou soustraction
G06T 7/32 - Détermination des paramètres de transformation pour l'alignement des images, c.-à-d. recalage des images utilisant des procédés basés sur la corrélation
Techniques for generating an arbitrary view or perspective of an ensemble scene are disclosed. In some embodiments, in response to a received request for a prescribed perspective of an ensemble scene comprising a plurality of assets, an output image of the ensemble scene for the requested prescribed perspective is generated based at least in part on combining at least a portion of an existing image of each of at least a subset of the plurality of assets.
G06K 9/36 - Prétraitement de l'image, c. à d. traitement de l'information image sans se préoccuper de l'identité de l'image
G06T 5/50 - Amélioration ou restauration d'image utilisant plusieurs images, p. ex. moyenne ou soustraction
G06T 7/32 - Détermination des paramètres de transformation pour l'alignement des images, c.-à-d. recalage des images utilisant des procédés basés sur la corrélation
Techniques for generating a prescribed perspective of a scene are disclosed. In some embodiments, a specification of a scene comprising a plurality of objects is specified using object views that are substantially free of perspective distortions, and a prescribed perspective of the scene is at least in part generated by populating the prescribed perspective of the scene with pixels from existing images of the plurality of objects.
G06T 7/32 - Détermination des paramètres de transformation pour l'alignement des images, c.-à-d. recalage des images utilisant des procédés basés sur la corrélation
G06T 5/50 - Amélioration ou restauration d'image utilisant plusieurs images, p. ex. moyenne ou soustraction
G06T 17/00 - Modélisation tridimensionnelle [3D] pour infographie
67.
Machine learning based image processing techniques
A machine learning based image processing architecture and associated applications are disclosed herein. In some embodiments, a machine learning framework is trained to learn low level image attributes such as object/scene types, geometries, placements, materials and textures, camera characteristics, lighting characteristics, contrast, noise statistics, etc. Thereafter, the machine learning framework may be employed to detect such attributes in other images and process the images at the attribute level.
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
G06V 10/46 - Descripteurs pour la forme, descripteurs liés au contour ou aux points, p. ex. transformation de caractéristiques visuelles invariante à l’échelle [SIFT] ou sacs de mots [BoW]Caractéristiques régionales saillantes
Techniques for generating aligned, augmented reality views are disclosed. In some embodiments, an estimate of a floorplan of a three-dimensional space is first generated based on one or more received views of the three-dimensional space from a camera located in the three-dimensional space. A camera pose of the camera in the three-dimensional space is next determined based on generating a corrected floorplan from the estimate of the floorplan based on foreknowledge associated with the floorplan. Display of a rendering having the determined camera pose is facilitated in an actual view of the camera, resulting in an aligned, augmented reality view.
Techniques for generating an ensemble image are disclosed. In some embodiments, images associated with a plurality of independent scenes are translated to a prescribed origin, translated images associated with each independent scene are transformed into a prescribed perspective; and pixels of an image array having the prescribed perspective that is associated with each independent scene is populated with corresponding pixels from the transformed translated images associated with that independent scene. An ensemble image comprising the prescribed perspective is at least in part generated by combining at least some pixels of image arrays associated with the plurality of independent scenes.
G06T 7/32 - Détermination des paramètres de transformation pour l'alignement des images, c.-à-d. recalage des images utilisant des procédés basés sur la corrélation
G06T 5/50 - Amélioration ou restauration d'image utilisant plusieurs images, p. ex. moyenne ou soustraction
70.
Machine learning based image processing techniques
A machine learning based image processing architecture and associated applications are disclosed herein. In some embodiments, a machine learning framework is trained to learn low level image attributes such as object/scene types, geometries, placements, materials and textures, camera characteristics, lighting characteristics, contrast, noise statistics, etc. Thereafter, the machine learning framework may be employed to detect such attributes in other images and process the images at the attribute level.
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
G06K 9/62 - Méthodes ou dispositions pour la reconnaissance utilisant des moyens électroniques
Improved techniques for generating video content are disclosed. In some embodiments, a frame is rendered using a rendering option. It is then determined whether the frame is an independent frame (I-frame) or a predictive frame (P-frame). In the event that the frame is an I-frame, the frame is independently encoded. In the event that the frame is a P-frame, motion is estimated from a known geometry of an associated scene and motion vectors and prediction error are encoded.
H04N 19/597 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage prédictif spécialement adapté pour l’encodage de séquences vidéo multi-vues
A machine learning based image processing architecture and associated applications are disclosed herein. In some embodiments, a machine learning framework is trained to learn low level image attributes such as object/scene types, geometries, placements, materials and textures, camera characteristics, lighting characteristics, contrast, noise statistics, etc. Thereafter, the machine learning framework may be employed to detect such attributes in other images and process the images at the attribute level.
G06F 18/214 - Génération de motifs d'entraînementProcédés de Bootstrapping, p. ex. ”bagging” ou ”boosting”
G06F 18/21 - Conception ou mise en place de systèmes ou de techniquesExtraction de caractéristiques dans l'espace des caractéristiquesSéparation aveugle de sources
G06V 10/774 - Génération d'ensembles de motifs de formationTraitement des caractéristiques d’images ou de vidéos dans les espaces de caractéristiquesDispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique utilisant l’intégration et la réduction de données, p. ex. analyse en composantes principales [PCA] ou analyse en composantes indépendantes [ ICA] ou cartes auto-organisatrices [SOM]Séparation aveugle de source méthodes de Bootstrap, p. ex. "bagging” ou “boosting”
G06V 10/776 - ValidationÉvaluation des performances
Techniques for generating an arbitrary view of a scene from existing images of the scene are disclosed. In some embodiments, an image of a scene having a desired perspective is at least in part generated by populating some pixels of the image having the desired perspective using pixels obtained from a transformed existing image of the scene that is selected from a stored set of existing images associated with the scene and that is transformed to the desired perspective.
Two-dimensional compositing that preserves the curvatures of non-flat surfaces is disclosed. In some embodiments, a mapping is associated with a two-dimensional rendering that maps a potentially variable portion of the two-dimensional rendering to a canvas. The mapping is generated from a three-dimensional model of the potentially variable portion of the two-dimensional rendering. The potentially variable portion of the two-dimensional rendering is dynamically modified according to the mapping to reflect content comprising the canvas or edits received with respect to the canvas.
G09G 3/20 - Dispositions ou circuits de commande présentant un intérêt uniquement pour l'affichage utilisant des moyens de visualisation autres que les tubes à rayons cathodiques pour la présentation d'un ensemble de plusieurs caractères, p. ex. d'une page, en composant l'ensemble par combinaison d'éléments individuels disposés en matrice
G09G 5/36 - Dispositions ou circuits de commande de l'affichage communs à l'affichage utilisant des tubes à rayons cathodiques et à l'affichage utilisant d'autres moyens de visualisation caractérisés par l'affichage de dessins graphiques individuels en utilisant une mémoire à mappage binaire
G06T 11/40 - Remplissage d'une surface plane par addition d'attributs de surface, p. ex. de couleur ou de texture
Techniques for tagging virtualized content are disclosed. In some embodiments, a modeled three-dimensional scene of objects representing abstracted source content is generated and analyzed to determine a contextual characteristic of the scene that is based on a plurality of objects comprising the scene. The modeled scene is tagged with a tag specifying the determined contextual characteristic.
G06K 9/72 - Méthodes ou dispositions pour la reconnaissance utilisant des moyens électroniques utilisant une analyse de contexte basée sur l'identité provisoire attribuée à une série de formes successives, p.ex. d'un mot
G06T 17/00 - Modélisation tridimensionnelle [3D] pour infographie
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
G06V 20/00 - ScènesÉléments spécifiques à la scène
G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée
G06V 20/40 - ScènesÉléments spécifiques à la scène dans le contenu vidéo
Techniques for generating three-dimensional content from the recordings of multiple independently operated cameras that are not constrained to fixed positions and orientations are disclosed. In some embodiments, data from a plurality of cameras configured to record a scene is received; a relative pose of each camera with respect to a common set of identified points in the scene is determined; relative poses of the cameras with respect to each other based on their relative poses with respect to the common set of identified points are determined; and the camera recordings and determined relative poses are processed to generate a three-dimensional reconstruction of at least a portion of the scene in the cameras' common field of view.
H04N 13/239 - Générateurs de signaux d’images utilisant des caméras à images stéréoscopiques utilisant deux capteurs d’images 2D dont la position relative est égale ou en correspondance à l’intervalle oculaire
Techniques associated with adaptive sampling are disclosed. In some embodiments, in response to receiving a specification of a scene to render, a sampling of each portion of the scene is determined based at least in part on the specification of the scene such that the scene is not uniformly sampled, and the scene is rendered according to the determined sampling of each portion of the scene.
Various techniques associated with automatic mesh generation are disclosed. One or more center curves of an outline of an object or figure are first determined. Next, for each of a plurality of points of each of the one or more center curves, a pair of rays is cast from a center curve in opposite directions, wherein the rays collide with opposite sides of the outline, and a collision pair is generated that comprises a line connecting collision points of the pair of rays on opposite sides of the outline. A mesh model of the object or figure is generated by mapping each of a set of collision pairs to polygons used to define the mesh model.
Adaptive sampling of pixels is disclosed. In some embodiments, a rendering of a scene is generated by sampling each pixel of the rendering with a prescribed number of samples. Subsequently, those pixels of the rendering that do not satisfy a noise threshold are iteratively sampled with an additional sample during each iteration until all pixels of the rendering satisfy the noise threshold. The noise threshold is associated with noise arising due to under sampling. Pixels comprising the completed rendering are not uniformly sampled.
Techniques for rendering a scene are disclosed. In some embodiments, a local database is populated with received three-dimensional object definitions. A received specification of a scene comprising a specification of objects comprising the scene is rendered according to the received specification using one or more three-dimensional object definitions already available in the local database.
H04N 21/234 - Traitement de flux vidéo élémentaires, p. ex. raccordement de flux vidéo ou transformation de graphes de scènes du flux vidéo codé
H04N 21/84 - Génération ou traitement de données de description, p. ex. descripteurs de contenu
H04N 21/44 - Traitement de flux élémentaires vidéo, p. ex. raccordement d'un clip vidéo récupéré d'un stockage local avec un flux vidéo en entrée ou rendu de scènes selon des graphes de scène du flux vidéo codé
Techniques for generating an arbitrary view of an asset are disclosed. In some embodiments, arbitrary view generation includes storing a set of images associated with an asset in a database and generating an image comprising a requested view of the asset using at least a subset of the set of images associated with the asset that are stored in the database.
G06F 16/58 - Recherche caractérisée par l’utilisation de métadonnées, p. ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement
G06T 5/50 - Amélioration ou restauration d'image utilisant plusieurs images, p. ex. moyenne ou soustraction
G06T 7/32 - Détermination des paramètres de transformation pour l'alignement des images, c.-à-d. recalage des images utilisant des procédés basés sur la corrélation
Techniques for generating an arbitrary view of a scene are disclosed. In some embodiments, arbitrary view generation includes storing sets of images associated with corresponding assets in a database and generating an image comprising a requested view of a scene using images associated with one or more assets comprising the scene that are stored in the database.
G06F 16/58 - Recherche caractérisée par l’utilisation de métadonnées, p. ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement
G06T 5/50 - Amélioration ou restauration d'image utilisant plusieurs images, p. ex. moyenne ou soustraction
G06T 7/32 - Détermination des paramètres de transformation pour l'alignement des images, c.-à-d. recalage des images utilisant des procédés basés sur la corrélation
Techniques for tagging virtualized content are disclosed. In some embodiments, a modeled three-dimensional scene of objects representing abstracted source content is generated and analyzed to determine a contextual characteristic of the scene that is based on a plurality of objects comprising the scene. The modeled scene is tagged with a tag specifying the determined contextual characteristic.
G06K 9/72 - Méthodes ou dispositions pour la reconnaissance utilisant des moyens électroniques utilisant une analyse de contexte basée sur l'identité provisoire attribuée à une série de formes successives, p.ex. d'un mot
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
Improved techniques for generating video content are disclosed. In some embodiments, a frame is first rendered using a first rendering option. It is then determined whether the frame is an independent frame (I-frame) or a predictive frame (P-frame). In the event that the frame is an I-frame, the frame is rendered using a second rendering option. In the event that the frame is a P-frame, the frame as rendered by the first rendering option and a previous frame as rendered by the first rendering option are used to determine prediction error. The first rendering option comprises a lower computational complexity than the second rendering option.
H04N 19/597 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage prédictif spécialement adapté pour l’encodage de séquences vidéo multi-vues
Techniques for virtualizing content are disclosed. One or more objects comprising source video content are determined. The one or more objects comprising the source video content are virtualized by mapping each to and representing each with a corresponding database object. Data comprising the corresponding database objects is provided for rendering the source video content instead of any original pixel information of the source video content so that a virtualized version of the source video content is rendered.
H04N 21/2343 - Traitement de flux vidéo élémentaires, p. ex. raccordement de flux vidéo ou transformation de graphes de scènes du flux vidéo codé impliquant des opérations de reformatage de signaux vidéo pour la distribution ou la mise en conformité avec les requêtes des utilisateurs finaux ou les exigences des dispositifs des utilisateurs finaux
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
H04N 5/232 - Dispositifs pour la commande des caméras de télévision, p.ex. commande à distance
Techniques for generating aligned, augmented reality views are disclosed. In some embodiments, an estimate of a floorplan of a three-dimensional space is first generated based on one or more views of the three-dimensional space from a camera of a device located in the three- dimensional space. A cost function is next minimized with respect to the estimate of the floorplan to generate a corrected floorplan having less error than the estimated floorplan, and a camera pose corresponding to the corrected floorplan is determined. Display of a rendering having the determined camera pose is facilitated in an actual view of the camera, resulting in an aligned, augmented reality view.
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
Techniques for providing blended physical and virtual reality experiences are disclosed. In some embodiments, a pose of a camera of a device located in a venue is determined based at least in part on three-dimensional asset recognition in a field of view of the camera, wherein the field of view of the camera comprises an actual physical view of the venue; a virtual view corresponding to the actual view is obtained from existing assets comprising a specification of a virtualized version of the venue; and display of the virtual view is facilitated at the venue. Thus, a virtual reality of a physical space is provided while at the physical space based on actual three-dimensional objects detected or recognized in the physical space.
G06F 3/00 - Dispositions d'entrée pour le transfert de données destinées à être traitées sous une forme maniable par le calculateurDispositions de sortie pour le transfert de données de l'unité de traitement à l'unité de sortie, p. ex. dispositions d'interface
G06Q 30/06 - Transactions d’achat, de vente ou de crédit-bail
Techniques for providing blended physical and virtual reality experiences are disclosed. In some embodiments, a pose of a camera of a device located in a venue is determined based at least in part on three-dimensional asset recognition in a field of view of the camera, wherein the field of view of the camera comprises an actual physical view of the venue; a virtual view corresponding to the actual view is obtained from existing assets comprising a specification of a virtualized version of the venue; and display of the virtual view is facilitated at the venue. Thus, a virtual reality of a physical space is provided while at the physical space based on actual three-dimensional objects detected or recognized in the physical space.
G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06T 17/20 - Description filaire, p. ex. polygonalisation ou tessellation
G06K 9/32 - Alignement ou centrage du capteur d'image ou de la zone image
Techniques for generating aligned, augmented reality views are disclosed. In some embodiments, an estimate of a floorplan of a three-dimensional space is first generated based on one or more views of the three-dimensional space from a camera of a device located in the three-dimensional space. A cost function is next minimized with respect to the estimate of the floorplan to generate a corrected floorplan having less error than the estimated floorplan, and a camera pose corresponding to the corrected floorplan is determined. Display of a rendering having the determined camera pose is facilitated in an actual view of the camera, resulting in an aligned, augmented reality view.
Techniques for generating an arbitrary view of a scene are disclosed. In some embodiments, for each image of a set of images associated with a scene, image pixels are divided into a plurality of pixel blocks, the pixel blocks are transformed into an arbitrary perspective, and pixels of an image array comprising the arbitrary perspective are populated with corresponding pixels from the transformed pixel blocks. An output image of the scene comprising the arbitrary perspective is then generated based at least in part on the populated image array.
G06T 7/32 - Détermination des paramètres de transformation pour l'alignement des images, c.-à-d. recalage des images utilisant des procédés basés sur la corrélation
G06T 5/50 - Amélioration ou restauration d'image utilisant plusieurs images, p. ex. moyenne ou soustraction
Techniques for generating an arbitrary view of an asset are disclosed. In some embodiments, arbitrary view generation includes storing a set of images of an asset, wherein each image comprising at least a subset of the set of images has an overlapping field of view with at least one other image in the subset, and generating an image comprising an arbitrary perspective of the asset at least in part by populating the image comprising the arbitrary perspective with pixels harvested from one or more images comprising the set of images.
G06T 7/32 - Détermination des paramètres de transformation pour l'alignement des images, c.-à-d. recalage des images utilisant des procédés basés sur la corrélation
G06T 5/50 - Amélioration ou restauration d'image utilisant plusieurs images, p. ex. moyenne ou soustraction
G06F 16/58 - Recherche caractérisée par l’utilisation de métadonnées, p. ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement
Techniques for generating an arbitrary perspective of a composite object are disclosed. In some embodiments, a specification of an orthographic view of a composite object comprises combined orthographic views of a plurality of objects, and an arbitrary perspective of the composite object is at least in part generated by populating the arbitrary perspective of the composite object with pixels harvested from existing images of the plurality of objects.
G06T 7/32 - Détermination des paramètres de transformation pour l'alignement des images, c.-à-d. recalage des images utilisant des procédés basés sur la corrélation
G06T 5/50 - Amélioration ou restauration d'image utilisant plusieurs images, p. ex. moyenne ou soustraction
G06T 17/00 - Modélisation tridimensionnelle [3D] pour infographie
Various techniques associated with automatic mesh generation are disclosed. One or more center curves of an outline of an object or figure are first determined. Next, for each of a plurality of points of each of the one or more center curves, a pair of rays is cast from a center curve in opposite directions, wherein the rays collide with opposite sides of the outline, and a collision pair is generated that comprises a line connecting collision points of the pair of rays on opposite sides of the outline. A mesh model of the object or figure is generated by mapping each of a set of collision pairs to polygons used to define the mesh model.
Two-dimensional compositing that preserves the curvatures of non-flat surfaces is disclosed. In some embodiments, a mapping is associated with a two-dimensional rendering that maps a potentially variable portion of the two-dimensional rendering to a canvas. The mapping is generated from a three-dimensional model of the potentially variable portion of the two-dimensional rendering. The potentially variable portion of the two-dimensional rendering is dynamically modified according to the mapping to reflect content comprising the canvas or edits received with respect to the canvas.
G09G 3/20 - Dispositions ou circuits de commande présentant un intérêt uniquement pour l'affichage utilisant des moyens de visualisation autres que les tubes à rayons cathodiques pour la présentation d'un ensemble de plusieurs caractères, p. ex. d'une page, en composant l'ensemble par combinaison d'éléments individuels disposés en matrice
G09G 5/36 - Dispositions ou circuits de commande de l'affichage communs à l'affichage utilisant des tubes à rayons cathodiques et à l'affichage utilisant d'autres moyens de visualisation caractérisés par l'affichage de dessins graphiques individuels en utilisant une mémoire à mappage binaire
G06T 11/40 - Remplissage d'une surface plane par addition d'attributs de surface, p. ex. de couleur ou de texture
Various techniques associated with automatic mesh generation are disclosed. One or more center curves of an outline of an object or figure are first determined. Next, for each of a plurality of points of each of the one or more center curves, a pair of rays is cast from a center curve in opposite directions, wherein the rays collide with opposite sides of the outline, and a collision pair is generated that comprises a line connecting collision points of the pair of rays on opposite sides of the outline. A mesh model of the object or figure is generated by mapping each of a set of collision pairs to polygons used to define the mesh model.
Two-dimensional compositing that preserves the curvatures of non-flat surfaces is disclosed. In some embodiments, a mapping is associated with a two-dimensional rendering that maps a potentially variable portion of the two-dimensional rendering to a canvas. The mapping is generated from a three-dimensional model of the potentially variable portion of the two-dimensional rendering. The potentially variable portion of the two-dimensional rendering is dynamically modified according to the mapping to reflect content comprising the canvas or edits received with respect to the canvas.
G09G 5/00 - Dispositions ou circuits de commande de l'affichage communs à l'affichage utilisant des tubes à rayons cathodiques et à l'affichage utilisant d'autres moyens de visualisation
97.
Machine learning based image processing techniques
A machine learning based image processing architecture and associated applications are disclosed herein. In some embodiments, a machine learning framework is trained to learn low level image attributes such as object/scene types, geometries, placements, materials and textures, camera characteristics, lighting characteristics, contrast, noise statistics, etc. Thereafter, the machine learning framework may be employed to detect such attributes in other images and process the images at the attribute level.
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
G06K 9/62 - Méthodes ou dispositions pour la reconnaissance utilisant des moyens électroniques
A machine learning based image processing architecture and associated applications are disclosed herein. In some embodiments, a machine learning framework is trained to learn low level image attributes such as object/scene types, geometries, placements, materials and textures, camera characteristics, lighting characteristics, contrast, noise statistics, etc. Thereafter, the machine learning framework may be employed to detect such attributes in other images and process the images at the attribute level.
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
G06K 9/62 - Méthodes ou dispositions pour la reconnaissance utilisant des moyens électroniques
A machine learning based image processing architecture and associated applications are disclosed herein. In some embodiments, a machine learning framework is trained to learn low level image attributes such as object/scene types, geometries, placements, materials and textures, camera characteristics, lighting characteristics, contrast, noise statistics, etc. Thereafter, the machine learning framework may be employed to detect such attributes in other images and process the images at the attribute level.
G06K 9/00 - Méthodes ou dispositions pour la lecture ou la reconnaissance de caractères imprimés ou écrits ou pour la reconnaissance de formes, p.ex. d'empreintes digitales
G06K 9/62 - Méthodes ou dispositions pour la reconnaissance utilisant des moyens électroniques
A machine learning based image processing architecture and associated applications are disclosed herein. In some embodiments, a machine learning framework is trained to learn low level image attributes such as object/scene types, geometries, placements, materials and textures, camera characteristics, lighting characteristics, contrast, noise statistics, etc. Thereafter, the machine learning framework may be employed to detect such attributes in other images and process the images at the attribute level.
G06F 15/18 - dans lesquels un programme est modifié en fonction de l'expérience acquise par le calculateur lui-même au cours d'un cycle complet; Machines capables de s'instruire (systèmes de commande adaptatifs G05B 13/00;intelligence artificielle G06N)
G06K 9/46 - Extraction d'éléments ou de caractéristiques de l'image
G06K 9/62 - Méthodes ou dispositions pour la reconnaissance utilisant des moyens électroniques
G06K 9/66 - Méthodes ou dispositions pour la reconnaissance utilisant des moyens électroniques utilisant des comparaisons ou corrélations simultanées de signaux images avec une pluralité de références, p.ex. matrice de résistances avec des références réglables par une méthode adaptative, p.ex. en s'instruisant
G06T 7/246 - Analyse du mouvement utilisant des procédés basés sur les caractéristiques, p. ex. le suivi des coins ou des segments