Systems, processes and device configurations are provided for electronic gaming control and performance based sound generation for network games, such as multiplayer or cloud based games. Processed include determining one or more sound cues for a game data stream. By generating and outputting one or more sound cues on the fly, sound feedback may be provided to compliment gameplay and a game experience. Sound cues can transform or modify audio elements of games for users and viewers of electronic gaming content. Generating sound cues may include replacing one or more assets of an electronic game, and capturing the user interaction with the modified content. Generating sound cues may include generating one or more sounds for a user, such as crowd cheers or boos, wherein the underlying game code and game content is not modified. Processes and configurations are also provided for determining sound assets of gaming content and tracking user performance.
A63F 13/54 - Commande des signaux de sortie en fonction de la progression du jeu incluant des signaux acoustiques, p. ex. pour simuler le bruit d’un moteur en fonction des tours par minute [RPM] dans un jeu de conduite ou la réverbération contre un mur virtuel
A63F 13/355 - Réalisation d’opérations pour le compte de clients ayant des capacités de traitement restreintes, p. ex. serveurs transformant une scène de jeu qui évolue en flux vidéo codé à transmettre à un téléphone portable ou à un client léger
A63F 13/798 - Aspects de sécurité ou de gestion du jeu incluant des données sur les joueurs, p. ex. leurs identités, leurs comptes, leurs préférences ou leurs historiques de jeu pour évaluer les compétences ou pour classer les joueurs, p. ex. pour créer un tableau d’honneur des joueurs
2.
PROCESSING DEVICES AND METHODS FOR GENERATING A GROUP OF USERS
A processing device for generating a group of users for a first user to complete a given task in a video game, completion requiring one or more in-game characteristics, the processing device comprising: an identification unit configured to identify one or more requirements of the given task; a selection unit configured to select one or more other users from a plurality of other users, wherein a respective one of the other users is selected in dependence upon at least one of the requirements and one or more in-game characteristics associated with the respective other user; and a group generation unit configured to generate the group for the first user to complete the given task, the generated group comprising the first user and the one or more selected other users.
A63F 13/795 - Aspects de sécurité ou de gestion du jeu incluant des données sur les joueurs, p. ex. leurs identités, leurs comptes, leurs préférences ou leurs historiques de jeu pour trouver d’autres joueursAspects de sécurité ou de gestion du jeu incluant des données sur les joueurs, p. ex. leurs identités, leurs comptes, leurs préférences ou leurs historiques de jeu pour constituer une équipeAspects de sécurité ou de gestion du jeu incluant des données sur les joueurs, p. ex. leurs identités, leurs comptes, leurs préférences ou leurs historiques de jeu pour fournir une "liste d’amis"
3.
DYNAMIC CLIENT BUFFERING AND ADJUSTED TIMING OF CLIENT VSYNC SIGNAL FOR CLOUD GAMING
A method is disclosed including setting, at a server, a server VSYNC signal to a server VSYNC frequency defining a plurality of frame periods. The server VSYNC signal corresponding to generation of a plurality of video frames at the server during the plurality of frame periods. The method including setting, at a client, a client VSYNC signal to a client VSYNC frequency. The method including sending a plurality of compressed video frames based on the plurality of video frames from the server to the client over a network using the server VSYNC signal. The method including decoding and displaying, at the client, the plurality of compressed video frames. The method including analyzing the timing of one or more client operations to set the amount of frame buffering used by the client, as the client receives the plurality of compressed video frames.
A63F 13/355 - Réalisation d’opérations pour le compte de clients ayant des capacités de traitement restreintes, p. ex. serveurs transformant une scène de jeu qui évolue en flux vidéo codé à transmettre à un téléphone portable ou à un client léger
A63F 13/335 - Dispositions d’interconnexion entre des serveurs et des dispositifs de jeuDispositions d’interconnexion entre des dispositifs de jeuDispositions d’interconnexion entre des serveurs de jeu utilisant des connexions de réseau étendu [WAN] utilisant l’Internet
A63F 13/358 - Adaptation du déroulement du jeu en fonction de la charge du réseau ou du serveur, p. ex. pour diminuer la latence due aux différents débits de connexion entre clients
A63F 13/44 - Traitement des signaux de commande d’entrée des dispositifs de jeu vidéo, p. ex. les signaux générés par le joueur ou dérivés de l’environnement incluant la durée ou la synchronisation des opérations, p. ex. l’exécution d’une action dans une certaine fenêtre temporelle
G07F 17/32 - Appareils déclenchés par pièces de monnaie pour la location d'articlesInstallations ou services déclenchés par pièces de monnaie pour jeux, jouets, sports ou distractions
H04L 65/70 - Mise en paquets adaptés au réseau des données multimédias
H04L 65/80 - Dispositions, protocoles ou services dans les réseaux de communication de paquets de données pour prendre en charge les applications en temps réel en répondant à la qualité des services [QoS]
H04L 67/10 - Protocoles dans lesquels une application est distribuée parmi les nœuds du réseau
H04L 67/1095 - Réplication ou mise en miroir des données, p. ex. l’ordonnancement ou le transport pour la synchronisation des données entre les nœuds du réseau
H04L 67/131 - Protocoles pour jeux, simulations en réseau ou réalité virtuelle
H04N 21/2343 - Traitement de flux vidéo élémentaires, p. ex. raccordement de flux vidéo ou transformation de graphes de scènes du flux vidéo codé impliquant des opérations de reformatage de signaux vidéo pour la distribution ou la mise en conformité avec les requêtes des utilisateurs finaux ou les exigences des dispositifs des utilisateurs finaux
H04N 21/242 - Procédés de synchronisation, p. ex. traitement de références d'horloge de programme [PCR]
H04N 21/43 - Traitement de contenu ou données additionnelles, p. ex. démultiplexage de données additionnelles d'un flux vidéo numériqueOpérations élémentaires de client, p. ex. surveillance du réseau domestique ou synchronisation de l'horloge du décodeurIntergiciel de client
H04N 21/4402 - Traitement de flux élémentaires vidéo, p. ex. raccordement d'un clip vidéo récupéré d'un stockage local avec un flux vidéo en entrée ou rendu de scènes selon des graphes de scène du flux vidéo codé impliquant des opérations de reformatage de signaux vidéo pour la redistribution domestique, le stockage ou l'affichage en temps réel
H04N 21/442 - Surveillance de procédés ou de ressources, p. ex. détection de la défaillance d'un dispositif d'enregistrement, surveillance de la bande passante sur la voie descendante, du nombre de visualisations d'un film, de l'espace de stockage disponible dans le disque dur interne
H04N 21/478 - Services additionnels, p. ex. affichage de l'identification d'un appelant téléphonique ou application d'achat
H04N 21/8547 - Création de contenu impliquant des marquages temporels pour synchroniser le contenu
Disclosed herein is an input device including a first microphone, an exterior member that accommodates the first microphone, and a first sound hole penetrating the exterior member to be connected to the first microphone. An exterior surface of the exterior member has one or a plurality of wall portions that surround the first sound hole.
A63F 13/215 - Dispositions d'entrée pour les dispositifs de jeu vidéo caractérisées par leurs capteurs, leurs finalités ou leurs types comprenant des moyens de détection des signaux acoustiques, p. ex. utilisant un microphone
A63F 13/24 - Parties constitutives, p. ex. manettes de jeu avec poignées amovibles
H04R 1/04 - Association constructive d'un microphone avec son circuit électrique
H04R 1/40 - Dispositions pour obtenir la fréquence désirée ou les caractéristiques directionnelles pour obtenir la caractéristique directionnelle désirée uniquement en combinant plusieurs transducteurs identiques
Systems and methods for real-time generation of assistive content are provided. Gameplay data, such as activity files or object files, may be stored in association with user-generated content including media files. Based on gameplay data from different sessions, a learning model may be trained to identify patterns that correlate types of gameplay data (e.g., regarding in-game actions) to game outcomes. A current interactive session may be monitored to identify player actions. The learning model may be applied to make predictions regarding likelihood of success based on current trajectory and to identify recommendations for next actions correlated with successful or otherwise desired outcomes. Media files such as video files and related content may be used to generate custom assistive content to present to the user. Such assistive content may be presented in real-time within the same or different window or display associated with the user.
A63F 13/422 - Traitement des signaux de commande d’entrée des dispositifs de jeu vidéo, p. ex. les signaux générés par le joueur ou dérivés de l’environnement par mappage des signaux d’entrée en commandes de jeu, p. ex. mappage du déplacement d’un stylet sur un écran tactile en angle de braquage d’un véhicule virtuel mappage automatique pour assister le joueur, p. ex. freinage automatique dans un jeu de conduite automobile
A63F 13/45 - Commande de la progression du jeu vidéo
A63F 13/573 - Simulations de propriétés, de comportement ou de déplacement d’objets dans le jeu, p. ex. calcul de l’effort supporté par un pneu dans un jeu de course automobile utilisant les trajectoires des objets du jeu, p. ex. d’une balle de golf en fonction du point d’impact
A63F 13/63 - Création ou modification du contenu du jeu avant ou pendant l’exécution du programme de jeu, p. ex. au moyen d’outils spécialement adaptés au développement du jeu ou d’un éditeur de niveau intégré au jeu par le joueur, p. ex. avec un éditeur de niveaux
A63F 13/87 - Communiquer avec d’autres joueurs, p. ex. par courrier électronique ou messagerie instantanée
6.
DEVICES, SYSTEMS, CODECS AND METHODS FOR NEURAL CODING
A hybrid codec for training a neural coding system, the hybrid codec including a real codec for encoding data pre-processed by a first neural network, and for decoding the encoded data for post-processing by a second neural network; and a proxy codec that is a differentiable representation of the real codec, and is for back-propagating a loss function, representative of a coding bit-rate and a coding distortion between the post-processed data and the original data, for training the weights of at least the first neural network.
An input device includes an exterior member having an opening formed therein; an input member that has an upper surface to be touched by a user with a finger and that is disposed inside the opening; and a light diffusing member having a light emitting surface located along an outer edge of the input member, where the light emitting surface has a first region exposed in a gap between an inner edge of the opening of the exterior member and an outer edge of the input member and a second region positioned on an inner side of the outer edge of the input member and below a peripheral portion of the input member.
A63F 13/24 - Parties constitutives, p. ex. manettes de jeu avec poignées amovibles
A63F 13/28 - Dispositions de sortie pour les dispositifs de jeu vidéo répondant à des signaux de commande reçus du dispositif de jeu pour influer sur les conditions ambiantes, p. ex. pour faire vibrer les sièges des joueurs, activer des distributeurs de parfums ou agir sur la température ou la lumière
H01H 9/16 - Indicateurs de position, p. ex. "marche" ou "arrêt"
H01H 9/18 - Marques distinctives sur interrupteurs, p. ex. pour indiquer l'emplacement de l'interrupteur dans l'obscuritéAdaptation des interrupteurs pour recevoir des marques distinctives
H01H 13/02 - Interrupteurs ayant un organe moteur à mouvement rectiligne ou des organes adaptés pour pousser ou tirer dans une seule direction, p. ex. interrupteur à bouton-poussoir Détails
8.
METHOD FOR PREDICTION OF SYSTEM-WIDE FAILURE DUE TO SOFTWARE UPDATES
A device and method for predicting a system failure from update data comprising two or more unimodal modules configured to determine feature information regarding an update to a code section. A neural network is trained with a machine learning algorithm to predict a system failure probability for the code update data that modifies the code section. The trained neural network is provided with the feature information from the two or more unimodal modules.
Disclosed is an operation device that includes a mounting section, a first position detection section, and a stimulus generation section. The mounting section is attached to a hand and fingers of a user. The first position detection section is disposed on the mounting section to detect the positions of the fingers. The stimulus generation section is disposed on the mounting section, placed at a position corresponding to one of the user's fingers, and configured to apply an external stimulus to the user.
Systems and methods for dynamic content display generation for multiple device setups are provided. Supplemental content files associated with an interactive content title may be stored in memory in association with parameters specific to different types of user devices. A current interactive session associated with a first device may be monitored and determined to include a virtual environment presentation associated with the interactive content title. A type of a secondary device associated with the user may be identified. A supplemental content package may be generated for the secondary device based on a selected set of supplemental content and a set of the parameters associated with the type of the secondary device. The supplemental content package may be provided to the secondary device during the current interactive session, and the secondary device may generate a presentation of the selected set of supplemental content files in accordance with the set of parameters.
A63F 13/50 - Commande des signaux de sortie en fonction de la progression du jeu
A63F 13/26 - Dispositions de sortie pour les dispositifs de jeu vidéo ayant au moins un dispositif d’affichage supplémentaire, p. ex. sur la manette de jeu ou à l’extérieur d’une cabine de jeu
G06F 3/14 - Sortie numérique vers un dispositif de visualisation
11.
DEVICES, SYSTEMS, CODECS AND METHODS FOR NEURAL CODING
A hybrid codec for training a neural coding system, the hybrid codec including a real codec for encoding data pre-processed by a first neural network, and for decoding the encoded data for post-processing by a second neural network; and a proxy codec that is a differentiable representation of the real codec, and is for back-propagating a loss function, representative of a coding bit-rate and a coding distortion between the post-processed data and the original data, for training the weights of at least the first neural network.
Disclosed herein is an image generation device including: a space construction section that constructs a virtual world to be displayed on a head-mounted display; an image generation section that generates, based on a position and a posture of a head of a player wearing the head-mounted display, a display image representing the virtual world in a field of view corresponding to a point of view of the player, and causes the head-mounted display to display the generated display image; and a visitor information acquisition section that acquires information regarding presence of a visitor without a head-mounted display in a space where the player is able to move. While the visitor is present, the space construction section displays an object indicating the presence of the visitor at a corresponding position in the virtual world.
A63F 13/211 - Dispositions d'entrée pour les dispositifs de jeu vidéo caractérisées par leurs capteurs, leurs finalités ou leurs types utilisant des capteurs d’inertie, p. ex. des accéléromètres ou des gyroscopes
A63F 13/212 - Dispositions d'entrée pour les dispositifs de jeu vidéo caractérisées par leurs capteurs, leurs finalités ou leurs types utilisant des capteurs portés par le joueur, p. ex. pour mesurer le rythme cardiaque ou l’activité des jambes
A63F 13/40 - Traitement des signaux de commande d’entrée des dispositifs de jeu vidéo, p. ex. les signaux générés par le joueur ou dérivés de l’environnement
A63F 13/52 - Commande des signaux de sortie en fonction de la progression du jeu incluant des aspects de la scène de jeu affichée
A63F 13/537 - Commande des signaux de sortie en fonction de la progression du jeu incluant des informations visuelles supplémentaires fournies à la scène de jeu, p. ex. en surimpression pour simuler un affichage tête haute [HUD] ou pour afficher une visée laser dans un jeu de tir utilisant des indicateurs, p. ex. en montrant l’état physique d’un personnage de jeu sur l’écran
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
13.
SYSTEMS AND METHODS FOR PERSONALIZED GAME COMMENTARY STREAMS
System, process and device configurations are provided for generating game commentary streams. Game commentary streams can include gameplay video data with voice data of multiplayer game users synchronized to one or more game events and game states in recorded gameplay. Game commentary streams may allow for selection of game play content from the perspective of a selected user and to obtain voice data of the user and one or more other users during the game session. Methods for generating a commentary stream can include receiving game commentary data from users of a multiplayer electronic game including voice data detected during the game session and generating the commentary stream to include gameplay data for the game session and selected game commentary data. User requests may be received and the commentary stream may be output for recorded game play from the perspective of one or more users of the game session.
Systems, processes and device configurations are provided for electronic gaming control and performance based sound generation for network games, such as multiplayer or cloud based games. Processes include determining one or more sound cues for a game data stream. By generating and outputting one or more sound cues on the fly, sound feedback may be provided to compliment gameplay and game experience. Sound cues can transform or modify audio elements of games for users and viewers of electronic gaming content. Generating sound cues may include replacing one or more assets of an electronic game, and capturing the user interaction with the modified content. Generating sound cues may include generating one or more sounds for a user, such as crowd cheers or boos, wherein the underlying game code and game content is not modified. Processes and configurations are also provided for determining sound assets of gaming content and tracking user performance.
A63F 13/54 - Commande des signaux de sortie en fonction de la progression du jeu incluant des signaux acoustiques, p. ex. pour simuler le bruit d’un moteur en fonction des tours par minute [RPM] dans un jeu de conduite ou la réverbération contre un mur virtuel
A63F 13/424 - Traitement des signaux de commande d’entrée des dispositifs de jeu vidéo, p. ex. les signaux générés par le joueur ou dérivés de l’environnement par mappage des signaux d’entrée en commandes de jeu, p. ex. mappage du déplacement d’un stylet sur un écran tactile en angle de braquage d’un véhicule virtuel incluant des signaux d’entrée acoustiques, p. ex. en utilisant les résultats d’extraction de hauteur tonale ou de rythme ou de reconnaissance vocale
A63F 13/798 - Aspects de sécurité ou de gestion du jeu incluant des données sur les joueurs, p. ex. leurs identités, leurs comptes, leurs préférences ou leurs historiques de jeu pour évaluer les compétences ou pour classer les joueurs, p. ex. pour créer un tableau d’honneur des joueurs
15.
INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND PROGRAM
An information processing device for acquiring content of interest having content that changes with time and predetermined time-series information recorded while the content of interest is outputted, acquiring model output data corresponding to element data constituting the content of interest by using a machine learning model obtained by machine learning a relationship between element data included in the content and description information linguistically describing the content of the element data, and executing predetermined processing on the basis of the acquired time-series information and the acquired model output data.
H04N 5/91 - Traitement du signal de télévision pour l'enregistrement
H04N 5/92 - Transformation du signal de télévision pour l'enregistrement, p. ex. modulation, changement de fréquenceTransformation inverse pour le surjeu
This controller device presents a force to sense to a user by means of: a support body 10 including a grip part 11 gripped by the user; and a force sense presentation part 30 which is coupled to the support body 10 via a joint and is a movable weight that is movable relative to the position where the joint is coupled.
A device, system, and non-transitory computer readable medium for providing a specialized agent comprising an application and a virtual assistant are disclosed. The virtual assistant includes a neural network trained with a machine learning algorithm to emulate a communication style of a character and wherein the virtual assistant is further trained on application metadata to a predict response to questions about the application.
G06F 16/907 - Recherche caractérisée par l’utilisation de métadonnées, p. ex. de métadonnées ne provenant pas du contenu ou de métadonnées générées manuellement
An electronic system is configured to use a tailored large language model (740) to process natural language spoken (720) by a computer gamer during gameplay. Non-verbal output can then be provided (750) in response, where the non-verbal output may be visual, tactile, and/or audible. As examples, the non-verbal output may respond to a request from the user, may acknowledge that the natural language is being processed, and/or may indicate that a requested action has been registered for execution in the future.
A method for generating a three-dimensional (3D) content moment from a video game is provided, including the following operations: capturing two-dimensional (2D) gameplay video generated from a session of a video game; analyzing the 2D gameplay video to determine 3D geometry of a scene depicted in the 2D gameplay video; using the 3D geometry of the scene to generate a 3D video asset of a moment that occurred in the gameplay video; storing the 3D video asset to a user account.
A63F 13/497 - Répétition partielle ou entière d'actions de jeu antérieures
A63F 13/5255 - Changement des paramètres des caméras virtuelles en fonction d’instructions dédiées d’un joueur, p. ex. utilisation d’une deuxième manette pour faire effectuer un mouvement de rotation à la caméra autour du personnage du joueur
A63F 13/63 - Création ou modification du contenu du jeu avant ou pendant l’exécution du programme de jeu, p. ex. au moyen d’outils spécialement adaptés au développement du jeu ou d’un éditeur de niveau intégré au jeu par le joueur, p. ex. avec un éditeur de niveaux
20.
GENERATION OF 3D CONTENT MOMENT FROM CAPTURED GAMEPLAY VIDEO
A method for generating a three-dimensional (3D) content moment from a video game is provided, including the following operations: capturing two-dimensional (2D) gameplay video generated from a session of a video game; analyzing the 2D gameplay video to determine 3D geometry of a scene depicted in the 2D gameplay video; using the 3D geometry of the scene to generate a 3D still asset of a moment that occurred in the gameplay video; storing the 3D still asset to a user account.
A63F 13/497 - Répétition partielle ou entière d'actions de jeu antérieures
A63F 13/5255 - Changement des paramètres des caméras virtuelles en fonction d’instructions dédiées d’un joueur, p. ex. utilisation d’une deuxième manette pour faire effectuer un mouvement de rotation à la caméra autour du personnage du joueur
A63F 13/60 - Création ou modification du contenu du jeu avant ou pendant l’exécution du programme de jeu, p. ex. au moyen d’outils spécialement adaptés au développement du jeu ou d’un éditeur de niveau intégré au jeu
21.
FIELD OF VIEW OPTIMIZATION FOR GENERATED 3D CONTENT MOMENT RELATED TO CAPTURED GAMEPLAY VIDEO
A method for generating a view of an event in a video game is provided, including the following operations: capturing two-dimensional (2D) gameplay video generated from a session of a video game; analyzing the 2D gameplay video to identify an event occurring in a scene depicted in the 2D gameplay video and identifying one or more elements involved in said event; further analyzing the 2D gameplay video to determine 3D geometry of the scene; using the 3D geometry of the scene to generate a 3D video asset of the event that occurred in the gameplay video; generating a 2D view of the 3D video asset for presentation on a display, wherein generating said 2D view includes determining a field of view (FOV) to apply for the 2D view, the FOV being configured to include the elements involved in the event.
A63F 13/497 - Répétition partielle ou entière d'actions de jeu antérieures
A63F 13/5258 - Changement des paramètres des caméras virtuelles par adaptation dynamique de la position de la caméra virtuelle pour maintenir un personnage ou un objet de jeu dans son cône de vision, p. ex. pour suivre un personnage ou une balle
Systems and methods for dynamic content display generation for multiple device setups are provided. Supplemental content files associated with an interactive content title may be stored in memory in association with parameters specific to different types of user devices. A current interactive session associated with a first device may be monitored and determined to include a virtual environment presentation associated with the interactive content title. A type of a secondary device associated with the user may be identified. A supplemental content package may be generated for the secondary device based on a selected set of supplemental content and a set of the parameters associated with the type of the secondary device. The supplemental content package may be provided to the secondary device during the current interactive session, and the secondary device may generate a presentation of the selected set of supplemental content files in accordance with the set of parameters.
An information processing system according to the present disclosure comprises: a grip detection unit that, regarding a force sense presentation device having a force sense presentation unit that presents a predetermined force sense by varying the center of gravity of a housing with respect to a user gripping the housing, detects the grip state of the housing by the user; and a control unit that controls the operation of the force sense presentation unit on the basis of the detected grip state.
A device, system, and non-transitory computer readable medium for providing a specialized agent comprising an application and a virtual assistant are disclosed. The virtual assistant includes a neural network trained with a machine learning algorithm to emulate a communication style of a character and wherein the virtual assistant is further trained on application metadata to a predict response to questions about the application.
A63F 13/5375 - Commande des signaux de sortie en fonction de la progression du jeu incluant des informations visuelles supplémentaires fournies à la scène de jeu, p. ex. en surimpression pour simuler un affichage tête haute [HUD] ou pour afficher une visée laser dans un jeu de tir utilisant des indicateurs, p. ex. en montrant l’état physique d’un personnage de jeu sur l’écran pour suggérer graphiquement ou textuellement une action, p. ex. en affichant une flèche indiquant un tournant dans un jeu de conduite
25.
SYSTEMS AND METHODS FOR PERSONALIZED GAME COMMENTARY STREAMS
System, process and device configurations are provided for generating game commentary streams. Game commentary streams can include gameplay video data with voice data of multiplayer game users synchronized to one or more game events and game states in recorded gameplay. Game commentary streams may allow for selection of game play content from the perspective of a selected user and to obtain voice data of the user and one or more other users during the game session. Methods for generating a commentary stream can include receiving game commentary data from users of a multiplayer electronic game including voice data detected during the game session and generating the commentary stream to include gameplay data for the game session and selected game commentary data. User requests may be received and the commentary stream may be output for recorded game play from the perspective of one or more users of the game session.
A63F 13/215 - Dispositions d'entrée pour les dispositifs de jeu vidéo caractérisées par leurs capteurs, leurs finalités ou leurs types comprenant des moyens de détection des signaux acoustiques, p. ex. utilisant un microphone
A63F 13/497 - Répétition partielle ou entière d'actions de jeu antérieures
A63F 13/86 - Regarder des jeux joués par d’autres joueurs
A63F 13/87 - Communiquer avec d’autres joueurs, p. ex. par courrier électronique ou messagerie instantanée
26.
METHOD FOR PREDICTION OF SYSTEM-WIDE FAILURE DUE TO SOFTWARE UPDATES
A device and method for predicting a system failure from update data comprising two or more unimodal modules configured to determine feature information regarding an update to a code section. A neural network is trained with a machine learning algorithm to predict a system failure probability for the code update data that modifies the code section. The trained neural network is provided with the feature information from the two or more unimodal modules.
A method for generating a physical object is provided, including: capturing two-dimensional (2D) gameplay video generated from a session of a video game; analyzing the 2D gameplay video to identify a virtual object depicted in the 2D gameplay video; further analyzing the 2D gameplay video to determine 3D geometry of the virtual object; using the 3D geometry of the object to generate a 3D model of the virtual object; storing the 3D model to a user account; using the 3D model to generate a physical object resembling the virtual object.
A63F 13/50 - Commande des signaux de sortie en fonction de la progression du jeu
A63F 13/65 - Création ou modification du contenu du jeu avant ou pendant l’exécution du programme de jeu, p. ex. au moyen d’outils spécialement adaptés au développement du jeu ou d’un éditeur de niveau intégré au jeu automatiquement par des dispositifs ou des serveurs de jeu, à partir de données provenant du monde réel, p. ex. les mesures en direct dans les compétitions de course réelles
A63F 13/69 - Création ou modification du contenu du jeu avant ou pendant l’exécution du programme de jeu, p. ex. au moyen d’outils spécialement adaptés au développement du jeu ou d’un éditeur de niveau intégré au jeu en permettant l'utilisation ou la mise à jour d'éléments spécifiques du jeu, p. ex. déblocage d’options, d’éléments, de niveaux ou de versions cachés
B33Y 50/00 - Acquisition ou traitement de données pour la fabrication additive
G06T 17/00 - Modélisation tridimensionnelle [3D] pour infographie
28.
EFFICIENT MULTI-GPU RENDERING OF GEOMETRY BY ASSIGNING GEOMETRY TO GPUS TO PERFORM GEOMETRY ANALYSIS AND RENDERING THE GEOMETRY BASED ON THE GEOMETRY ANALYSIS
A method for graphics processing. The method including rendering graphics for an application using a plurality of graphics processing units (GPUs). The method including using the plurality of GPUs in collaboration to render an image frame including a plurality of pieces of geometry. The method including during a pre-pass phase of rendering, generating information at the GPUs regarding the plurality of pieces of geometry and their relation to a plurality of screen regions. The method including assigning the plurality of screen regions to the plurality of GPUs based on the information for purposes of rendering the plurality of pieces of geometry in a subsequent phase of rendering.
A wearable device is described. The wearable device includes a first display portion and a second display portion. The first display portion is located in front of eyes of a user to provide a high-resolution view of a virtual image of a virtual scene. The second display portion is located in front of the eyes of the user to provide a view of the user's nose. The second display portion can optionally occlude an area around the nose and optionally provide an effect of virtual lighting falling on the nose. The wearable device presents a view of the user's real nose as it would appear in a virtual scene.
G09G 3/00 - Dispositions ou circuits de commande présentant un intérêt uniquement pour l'affichage utilisant des moyens de visualisation autres que les tubes à rayons cathodiques
An electronic system is configured to use a tailored large language model to process natural language spoken by a computer gamer during gameplay. Non-verbal output can then be provided in response, where the non-verbal output may be visual, tactile, and/or audible. As examples, the non-verbal output may respond to a request from the user, may acknowledge that the natural language is being processed, and/or may indicate that a requested action has been registered for execution in the future.
A63F 13/424 - Traitement des signaux de commande d’entrée des dispositifs de jeu vidéo, p. ex. les signaux générés par le joueur ou dérivés de l’environnement par mappage des signaux d’entrée en commandes de jeu, p. ex. mappage du déplacement d’un stylet sur un écran tactile en angle de braquage d’un véhicule virtuel incluant des signaux d’entrée acoustiques, p. ex. en utilisant les résultats d’extraction de hauteur tonale ou de rythme ou de reconnaissance vocale
A63F 13/215 - Dispositions d'entrée pour les dispositifs de jeu vidéo caractérisées par leurs capteurs, leurs finalités ou leurs types comprenant des moyens de détection des signaux acoustiques, p. ex. utilisant un microphone
A63F 13/285 - Génération de signaux de retour tactiles via le dispositif d’entrée du jeu, p. ex. retour de force
A63F 13/533 - Commande des signaux de sortie en fonction de la progression du jeu incluant des informations visuelles supplémentaires fournies à la scène de jeu, p. ex. en surimpression pour simuler un affichage tête haute [HUD] ou pour afficher une visée laser dans un jeu de tir pour inciter une interaction avec le joueur, p. ex. en affichant le menu d’un jeu
A63F 13/54 - Commande des signaux de sortie en fonction de la progression du jeu incluant des signaux acoustiques, p. ex. pour simuler le bruit d’un moteur en fonction des tours par minute [RPM] dans un jeu de conduite ou la réverbération contre un mur virtuel
A method for generating a three-dimensional (3D) content moment from a video game is provided, including the following operations: capturing two-dimensional (2D) gameplay video generated from a session of a video game; analyzing the 2D gameplay video to determine 3D geometry of a scene depicted in the 2D gameplay video; using the 3D geometry of the scene to generate a 3D still asset of a moment that occurred in the gameplay video; storing the 3D still asset to a user account.
G06T 17/00 - Modélisation tridimensionnelle [3D] pour infographie
A63F 13/52 - Commande des signaux de sortie en fonction de la progression du jeu incluant des aspects de la scène de jeu affichée
G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
G06V 10/60 - Extraction de caractéristiques d’images ou de vidéos relative aux propriétés luminescentes, p. ex. utilisant un modèle de réflectance ou d’éclairage
32.
Generation of 3D Video Content Moment from Captured Gameplay Video
A method for generating a three-dimensional (3D) content moment from a video game is provided, including the following operations: capturing two-dimensional (2D) gameplay video generated from a session of a video game; analyzing the 2D gameplay video to determine 3D geometry of a scene depicted in the 2D gameplay video; using the 3D geometry of the scene to generate a 3D video asset of a moment that occurred in the gameplay video; storing the 3D video asset to a user account.
In a standby state of this information processing device 10, a sub CPU 38 stores data downloaded from a server 50 into a flash memory 30 by using a logical address shared with a main CPU 20. The main CPU 20 reads the data which is stored in the flash memory 30 by the sub CPU 38 during a startup process of the information processing device 10, and displays the read data on a display device before completion of the startup process.
G06F 12/00 - Accès à, adressage ou affectation dans des systèmes ou des architectures de mémoires
G06F 12/06 - Adressage d'un bloc physique de transfert, p. ex. par adresse de base, adressage de modules, extension de l'espace d'adresse, spécialisation de mémoire
34.
SYSTEMS AND METHODS FOR PROVIDING SENSING AND LIGHTING TO MAINTAIN REAL NOSE PERCEPTION IN VIRTUAL REALITY
A wearable device is described. The wearable device includes a first display portion and a second display portion. The first display portion is located in front of eyes of a user to provide a high-resolution view of a virtual image of a virtual scene. The second display portion is located in front of the eyes of the user to provide a view of the user's nose. The second display portion can optionally occlude an area around the nose and optionally provide an effect of virtual lighting falling on the nose. The wearable device presents a view of the user's real nose as it would appear in a virtual scene.
There is provided a method of generating a light probe in a virtual environment. The method includes determining a first region of the light probe based on one or more predetermined conditions, collecting light information from the virtual environment, where the light information relates to light passing through a location of the light probe in the virtual environment, and storing the light information in the light probe, where the light information is stored at a higher resolution in the first region of the light probe than in a, different, second region of the light probe.
There is provided an optical disc drive that can guide the center of an optical disc to the position of a spindle motor, while allowing the number of components to be reduced. A base frame includes a stopper portion that comes into contact with an outer edge of the optical disc having reached the position of a spindle motor and that restricts backward movement of the optical disc. A switch arm includes a contact portion located on a side opposite to the stopper portion across the optical disc having reached the position of the spindle motor, and the switch arm uses the contact portion to push the optical disc toward the stopper portion.
The present disclosure generally relates to systems and methods to for encouraging spectator participation by permitting audience participation to provide different types of in-game help or hindrance to eSport players or teams when certain tiers or thresholds of spectator engagement are reached. In one example, a player's fanbase may cheer by pressing a button or providing other input/feedback. When a specific number of spectators or a level of participation is reached, a helpful object, power-up, or other in-game advantage may be given to the player. Conversely, a harmful item, loss of an object, or other in-game hindrance may be given to the player.
A method for generating a view of an event in a video game is provided, including the following operations: capturing two-dimensional (2D) gameplay video generated from a session of a video game; analyzing the 2D gameplay video to identify an event occurring in a scene depicted in the 2D gameplay video and identifying one or more elements involved in said event; further analyzing the 2D gameplay video to determine 3D geometry of the scene; using the 3D geometry of the scene to generate a 3D video asset of the event that occurred in the gameplay video; generating a 2D view of the 3D video asset for presentation on a display, wherein generating said 2D view includes determining a field of view (FOV) to apply for the 2D view, the FOV being configured to include the elements involved in the event.
G06T 17/00 - Modélisation tridimensionnelle [3D] pour infographie
G06V 10/60 - Extraction de caractéristiques d’images ou de vidéos relative aux propriétés luminescentes, p. ex. utilisant un modèle de réflectance ou d’éclairage
G06V 20/40 - ScènesÉléments spécifiques à la scène dans le contenu vidéo
H04N 23/61 - Commande des caméras ou des modules de caméras en fonction des objets reconnus
39.
Generation of Real-World Object from Captured Gameplay Video
A method for generating a physical object is provided, including: capturing two-dimensional (2D) gameplay video generated from a session of a video game; analyzing the 2D gameplay video to identify a virtual object depicted in the 2D gameplay video; further analyzing the 2D gameplay video to determine 3D geometry of the virtual object; using the 3D geometry of the object to generate a 3D model of the virtual object; storing the 3D model to a user account; using the 3D model to generate a physical object resembling the virtual object.
G05B 19/4099 - Usinage de surface ou de courbe, fabrication d'objets en trois dimensions 3D, p. ex. fabrication assistée par ordinateur
A63F 13/79 - Aspects de sécurité ou de gestion du jeu incluant des données sur les joueurs, p. ex. leurs identités, leurs comptes, leurs préférences ou leurs historiques de jeu
B33Y 50/02 - Acquisition ou traitement de données pour la fabrication additive pour la commande ou la régulation de procédés de fabrication additive
Provided is an electronic device capable of improving the cooling capacity of a heating element built in the electronic device, which is disposed in a plurality of orientations. A heat pipe (50) includes: heat dissipation parts (51) connected to heat sinks (61, 62); and a pipe lower part (52) which includes an outer surface (53) in contact with a heat transfer member (70), and which, when a device body (11) is in a vertical orientation, is positioned below the heat dissipation parts (51) and extends in a direction intersecting the vertical direction. The pipe lower part (52) includes an extension part (55) that extends outside the outer edge of the heat transfer member (70).
H01L 23/427 - Refroidissement par changement d'état, p. ex. caloducs
F28D 15/02 - Appareils échangeurs de chaleur dans lesquels l'agent intermédiaire de transfert de chaleur en tubes fermés passe dans ou à travers les parois des canalisations dans lesquels l'agent se condense et s'évapore, p. ex. tubes caloporteurs
H05K 7/20 - Modifications en vue de faciliter la réfrigération, l'aération ou le chauffage
41.
INFORMATION PROCESSING SYSTEM AND INFORMATION PROCESSING METHOD
An HMD (head-mounted display) creates and displays a video of a first room (e.g., a pre-playing lobby) which is a virtual space where a plurality of users who are to view predetermined content gather before the content is played (S11). The HMD creates and displays a video of a second room (e.g., a live concert place) which is a virtual space where the content is played (S14). The HMD creates and displays a video of a third room (e.g., a post-playing lobby) which is a virtual space where the plurality of users gather after the content is played (S16).
A method including rendering graphics for an application using graphics processing units (GPUs). Responsibility for rendering of geometry is divided between GPUs based on screen regions, each GPU having a corresponding division of the responsibility which is known. A plurality of pieces of geometry of an image frame is assigned to the GPUs for geometry testing. A first GPU state configuring one or more shaders to perform the geometry testing is set. Geometry testing is performed at GPUs on the plurality of pieces of geometry to generate information regarding each piece of geometry and its relation to each of the plurality of screen regions. A second GPU state configuring the one or more shaders to perform rendering is set. The information generated for each of the plurality of pieces of geometry is used when rendering the plurality of pieces of geometry at the GPUs.
A reception part 110 receives a comment which is inputted with respect to a unit of play executed by a user. A transmission processing part 122 transmits the comment to a server device together with information specifying the unit of play executed.
A63F 13/87 - Communiquer avec d’autres joueurs, p. ex. par courrier électronique ou messagerie instantanée
A63F 13/533 - Commande des signaux de sortie en fonction de la progression du jeu incluant des informations visuelles supplémentaires fournies à la scène de jeu, p. ex. en surimpression pour simuler un affichage tête haute [HUD] ou pour afficher une visée laser dans un jeu de tir pour inciter une interaction avec le joueur, p. ex. en affichant le menu d’un jeu
44.
OPTICAL LAMINATE, DISPLAY DEVICE, AND HEAD-MOUNTED DISPLAY
The present invention provides an optical laminate capable of securing the optical path length from a display element to an eye of a user and reducing the necessity of highly precise management of the position of the display element. This optical laminate (10) has a reflective polarizing plate (31), a wavelength plate (32), and an optical element (33) having circular polarization selectivity that reflects one of right circularly polarized light and left circularly polarized light and transmits other circularly polarized light. The polarizing plate (31), the wavelength plate (32), and the optical element (33) are arranged side by side in this order in the direction in which the display element (De) emits light.
The present invention allows a user to experience programming more intuitively. This toy system includes: a traveling means that enables traveling; a reading means that reads an image when traveling on one of a plurality of cards, each printed with a coded image indicating one of a plurality of operation states and each disposed at an arbitrary location by a user; and an operation control means that controls the traveling means according to an operation instruction indicated by an image that has been read. When a coded image is yet to be read, the operation control means controls the traveling means so as to continue an operation corresponding to an operation instruction indicated by an image previously read, until a new coded image is read by traveling on a new card among the plurality of cards. When a new coded image has been read, the operation control means controls the traveling means according to a new operation instruction indicated by the new image.
A controller 18 acquires values related to the operation amounts of a plurality of analog sticks 20 (analog stick 20a, analog stick 20b, analog stick 20c) to each of which a user's operation is inputted. When all of the values related to the operation amounts of the plurality of analog sticks 20 are values in a range regarded as a stationary state, the controller 18 determines a representative analog stick 20 from among the plurality of analog sticks 20 on the basis of a prescribed rule. The controller 18 generates operation information based on the value related to the operation amount for the representative analog stick 20.
G06F 3/0338 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires avec détection du déplacement linéaire ou angulaire limité d’une partie agissante du dispositif à partir d’une position neutre, p. ex. manches à balai isotoniques ou isométriques
47.
IMAGE PROCESSING SYSTEM, IMAGE PROCESSING METHOD, AND PROGRAM
An image processing system (1) including at least one processor, wherein the at least one processor acquires an input frame (22) having an input pixel number greater than or equal to an initial pixel number based on a frame (20) to be processed that indicates, from a predetermined viewpoint (C), a virtual space (VS) in which one or more game objects (O) represented by three-dimensional data are arranged, and that has a predetermined initial pixel number, acquires virtual space information (27) related to a virtual space (VS) that can be used to determine the pixel value of each pixel of the input frame (22), and acquires an estimation frame (24) having a greater number of estimation pixels than the number of input pixels, on the basis of the input frame (22), the virtual space information (27), and a machine learning model (200).
G06T 3/4053 - Changement d'échelle d’images complètes ou de parties d’image, p. ex. agrandissement ou rétrécissement basé sur la super-résolution, c.-à-d. où la résolution de l’image obtenue est plus élevée que la résolution du capteur
G06T 11/80 - Création ou modification d'une image dessinée ou peinte à la main en utilisant un dispositif manuel d'entrée, p. ex. une souris, un crayon lumineux, des touches de direction sur le clavier
A head-mounted display includes: a main body containing a display; a wearing band extending from the main body to a rear side and having a shape enclosing a head of a user as a whole; a right-side extending section configured to make up a right-side part of the wearing band; a left-side extending section configured to make up a left-side part of the wearing band; a movable section configured to make up a part of a rear side of the wearing band, to link a rear section of the right-side extending section with a rear section of the left-side extending section, and to be movable relative to the right-side extending section and the left-side extending section in a retracting direction in which the length of the wearing band is decreased and in an extending direction in which the length of the wearing band is increased; and a first manipulating member operable by a user and rotatably provided on the movable section with an axis section that extends in a front-rear direction.
A method including capturing a deformed gesture performed by a communicator, wherein the deformed gesture corresponds to a defined gesture that is intended by the communicator. The method including providing the deformed gesture that is captured to an artificial intelligence (Al) model configured to classify a predicted gesture corresponding to deformed gesture. The method including performing an action based on the predicted gesture. The method including capturing at least one multimodal cue to verify the predicted gesture. The method including determining that the predicted gesture is incorrect based on the at least one multimodal cue. The method including providing feedback to the Al model indicating that the predicted gesture is incorrect for training and updating the Al model. The method including classifying an updated predicted gesture corresponding to the deformed gesture using the Al model that is updated.
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
A63F 13/428 - Traitement des signaux de commande d’entrée des dispositifs de jeu vidéo, p. ex. les signaux générés par le joueur ou dérivés de l’environnement par mappage des signaux d’entrée en commandes de jeu, p. ex. mappage du déplacement d’un stylet sur un écran tactile en angle de braquage d’un véhicule virtuel incluant des signaux d’entrée de mouvement ou de position, p. ex. des signaux représentant la rotation de la manette d’entrée ou les mouvements des bras du joueur détectés par des accéléromètres ou des gyroscopes
G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes
In the present invention, an execution information acquisition unit 210 acquires game start information indicating that a plurality of users have started a game, and acquires game end information indicating that the plurality of users have ended the game. A time period identification unit 216 uses game start information and game end information in the past to identify a play time period during which each of the plurality of users plays the game. A relationship determination unit 220 identifies two users whose play time periods satisfy a predetermined relationship with each other.
A63F 13/795 - Aspects de sécurité ou de gestion du jeu incluant des données sur les joueurs, p. ex. leurs identités, leurs comptes, leurs préférences ou leurs historiques de jeu pour trouver d’autres joueursAspects de sécurité ou de gestion du jeu incluant des données sur les joueurs, p. ex. leurs identités, leurs comptes, leurs préférences ou leurs historiques de jeu pour constituer une équipeAspects de sécurité ou de gestion du jeu incluant des données sur les joueurs, p. ex. leurs identités, leurs comptes, leurs préférences ou leurs historiques de jeu pour fournir une "liste d’amis"
A63F 13/79 - Aspects de sécurité ou de gestion du jeu incluant des données sur les joueurs, p. ex. leurs identités, leurs comptes, leurs préférences ou leurs historiques de jeu
51.
IMAGE PROCESSING SYSTEM, IMAGE PROCESSING METHOD, AND PROGRAM
The at least one processor: acquires first to N-th input frames (42) (N is a natural number equal to or greater than 3) each having a number of input pixels equal to or greater than the prescribed number of initial pixels according to first to N-th frames-to-be-processed (40) having the number of initial pixels; acquires first to i-th estimation frames (44) (i is a natural number equal to or greater than 1 and equal to or smaller than N-2) each having a number of estimation pixels greater than the number of initial pixels on the basis of first to i-th input frames (42) and a first machine-learning model (510); and acquires (i+1)-th to j-th estimation frames (44) (j is a natural number equal to or greater than i+2 and equal to and smaller than N) on the basis of (i+1)-th to j-th input frames (42) and a second machine-learning model (520).
G06T 3/4046 - Changement d'échelle d’images complètes ou de parties d’image, p. ex. agrandissement ou rétrécissement utilisant des réseaux neuronaux
G06T 3/4053 - Changement d'échelle d’images complètes ou de parties d’image, p. ex. agrandissement ou rétrécissement basé sur la super-résolution, c.-à-d. où la résolution de l’image obtenue est plus élevée que la résolution du capteur
G06V 10/70 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique
52.
LEARNING METHOD, MACHINE LEARNING MODEL, AND PROGRAM
The present invention makes it possible to realize semi-transparent expression with high accuracy. In this learning method for a machine learning model (200), a processor acquires a plurality of n-th input frames (22) generated by a plurality of instances of rendering, acquires an n-th learning input frame (122) including an object (O) displayed at an intermediate transparency acquired on the basis of the transparencies of each of objects (O) displayed in the plurality of n-th input frames (22), acquires a plurality of n-th estimation frames (24) generated by a plurality of instances of rendering, acquires an n-th learning estimation frame (124) including an object (O) displayed at an intermediate transparency acquired on the basis of the transparencies of each of objects (O) displayed in the plurality of n-th estimation frames (24), and learns the machine learning model (200) using a plurality of pieces of training data including the n-th learning input frame (122) and the n-th learning estimation frame (124).
G06V 10/70 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique
A data processing apparatus comprises image processing circuitry to generate images for display comprising a virtual body comprising one or more virtual limbs, image analysis circuitry to generate virtual body configuration information indicative of one or more first sets of joint positions for the virtual body in one or more of the images, and a machine learning model to receive the virtual body configuration information and trained to map at least one first set of joint positions for the virtual body to a second set of joint positions for a robotic device comprising a plurality of joints, wherein the processing device is configured to output control information in dependence on the second set of joint positions for controlling one or more actuators of the robotic device.
B62D 57/032 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec une base de support et des jambes soulevées alternativement ou dans un ordre déterminéVéhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec des pieds ou des patins soulevés alternativement ou dans un ordre déterminé
54.
CONTROLLER USE BY HAND-TRACKED COMMUNICATOR AND GESTURE PREDICTOR
A method including capturing a deformed gesture performed by a communicator, wherein the deformed gesture corresponds to a defined gesture that is intended by the communicator. The method including providing the deformed gesture that is captured to an artificial intelligence (AI) model configured to classify a predicted gesture corresponding to deformed gesture. The method including performing an action based on the predicted gesture. The method including capturing at least one multimodal cue to verify the predicted gesture. The method including determining that the predicted gesture is incorrect based on the at least one multimodal cue. The method including providing feedback to the AI model indicating that the predicted gesture is incorrect for training and updating the AI model. The method including classifying an updated predicted gesture corresponding to the deformed gesture using the AI model that is updated.
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06V 10/75 - Organisation de procédés de l’appariement, p. ex. comparaisons simultanées ou séquentielles des caractéristiques d’images ou de vidéosApproches-approximative-fine, p. ex. approches multi-échellesAppariement de motifs d’image ou de vidéoMesures de proximité dans les espaces de caractéristiques utilisant l’analyse de contexteSélection des dictionnaires
55.
FRICTIONLESS AI-ASSISTED VIDEO GAME MESSAGING SYSTEM
In a video game message generation system, a first neural network may analyze a player's gameplay data in real time to determine a moment of gameplay to record. A recording module records the moment of gameplay determined with the first trained neural network. A second trained neural network determines one or more recipients for the recording of the determined moment and a third trained neural network operable drafts a message associated with the determined moment to the determined recipient(s). A user interface presents the player an opportunity send the recording of the determined moment and the one or more messages to the one or more recipients
Aspects of the present disclosure relate to detecting churn in video games. Gameplay data for a video game is collected. The collected data is then analyzed with a first trained neural network to identify a pattern associated with one or more patterns associated with a player stopping playing the video game. The one or more patterns are analyzed with a second trained neural network to associate the one or more identified patterns with one or more reasons for the player stopping playing the video game. The one or more reasons are presented to a game developer. A system for detecting player churn in video games and methods for training such a system are also disclosed.
A63F 13/67 - Création ou modification du contenu du jeu avant ou pendant l’exécution du programme de jeu, p. ex. au moyen d’outils spécialement adaptés au développement du jeu ou d’un éditeur de niveau intégré au jeu en s’adaptant à ou par apprentissage des actions de joueurs, p. ex. modification du niveau de compétences ou stockage de séquences de combats réussies en vue de leur réutilisation
A63F 13/50 - Commande des signaux de sortie en fonction de la progression du jeu
G06Q 30/0202 - Prédictions ou prévisions du marché pour les activités commerciales
A63F 13/30 - Dispositions d’interconnexion entre des serveurs et des dispositifs de jeuDispositions d’interconnexion entre des dispositifs de jeuDispositions d’interconnexion entre des serveurs de jeu
A63F 13/79 - Aspects de sécurité ou de gestion du jeu incluant des données sur les joueurs, p. ex. leurs identités, leurs comptes, leurs préférences ou leurs historiques de jeu
57.
ARTIFICIAL INTELLIGENCE DETERMINED EMOTIONAL STATE WITH DYNAMIC MODIFICATION OF OUTPUT OF AN INTERACTION APPLICATION
A method including receiving an input from a user for an interaction application that is executing. The method including receiving a first plurality of multimodal cues from a plurality of trackers, wherein each of the plurality of trackers is configured to track a corresponding cue using artificial intelligence. The method including providing the first plurality of multimodal cues to an artificial intelligence (Al) model configured to classify one or more emotions of a user, wherein the Al model generates a first predicted emotion based on the first plurality of multimodal cues. The method including determining a modification to content generated by the interaction application in response to the input, wherein the modification to the content is determined based on the predicted emotion. The method including providing the modification to the interaction application, wherein the interaction application is configured to generate modified content based on the modification.
A63F 13/67 - Création ou modification du contenu du jeu avant ou pendant l’exécution du programme de jeu, p. ex. au moyen d’outils spécialement adaptés au développement du jeu ou d’un éditeur de niveau intégré au jeu en s’adaptant à ou par apprentissage des actions de joueurs, p. ex. modification du niveau de compétences ou stockage de séquences de combats réussies en vue de leur réutilisation
A63F 13/212 - Dispositions d'entrée pour les dispositifs de jeu vidéo caractérisées par leurs capteurs, leurs finalités ou leurs types utilisant des capteurs portés par le joueur, p. ex. pour mesurer le rythme cardiaque ou l’activité des jambes
A63F 13/53 - Commande des signaux de sortie en fonction de la progression du jeu incluant des informations visuelles supplémentaires fournies à la scène de jeu, p. ex. en surimpression pour simuler un affichage tête haute [HUD] ou pour afficher une visée laser dans un jeu de tir
A63F 13/87 - Communiquer avec d’autres joueurs, p. ex. par courrier électronique ou messagerie instantanée
Embodiments of the present disclosure may include a method for enhancing a video game trophy, including detecting an end game state to a video game corresponding to award of a trophy. Embodiments may also include extracting metadata relating to a structure of the end game state from gameplay information associated with award of the trophy. Embodiments may also include determining metrics for the end game state from the metadata. Embodiments may also include applying a drama engine to the metrics for the end game state to generate commentary data corresponding to commentary on the award of the trophy.
A63F 13/69 - Création ou modification du contenu du jeu avant ou pendant l’exécution du programme de jeu, p. ex. au moyen d’outils spécialement adaptés au développement du jeu ou d’un éditeur de niveau intégré au jeu en permettant l'utilisation ou la mise à jour d'éléments spécifiques du jeu, p. ex. déblocage d’options, d’éléments, de niveaux ou de versions cachés
G07F 17/32 - Appareils déclenchés par pièces de monnaie pour la location d'articlesInstallations ou services déclenchés par pièces de monnaie pour jeux, jouets, sports ou distractions
G06F 9/451 - Dispositions d’exécution pour interfaces utilisateur
59.
IMAGE PROCESSING DEVICE, CONTENT SERVER, IMAGE PROCESSING METHOD, AND IMAGE DATA TRANSMISSION METHOD
A content server 20 transmits data corresponding to viewpoint information and included in a reference map 300a, which represents a distribution of color values or the like of a display target, to an image processing device 10 in units of tiles (s1, s2). The information processing device 10 generates a display image using the reference map. The content server 20 updates, in units of tiles, the areas of the reference map that have been changed in response to changes in the image world, and transmits the data of the tiles among the updated tiles corresponding to the viewpoint information to the image processing device 10 (s3). When a change occurs on the image processing device 10 side, relevant information is transmitted to the content server 20 (s4), and the reference map is also updated in the image processing device 10.
A method includes performing, using processing circuitry, a data processing task in response to operation of one or more user controls; generating video material for display to provide guidance to a user in the operation of the user controls to control performance of the data processing task; replaying the video material in response to operation of the one or more user controls; detecting one or more replay confirmation points with respect to the video material; and pausing replay of the video material at a given confirmation point and requesting user confirmation to continue replay of the video material beyond the given confirmation point.
A63F 13/5375 - Commande des signaux de sortie en fonction de la progression du jeu incluant des informations visuelles supplémentaires fournies à la scène de jeu, p. ex. en surimpression pour simuler un affichage tête haute [HUD] ou pour afficher une visée laser dans un jeu de tir utilisant des indicateurs, p. ex. en montrant l’état physique d’un personnage de jeu sur l’écran pour suggérer graphiquement ou textuellement une action, p. ex. en affichant une flèche indiquant un tournant dans un jeu de conduite
A63F 13/493 - Reprise du jeu, p. ex. après une pause, un dysfonctionnement ou une panne de courant
A63F 13/533 - Commande des signaux de sortie en fonction de la progression du jeu incluant des informations visuelles supplémentaires fournies à la scène de jeu, p. ex. en surimpression pour simuler un affichage tête haute [HUD] ou pour afficher une visée laser dans un jeu de tir pour inciter une interaction avec le joueur, p. ex. en affichant le menu d’un jeu
61.
IMAGE PROCESSING DEVICE AND IMAGE PROCESSING METHOD
A motion detection section detects a motion exceeding a permissible limit in a wide-viewing-angle image displayed on a head-mounted display. A field-of-view restriction processing section restricts a field of view for observing the wide-viewing-angle image in a case in which the motion exceeding the permissible limit has been detected in the wide-viewing-angle image. An image provision section provides, for the head-mounted display, the wide-viewing-angle image in which the field of view has been restricted.
G09G 5/00 - Dispositions ou circuits de commande de l'affichage communs à l'affichage utilisant des tubes à rayons cathodiques et à l'affichage utilisant d'autres moyens de visualisation
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06F 3/147 - Sortie numérique vers un dispositif de visualisation utilisant des panneaux de visualisation
G09G 3/00 - Dispositions ou circuits de commande présentant un intérêt uniquement pour l'affichage utilisant des moyens de visualisation autres que les tubes à rayons cathodiques
62.
FRICTIONLESS AI-ASSISTED VIDEO GAME MESSAGING SYSTEM
In a video game message generation system, a first neural network may analyze a player's gameplay data in real time to determine a moment of gameplay to record. A recording module records the moment of gameplay determined with the first trained neural network. A second trained neural network determines one or more recipients for the recording of the determined moment and a third trained neural network operable drafts a message associated with the determined moment to the determined recipient(s). A user interface presents the player an opportunity send the recording of the determined moment and the one or more messages to the one or more recipients.
Embodiments of the present disclosure may include a method for enhancing a video game trophy, including detecting an end game state to a video game corresponding to award of a trophy. Embodiments may also include extracting metadata relating to a structure of the end game state from gameplay information associated with award of the trophy. Embodiments may also include determining metrics for the end game state from the metadata. Embodiments may also include applying a drama engine to the metrics for the end game state to generate commentary data corresponding to commentary on the award of the trophy.
A63F 13/798 - Aspects de sécurité ou de gestion du jeu incluant des données sur les joueurs, p. ex. leurs identités, leurs comptes, leurs préférences ou leurs historiques de jeu pour évaluer les compétences ou pour classer les joueurs, p. ex. pour créer un tableau d’honneur des joueurs
A63F 13/497 - Répétition partielle ou entière d'actions de jeu antérieures
A63F 13/533 - Commande des signaux de sortie en fonction de la progression du jeu incluant des informations visuelles supplémentaires fournies à la scène de jeu, p. ex. en surimpression pour simuler un affichage tête haute [HUD] ou pour afficher une visée laser dans un jeu de tir pour inciter une interaction avec le joueur, p. ex. en affichant le menu d’un jeu
64.
SERVER DEVICE, INFORMATION PROCESSING DEVICE, AND EVENT DATE-AND-TIME DETERMINATION METHOD
An event participation rate derivation unit 214 derives a past event participation rate on the basis of the number of players who registered to participate in a past event and the number of players who actually participated in the past event. An event determination unit 222 determines a date and time of a future event on the basis of the past event participation rate.
A worn member (6A) is used in a force sensation presentation device (2) for presenting a sensation of force to one hand, is worn on one hand, and comprises: a base section (61) that is disposed in contact with the back of the one hand; a worn section (63) that is provided to a part on one end side of the base section (61) and worn on the wrist of the one hand; and ring-shaped sections (62) that are provided to a part on the other end side of the base section (61) and into which a target finger among the fingers of the one hand is inserted. The ring-shaped sections (62) are disposed at the bases of the target fingers inserted into said ring-shaped sections (62) and are brought into contact with the pad sides of the target fingers.
In the present invention, at least one processor acquires (n-1)th auxiliary information (48_n-1) according to the product of at least one numerical value that is included in (n-1)th cumulative feature information (46_n-1) and an attenuation coefficient that is greater than 0 but less than 1.
G06T 3/4053 - Changement d'échelle d’images complètes ou de parties d’image, p. ex. agrandissement ou rétrécissement basé sur la super-résolution, c.-à-d. où la résolution de l’image obtenue est plus élevée que la résolution du capteur
In the present invention, at least one processor acquires (n-1)-th motion information which is information indicating the amount and direction of motion of each pixel between an (n-1)-th processing object frame (22_n-1) and an n-th processing object frame (22_n), and acquires (n-1)-th auxiliary information by setting, on the basis of the (n-1)-th motion information, the pixel value of one or more pixels of (n-1)-th cumulative feature information (46_n-1) to the pixel at the position that has moved according to a pseudo random number.
G06T 3/4053 - Changement d'échelle d’images complètes ou de parties d’image, p. ex. agrandissement ou rétrécissement basé sur la super-résolution, c.-à-d. où la résolution de l’image obtenue est plus élevée que la résolution du capteur
A method including receiving an input from a user for an interaction application that is executing. The method including receiving a first plurality of multimodal cues from a plurality of trackers, wherein each of the plurality of trackers is configured to track a corresponding cue using artificial intelligence. The method including providing the first plurality of multimodal cues to an artificial intelligence (AI) model configured to classify one or more emotions of a user, wherein the AI model generates a first predicted emotion based on the first plurality of multimodal cues. The method including determining a modification to content generated by the interaction application in response to the input, wherein the modification to the content is determined based on the predicted emotion. The method including providing the modification to the interaction application, wherein the interaction application is configured to generate modified content based on the modification.
A63F 13/40 - Traitement des signaux de commande d’entrée des dispositifs de jeu vidéo, p. ex. les signaux générés par le joueur ou dérivés de l’environnement
A61B 5/16 - Dispositifs pour la psychotechnieTest des temps de réaction
A63F 13/60 - Création ou modification du contenu du jeu avant ou pendant l’exécution du programme de jeu, p. ex. au moyen d’outils spécialement adaptés au développement du jeu ou d’un éditeur de niveau intégré au jeu
Provided is an operating device having a high degree of freedom of operation by a user. The operating device outputs a signal to a computer according to a change of the posture by an operation of a user, and includes a plurality of link shafts, a plurality of node mechanism sections which form a lattice shape together with the plurality of link shafts, and each of which holds one ends of at least two or more link shafts among the plurality of link shafts such that the postures of the two or more link shafts can be changed, and a three-dimensional magnetic sensor that detects respective directions in which the two or more link shafts extend relative to the node mechanism sections.
To provide an input device that can make control comfortable for users who have difficulty in feeling comfortable controlling existing input devices. A controller includes a body of the controller, a first control button having a top surface portion for placing a hand and attached to the body, and a plurality of second control buttons arranged along an outer circumferential edge of the first control button, and attached to the body. The plurality of second control buttons have outer circumferential portions extending outward beyond an outer circumferential edge of the body.
A63F 13/24 - Parties constitutives, p. ex. manettes de jeu avec poignées amovibles
A63F 13/40 - Traitement des signaux de commande d’entrée des dispositifs de jeu vidéo, p. ex. les signaux générés par le joueur ou dérivés de l’environnement
Aspects of the present disclosure relate to detecting churn in video games. Gameplay data for a video game is collected. The collected data is then analyzed with a first trained neural network to identify a pattern associated with one or more patterns associated with a player stopping playing the video game. The one or more patterns are analyzed with a second trained neural network to associate the one or more identified patterns with one or more reasons for the player stopping playing the video game. The one or more reasons are presented to a game developer. A system for detecting player churn in video games and methods for training such a system are also disclosed.
A63F 13/798 - Aspects de sécurité ou de gestion du jeu incluant des données sur les joueurs, p. ex. leurs identités, leurs comptes, leurs préférences ou leurs historiques de jeu pour évaluer les compétences ou pour classer les joueurs, p. ex. pour créer un tableau d’honneur des joueurs
A63F 13/67 - Création ou modification du contenu du jeu avant ou pendant l’exécution du programme de jeu, p. ex. au moyen d’outils spécialement adaptés au développement du jeu ou d’un éditeur de niveau intégré au jeu en s’adaptant à ou par apprentissage des actions de joueurs, p. ex. modification du niveau de compétences ou stockage de séquences de combats réussies en vue de leur réutilisation
G06N 3/04 - Architecture, p. ex. topologie d'interconnexion
System, process and device configurations are provided for analyzing video data, such as electronic game data, and generating scoring data for video data. Processes and device configurations include training a video data analysis model to generate scoring parameters, and for an evaluation tool for video data. Highly viewed and popular videos may be used as training input to the video analysis model. At least one score parameter may be determined for scoring videos. For electronic games, at least one score may be associated with a game scene, gameplay storylines, and for scoring video data in general. Analysis of game titles and game design may be performed during design to ensure that game scenes will have a high likelihood of user interest. Embodiments may also include modifying gameplay and gameplay storylines, and evaluating game promotional videos.
G06V 20/40 - ScènesÉléments spécifiques à la scène dans le contenu vidéo
G06F 40/40 - Traitement ou traduction du langage naturel
G06V 10/774 - Génération d'ensembles de motifs de formationTraitement des caractéristiques d’images ou de vidéos dans les espaces de caractéristiquesDispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique utilisant l’intégration et la réduction de données, p. ex. analyse en composantes principales [PCA] ou analyse en composantes indépendantes [ ICA] ou cartes auto-organisatrices [SOM]Séparation aveugle de source méthodes de Bootstrap, p. ex. "bagging” ou “boosting”
A machine learning-based model or other system is configured to release user commands to a computer game at a time when the command correctly aligns with what is going on in the computer game. As such, the command might be predicted and released before the user input action is completed, or might be delayed after completion and processing until a later time when the command is most appropriate for release.
A63F 13/67 - Création ou modification du contenu du jeu avant ou pendant l’exécution du programme de jeu, p. ex. au moyen d’outils spécialement adaptés au développement du jeu ou d’un éditeur de niveau intégré au jeu en s’adaptant à ou par apprentissage des actions de joueurs, p. ex. modification du niveau de compétences ou stockage de séquences de combats réussies en vue de leur réutilisation
A63F 13/213 - Dispositions d'entrée pour les dispositifs de jeu vidéo caractérisées par leurs capteurs, leurs finalités ou leurs types comprenant des moyens de photo-détection, p. ex. des caméras, des photodiodes ou des cellules infrarouges
A system is configured to determine a window of time during which to execute a particular gesture or voice command to a computer game. The system otherwise does not execute the command outside the window of time, helping to reduce false positives from unintended input.
A63F 13/44 - Traitement des signaux de commande d’entrée des dispositifs de jeu vidéo, p. ex. les signaux générés par le joueur ou dérivés de l’environnement incluant la durée ou la synchronisation des opérations, p. ex. l’exécution d’une action dans une certaine fenêtre temporelle
A63F 13/424 - Traitement des signaux de commande d’entrée des dispositifs de jeu vidéo, p. ex. les signaux générés par le joueur ou dérivés de l’environnement par mappage des signaux d’entrée en commandes de jeu, p. ex. mappage du déplacement d’un stylet sur un écran tactile en angle de braquage d’un véhicule virtuel incluant des signaux d’entrée acoustiques, p. ex. en utilisant les résultats d’extraction de hauteur tonale ou de rythme ou de reconnaissance vocale
A63F 13/428 - Traitement des signaux de commande d’entrée des dispositifs de jeu vidéo, p. ex. les signaux générés par le joueur ou dérivés de l’environnement par mappage des signaux d’entrée en commandes de jeu, p. ex. mappage du déplacement d’un stylet sur un écran tactile en angle de braquage d’un véhicule virtuel incluant des signaux d’entrée de mouvement ou de position, p. ex. des signaux représentant la rotation de la manette d’entrée ou les mouvements des bras du joueur détectés par des accéléromètres ou des gyroscopes
A63F 13/67 - Création ou modification du contenu du jeu avant ou pendant l’exécution du programme de jeu, p. ex. au moyen d’outils spécialement adaptés au développement du jeu ou d’un éditeur de niveau intégré au jeu en s’adaptant à ou par apprentissage des actions de joueurs, p. ex. modification du niveau de compétences ou stockage de séquences de combats réussies en vue de leur réutilisation
A system is configured to determine (520) a window of time during which to execute (540) a particular gesture or voice command to a computer game. The system otherwise does not execute the command outside the window of time, helping to reduce false positives from unintended input.
System, process and device configurations are provided for analyzing video data, such as electronic game data, and generating scoring data for video data. Processes and device configurations include training a video data analysis model to generate scoring parameters, and for an evaluation tool for video data. Highly viewed and popular videos may be used as training input to the video analysis model. At least one score parameter may be determined for scoring videos. For electronic games, at least one score may be associated with a game scene, gameplay storylines, and for scoring video data in general. Analysis of game titles and game design may be performed during design to ensure that game scenes will have a high likelihood of user interest. Embodiments may also include modifying gameplay and gameplay storylines, and evaluating game promotional videos.
A63F 13/67 - Création ou modification du contenu du jeu avant ou pendant l’exécution du programme de jeu, p. ex. au moyen d’outils spécialement adaptés au développement du jeu ou d’un éditeur de niveau intégré au jeu en s’adaptant à ou par apprentissage des actions de joueurs, p. ex. modification du niveau de compétences ou stockage de séquences de combats réussies en vue de leur réutilisation
77.
INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING METHOD
An information processing device 10 includes a selection target determination unit 50 in which a line-of-sight information acquisition unit 56 acquires information about a user line-of-sight vector from a line-of-sight detector 12. On the basis of the positional relationship between the line-of-sight vector and an object, a hit determination unit 58 detects, as a selection candidate, an object deemed to be in the line of sight. A selection determination unit 60 evaluates the temporal superiority and positional superiority of the selection candidate on the basis of the selection situation at the time of detection, and determines whether or not the selection candidate is to serve as a selection target.
A gaze-direction determination unit of this information processing device arranges a line-of-sight vector 112 detected by a line-of-sight detector in a three-dimensional space including a viewpoint 110 and objects 114a, 114b. The gaze-direction determination unit: confirms whether the line-of-sight vector 112 is directed to the objects 114a, 114b; regards, as objects in the line of sight, the objects 114a, 114b that each form, together with the line-of-sight vector 112 and when viewed from the viewpoint 110, an angle that is at least partially included in a margin area 116 of a prescribed value θ; and sets the objects 114a, 114b as selection candidates.
A machine learning-based model or other system is configured to release user commands to a computer game at a time when the command correctly aligns with what is going on in the computer game. As such, the command might be predicted (430) and released (440) before the user input action is completed, or might be delayed after completion and processing until a later time when the command is most appropriate for release.
A63F 13/213 - Dispositions d'entrée pour les dispositifs de jeu vidéo caractérisées par leurs capteurs, leurs finalités ou leurs types comprenant des moyens de photo-détection, p. ex. des caméras, des photodiodes ou des cellules infrarouges
A63F 13/23 - Dispositions d'entrée pour les dispositifs de jeu vidéo pour l'interfaçage avec le dispositif de jeu, p. ex. des interfaces spécifiques entre la manette et la console de jeu
Provided is a head-mounted display (1) worn on the head of a user (U), the head-mounted display (1) including: an eyepiece (100) positioned in front of an eye of the user (U) while the user (U) is wearing the head-mounted display (1); a display panel (10) that includes at least a first display region for displaying a first image and a second display region for displaying a second image discontinuously with the first image; a first lens unit (20) that guides first image light emitted from the first display region to the eyepiece (100) and enlarges the first image to cause the user (U) to visually recognize the first image; and a second lens unit (20 ) that guides second image light emitted from the second display region to the eyepiece (100) and enlarges the second image to cause the user (U) to visually recognize the second image.
The present invention improves image quality according to human visual characteristics. Provided is an image processing system (1) including at least one processor, wherein the at least one processor acquires an input frame (22) having a linear relationship between a pixel value and a luminance value, performs nonlinear conversion on the input frame (22) to generate a converted input frame (22C) having a non-linear relationship between a pixel value and a luminance value according to human visual characteristics, and inputs the converted input frame (22C) into a machine learning model (200) to acquire an estimation frame (24).
System, process and device configurations are provided for detecting user socialization preferences and controlling multiplayer selection. A method can include receiving user voice output during gameplay for a first user, and determining a socialization preference for the first user based on the user voice output. The method may also include updating a user profile for the first user based on the socialization preference, selecting at least one second user, and controlling a gameplay session for the first user and the at least one second user, wherein audio output for the first user is controlled using a the user profile. Socialization preferences detected during gameplay may be used to select other users for multiplayer game sessions. The socialization preferences may also be used to control audio output by way of selection/terminating players from a session, filtering audio output to a user, filtering intensity and/or modifying audio output to a user.
A63F 13/215 - Dispositions d'entrée pour les dispositifs de jeu vidéo caractérisées par leurs capteurs, leurs finalités ou leurs types comprenant des moyens de détection des signaux acoustiques, p. ex. utilisant un microphone
A63F 13/79 - Aspects de sécurité ou de gestion du jeu incluant des données sur les joueurs, p. ex. leurs identités, leurs comptes, leurs préférences ou leurs historiques de jeu
A63F 13/795 - Aspects de sécurité ou de gestion du jeu incluant des données sur les joueurs, p. ex. leurs identités, leurs comptes, leurs préférences ou leurs historiques de jeu pour trouver d’autres joueursAspects de sécurité ou de gestion du jeu incluant des données sur les joueurs, p. ex. leurs identités, leurs comptes, leurs préférences ou leurs historiques de jeu pour constituer une équipeAspects de sécurité ou de gestion du jeu incluant des données sur les joueurs, p. ex. leurs identités, leurs comptes, leurs préférences ou leurs historiques de jeu pour fournir une "liste d’amis"
A63F 13/87 - Communiquer avec d’autres joueurs, p. ex. par courrier électronique ou messagerie instantanée
A63F 13/424 - Traitement des signaux de commande d’entrée des dispositifs de jeu vidéo, p. ex. les signaux générés par le joueur ou dérivés de l’environnement par mappage des signaux d’entrée en commandes de jeu, p. ex. mappage du déplacement d’un stylet sur un écran tactile en angle de braquage d’un véhicule virtuel incluant des signaux d’entrée acoustiques, p. ex. en utilisant les résultats d’extraction de hauteur tonale ou de rythme ou de reconnaissance vocale
G10L 25/63 - Techniques d'analyse de la parole ou de la voix qui ne se limitent pas à un seul des groupes spécialement adaptées pour un usage particulier pour comparaison ou différentiation pour estimer un état émotionnel
83.
IMAGE PROCESSING SYSTEM, IMAGE PROCESSING METHOD, AND PROGRAM
An estimation frame acquisition unit (314) inputs intermediate frames (22) to a machine learning model (200) and acquires first to Nth estimation frames (24), each of which has an estimated pixel count that is greater than an inputted pixel count and equal to or greater than an intermediate pixel count. The machine learning model (200) includes: a cumulative feature information output layer (202) to which an nth intermediate frame (22_n) (n = 2, 3, ..., N) and n–1th auxiliary information (28_n–1) that is based on n–1th cumulative feature information (26_n–1) indicating the features of first to n–1th intermediate frames (22) are inputted, and which outputs nth cumulative feature information (26_n) indicating the features of the first to nth intermediate frames (22); and an estimation frame output layer (204) to which the nth cumulative feature information (26_n) is inputted, and which outputs a nth estimation frame (24_n). The machine learning model (200) is trained using a plurality of training data, each of which includes a training intermediate frame that has the intermediate pixel count and is generated on the basis of a training input frame having the inputted pixel count, and a training estimation frame having the estimated pixel count.
G06T 3/4053 - Changement d'échelle d’images complètes ou de parties d’image, p. ex. agrandissement ou rétrécissement basé sur la super-résolution, c.-à-d. où la résolution de l’image obtenue est plus élevée que la résolution du capteur
The present invention makes it possible to apply super-resolution processing with high accuracy to a moving image generated from an object with which the texture changes, without depending on motion information. In an image processing system according to the present invention, a processor acquires first to N-th input frames having a number of pixels input, acquires first to N-th intermediate frames from the individual input frames, acquires first to N-th inferred frames from the individual intermediate frames, specifies n-th color change pixels including color information that changes regardless of the motion of an object in the n-th intermediate frame on the basis of texture information of the object, and acquires n-th auxiliary information by replacing the pixel values of the color change pixels in n-th cumulative feature information with predetermined values. Furthermore, in the image processing system, a machine learning model includes an output layer that outputs the n-th cumulative feature information and an output layer that outputs the n-th inferred frame, and the machine learning model is trained with a plurality of items of training data including training intermediate frames, auxiliary information in which the color change pixels have been replaced with predetermined values, and training inferred frames.
G06T 3/4053 - Changement d'échelle d’images complètes ou de parties d’image, p. ex. agrandissement ou rétrécissement basé sur la super-résolution, c.-à-d. où la résolution de l’image obtenue est plus élevée que la résolution du capteur
H04N 7/18 - Systèmes de télévision en circuit fermé [CCTV], c.-à-d. systèmes dans lesquels le signal vidéo n'est pas diffusé
Disclosed is a display panel holder (40) for holding a display panel (10) provided to a head-mounted display (1) worn on the head of a user (U), the display panel holder (40) having a panel-holding part (41) for accommodating and holding therein one or more display panels (10) including a display region for displaying an image. A position adjustment hole for receiving an operation related to adjustment of the position of the display panels (10) from outside of the panel-holding part (41) is formed in the panel-holding part (41).
Provided are an inspection system, an inspection method, and an inspection program capable of easily determining whether information is correct, the information being included in each frame of a low-image-quality moving image serving as a source. This game program inspection system includes: a processor; a storage unit for storing commands to be executed by the processor and a machine learning model trained with a plurality of pieces of training data; and a display unit. The storage unit stores first to N-th (where N is a natural number equal to or greater than 2) input frames having a predetermined number of input pixels, and attached information for each input frame. The processor edits the attached information of the n-th (n = 2, 3, ... N) stored in the storage unit according to a user instruction. The machine learning model outputs the n-th estimated frame having an estimated number of pixels equal to or greater than the number of input pixels, on the basis of the first to the (n-1)th input frames and the attached information, and also the n-th input frame and the edited attached information. The display unit displays the n-th estimated frame.
In the present invention, a target setting unit 222 sets a reward and a condition for obtaining a reward, on the basis of the user's gameplay skills and/or the state of gameplay. A notification unit 224 notifies the user of the set reward and condition.
A63F 13/67 - Création ou modification du contenu du jeu avant ou pendant l’exécution du programme de jeu, p. ex. au moyen d’outils spécialement adaptés au développement du jeu ou d’un éditeur de niveau intégré au jeu en s’adaptant à ou par apprentissage des actions de joueurs, p. ex. modification du niveau de compétences ou stockage de séquences de combats réussies en vue de leur réutilisation
A63F 13/69 - Création ou modification du contenu du jeu avant ou pendant l’exécution du programme de jeu, p. ex. au moyen d’outils spécialement adaptés au développement du jeu ou d’un éditeur de niveau intégré au jeu en permettant l'utilisation ou la mise à jour d'éléments spécifiques du jeu, p. ex. déblocage d’options, d’éléments, de niveaux ou de versions cachés
A63F 13/798 - Aspects de sécurité ou de gestion du jeu incluant des données sur les joueurs, p. ex. leurs identités, leurs comptes, leurs préférences ou leurs historiques de jeu pour évaluer les compétences ou pour classer les joueurs, p. ex. pour créer un tableau d’honneur des joueurs
A machine learning-based model is configured to make inferences (712) about computer game actions to execute based on dynamic, varying player gestures (702) and to translate those game actions into input sequence macros (708/710). In some instances, the button sequence mapping for the macros can even dynamically change (908) based on game state so that different macros for the same computer game action might be inferred by the model depending on game state.
A63F 13/42 - Traitement des signaux de commande d’entrée des dispositifs de jeu vidéo, p. ex. les signaux générés par le joueur ou dérivés de l’environnement par mappage des signaux d’entrée en commandes de jeu, p. ex. mappage du déplacement d’un stylet sur un écran tactile en angle de braquage d’un véhicule virtuel
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
A63F 13/00 - Jeux vidéo, c.-à-d. jeux utilisant un affichage à plusieurs dimensions généré électroniquement
A63F 13/40 - Traitement des signaux de commande d’entrée des dispositifs de jeu vidéo, p. ex. les signaux générés par le joueur ou dérivés de l’environnement
A63F 13/428 - Traitement des signaux de commande d’entrée des dispositifs de jeu vidéo, p. ex. les signaux générés par le joueur ou dérivés de l’environnement par mappage des signaux d’entrée en commandes de jeu, p. ex. mappage du déplacement d’un stylet sur un écran tactile en angle de braquage d’un véhicule virtuel incluant des signaux d’entrée de mouvement ou de position, p. ex. des signaux représentant la rotation de la manette d’entrée ou les mouvements des bras du joueur détectés par des accéléromètres ou des gyroscopes
89.
APPARATUS, SYSTEMS AND METHODS FOR PERSONALISED CONTENT
A data processing apparatus includes receiving circuitry to receive user data indicative of a plurality of content items accessed by a user within a set time interval, access circuitry to obtain a plurality of sub-items associated with one or more of the plurality of content items from one or more content sources in dependence on the user data, the plurality of sub-items each comprising at least one of image content, audio content, and text content, summary circuitry to receive a set of sub-items comprising at least some of the plurality of sub-items and generate a summary content in dependence on the set of sub-items, the summary circuitry comprising one or more machine learning models trained to generate the summary content, and storage circuitry to store the summary content.
A method is provided, including: recording gameplay data from one or more sessions of a video game, the one or more sessions defined for interactive gameplay of a user; training a machine learning model using the gameplay data, wherein the training configures the machine learning model to imitate the interactive gameplay of the user; after the training, exposing the machine learning model to one or more scenarios of the video game, such that the machine learning model generates gameplay decisions in response to the one or more scenarios; evaluating the gameplay decisions of the machine learning model in response to the one or more scenarios to determine one or more descriptive features of the user's gameplay; using the determined descriptive features of the user's gameplay to provide a recommendation to the user.
A63F 13/67 - Création ou modification du contenu du jeu avant ou pendant l’exécution du programme de jeu, p. ex. au moyen d’outils spécialement adaptés au développement du jeu ou d’un éditeur de niveau intégré au jeu en s’adaptant à ou par apprentissage des actions de joueurs, p. ex. modification du niveau de compétences ou stockage de séquences de combats réussies en vue de leur réutilisation
A63F 13/798 - Aspects de sécurité ou de gestion du jeu incluant des données sur les joueurs, p. ex. leurs identités, leurs comptes, leurs préférences ou leurs historiques de jeu pour évaluer les compétences ou pour classer les joueurs, p. ex. pour créer un tableau d’honneur des joueurs
G06F 18/214 - Génération de motifs d'entraînementProcédés de Bootstrapping, p. ex. ”bagging” ou ”boosting”
A method and system for setting a vocal collision queue is disclosed. A plurality of incoming audio streams associated with a plurality of user devices currently involved in a communication session is recorded. There is an overlap between portions of two or more of the audio streams in the communication session that is identified. A queue for the two or more identified audio streams is determined. The queue includes a sequence to the identified audio streams. Recordings corresponding to the overlapping portions of the identified audio stream are retrieved. The retrieved recordings are provided to the user devices in the communication session. The retrieved recordings are played sequentially in accordance with the determined sequence.
A63F 13/87 - Communiquer avec d’autres joueurs, p. ex. par courrier électronique ou messagerie instantanée
A63F 13/53 - Commande des signaux de sortie en fonction de la progression du jeu incluant des informations visuelles supplémentaires fournies à la scène de jeu, p. ex. en surimpression pour simuler un affichage tête haute [HUD] ou pour afficher une visée laser dans un jeu de tir
A machine learning-based model is configured to make inferences about computer game actions to execute based on dynamic, varying player gestures and to translate those game actions into input sequence macros. In some instances, the button sequence mapping for the macros can even dynamically change based on game state so that different macros for the same computer game action might be inferred by the model depending on game state.
A63F 13/428 - Traitement des signaux de commande d’entrée des dispositifs de jeu vidéo, p. ex. les signaux générés par le joueur ou dérivés de l’environnement par mappage des signaux d’entrée en commandes de jeu, p. ex. mappage du déplacement d’un stylet sur un écran tactile en angle de braquage d’un véhicule virtuel incluant des signaux d’entrée de mouvement ou de position, p. ex. des signaux représentant la rotation de la manette d’entrée ou les mouvements des bras du joueur détectés par des accéléromètres ou des gyroscopes
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
A machine learning-based model is configured to make inferences about computer game actions to execute based on dynamic, varying player gestures and to translate those game actions into input sequence macros. In some instances, the button sequence mapping for the macros can even dynamically change based on game state so that different macros for the same computer game action might be inferred by the model depending on game state.
A63F 13/67 - Création ou modification du contenu du jeu avant ou pendant l’exécution du programme de jeu, p. ex. au moyen d’outils spécialement adaptés au développement du jeu ou d’un éditeur de niveau intégré au jeu en s’adaptant à ou par apprentissage des actions de joueurs, p. ex. modification du niveau de compétences ou stockage de séquences de combats réussies en vue de leur réutilisation
A63F 13/40 - Traitement des signaux de commande d’entrée des dispositifs de jeu vidéo, p. ex. les signaux générés par le joueur ou dérivés de l’environnement
A machine learning-based model is configured to make inferences (712) about computer game actions to execute based on dynamic, varying player gestures (702) and to translate those game actions into input sequence macros (708/710). In some instances, the button sequence mapping for the macros can even dynamically change (908) based on game state so that different macros for the same computer game action might be inferred by the model depending on game state.
A63F 13/42 - Traitement des signaux de commande d’entrée des dispositifs de jeu vidéo, p. ex. les signaux générés par le joueur ou dérivés de l’environnement par mappage des signaux d’entrée en commandes de jeu, p. ex. mappage du déplacement d’un stylet sur un écran tactile en angle de braquage d’un véhicule virtuel
A63F 13/45 - Commande de la progression du jeu vidéo
A63F 13/67 - Création ou modification du contenu du jeu avant ou pendant l’exécution du programme de jeu, p. ex. au moyen d’outils spécialement adaptés au développement du jeu ou d’un éditeur de niveau intégré au jeu en s’adaptant à ou par apprentissage des actions de joueurs, p. ex. modification du niveau de compétences ou stockage de séquences de combats réussies en vue de leur réutilisation
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes
A63F 13/211 - Dispositions d'entrée pour les dispositifs de jeu vidéo caractérisées par leurs capteurs, leurs finalités ou leurs types utilisant des capteurs d’inertie, p. ex. des accéléromètres ou des gyroscopes
A63F 13/5375 - Commande des signaux de sortie en fonction de la progression du jeu incluant des informations visuelles supplémentaires fournies à la scène de jeu, p. ex. en surimpression pour simuler un affichage tête haute [HUD] ou pour afficher une visée laser dans un jeu de tir utilisant des indicateurs, p. ex. en montrant l’état physique d’un personnage de jeu sur l’écran pour suggérer graphiquement ou textuellement une action, p. ex. en affichant une flèche indiquant un tournant dans un jeu de conduite
95.
SERVER DEVICE, INFORMATION PROCESSING DEVICE, AND EVENT INVITATION METHOD
In the present invention, an execution information acquisition unit 210 acquires game start information indicating that a plurality of users have started a game, and acquires game end information indicating that the plurality of users have finished the game. A play probability derivation unit 214 uses past game start information and past game end information of the plurality of users to derive a probability that each of the plurality of users plays the game in a plurality of future time periods. A time period specification unit 216 specifies a future time period in which there are many users for whom the probability of playing the game is high. A notification unit 218 notifies a user, who becomes a host, of information indicating the specified future time period and information about the users for whom the probability of playing the game in that time period is high.
A63F 13/795 - Aspects de sécurité ou de gestion du jeu incluant des données sur les joueurs, p. ex. leurs identités, leurs comptes, leurs préférences ou leurs historiques de jeu pour trouver d’autres joueursAspects de sécurité ou de gestion du jeu incluant des données sur les joueurs, p. ex. leurs identités, leurs comptes, leurs préférences ou leurs historiques de jeu pour constituer une équipeAspects de sécurité ou de gestion du jeu incluant des données sur les joueurs, p. ex. leurs identités, leurs comptes, leurs préférences ou leurs historiques de jeu pour fournir une "liste d’amis"
A system and method for creating and/or administering operation of replayable activities for interactive content titles. The replayable activities may be competitive in nature and may be used to determine a ranking. A first set of data associated with an interactive content title may be received. The first set of data associated with the interactive content title may be received from an interactive content source server. The interactive content title may be is at least partially hosted at the interactive content source server. The first set of data may be associated with a replayable activity for the interactive content title. A score may be determined based on the first set of data for an associated user account. The associated user account may be placed in the ranking based on scores of other user accounts and respective sets of data associated with the replayable activity for the interactive content title.
A63F 13/86 - Regarder des jeux joués par d’autres joueurs
A63F 13/497 - Répétition partielle ou entière d'actions de jeu antérieures
A63F 13/533 - Commande des signaux de sortie en fonction de la progression du jeu incluant des informations visuelles supplémentaires fournies à la scène de jeu, p. ex. en surimpression pour simuler un affichage tête haute [HUD] ou pour afficher une visée laser dans un jeu de tir pour inciter une interaction avec le joueur, p. ex. en affichant le menu d’un jeu
A63F 13/798 - Aspects de sécurité ou de gestion du jeu incluant des données sur les joueurs, p. ex. leurs identités, leurs comptes, leurs préférences ou leurs historiques de jeu pour évaluer les compétences ou pour classer les joueurs, p. ex. pour créer un tableau d’honneur des joueurs
98.
SERVER DEVICE, INFORMATION PROCESSING DEVICE, AND INFORMATION PROVIDING METHOD
A server device 5 comprises: a play data acquisition unit 210 that acquires play data of a user who is playing a game; and an information generation unit 222 that generates information related to completion of the game by the user from the user's play data on the basis of a completion pattern indicating the order of a plurality of play units to be executed before completion of the game.
A63F 13/45 - Commande de la progression du jeu vidéo
A63F 13/47 - Commande de la progression du jeu vidéo incluant des points de branchement, p. ex. la possibilité à un moment donné de choisir l’un des scénarios possibles
A purchase type determining unit 244 determines whether content is rental content, which has a valid time limit for enjoying, from purchasing type information included in the license information. An icon image processing unit 352 disposes an icon image of the content in a menu screen. In case the content is determined to be rental content by the purchase type determining unit 244, a rental mark disposing unit 356 disposes a rental mark indicating that associated content is rental content near the icon image of the content or disposes the rental mark so as to overlap with the icon image of the content.
H04N 21/472 - Interface pour utilisateurs finaux pour la requête de contenu, de données additionnelles ou de servicesInterface pour utilisateurs finaux pour l'interaction avec le contenu, p. ex. pour la réservation de contenu ou la mise en place de rappels, pour la requête de notification d'événement ou pour la transformation de contenus affichés
H04N 21/8355 - Génération de données de protection, p. ex. certificats impliquant des données sur l’utilisation, p. ex. nombre de copies ou de visualisations autorisées
100.
INDIRECT GAME CONTEXT INTERPOLATION FROM DIRECT CONTEXT UPDATE
Application context may be interpolated between application state updates from structured and unstructured application state data. Irrelevant unimodal modules may be deactivated based on the structured application state data while relevant unimodal modules remain active. Unimodal features are generated from the unstructured application using the relevant modules. A neural module selection network module may be trained with a machine learning algorithm. Each unimodal modules may generate unimodal feature vectors from unstructured application data. A context state update module may determine which unimodal modules are irrelevant from structured application state data and deactivate the irrelevant modules but not the relevant ones. A multimodal neural network may take the active unimodal feature vectors and predict structured context data and send it to a uniform data system.