首页> 中国专利> 信息处理方法、用于使计算机实施该信息处理方法的程序、实施该信息处理方法的信息处理装置及信息处理系统

信息处理方法、用于使计算机实施该信息处理方法的程序、实施该信息处理方法的信息处理装置及信息处理系统

摘要

进一步提高用户对虚拟空间的投入感。一种信息处理方法,包括:生成规定虚拟空间(200)的虚拟空间数据的步骤;取得检测单元的检测结果的步骤,其中,该检测单元构成为检测头戴式设备的运动和控制器的运动;根据头戴式设备的运动,更新虚拟摄像机(300)的视野的步骤;基于虚拟摄像机(300)的视野和虚拟空间数据,生成视野图像数据的步骤;基于视野图像数据,在显示部显示视野图像的步骤;根据控制器的运动,使手物件(400)进行动作的步骤;以及根据手物件(400)对平板电脑物件(500)的输入操作,操作在监视器物件(600)显示的菜单的步骤。

著录项

  • 公开/公告号CN108027987A

    专利类型发明专利

  • 公开/公告日2018-05-11

    原文格式PDF

  • 申请/专利权人 COLOPL株式会社;

    申请/专利号CN201780002079.3

  • 发明设计人 野口裕弘;

    申请日2017-03-10

  • 分类号

  • 代理机构广州三环专利商标代理有限公司;

  • 代理人郝传鑫

  • 地址 日本东京都涩谷区惠比寿四丁目20番3号

  • 入库时间 2023-06-19 05:18:51

法律信息

  • 法律状态公告日

    法律状态信息

    法律状态

  • 2020-01-17

    授权

    授权

  • 2018-06-05

    实质审查的生效 IPC(主分类):G06T19/00 申请日:20170310

    实质审查的生效

  • 2018-05-11

    公开

    公开

说明书

技术领域

本公开涉及一种信息处理方法、用于使计算机实施该信息处理方法的程序、实施该信息处理方法的信息处理装置及信息处理系统。

背景技术

已知一种在虚拟空间内配置用户界面(User Interface:UI)物件的技术。例如,专利文件1所述,在虚拟空间内配置小部件(用户界面物件的一个示例),在虚拟摄像机的视野内显示该小部件。伴随着头戴式设备(Head Mounted Device:HMD)的移动,当小部件位于虚拟摄像机的视野外时,该小部件移动,以位于虚拟摄像机的视野内。如此,在小部件配置于虚拟空间内的期间,在HMD所显示的视野图像内始终显示小部件。

专利文件1:日本专利第5876607号

发明内容

可是,如专利文件1所述,如果在视野图像内始终显示小部件,则用户有时候对该小部件感到厌烦。尤其是,在小部件显示于视野图像的期间,用户无法充分地获得对虚拟空间的投入感。

本发明的目的在于,提供一种能够进一步提高用户对虚拟空间的投入感的信息处理方法以及用于使计算机实施该信息处理方法的程序。

依照本公开所示的一个实施方式,提供了一种由计算机的处理器实施的信息处理方法,该计算机的处理器控制具备显示部的头戴式设备。

所述信息处理方法包括:

(a)生成规定虚拟空间的虚拟空间数据的步骤,其中,该虚拟空间包含虚拟摄像机、固定地配置于虚拟空间内且显示菜单的第1物件、能够操作在所述第1物件显示的菜单的第2物件以及操作物件;

(b)取得检测单元的检测结果的步骤,其中,该检测单元构成为检测所述头戴式设备的运动和用户的头部以外的身体的一部分的运动;

(c)根据所述头戴式设备的运动,更新所述虚拟摄像机的视野的步骤;

(d)基于所述虚拟摄像机的视野和所述虚拟空间数据,生成视野图像数据的步骤;

(e)基于所述视野图像数据,在所述显示部显示视野图像的步骤;

(f)根据所述用户的身体的一部分的运动,使所述操作物件进行动作的步骤;以及

(g)根据所述操作物件对所述第2物件的输入操作,操作在所述第1物件显示的菜单的步骤。

依照本公开,能够提供一种能够进一步提高用户对虚拟空间的投入感的信息处理方法以及用于使计算机实施该信息处理方法的程序。

附图说明

图1是示意头戴式设备(Head Mounted Device:HMD)系统的示意图。

图2是示意安装了头戴式设备的用户的头部的图。

图3是示意控制装置的硬件构成的图。

图4是示意外部控制器的具体的构成的一个示例的图。

图5是示意在头戴式设备显示视野图像的处理的流程图。

图6是示意显示虚拟空间的一个示例的xyz空间图。

图7(a)是图6所示的虚拟空间的yx平面图,图7(b)是图6所示的虚拟空间的zx平面图。

图8是示意显示于头戴式设备的视野图像的一个示例的图。

图9是示意包含虚拟摄像机、手物件、平板电脑物件以及监视器物件的虚拟空间的图。

图10是示意平板电脑物件的显示画面的一个示例的图。

图11是用于说明本实施方式涉及的信息处理方法的流程图。

图12是示意用于设定平板电脑物件的移动范围的方法的一个示例的流程图。

图13(a)是示意投入于虚拟空间的用户的情形的图,图13(b)是示意设定于虚拟摄像机的周边的平板电脑物件的移动范围的一个示例的图,图13(c)是示意设定于虚拟摄像机的周边的平板电脑物件的移动范围的另一个示例的图。

图14(a)是示意平板电脑物件位于移动范围外的情形的图,图14(b)是示意平板电脑物件从移动范围外移动至移动范围内的规定的位置的情形的图。

具体实施方式

(本公开所示的实施方式的说明)

对本公开所示的实施方式的概要进行说明。

(1)一种由计算机的处理器实施的信息处理方法,该计算机的处理器控制具备显示部的头戴式设备。

所述信息处理方法包括:

(a)生成规定虚拟空间的虚拟空间数据的步骤,其中,该虚拟空间包含虚拟摄像机、固定地配置于虚拟空间内且显示菜单的第1物件、能够操作在所述第1物件显示的菜单的第2物件以及操作物件;

(b)取得检测单元的检测结果的步骤,其中,该检测单元构成为检测所述头戴式设备的运动和用户的头部以外的身体的一部分的运动;

(c)根据所述头戴式设备的运动,更新所述虚拟摄像机的视野的步骤;

(d)基于所述虚拟摄像机的视野和所述虚拟空间数据,生成视野图像数据的步骤;

(e)基于所述视野图像数据,在所述显示部显示视野图像的步骤;

(f)根据所述用户的身体的一部分的运动,使所述操作物件进行动作的步骤;以及

(g)根据所述操作物件对所述第2物件的输入操作,操作在所述第1物件显示的菜单的步骤。

此外,可以基于所述第2物件和所述操作物件的相互作用,确定所述输入操作。另外,所述虚拟空间数据还包含介质物件,基于所述操作物件的动作而操作该介质物件,基于所述第2物件和所述介质物件的相互作用,确定所述输入操作。

依照上述方法,根据操作物件对第2物件的输入操作,操作在第1物件显示的菜单。即,用户,能够使用与用户的身体的一部分(例如,手)的运动联动的虚拟空间内的操作物件,对虚拟空间内的第2物件进行规定的操作。该规定的操作的结果是,操作在第1物件显示的菜单。如此,能够由虚拟空间内的物件彼此的相互作用实施菜单操作。再者,由于不一定视野图像内始终显示第1物件和第2物件,因而能够避免在视野图像内始终显示小部件等的UI物件的状況。所以,能够提供一种能够进一步提高用户对虚拟空间的投入感的信息处理方法。

(2)项目(1)所述的信息处理方法,还包括:

(h)基于所述虚拟摄像机的位置,设定所述第2物件的移动范围的步骤;

(i)判定所述第2物件是否位于所述移动范围内的步骤;以及

(j)在判定所述第2物件不位于所述移动范围内的情况下,使所述第2物件移动至所述移动范围内的规定的位置的步骤。

依照上述方法,在判定第2物件不位于第2物件的移动范围内的情况下,第2物件移动至该移动范围内的规定的位置。例如,在用户未持有第2物件就进行移动,或者用户将第2物件扔出,使得第2物件配置于移动范围外。根据相关的状况,即使在第2物件位于移动范围外的情况下,第2物件也移动至移动范围内的规定的位置。如此,用户,能够容易地发现第2物件,并且,能够大幅地减少用于拿取第2物件的人工。

(3)项目(2)所述的信息处理方法中,所述步骤(j)包括:

基于所述虚拟摄像机的位置和所述第1物件的位置,使所述第2物件移动至所述移动范围内的所述规定的位置的步骤。

依照上述方法,基于虚拟摄像机的位置和第1物件的位置,将第2物件移动至移动范围内的规定位置。如此,由于基于第1物件和虚拟摄像机之间的位置关系而决定第2物件的位置,因而,用户能够容易地发现第2物件。

(4)项目(2)或(3)所述的信息处理方法中,所述步骤(h)包括:

测量所述用户的头部和所述用户的身体的一部分之间的距离的步骤;以及

基于所述测量的距离和所述虚拟摄像机的位置,设定所述移动范围的步骤。

依照上述方法,基于用户的头部和用户的身体的一部分(例如,手)之间的距离以及虚拟摄像机的位置,设定第2物件的移动范围。如此,第2物件,配置在用户在静止的状态下就能够拿取的范围,因而,能够大幅地减少用户用于拿取第2物件的人工。

(5)项目(2)或(3)所述的信息处理方法中,所述步骤(h)包括:

基于所述用户的头部的位置和所述用户的身体的一部分的位置,确定所述用户的头部和所述用户的身体的一部分之间的距离的最大值的步骤;以及

基于所述确定的距离的最大值和所述虚拟摄像机的位置,设定所述移动范围的步骤。

依照上述方法,基于用户的头部和用户的身体的一部分之间的距离的最大值以及虚拟摄像机的位置,设定操作物件的移动范围。如此第2物件,配置在用户在静止的状态下就能够拿取的范围,因而,能够大幅地减少用户用于拿取第2物件的人工。

(6)项目(2)或(3)所述的信息处理方法中,所述步骤(h)包括:

基于所述虚拟摄像机的位置和所述操作物件的位置,确定所述虚拟摄像机和所述操作物件之间的距离的最大值的步骤;以及

基于所述确定的距离的最大值和所述虚拟摄像机的位置,设定所述移动范围的步骤。

依照上述方法,基于虚拟摄像机和操作物件之间的距离的最大值以及虚拟摄像机的位置,设定操作物件的移动范围。如此,第2物件配置在用户在静止的状态下就能够拿取的范围,因而,能够大幅地减少用户用于拿取第2物件的人工。

(7)一种程序,用于使计算机实施项目(1)至(5)中的任一项所述的信息处理方法。一种信息处理装置,至少具备处理器和存储器,通过所述处理器的控制而实施项目(1)至(5)中的任一项所述的信息处理方法。一种信息处理系统,包括信息处理装置,该信息处理装置至少具备处理器和存储器,该信息处理系统实施项目(1)至(5)中的任一项所述的信息处理方法。

依照上述方法,能够提供一种能够进一步提高用户对虚拟空间的投入感的程序、信息处理装置以及信息处理系统。

(本公开所示的实施方式的详细说明)

以下,参照附图,说明本公开所示的实施方式。此外,为了说明的方便,对于具有与本实施方式中已经说明的部件相同的标记的部件,不再重复说明。

首先,参照图1,说明头戴式设备(HMD)系统1的构成。图1是示意头戴式设备系统1的示意图。如图1所示,头戴式设备系统1具备安装于用户U的头部的头戴式设备110、位置传感器130、控制装置120、外部控制器320以及耳机116。

头戴式设备110具备显示部112、头戴传感器114、注视传感器140。显示部112具备非透过型的显示装置,该非透过型的显示装置构成为覆盖安装了头戴式设备110的用户U的可视范围(视野)。由此,用户U仅见到显示于显示部112的视野图像,能够投入于虚拟空间。显示部112可以与头戴式设备110的本体部一体地构成,也可以独立地构成。显示部112可以由左眼用的显示部和右眼用的显示部构成,该左眼用的显示部构成为向用户U的左眼提供图像,该右眼用的显示部构成为向用户U的右眼提供图像。另外,头戴式设备110可以具备透过型显示装置。这种情况下,该透过型显示装置,通过调整其透过率,能够暂时地构成为非透过型的显示装置。

头戴传感器114搭载于头戴式设备110的显示部112的附近。头戴传感器114包括地磁传感器、加速度传感器以及倾斜度传感器(角速度传感器、陀螺传感器等)之中的至少一个,能够检测安装于用户U的头部的头戴式设备110的各种运动。

注视传感器140具有用于检测用户U的视线方向的眼球追踪功能。注视传感器140,例如,可以具备右眼用注视传感器和左眼用注视传感器。右眼用注视传感器,可以向用户U的右眼照射例如红外光,检测从右眼(尤其是,角膜和虹膜)反射的反射光,从而取得与右眼的眼球的旋转角相关的信息。另一方面,左眼用注视传感器,可以向用户U的左眼照射例如红外光,检测从左眼(尤其是,角膜和虹膜)反射的反射光,从而取得与左眼的眼球的旋转角相关的信息。

位置传感器130,例如由位置追踪摄像机构成,构成为检测头戴式设备110和外部控制器320的位置。位置传感器130,可通信地无线连接或有线连接于控制装置120,构成为检测与设于头戴式设备110的图中未显示的多个检测点的位置、倾斜度或发光强度相关的信息。再者,位置传感器130,构成为检测与设于外部控制器320的多个检测点304(参照图4)的位置、倾斜度及/或发光强度相关的信息。检测点例如为放射红外线或可见光的发光部。另外,位置传感器130可以包括红外线传感器或多个光学摄像机。

此外,本实施方式中,头戴传感器114、注视传感器140以及位置传感器130等的传感器有时候被统称为检测单元。检测单元,在检测了用户U的身体的一部分(例如,用户U的手)的运动之后,向控制装置120发送表示该检测结果的信号。另外,检测单元,具有检测用户U的头部的运动的功能(由头戴传感器114实现的功能)和检测用户U的头部以外的身体的一部分的运动的功能(由位置传感器130实现的功能)。另外,检测单元,也可以具有检测用户U的视线的运动的功能(由注视传感器140实现的功能)。

控制装置120,为构成为控制头戴式设备110的计算机。控制装置120,能够基于从位置传感器130取得的信息,取得头戴式设备110的位置信息,并基于该取得的位置信息,正确地将虚拟空间内的虚拟摄像机的位置与现实空间内的安装了头戴式设备110的用户U的位置对应。再者,控制装置120,能够基于从位置传感器130取得的信息,取得外部控制器320的位置信息,并基于该取得的位置信息,正确地将虚拟空间内显示的手物件400(后述)的位置与现实空间中的外部控制器320的位置对应。

另外,控制装置120,能够基于从注视传感器140发送的信息,分别确定用户U的右眼的视线和左眼的视线,确定该右眼的视线和该左眼的视线的交点,即注视点。再者,控制装置120,能够基于所确定的注视点,确定用户U的视线方向。在此,用户U的视线方向,与用户U的双眼的视线方向一致,即,与通过将用户U的右眼和左眼连接的线段的中点和注视点的直线的方向一致。

接着,参照图2,说明取得与头戴式设备110的位置和倾斜度相关的信息的方法。图2是示意安装了头戴式设备110的用户U的头部的图。与安装了头戴式设备110的用户U的头部的运动联动且与头戴式设备110的位置和倾斜度相关的信息,能够由位置传感器130及/或搭载于头戴式设备110的头戴传感器114检测。如图2所示,以安装了头戴式设备110的用户U的头部为中心,规定了三维坐标(uvw坐标)。将用户U直立的垂直方向规定为v轴,将与v轴垂直且通过头戴式设备110的中心的方向规定为w轴,将与v轴和w轴垂直的方向规定为u轴。位置传感器130及/或头戴传感器114,检测围绕各uvw轴旋转的角度(即,表示以v轴为中心的旋转的偏转角、表示以u轴为中心的旋转的俯仰角以及表示以w轴为中心的旋转的侧偏角所决定的倾斜度)。控制装置120,基于所检测的围绕各uvw轴旋转的角度变化,决定用于控制虚拟摄像机的视轴的角度信息。

接着,参照图3,说明控制装置120的硬件构成。图3是示意控制装置120的硬件构成的图。如图3所示,控制装置120,具备控制部121、存储部123、输入输出(I/O)接口124、通信接口125以及总线126。控制部121、存储部123、输入输出接口124以及通信接口125,经由总线126而相互可通信地连接。

控制装置120,可以独立于头戴式设备110,作为个人计算机、平板电脑或可穿戴设备而构成,也可以内置于头戴式设备110。另外,控制装置120的一部分功能可以搭载于头戴式设备110,并且,控制装置120的其他功能可以搭载于与头戴式设备110独立的其他装置。

控制部121,具备存储器和处理器。存储器,例如,由存储了各种程序等的只读存储器(Read Only Memory:ROM)及/或具有多个工作区的随机存取存储器(Random AccessMemory:RAM)等构成,该工作区存储了由处理器执行的各种程序等。处理器,例如为中央处理器(Central Processing Unit:CPU)、微处理器(Micro Processing Unit:MPU)及/或图形处理器(Graphics Processing Unit:GPU),构成为在RAM上加载从集成于ROM的各种程序指定的程序,与RAM协作实施各种处理。

尤其是,处理器在RAM上加载用于使计算机实施本实施方式涉及的信息处理方法的程序(后述),与RAM协作执行该程序,由此,控制部121可以控制控制装置120的各种工作。控制部121,通过执行存储于存储器及/或存储部123的指定的应用程序(游戏程序),在头戴式设备110的显示部112显示虚拟空间(视野图像)。由此,用户U能够投入于在显示部112显示的虚拟空间。

存储部123,例如为硬盘(Hard Disk Drive:HDD)、固态硬盘(Solid State Drive:SSD)、USB闪存等的存储装置,构成为存储程序及/或各种数据。存储部123,也可以存储使计算机实施本实施方式涉及的信息处理方法的程序。另外,也可以存储包含数据的游戏程序等,该数据与用户U的认证程序、各种图像及/或物件相关。再者,在存储部123可以构筑数据库,该数据库包含用于管理各种数据的表格。

输入输出接口124,构成为分别将位置传感器130、头戴式设备110、外部控制器320可通信地连接于控制装置120,例如,由通用串行总线(Universal Serial Bus:USB)端子、数字视频接口(Digital Visual Interface:DVI)端子、高清多媒体接口(High-DefinitionMultimedia Interface:HDMI(注册商标))端子等构成。此外,控制装置120,可以分别与位置传感器130、头戴式设备110、外部控制器320无线连接。

通信接口125,构成为将控制装置120连接至局域网(Local Area Network:LAN)、广域网(Wide Area Network:WAN)或互联网等的通信网络3。通信接口125,包括用于经由通信网络3而与网络上的外部装置通信的各种有线连接端子及/或用于无线连接的各种处理电路,构成为符合经由通信网络3而进行通信的通信规格。

接着,参照图4,说明外部控制器320的具体的构成的一个示例。外部控制器320,用于通过检测用户U的身体的一部分(头部以外的部位,在本实施方式中,为用户U的手)的运动,从而控制在虚拟空间内显示的手物件的动作。外部控制器320,具有由用户U的右手操作的右手用外部控制器320R(以下,简称为控制器320R)和由用户U的左手操作的左手用外部控制器320L(以下,简称为控制器320L)(参照图13(a))。控制器320R,为表示用户U的右手的位置及/或右手的手指的运动的装置。另外,存在于虚拟空间内的右手物件根据控制器320R的运动而移动。控制器320L,为表示用户U的左手的位置及/或左手的手指的运动的装置。另外,存在于虚拟空间内的左手物件根据控制器320L的运动而移动。控制器320R和控制器320L具有大致相同的构成,因此,以下,参照图4,仅说明控制器320R的具体的构成。此外,在以下的说明中,为了方便,有时候将控制器320L、320R简单地统称为控制器320。再者,有时候将与控制器320R的运动联动的右手物件和与控制器320L的运动联动的左手物件简单地统称为手物件400。

如图4所示,控制器320R,具备操作按钮302、多个检测点304、图中未显示的传感器以及图中未显示的收发器。可以仅设置检测点304和传感器中的任一个。操作按钮302,由多个按钮组构成,该按钮组构成为接受来自用户U的操作输入。操作按钮302,包括按压式按钮、触发式按钮以及模拟摇杆。按压式按钮,为通过拇指的按下动作而操作的按钮。例如,在顶面322上,设有2个的按压式按钮302a、302b。触发式按钮,为通过食指及/或中指扣扳机的动作而操作的按钮。例如,在握柄324的前面部分设有触发式按钮302e,并且,在握柄324的侧面部分设有触发式按钮302f。触发式按钮302e、302f,分别由食指和中指操作。模拟摇杆,为能够被操作从规定的中立位置向360度任意的方向倾斜的摇杆型的按钮。例如,顶面322上设有模拟摇杆320i,使用拇指进行操作。

控制器320R,具备框架326,该框架326从握柄324的两侧面向与顶面322相反的一侧的方向延伸,形成半圆状的环。在框架326的外侧面,嵌入了多个检测点304。多个检测点304,例如为沿着框架326的圆周方向而排成一列的多个红外线发光二极管。在位置传感器130检测到与多个检测点304的位置、倾斜度或发光强度相关的信息之后,控制装置120,基于由位置传感器130检测到的信息,取得与控制器320R的位置及/或姿势(倾斜度及/或朝向)相关的信息。

控制器320R的传感器,例如,可以为磁性传感器、角速度传感器或加速度传感器中的任一种,或者这些传感器的组合。传感器,在用户U使控制器320R运动时,输出与控制器320R的朝向及/或位置相对应的信号(例如,表示与磁性、角速度或加速度相关的信息的信号)。控制装置120,基于从传感器输出的信号,取得与控制器320R的位置及/或姿势相关的信息。

控制器320R的收发器,构成为在控制器320R和控制装置120之间收发数据。例如,收发器,可以将与用户U的操作输入相对应的操作信号发送至控制装置120。另外,收发器可以从控制装置120接收表示信号,该表示信号向控制器320R表示检测点304的发光。再者,收发器可以向控制装置120发送表示由传感器检测到的数值的信号。

接着,参照图5至图8,说明用于在头戴式设备110显示视野图像的处理。图5是示意在头戴式设备110显示视野图像的处理的流程图。图6是示意虚拟空间200的一个示例的xyz空间图。图7(a)是图6所示的虚拟空间200的yx平面图。图7(b)是图6所示的虚拟空间200的zx平面图。图8是示意在头戴式设备110显示的视野图像V的一个示例的图。

如图5所示,在步骤S1中,控制部121(参照图3),生成表示虚拟空间200的虚拟空间数据,该虚拟空间200包含虚拟摄像机300和各种物件。如图6所示,虚拟空间200被规定为以中心位置21为中心的整个天球(图6中,仅显示了上半部的天球)。另外,在虚拟空间200内,设定有以中心位置21为原点的xyz坐标系。虚拟摄像机300规定了视轴L,该视轴L用于确定在头戴式设备110显示的视野图像V(参照图8)。定义虚拟摄像机300的视野的uvw坐标系被决定成与以现实空间中的用户U的头部为中心而规定的uvw坐标系联动。另外,控制部121,可以根据安装了头戴式设备110的用户U在现实空间中的移动,使虚拟摄像机300在虚拟空间200内移动。另外,虚拟空间200内的各种物件,例如为平板电脑物件500、监视器物件600以及手物件400(参照图9)。

接着,在步骤S2中,控制部121,确定虚拟摄像机300的视野CV(参照图7)。具体而言,控制部121,在取得从位置传感器130及/或头戴传感器114发送的、表示头戴式设备110的状态的数据之后,基于该取得的数据,取得与头戴式设备110的位置及/或倾斜度相关的信息。接着,控制部121,基于与头戴式设备110的位置和倾斜度相关的信息,确定虚拟空间200内的虚拟摄像机300的位置及/或朝向。接着,控制部121,从虚拟摄像机300的位置及/或朝向决定虚拟摄像机300的视轴L,从所决定的视轴L确定虚拟摄像机300的视野CV。在此,虚拟摄像机300的视野CV,相当于安装了头戴式设备110的用户U能够辨认的虚拟空间200的一部分区域。换言之,视野CV相当于在头戴式设备110显示的虚拟空间200的一部分区域。另外,视野CV具有第1区域CVa和第2区域CVb,该第1区域CVa在图7(a)所示的xy平面中,设定成以视轴L为中心的极角α的角度范围,该第2区域CVb在图7(b)所示的xz平面中,设定成以视轴L为中心的方位角β的角度范围。此外,控制部121,可以基于从注视传感器140发送的、表示用户U的视线方向的数据,确定用户U的视线方向,并基于用户U的视线方向,决定虚拟摄像机300的朝向。

如此,控制部121,能够基于来自位置传感器130及/或头戴传感器114的数据,确定虚拟摄像机300的视野CV。在此,如果安装了头戴式设备110的用户U运动,则控制部121能够基于从位置传感器130及/或头戴传感器114发送的、表示头戴式设备110的运动的数据,使虚拟摄像机300的视野CV变化。即,控制部121,能够根据头戴式设备110的运动,使视野CV变化。同样地,如果用户U的视线方向变化,则控制部121能够基于从注视传感器140发送的、表示用户U的视线方向的数据,使虚拟摄像机300的视野CV移动。即,控制部121,能够根据用户U的视线方向的变化,使视野CV变化。

接着,在步骤S3中,控制部121生成视野图像数据,该视野图像数据表示在头戴式设备110的显示部112显示的视野图像V。具体而言,控制部121,基于规定虚拟空间200的虚拟空间数据和虚拟摄像机300的视野CV,生成视野图像数据。

接着,在步骤S4中,控制部121,基于视野图像数据,在头戴式设备110的显示部112显示视野图像V(参照图7)。如此,根据安装了头戴式设备110的用户U的运动,更新虚拟摄像机300的视野CV,更新在头戴式设备110的显示部112显示的视野图像V,因而,用户U能够投入于虚拟空间200。

此外,虚拟摄像机300,可以包括左眼用虚拟摄像机和右眼用虚拟摄像机。这种情况下,控制部121,基于虚拟空间数据和左眼用虚拟摄像机的视野,生成表示左眼用的视野图像的左眼用视野图像数据。再者,控制部121,基于虚拟空间数据和右眼用虚拟摄像机的视野,生成表示右眼用的视野图像的右眼用视野图像数据。随后,控制部121,基于左眼用视野图像数据和右眼用视野图像数据,在头戴式设备110的显示部112显示左眼用视野图像和右眼用视野图像。如此,用户U,能够从左眼用视野图像和右眼用视野图像立体地辨认视野图像作为三维图像。此外,本说明书中,为了便于说明,虚拟摄像机300的数量为一个。当然,本公开的实施方式,即使在虚拟摄像机的数量为2个的情况下,也能够适用。

接着,参照图9,说明虚拟空间200所包含的虚拟摄像机300、手物件400(操作物件的一个示例)、平板电脑物件500(第2物件的一个示例)、监视器物件600(第1物件的一个示例)。如图9所示,虚拟空间200包含虚拟摄像机300、手物件400、监视器物件600以及平板电脑物件500。控制部121生成虚拟空间数据,该虚拟空间数据规定包含这些物件的虚拟空间200。如上所述,虚拟摄像机300,与用户U所安装的头戴式设备110的运动联动。即,根据头戴式设备110的运动而更新虚拟摄像机300的视野。

手物件400,为左手物件和右手物件的统称。如上所述,左手物件根据安装于用户U的左手的控制器320L(参照图13(a))的运动而移动。同样地,右手物件根据安装于用户U的右手的控制器320R的运动而移动。此外,本实施方式中,为了便于说明,在虚拟空间200内仅配置了1个手物件400,但也可以在虚拟空间200内配置2个手物件400。

控制部121,在从位置传感器130取得控制器320的位置信息之后,基于该取得的位置信息,将虚拟空间200内的手物件400的位置和现实空间中的控制器320的位置对应。如此,控制部121,根据用户U的手的位置(控制器320的位置),控制手物件400的位置。

另外,用户U通过操作操作按钮302,从而能够操作配置于虚拟空间200内的手物件400的各手指。即,控制部121,在从控制器320取得与对操作按钮302的输入操作相对应的操作信号之后,基于该操作信号,控制手物件400的手指的动作。例如,用户U操作操作按钮302,使得手物件400能够握持平板电脑物件500(参照图9)。再者,在手物件400握持平板电脑物件500的状态下,能够根据控制器320的移动,使手物件400和平板电脑物件500移动。如此,控制部121,构成为根据用户U的手指的运动,控制手物件400的动作。

监视器物件600,构成为显示菜单(尤其是,菜单画面610)。在菜单画面610,可以显示用户U能够选择的多个选择项目。图9中,在菜单画面610显示“西餐”、“日餐”以及“中餐”作为选择项目。另外,在菜单画面610也可以显示阶段信息、获得物品信息、放弃按钮及/或游戏重开按钮。监视器物件600,也可以固定地配置于虚拟空间200内的规定的位置。配置有监视器物件600的位置,能够通过用户的操作而变更。另外,配置有监视器物件600的位置,也可以基于存储于存储器的规定的动作规则而自动地变更。

平板电脑物件500,能够操作在监视器物件600显示的菜单。控制部121,根据手物件400对平板电脑物件500的输入操作,操作在监视器物件600显示的菜单。具体而言,控制部121,基于从控制器320发送的操作信号及/或从位置传感器130发送的控制器320的位置信息,控制手物件400的动作。随后,控制部121,在确定手物件400和平板电脑物件500之间的相互作用之后,基于该相互作用,确定手物件400对平板电脑物件500的输入操作。控制部121,基于该确定的输入操作,选择在监视器物件600的菜单画面610显示的多个选择项目(“西餐”、“日餐”以及“中餐”)之中的一个。控制部121,实施与该选择结果相对应的规定的处理。

此外,控制部121,可以不仅根据手物件400对平板电脑物件500直接地输入的输入操作,而且根据间接地输入的输入操作,操作在监视器物件600显示的菜单。例如,可以通过如上所述地操作手物件400,从而在握持虚拟空间200内的规定的介质物件的状态下进行操作,基于介质物件和平板电脑物件500之间的相互作用,确定手物件400对平板电脑物件500的输入操作。控制部121,基于该确定的输入操作,选择在监视器物件600的菜单画面610显示的多个选择项目(“西餐”、“日餐”以及“中餐”)之中的一个。控制部121,实施与该选择结果相对应的规定的处理。介质物件,优选为暗示用户能够对平板电脑物件500实施输入的物件,例如,模仿手写笔那样的物体的物件。

接着,参照图10,说明平板电脑物件500的显示画面510的一个示例。在显示画面510,显示有方向键520、BACK按钮530、OK按钮540、L按钮550L以及R按钮550R。在此,方向键520是用于控制在监视器物件600的菜单画面610显示的光标的移动的按钮。

接着,以下,参照图11至图14,说明本实施方式涉及的信息处理方法。图11是用于说明本实施方式涉及的信息处理方法的流程图。图12是示意用于设定平板电脑物件500的移动范围的方法的一个示例的流程图。图13(a)是示意投入于虚拟空间200的用户U的情形的图。图13(b)是示意设定于虚拟摄像机300的周边的平板电脑物件500的移动范围的一个示例(移动范围Ra)的图。图13(c)是示意设定于虚拟摄像机300的周边的平板电脑物件500的移动范围的另一个示例(移动范围Rb)的图。图14(a)是示意平板电脑物件500位于移动范围Ra外的情形的图。图14(b)是示意平板电脑物件500从移动范围Ra外移动至移动范围Ra内的规定的位置的情形的图。此外,在以下的说明中,虽然举例说明了移动平板电脑物件500,但也可以通过同样的方法移动上述介质物件,以代替平板电脑物件500。

如图11所示,在步骤S11中,控制部121设定平板电脑物件500的移动范围。在此,平板电脑物件500的移动范围可以规定成在用户U不移动的状态(换言之,现实空间中的用户U的位置坐标不变化的状态)下,用户U使用手物件400能够抓到平板电脑物件500的范围。在平板电脑物件500位于移动范围外的情况下,控制部121使平板电脑物件500移动至移动范围内的规定的位置。

如图13(b)所示,平板电脑物件500的移动范围可以为被规定成球体的移动范围Ra,该球体以虚拟摄像机300的中心位置为中心,并具有规定的半径R。在此,在平板电脑物件500和虚拟摄像机300之间的距离为半径R以下的情况下,判定平板电脑物件500存在于移动范围Ra内。与此相反,在平板电脑物件500和虚拟摄像机300之间的距离大于半径R的情况下,判定平板电脑物件500存在于移动范围Ra外。

另外,如图13(c)所示,平板电脑物件500的移动范围可以为被规定成旋转椭圆体的移动范围Rb,该旋转椭圆体以虚拟摄像机300的中心位置为中心。在此,旋转椭圆体的长轴与虚拟摄像机300的w轴平行,并且,旋转椭圆体的短轴与虚拟摄像机300的v轴平行。另外,平板电脑物件500的移动范围可以为被规定成正方体或长方体的移动范围,该正方体或长方体以虚拟摄像机300的中心位置为中心。

以下,以平板电脑物件500的移动范围为图13(b)所示的移动范围Ra为例,进行说明。如图13(a)所示,基于头戴式设备110和控制器320(控制器320L或控制器320R)之间的距离D,设定规定移动范围Ra的球体的半径R。参照图12,说明移动范围Ra的设定方法(图11所示的在步骤S11实施的处理)的一个示例。

如图12所示,控制部121,在步骤S21中,将整数N的数值设定为1。在图12所示的处理开始的情况下,最初将整数N的数值设定为1。例如,整数N的数值可以在每帧增加1。例如,在游戏动画的帧率为90fps的情况下,可以每经过1/90秒,整数N的数值增加1。接着,在步骤S22中,控制部121,基于从位置传感器130发送的头戴式设备110的位置信息和控制器320的位置信息,确定头戴式设备110的位置(用户U的头部的位置),并且,确定控制器320的位置(用户U的手的位置)。接着,控制部121,基于所确定的头戴式设备110的位置和控制器320的位置,确定头戴式设备110和控制器320之间的距离DN(步骤S23)。

接着,由于整数N的数值为1(步骤S24的YES),因而控制部121将所确定的距离D1设定为头戴式设备110和控制器320之间的最大距离Dmax(步骤S25)。随后,在未经过规定時间的情况下(步骤S26中的NO),在步骤S27中,整数N的数值增加1(N=2),处理再次回到步骤S22。接着,在实施步骤S22的处理之后,在步骤S23中,控制部121确定N=2时的头戴式设备110和控制器320之间的距离D2。接着,由于N≠1(步骤S24中的NO),控制部121判定距离D2是否大于最大距离Dmax(=D1)(步骤S28)。控制部121,在判定距离D2大于最大距离Dmax的情况下(步骤S28中的YES),将距离D2设定为最大距离Dmax(步骤S29)。另一方面,控制部121,在判定距离D2为最大距离Dmax以下的情况下(步骤S28的NO),进行步骤S26的处理。在未经过规定時间的情况下(步骤S26的NO),在步骤S27中,整数N的数值增加1。如此,直到经过规定時间之前,重复实施步骤S22、S23、S28、S29的处理,并且,整数N的数值在每帧增加1。即,直到经过规定時间之前,在每帧确定头戴式设备110和控制器320之间的距离DN,然后,更新头戴式设备110和控制器320之间的最大距离Dmax。接着,控制部121,在判定已经过规定時间的情况下(步骤S26的YES),基于头戴式设备110和控制器320之间的最大距离Dmax以及虚拟摄像机300的位置,设定平板电脑物件500的移动范围Ra(步骤S30)。具体而言,控制部121,将虚拟摄像机300的中心位置设定成规定移动范围Ra的球体的中心,并且,将最大距离Dmax设定成规定移动范围Ra的球体的半径R。如此,基于头戴式设备110和控制器320之间的距离的最大值以及虚拟摄像机300的位置,设定移动范围Ra。

此外,控制部121,可以基于虚拟摄像机300和手物件400之间的距离的最大值以及虚拟摄像机300的位置,设定移动范围Ra。这种情况下,控制部121,在步骤S22中,确定虚拟摄像机300的位置和手物件400的位置,并且,在步骤S23中,确定虚拟摄像机300和手物件400之间的距离DN。再者,直到经过规定時间之前,控制部121确定虚拟摄像机300和手物件400之间的最大距离Dmax。控制部121,将虚拟摄像机300的中心位置设定成规定移动范围Ra的球体的中心,并且,将虚拟摄像机300和手物件400之间的最大距离Dmax设定成该球体的半径R。

另外,作为移动范围Ra的另一设定方法,控制部121,可以基于用户U的规定的姿势时的头戴式设备110和控制器320之间的距离以及虚拟摄像机300的位置,设定移动范围Ra。例如,可以基于在用户U起立的状态下两手向前方伸出时的头戴式设备110和控制器320之间的距离以及虚拟摄像机300的位置,设定移动范围Ra。

再次参照图11,在步骤S12中,控制部121判定在手物件400握持平板电脑物件500的状态下手物件400是否移动(参照图14)。在步骤S12为YES的情况下,控制部121,根据控制器320的移动,使手物件400和平板电脑物件500一起移动(步骤S13)。另一方面,在步骤S12为NO的情况下,处理进行到步骤S14。接着,在步骤S14中,控制部121,判定平板电脑物件500是否被手物件400操作。在步骤S14为YES的情况下,控制部121,根据手物件对平板电脑物件500的输入操作,操作在监视器物件600显示的菜单(菜单画面610),然后实施与操作结果相对应的规定的处理(步骤S15)。另一方面,在步骤S14为NO的情况下,处理进行到步骤S16。

接着,控制部121,判定平板电脑物件500是否存在于移动范围Ra外,并且,平板电脑物件500是否被手物件400握持(在步骤S16)。例如,如图14(a)所示,用户U使用手物件400将平板电脑物件500扔出,使得平板电脑物件500位于移动范围Ra外。或者,在平板电脑物件500未被手物件400握持的状态下,用户U移动,使得平板电脑物件500位于移动范围Ra外。这种情况下,用户U移动,使得虚拟摄像机300移动,因而,设定于虚拟摄像机300的周边的移动范围Ra移动。如此,平板电脑物件500位于移动范围Ra外。在步骤S16为YES的情况下,控制部121基于虚拟摄像机300的位置和监视器物件600的位置,使平板电脑物件500移动至移动范围Ra内的规定的位置(步骤S17)。例如,如图14(b)所示,控制部121,可以确定从将监视器物件600的中心位置和虚拟摄像机300的中心位置连接的线段C的中心位置起沿y轴方向偏移规定距离的位置,从而在该确定的位置配置平板电脑物件500。此外,在步骤S16,可以仅判定平板电脑物件500是否存在于移动范围Ra外。

如此,依照本实施方式,根据手物件400对平板电脑物件500的输入操作,操作在监视器物件600显示的菜单。即,用户U,能够使用与用户U的手的运动联动的虚拟空间200内的手物件400,对虚拟空间200内的平板电脑物件500进行规定的操作。该规定的操作的结果是,操作在监视器物件600显示的菜单。如此,菜单操作由虚拟空间200内的物件彼此的相互作用实施,并且,能够避免在视野图像内始终显示小部件等的UI物件的状况。所以,能够提供一种信息处理方法,该信息处理方法能够进一步提高用户U对虚拟空间200的投入感。

另外,即使在平板电脑物件500位于移动范围Ra外的情况下,平板电脑物件500也移动至移动范围Ra内的规定的位置。如此,用户U,能够容易地发现平板电脑物件500,并且,能够大幅地减少用于拿取平板电脑物件500的人工。再者,基于监视器物件600和虚拟摄像机300之间的位置关系(例如,线段C的中心点),决定移动范围Ra内的平板电脑物件500的位置,因而,用户U能够容易地发现平板电脑物件500。

另外,基于头戴式设备110(用户U的头部)和控制器320(用户U的手)之间的最大距离Dmax,决定平板电脑物件500的移动范围Ra。如此,平板电脑物件500配置在当用户U静止(现实空间中用户的位置坐标未变化的状态)时用户U能够拿取的范围,因而,能够大幅地减少用户U拿取平板电脑物件500的人工。

为了通过软件实现控制部121所实施的各种处理,用于使计算机(处理器)实施本实施方式涉及的信息处理方法的信息处理程序可以预先集成于存储部123或ROM。或者,信息处理程序,可以存储于磁盘(硬盘、软盘),光盘(CD-ROM、DVD-ROM,Blu-ray(注册商标)disk等),磁光盘(MO等),闪存(SD card,USB存储器,SSD等)等的计算机可读取的存储介质。这种情况下,存储介质连接于控制装置120,使得存储于该存储介质的信息处理程序集成于存储部123。然后,在RAM上加载集成于存储部123的信息处理程序,处理器执行所加载的该程序,使得控制部121实施本实施方式涉及的信息处理方法。

另外,可以经由通信接口125从通信网络3上的计算机下载信息处理程序。这种情况下,同样地,所下载的该程序集成于存储部123。

以上,说明了本公开的实施方式,但本发明的技术范围并不由本实施方式的说明限定性地解释。本领域的技术人员能够理解的是,本实施方式为一个示例,在权利要求书所记载的发明的范围内,能够进行各种实施方式的变更。本发明的技术范围以权利要求书所记载的发明的范围及其等同范围为准。

本实施方式中,根据示意用户U的手的运动的外部控制器320的运动,控制手物件的移动,但是,也可以根据用户U的手自身的移动量,控制虚拟空间内的手物件的移动。例如,使用安装于用户的手指的手套型设备及/或指环型设备,代替外部控制器,从而能够由位置传感器130检测用户U的手的位置及/或移动量,并且,能够检测用户U的手指的运动及/或状态。另外,位置传感器130,可以为构成为拍摄用户U的手(包括手指)的摄像机。这种情况下,通过使用摄像机拍摄用户的手,从而在用户的手指不直接安装任何设备,就能够基于显示用户的手的图像数据,检测用户U的手的位置及/或移动量,并检测用户U的手指的运动及/或状态。

另外,本实施方式中,根据作为用户U的头部以外的身体的一部分的手的位置及/或运动,由手物件操作平板电脑物件,但是,例如,也可以根据作为用户U的头部以外的身体的一部分的脚的位置及/或运动,由与用户U的脚的运动联动的脚物件(操作物件的一个示例)操作平板电脑物件。如此,不仅可以将手物件规定为操作物件,也可以将脚物件规定为操作物件。

另外,也可以将遥控器物件等规定为能够操作在监视器物件显示的菜单的物件,以代替平板电脑物件。

符号说明

1:头戴式设备系统

3:通信网络

21:中心位置

112:显示部

114:头戴传感器

120:控制装置

121:控制部

123:存储部

124:输入输出接口

125:通信接口

126:总线

130:位置传感器

140:注视传感器

200:虚拟空间

300:虚拟摄像机

302:操作按钮

302a:按压式按钮

302b:按压式按钮

302e:触发式按钮

302f:触发式按钮

304:检测点

320:外部控制器(控制器)

320i:模拟摇杆

320L:左手用外部控制器(控制器)

320R:右手用外部控制器(控制器)

322:顶面

324:握柄

326:框架

400:手物件(操作物件)

500:平板电脑物件(第2物件)

510:显示画面

520:方向键

530:BACK按钮

540:OK按钮

550L:L按钮

550R:R按钮

600:监视器物件(第1物件)

610:菜单画面

C:线段

CV:视野

CVa:第1区域

CVb:第2区域

L:视轴

Ra、Rb:移动范围

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号