首页> 中国专利> AR场景下的交互方法、装置、电子设备及存储介质

AR场景下的交互方法、装置、电子设备及存储介质

摘要

本公开提供了一种AR场景下的交互方法、装置、电子设备及存储介质,其中,该方法包括:在确定AR设备位于目标AR场景后,在AR设备中展示与目标AR场景匹配的AR画面,以及至少一个其它目标AR设备对应的目标用户的用户图像;基于用户图像,确定与目标用户对应的AR特效数据;在AR设备的AR画面中,与目标用户的用户图像对应的目标位置处,展示确定的AR特效数据。

著录项

  • 公开/公告号CN112905014A

    专利类型发明专利

  • 公开/公告日2021-06-04

    原文格式PDF

  • 申请/专利权人 北京市商汤科技开发有限公司;

    申请/专利号CN202110218841.X

  • 发明设计人 侯欣如;王鼎禄;李斌;

    申请日2021-02-26

  • 分类号G06F3/01(20060101);G06K9/00(20060101);A63F13/213(20140101);

  • 代理机构11889 北京中知恒瑞知识产权代理事务所(普通合伙);

  • 代理人吴迪

  • 地址 100080 北京市海淀区北四环西路58号11层1101-1117室

  • 入库时间 2023-06-19 11:16:08

说明书

技术领域

本公开涉及增强现实(Augmented Reality,AR)技术领域,具体而言,涉及一种AR场景下的交互方法、装置、电子设备及存储介质。

背景技术

AR技术作为一种根据实时计算的摄像机影像的位置及角度,在影像上叠加相应的图像、视频、三维(3-Dimensional,3D)模型以实现虚拟世界与现实世界融合的技术,面向用户提供了一种新的交互体验,因而被广泛应用于消费、医疗、游戏等各种技术领域。

目前,在AR场景下的人机交互大多数是各个用户单独进行AR体验,无法满足多用户的AR人机交互需求。

发明内容

本公开实施例至少提供一种AR场景下的交互方法、装置、电子设备及存储介质。

第一方面,本公开实施例提供了一种AR场景下的交互方法,所述方法包括:

在确定AR设备位于目标AR场景后,在所述AR设备中展示与所述目标AR场景匹配的AR画面,以及至少一个其它目标AR设备对应的目标用户的用户图像;

基于所述用户图像,确定与所述目标用户对应的AR特效数据;

在所述AR设备的AR画面中,与所述目标用户的用户图像对应的目标位置处,展示确定的所述AR特效数据。

采用上述AR场景下的交互方法,可以在确定AR设备拍摄视野内拍摄到参与AR交互的真实的目标用户的用户图像的情况下,将该目标用户的AR特效数据展示在AR画面对应的目标位置。这里的AR设备可以是交互场景下多个AR设备中的任一AR设备,这样,每个用户均可以利用其AR设备展示的其它目标AR设备所对应目标用户的AR特效数据实现与目标用户的交互,虚实结合,提升了交互体检感。

在一种可能的实施方式中,所述基于所述用户图像,确定与所述目标用户对应的AR特效数据,包括:

基于所述用户图像,获取所述目标用户的用户身份信息;

获取与所述用户身份信息对应的目标交互数据;

基于所述用户身份信息和所述目标交互数据,生成与所述目标用户对应的AR特效数据。

这里,可以首先基于用户图像获取目标用户的用户身份信息,不同的用户身份信息所对应的目标交互数据也不相同,可以在获取到对应目标用户的目标交互数据的情况下,确定AR特效数据,这可以进一步展现有关真实的目标用户的AR交互情况,提升不同用户之间的交互体验。

在一种可能的实施方式中,所述方法还包括:

从所述用户图像中确定所述目标用户的人脸所在的人脸图像区域;

在所述AR设备的AR画面中,与所述目标用户的用户图像对应的目标位置处,展示确定的所述AR特效数据,包括:

在所述AR设备的AR画面中,与所述目标用户的人脸图像区域对应的目标位置处,展示确定的所述AR特效数据。

这里,首先可以确定目标用户的人脸所在的人脸图像区域,这样,在展示目标用户对应的AR特效数据时,可以在目标用户的人脸位置或人脸附近位置进行展示,也即,展示位置与展示内容更为贴近,这使得可视化展示效果更佳。

在一种可能的实施方式中,AR特效数据包括以下数据中的一种或多种:

所述目标用户的属性数据;

所述目标用户在所述目标AR场景中进行交互的互动分值。

在一种可能的实施方式中,当所述AR设备的AR画面中展示有虚拟对象的情况下;所述方法还包括:

在检测到作用在所述AR设备上的AR画面中展示的虚拟对象的目标触发操作的情况下,在所述AR画面中展示所述虚拟对象的AR特效。

这里,可以针对AR设备上的AR画面中展示的虚拟对象进行对应AR特效的展示,丰富了AR展示效果。

在一种可能的实施方式中,根据以下步骤检测作用在所述AR设备上的AR画面中展示的虚拟对象的目标触发操作:

响应作用在所述AR设备屏幕上的触发操作,确定与所述触发操作对应的屏幕坐标位置;

基于所述屏幕坐标位置、以及屏幕坐标系与虚拟相机坐标系之间的第一转换关系,将所述屏幕坐标位置转换到虚拟相机坐标系下的相机坐标位置;

基于所述相机坐标位置、以及虚拟相机坐标系与世界坐标系之间的第二转换关系,将所述相机坐标位置转换到世界坐标系下,得到世界坐标位置;

在所述世界坐标位置落入所述虚拟对象对应的位置范围内的情况下,确定检测到作用在所述AR设备上的AR画面中展示的虚拟对象的目标触发操作。

这里,可以基于屏幕坐标系与虚拟相机坐标系之间的第一转换关系、虚拟相机坐标系与世界坐标系之间的第二转换关系,确定AR设备屏幕上的触发操作是否可以作用到AR设备上的AR画面中展示的虚拟对象上,提升后续AR操作的准确度。

第二方面,本公开实施例还提供了一种AR场景下的交互装置,所述装置包括:

画面展示模块,用于在确定AR设备位于目标AR场景后,在所述AR设备中展示与所述目标AR场景匹配的AR画面,以及至少一个其它目标AR设备对应的目标用户的用户图像;

特效确定模块,用于基于所述用户图像,确定与所述目标用户对应的AR特效数据;

特效展示模块,用于在所述AR设备的AR画面中,与所述目标用户的用户图像对应的目标位置处,展示确定的所述AR特效数据。

在一种可能的实施方式中,特效展示模块,还用于:

从所述用户图像中确定所述目标用户的人脸所在的人脸图像区域;

在所述AR设备的AR画面中,与所述目标用户的人脸图像区域对应的目标位置处,展示确定的所述AR特效数据。

第三方面,本公开实施例还提供了一种电子设备,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过总线通信,所述机器可读指令被所述处理器执行时执行如第一方面及其各种实施方式任一所述的AR场景下的交互方法的步骤。

第四方面,本公开实施例还提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如第一方面及其各种实施方式任一所述的AR场景下的交互方法的步骤。

关于上述AR场景下的交互装置、电子设备、及计算机可读存储介质的效果描述参见上述AR场景下的交互方法的说明,这里不再赘述。

为使本公开的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。

附图说明

为了更清楚地说明本公开实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,此处的附图被并入说明书中并构成本说明书中的一部分,这些附图示出了符合本公开的实施例,并与说明书一起用于说明本公开的技术方案。应当理解,以下附图仅示出了本公开的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。

图1示出了本公开实施例所提供的一种AR场景下的交互方法的流程图;

图2示出了本公开实施例所提供的一种AR场景下的交互方法中,生成AR特效数据的具体方法流程图;

图3示出了本公开实施例所提供的一种AR场景下的交互方法中,检测目标触发操作的具体方法流程图;

图4(a)示出了本公开实施例所提供的一种AR场景下的交互方法的场景示意图;

图4(b)示出了本公开实施例所提供的一种AR场景下的交互方法的场景示意图;

图5示出了本公开实施例所提供的一种AR场景下的交互装置的示意图;

图6示出了本公开实施例所提供的一种电子设备的示意图。

具体实施方式

为使本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例中附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本公开实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本公开的实施例的详细描述并非旨在限制要求保护的本公开的范围,而是仅仅表示本公开的选定实施例。基于本公开的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本公开保护的范围。

应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。

本文中术语“和/或”,仅仅是描述一种关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中术语“至少一种”表示多种中的任意一种或多种中的至少两种的任意组合,例如,包括A、B、C中的至少一种,可以表示包括从A、B和C构成的集合中选择的任意一个或多个元素。

经研究发现,目前,在AR场景下的人机交互大多数是各个用户单独进行AR体验,无法满足多用户的AR人机交互需求。

基于上述研究,本公开提供了一种AR场景下的交互方法、装置、电子设备及存储介质,AR交互体验感较佳。

为便于对本实施例进行理解,首先对本公开实施例所公开的一种AR场景下的交互方法进行详细介绍,本公开实施例所提供的AR场景下的交互方法的执行主体一般为具有一定计算能力的电子设备,该电子设备例如包括:用户终端或服务器或其它处理设备,比如可以是与用户终端连接的服务器,该用户终端可以是平板电脑、智能手机、智能穿戴式设备、AR设备(如AR眼镜、AR头盔等)等具有显示功能和数据处理能力的设备,用户终端可以通过应用程序连接服务器。在一些可能的实现方式中,该AR场景下的交互方法可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。

下面对本公开实施例提供的AR场景下的交互方法加以说明。

参见图1所示,为本公开实施例提供的AR场景下的交互方法的流程图,方法包括步骤S101~S103,其中:

S101:在确定AR设备位于目标AR场景后,在AR设备中展示与目标AR场景匹配的AR画面,以及至少一个其它目标AR设备对应的目标用户的用户图像;

S102:基于用户图像,确定与目标用户对应的AR特效数据;

S103:在AR设备的AR画面中,与目标用户的用户图像对应的目标位置处,展示确定的AR特效数据。

上述AR场景下的交互方法主要可以应用于各种需要进行AR场景交互的场景中,例如,可以应用于AR游戏场景中,实现对AR游戏场景中多用户之间的交互等,还可以是应用于其他各种应用场景中,在此不做具体的限制。

本公开实施例提供的AR场景下的交互方法实现多用户交互的前提在于在AR设备展示的AR画面中,可以是基于AR特效数据实现与AR设备中展示的真实的目标用户之间的交互,目标用户可以是真人,对应的AR特效数据则可以是后续增加的虚拟AR内容,这使得用户可以通过其AR设备在AR场景下进行与目标用户之间的交互,体验度较佳。

本公开实施例中可以是针对多个AR设备中的任一AR设备,实现上述交互操作。这里的多个AR设备可以是处于目标AR场景中的所有AR设备。这里,可以基于各个AR设备的实时定位位姿将多个AR设备映射到同一世界坐标系中,该世界坐标系可以对应的目标AR场景。接下来对AR设备的实时定位位姿的确定过程进行详细说明。

本公开实施例中,可以基于AR设备拍摄的现实场景图像,以及预先构建的三维场景地图,确定AR设备的定位位姿信息。

其中,上述现实场景图像可以是穿戴AR设备的用户在AR场景进行AR体验的过程中,通过AR设备上设置的摄像头拍摄的相关图像。基于拍摄的相关图像,这里一方面可以采用在AR设备进行基于预先构建的三维场景地图确定AR设备的定位位姿信息的本地定位,另一方面,可以采用服务器的远端定位,也即将拍摄的现实场景图像上传至服务器之后,服务器可以基于预先构建的三维场景地图来确定AR设备的定位位姿信息,本公开实施例对此不做具体的限制。

本公开实施例中的三维场景地图可以是基于点云数据构建的高精地图。这里,可以针对一个特定地点收集大量的照片或者视频,例如,包括不同拍摄时间、不同拍摄角度,不同拍摄位置的照片集合,基于收集的照片集合来恢复特定地点的稀疏特征点云,基于恢复的稀疏特征点云即可以构建对应这一特定地点的高精地图。在一些实施例中,可以基于运动重构(Structure from Motion,SFM)这一三维重建技术来具体实现。

这样,在获取到AR设备上传的现实场景图像之后,首先可以提取照片中的特征点,再将现实场景图像与高精地图对应的稀疏特征点云进行匹配,基于匹配结果可以确定AR设备拍摄现实场景图像过程中的位置和姿态。

由此利用上述三维场景地图可以实现对AR设备进行高精度和高准确性的位姿确认。

本公开实施例还可以结合实时定位与地图构建(Simultaneous LocalizationAnd Mapping,SLAM)技术实现AR设备的定位。本公开实施例可以按照如下步骤来实现联合定位:

步骤一、基于AR设备拍摄的现实场景图像,以及预先构建的三维场景地图,确定AR设备的初始定位位姿;

步骤二、基于AR设备的初始定位位姿,通过实时定位与地图构建SLAM,确定AR设备的实时定位位姿。

这里,首先可以基于三维场景地图对AR设备进行初始定位位姿的确定,在初始定位位姿的基础上,可以通过SLAM,确定AR设备的实时定位位姿。这里的SLAM可以在AR设备自身定位的基础上建造增量式地图,这样,在AR设备的初始定位位姿确定的情况下,即可以确定设备在空间中运动的位置和方向,从而实现AR设备的实时定位,这样,不仅确保了定位的高精度和高准确度,还降低了定位延迟,达到更高的实时性。

在一些实施例中,在基于SLAM进行实时定位的过程中,还可以每隔一个预设时间间隔(如5秒)结合三维场景地图的高精度定位来进行定位校准,从而进一步提升定位的准确度和精度。

基于上述定位方式确定AR设备的实时定位位姿之后,可以基于定位位姿信息,确定AR设备是否位于目标AR场景中。在各个AR设备位于同一目标AR场景的情况下,服务器可以将各个AR设备针对这一目标AR场景匹配的AR画面推送给对应的AR设备,AR设备即可以对应展示这一目标AR场景匹配的AR画面。

本公开实施例中,可以是在一个AR设备确定其AR画面中存在其它标AR设备对应的目标用户的用户图像的情况下,基于用户图像,确定对应的AR特效数据。这里的AR特效数据可以是目标用户的属性数据,例如,用户A的用户名,还可以是目标用户在目标AR场景中进行交互的互动分值,例如,在目标AR场景为游戏场景的情况下,可以是游戏分值。

在确定与目标用户对应的AR特效数据的情况下,可以对应在用户图像对应的目标位置处,展示这一AR特效数据。这里的目标位置可以是与用户图像相距在一定范围的位置,例如,可以是与用户图像的轮廓像素点相距50个像素点的位置,这样所展示的AR特效数据具有明确的指向性,可以提升AR交互体验。

如图2所示,本公开实施例提供的交互方法可以按照如下步骤生成目标用户对应的AR特效数据:

S201:基于用户图像,获取目标用户的用户身份信息;

S202:获取与用户身份信息对应的目标交互数据;

S203:基于用户身份信息和目标交互数据,生成与目标用户对应的AR特效数据。

这里的AR设备可以在针对用户图像确定存在其它目标AR设备对应的目标用户的情况下,可以向服务器发起用户身份识别请求。服务器可以针对用户图像进行身份识别,确定目标用户的用户身份信息并返回给AR设备,这里的身份信息可以指向的用户的生物学特征,例如,可以是经过用户授权的身份证件号,还可以是用户授权的游戏账号等信息,除此之外,还可以指向的是能够识别用户的其它身份信息,在此不做具体的限制。

一旦确定出用户身份信息,这里的AR设备还可以向服务器发起目标交互数据的访问请求,从中获取出与用户身份信息对应的目标交互数据。基于用户身份信息和目标交互数据的融合,可以得到对应的AR特效数据。

需要说明的是,这里,针对不同类型的AR特效数据,可以采用不同的特效展示方式,例如,针对用户身份信息可以采用文字方式展示对应的游戏账号信息,针对目标交互数据可以采用剩余血量条等图形方式进行展示,在此不做具体的限制。

本公开实施例中,还可以结合目标用户的人脸所在的人脸图像区域进行AR特效数据的展示。

这里,首先可以利用人脸识别技术或者利用预先训练好的人脸识别模型,从用户图像中确定目标用户的人脸所在的人脸图像区域。

本公开实施例中的人脸识别模型可以是预先训练好的,这里,可以基于多张用户图像样本以及针对每张用户图像样本进行人脸标注后的标注结果训练得到,训练的是一张用户图像样本与该张用户图像样本中的人脸图像区域之间的对应关系。这样,将用户图像输入到训练好的人脸识别模型中,可以得到目标用户的人脸所在的人脸图像区域,提升识别效率。

本公开实施例提供的AR场景下的交互方法,不仅可以通过AR设备实现与AR设备中展示的真实的目标用户之间的交互,还可以实现与AR设备上的AR画面中展示的虚拟对象之间的交互。

这里的交互可以指的是作用在虚拟对象上的目标触发操作,以在AR画面中展示虚拟对象的AR特效。

如图3所示,本公开实施例中,检测作用在AR设备上展示的虚拟对象的目标触发操作的过程具体可以通过如下步骤来实现:

S301:响应作用在AR设备屏幕上的触发操作,确定与触发操作对应的屏幕坐标位置;

S302:基于屏幕坐标位置、以及屏幕坐标系与虚拟相机坐标系之间的第一转换关系,将屏幕坐标位置转换到虚拟相机坐标系下的相机坐标位置;

S303:基于相机坐标位置、以及虚拟相机坐标系与世界坐标系之间的第二转换关系,将相机坐标位置转换到世界坐标系下,得到世界坐标位置;

S304:在世界坐标位置落入虚拟对象对应的位置范围内的情况下,确定检测到作用在AR设备上的AR画面中展示的虚拟对象的目标触发操作。

这里,首先可以响应用户在AR设备屏幕上执行的触发操作,这里,可以确定对应触发的屏幕坐标位置。由于屏幕坐标系和相机坐标系之间存在第一转换关系以及相机坐标系与世界坐标系之间存在第二转换关系,这时,可以先将屏幕坐标位置转换到相机坐标系下的相机坐标位置,然后再将转换得到的相机坐标位置转换到世界坐标系下,得到世界坐标位置。

其中,上述世界坐标位置可以指示的现实世界中的一个实际物理位置,由于AR设备在进行AR画面展示的过程中是结合现实世界而呈现的虚拟对象,因而,对于上述所指示的实际物理位置而言,可以基于该实际物理位置是否落入到虚拟对象对应的位置范围的判断结果来确定当前的目标触发操作是否作用到了虚拟对象上。也即,如果确定上述实际物理位置落入到虚拟对象对应的位置范围内,则可以认为当前的目标触发操作作用到了虚拟对象上。

基于上述有关虚拟对象的目标触发操作的分析结果,可以展示虚拟对象的AR特效。

为了便于理解本公开实施例提供的AR场景下的交互方法,接下来可以结合图4(a)和图4(b)所示的AR射击游戏场景进行示例说明。

在如图4(a)所示的AR射击游戏场景中,共计三个虚拟对象,分别为章鱼、海胆和炮筒。可以在针对炮筒执行射击操作(如,单击炮筒)的情况下,生成有关攻击海胆的特效,如图4(b)所示。

与此同时,在图4(a)和图4(b)展示的AR射击游戏场景中,在呈现的AR画面中呈现有其它目标AR设备对应的目标用户的用户图像,这时,可以对应展示有目标用户的AR特效数据,如用户A,游戏分值8.5所示。

本领域技术人员可以理解,在具体实施方式的上述方法中,各步骤的撰写顺序并不意味着严格的执行顺序而对实施过程构成任何限定,各步骤的具体执行顺序应当以其功能和可能的内在逻辑确定。

基于同一发明构思,本公开实施例中还提供了与AR场景下的交互方法对应的AR场景下的交互装置,由于本公开实施例中的装置解决问题的原理与本公开实施例上述AR场景下的交互方法相似,因此装置的实施可以参见方法的实施,重复之处不再赘述。

参照图5所示,为本公开实施例提供的一种AR场景下的交互装置的示意图,装置包括:画面展示模块501、特效确定模块502、特效展示模块503;其中,

画面展示模块501,用于在确定AR设备位于目标AR场景后,在AR设备中展示与目标AR场景匹配的AR画面,以及至少一个其它目标AR设备对应的目标用户的用户图像;

特效确定模块502,用于基于用户图像,确定与目标用户对应的AR特效数据;

特效展示模块503,用于在AR设备的AR画面中,与目标用户的用户图像对应的目标位置处,展示确定的AR特效数据。

在一种可能的实施方式中,特效确定模块502,用于按照以下步骤基于用户图像,确定与目标用户对应的AR特效数据:

基于用户图像,获取目标用户的用户身份信息;

获取与用户身份信息对应的目标交互数据;

基于用户身份信息和目标交互数据,生成与目标用户对应的AR特效数据。

在一种可能的实施方式中,特效展示模块503,还用于:

从用户图像中确定目标用户的人脸所在的人脸图像区域;

在AR设备的AR画面中,与目标用户的人脸图像区域对应的目标位置处,展示确定的AR特效数据。

在一种可能的实施方式中,AR特效数据包括以下数据中的一种或多种:

目标用户的属性数据;

目标用户在目标AR场景中进行交互的互动分值。

在一种可能的实施方式中,当AR设备的AR画面中展示有虚拟对象的情况下;上述装置还包括:

检测模块504,用于在检测到作用在AR设备上的AR画面中展示的虚拟对象的目标触发操作的情况下,在AR画面中展示虚拟对象的AR特效。

在一种可能的实施方式中,检测模块504,用于根据以下步骤检测作用在AR设备上的AR画面中展示的虚拟对象的目标触发操作:

响应作用在AR设备屏幕上的触发操作,确定与触发操作对应的屏幕坐标位置;

基于屏幕坐标位置、以及屏幕坐标系与虚拟相机坐标系之间的第一转换关系,将屏幕坐标位置转换到虚拟相机坐标系下的相机坐标位置;

基于相机坐标位置、以及虚拟相机坐标系与世界坐标系之间的第二转换关系,将相机坐标位置转换到世界坐标系下,得到世界坐标位置;

在世界坐标位置落入虚拟对象对应的位置范围内的情况下,确定检测到作用在AR设备上的AR画面中展示的虚拟对象的目标触发操作。

关于装置中的各模块的处理流程、以及各模块之间的交互流程的描述可以参照上述方法实施例中的相关说明,这里不再详述。

本公开实施例还提供了一种电子设备,如图6所示,为本公开实施例提供的电子设备结构示意图,包括:处理器601、存储器602、和总线603。存储器602存储有处理器601可执行的机器可读指令(比如,图5中的装置中画面展示模块501、特效确定模块502、特效展示模块503对应的执行指令等),当电子设备运行时,处理器601与存储器602之间通过总线603通信,机器可读指令被处理器601执行时执行如下处理:

在确定AR设备位于目标AR场景后,在AR设备中展示与目标AR场景匹配的AR画面,以及至少一个其它目标AR设备对应的目标用户的用户图像;

基于用户图像,确定与目标用户对应的AR特效数据;

在AR设备的AR画面中,与目标用户的用户图像对应的目标位置处,展示确定的AR特效数据。

在一种可能的实施方式中,上述处理器601执行的指令中,基于用户图像,确定与目标用户对应的AR特效数据,包括:

基于用户图像,获取目标用户的用户身份信息;

获取与用户身份信息对应的目标交互数据;

基于用户身份信息和目标交互数据,生成与目标用户对应的AR特效数据。

在一种可能的实施方式中,上述处理器601执行的指令还包括:

从用户图像中确定目标用户的人脸所在的人脸图像区域;

上述处理器601执行的指令中,在AR设备的AR画面中,与目标用户的用户图像对应的目标位置处,展示确定的AR特效数据,包括:

在AR设备的AR画面中,与目标用户的人脸图像区域对应的目标位置处,展示确定的AR特效数据。

在一种可能的实施方式中,AR特效数据包括以下数据中的一种或多种:

目标用户的属性数据;

目标用户在目标AR场景中进行交互的互动分值。

在一种可能的实施方式中,当AR设备的AR画面中展示有虚拟对象的情况下;上述处理器601执行的指令还包括:

在检测到作用在AR设备上的AR画面中展示的虚拟对象的目标触发操作的情况下,在AR画面中展示虚拟对象的AR特效。

在一种可能的实施方式中,上述处理器601执行的指令中,根据以下步骤检测作用在AR设备上的AR画面中展示的虚拟对象的目标触发操作:

响应作用在AR设备屏幕上的触发操作,确定与触发操作对应的屏幕坐标位置;

基于屏幕坐标位置、以及屏幕坐标系与虚拟相机坐标系之间的第一转换关系,将屏幕坐标位置转换到虚拟相机坐标系下的相机坐标位置;

基于相机坐标位置、以及虚拟相机坐标系与世界坐标系之间的第二转换关系,将相机坐标位置转换到世界坐标系下,得到世界坐标位置;

在世界坐标位置落入虚拟对象对应的位置范围内的情况下,确定检测到作用在AR设备上的AR画面中展示的虚拟对象的目标触发操作。

本公开实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述方法实施例中所述的AR场景下的交互方法的步骤。其中,该存储介质可以是易失性或非易失的计算机可读取存储介质。

本公开实施例还提供一种计算机程序产品,该计算机程序产品承载有程序代码,所述程序代码包括的指令可用于执行上述方法实施例中所述的AR场景下的交互方法的步骤,具体可参见上述方法实施例,在此不再赘述。

其中,上述计算机程序产品可以具体通过硬件、软件或其结合的方式实现。在一个可选实施例中,所述计算机程序产品具体体现为计算机存储介质,在另一个可选实施例中,计算机程序产品具体体现为软件产品,例如软件开发包(Software Development Kit,SDK)等等。

所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。在本公开所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。

所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。

另外,在本公开各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。

所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本公开的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台电子设备(可以是个人计算机,服务器,或者网络设备等)执行本公开各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。

最后应说明的是:以上所述实施例,仅为本公开的具体实施方式,用以说明本公开的技术方案,而非对其限制,本公开的保护范围并不局限于此,尽管参照前述实施例对本公开进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本公开揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本公开实施例技术方案的精神和范围,都应涵盖在本公开的保护范围之内。因此,本公开的保护范围应所述以权利要求的保护范围为准。

去获取专利,查看全文>

相似文献

  • 专利
  • 中文文献
  • 外文文献
获取专利

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号