本发明涉及电子宠物技术领域,特别涉及一种基于Kinect技术的电子宠物。

背景技术:

目前人工智能发展迅速,现在的电子宠物动作单一,并且不能够与人进行交互,对周围的环境不能够准确识别,面对用户的动作只能进行单一的反馈,十分单调,并且缺乏与人的情感交流,用户普遍需要电子宠物能够更为智能,能够分别环境与人,并且能够识别人的动作和表情,此外现在的电子宠物没有学习功能,不能够进行学习和不断更新。

因此,发明一种基于Kinect技术的电子宠物来解决上述问题很有必要。

技术实现要素:

本发明的目的在于提供一种基于Kinect技术的电子宠物,以解决上述背景技术中提出的问题。

为实现上述目的,本发明提供如下技术方案:一种基于Kinect技术的电子宠物,包括逻辑层、图像识别层和控制层,图像识别层通过摄像头拍摄图像信息并将图像信息传输至逻辑层,所述逻辑层进行运算之后将对应的动作指令发送至控制层,所述控制层向电子宠物的肢体发出运动信号进而控制电子宠物的肢体运动。

进一步的,上述技术方案中,逻辑层包括以下步骤:

S1:定义识别目标,逻辑层将图像信息进行分解成若干像素点,并且将图像中的相邻的具有光线强度变化的像素点和颜色变化的像素点相连接,构成识别目标;

S2:判断交互对象,判断识别目标的运动状况,将不动的识别目标定义为背景,将运动的识别目标定义为交互对象;

S3:选择交互策略,将交互对象的运动轨迹与数据库中的交互策略数据进行对比,选择相似度超过阈值的交互策略数据,读取数据库中的该交互策略数据对应的交互控制数据;

S4:输出运动信号,将交互控制数据转化为运动信号传输至电子宠物的肢体。

进一步的,上述技术方案中,包括头部、躯干部、四肢部和爪部,头部球铰连接于躯干部顶部,四肢部分别球铰连接于躯干部上下两侧,四个爪部分别固定于所述四肢部末端。

进一步的,上述技术方案中,所述头部正面上部并排设置两个摄像头,两个所述摄像头上部分别眼睑片,所述眼睑片与所述头部滑动连接,所述眼睑片上端内侧通过所述头部内的伸缩杆与所述头部相连接。

进一步的,上述技术方案中,所述躯干部内顶部和靠近各个四肢部位置分别设置伺服电机,各个伺服电机的电机轴分别与所述头部和四个所述四肢部相连接。

进一步的,上述技术方案中,所述爪部包括若干端部为弧面圆柱形柔性爪,各个所述柔性爪内设置气囊,气囊通过软管与充气机相连接,所述充气机设置于所述躯干部内,所述软管穿过所述四肢部直至躯干部。

进一步的,上述技术方案中,所述逻辑层、所述图像识别层、所述控制层和所述数据库储存于微型计算机内,所述微型计算机设置于所述躯干部内,所述微型计算机分别与所述摄像头、所述伺服电机和所述充气机相连接。

本发明的技术效果和优点:本发明能够根据与人接触的时间增加宠物的个性,比如会有喜好、会撒娇等等,具有“解耦”、“冗余”、“扩展性”、“灵活性”、“峰值处理能力”、“可恢复性”等优秀的特性,具有基本的人脸识别,手势识别,动作识别,具有学习性和基本AI。

附图说明

下面结合附图和具体实施方式对本发明作进一步详细的说明。

图1为本发明的逻辑结构示意图;

图2为本发明的结构示意图。

图中:1头部、2躯干部、3四肢部、4爪部、5摄像头、6眼睑片、7伸缩杆、8伺服电机、9气囊、10充气机、11微型计算机。

具体实施方式

下面结合附图和实施例对本发明的技术方案进行清楚、完整的描述,在本发明的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或者暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。

实施例1

本发明提供了如图1-2所示的一种基于Kinect技术的电子宠物,包括逻辑层、图像识别层和控制层,图像识别层通过摄像头拍摄图像信息并将图像信息传输至逻辑层,所述逻辑层进行运算之后将对应的动作指令发送至控制层,所述控制层向电子宠物的肢体发出运动信号进而控制电子宠物的肢体运动。

进一步的,上述技术方案中,逻辑层包括以下步骤:

S1:定义识别目标,逻辑层将图像信息进行分解成若干像素点,并且将图像中的相邻的具有光线强度变化的像素点和颜色变化的像素点相连接,构成识别目标;

S2:判断交互对象,判断识别目标的运动状况,将不动的识别目标定义为背景,将运动的识别目标定义为交互对象;

S3:选择交互策略,将交互对象的运动轨迹与数据库中的交互策略数据进行对比,选择相似度超过阈值的交互策略数据,读取数据库中的该交互策略数据对应的交互控制数据;

S4:输出运动信号,将交互控制数据转化为运动信号传输至电子宠物的肢体。

进一步的,上述技术方案中,包括头部1、躯干部2、四肢部3和爪部4,头部1球铰连接于躯干部2顶部,四肢部3分别球铰连接于躯干部2上下两侧,四个爪部4分别固定于所述四肢部3末端。

进一步的,上述技术方案中,所述头部1正面上部并排设置两个摄像头5,两个所述摄像头5上部分别眼睑片6,所述眼睑片6与所述头部1滑动连接,所述眼睑片6上端内侧通过所述头部1内的伸缩杆7与所述头部1相连接。

进一步的,上述技术方案中,所述躯干部2内顶部和靠近各个四肢部3位置分别设置伺服电机8,各个伺服电机8的电机轴分别与所述头部1和四个所述四肢部3相连接。

进一步的,上述技术方案中,所述爪部4包括若干端部为弧面圆柱形柔性爪,各个所述柔性爪内设置气囊9,气囊9通过软管与充气机10相连接,所述充气机10设置于所述躯干部2内,所述软管穿过所述四肢部3直至躯干部2。

进一步的,上述技术方案中,所述逻辑层、所述图像识别层、所述控制层和所述数据库储存于微型计算机11内,所述微型计算机11设置于所述躯干部2内,所述微型计算机11分别与所述摄像头5、所述伺服电机8和所述充气机10相连接。

实施例2

本实施例与实施例1的不同之处在于,基于Kinect识别技术,从新改变程序流程,简化并优化程序,使之能更快。

软件设计分为逻辑层与识别层,逻辑层主要依靠.Net Core框架实现,.NET也是用来控制Kinect的底层框架,两者都为微软公司所开发。Net Core是由微软在之前.NET框架的理念上重新开发的一款跨平台运行框架,主要特点就是跨平台,并可以支持独家的UWP开发,和XAMARIN的移动跨平台开发,.Net Core的性能也是非常的不错,并且微软也将它开源给了社区,目前发展迅速。

图像识别层使用Python语言进行实现,利用Python语言还可以通过使用谷歌的深度学习框架TensorFlow来让我们的电子宠物具有基本的AI功能,而且根据与人接触的时间增加宠物的个性,比如会有喜好、会撒娇等等。TensorFlow是当前机器学习中最流行的开源库,社区资源丰富,学习曲线低,使得所述基于Kinect技术的电子宠物更具有AI,更加聪明。

因为涉及到跨语言开发,所以利用消息队列在两种语言中进行交互,目前我们采用著名的开源基金会Apache所开源的Kafka,它具有“解耦”、“冗余”、“扩展性”、“灵活性”、“峰值处理能力”、“可恢复性”等优秀的特性。是一个非常优秀的消息队列框架。

基于以上的优秀的开源框架可以使我们的宠物具有基本的人脸识别,手势识别,动作识别,具有学习性和基本AI。

以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。