参考: 骨骼动画-换装 骨骼动画进阶 分享:Dragonbones/Spine的换肤操作 Laya 2.5.0 一 从DragonBones骨骼动画转成Laya可用骨骼动画 打开DragonBones软件,打开示例项目剑客-骨骼嵌套。 (DragonBones登录失败的话 ...
直入主题: 实验材料 两个模型,虽然缺胳膊少腿的,但是能用 条件 两个模型在制作时是基于同一套骨骼,导出模型部位时连着该部位的骨骼一起导出,这样导入到Unity的模型就带有SkinnedMeshRenderer组件。 目标及实现 目标:将右侧的衣服换给左侧的模型 代码: public SkinnedMeshRenderer HeroSMR 左侧模型衣服部位的SkinnedMeshRenderer ...
2016-11-10 16:51 0 5295 推荐指数:
参考: 骨骼动画-换装 骨骼动画进阶 分享:Dragonbones/Spine的换肤操作 Laya 2.5.0 一 从DragonBones骨骼动画转成Laya可用骨骼动画 打开DragonBones软件,打开示例项目剑客-骨骼嵌套。 (DragonBones登录失败的话 ...
因为之前正好看了CMU在CVPR2017上的论文《Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields》,而且他们提供了训练好的模型。所以就直接用CMU训练的模型在AI challenge的数据集上做了测试。最后 ...
前言 手势识别非常重要的一个特点是要体验要好,即需要以用户为核心。而手势的定位一般在手势识别过程的前面,在上一篇博文Kinect+OpenNI学习笔记之8(Robert Walter ...
项目介绍: 本科毕业选的深度学习的毕设,一开始只是学习了一下YOLOv3模型, 按照作者的指示在官网上下载下来权重,配好环境跑出来Demo,后来想着只是跑模型会不会太单薄,于是想了能不能做出来个比较实用的东西(因为模型优化做不了)。于是乎做一个可以检测人体的可操控移动小车的想法就诞生了。 实现 ...
模型效果: 在上文中,我们制作了数据集,并利用数据集进行了模型的训练,利用静态图片和视频对模型的检测效果进行了检验,发现效果还是不错的。 前两张为静态图片检测,后一张为视频检测效果截图。 但是模型要想部署在算力微弱的树莓派上,还需要进行两次模型转化才能运行在NCS上进 ...
上篇文章介绍了如何搭建深度学习环境,在Ubuntu18.04TLS上搭建起了 CUDA:9.0+cuDNN7.0+tensorflow-gpu 1.9 的训练环境。本篇文章将介绍如何制作自己的数据集,并训练模型。 本文训练数据集包括从VOC数据集中提取出6095张人体图片,以及使用 ...
前面几篇文章完成了训练端和部署端的环境搭建以及模型的训练,并经过两次模型转化最终将YOLOv3 TINY模型部署在了树莓派上。其实最核心的内容已经完成了,接下来就是一些应用层面的东西了。 树莓派控制马达: 1. 材料硬件: 1.树莓派3B+ 2.四个直流电机 3.一个小车底盘+四个车轮 ...
注:转载请注明转载,并附原链接 http://www.cnblogs.com/liaoguipeng/p/5867510.html 燕双飞情侣 一、动态换装原理 换装,无非就是对模型的网格,或者贴图进行针对性置换; 对于3D局部换装,我们可能需要单独换模型和贴图,也可能只需要单独置换 ...