谷歌AI实验室再现新成果:将开源基于机器学习的手部跟踪算法( 二 )

今年6月,谷歌在计算机视觉和模式识别大会上预览了这项新技术,除此之外也在MediaPipe中实施了这项技术,MediaPipe是一个跨平台框架,其用于构建多模式应用机器学习流程,以处理不同模态(如视频和音频)的感知数据。

据了解,其源代码和端到端使用场景都可以在GitHub上获得。

据悉,谷歌的这项新技术使用了一些巧妙的快捷方式,通过提高机器学习系统的整体效率,在现当下仅需要一部智能手机和一台相机,就可以实时生成一张高度精确的手及其所有手指的地图。

据其内部人员透露:“目前最先进的推理方法,主要依赖于强大的桌面环境,而我们的方法可以在手机上实现实时性能,甚至可以扩展到多个手。”

同时研究工程师Valentin Bazarevsky和Fan Zhang在博客中表示:“感知手的形状和运动的能力是改善各种技术领域及平台用户体验的重要组成部分——我们也希望向更广泛的研究和开发社区提供这种手势感知功能,这可能将会刺激创新性案例的出现、新的应用和新的研究途径的出现。”

研究这项突破并非易事,因为这项强健的实时手部感知技术,在研究上着实是困难重重。

推荐阅读