当前位置: 首页 > 科技观察

DIY穷版谷歌眼镜,自定义手势控制,树莓派又被开发出新玩法

时间:2023-03-13 01:22:47 科技观察

本文经AI新媒体量子位授权转载(公众号ID:QbitAI),转载请联系出处用于转载。用帅气的手势控制投射在眼前的电子影像,这不就是科幻片里的基本配置吗?现在,有人把它从科幻电影带到了现实。动动手指,实现对眼前世界的掌控。热衷于制作智能小工具的YouTube博主TeemuLaurila使用RaspberryPiDIY了一副可以识别自定义手势的AR眼镜。将你想要设置的手势输入设备,即可实现炫酷的操作。我有一个大胆的想法!自制AR眼镜中的世界开始表演!手指上下合拢,即可完成亮度调节命令。(这是你的第一人称视角)对于手势识别,叠加层显示在相机图像中。让我们换一个更直观的视角,通过眼镜看效果。AR眼镜的DIY过程科技感十足,让现实世界充满了赛博朋克的味道。最好再酷一点。只需打响指,即可执行命令。不需要广而告之吗?照做吧,首先您需要设计设备将包含哪些部件。硬件部分除了眼镜框主体外,还包括镜片组、0.6mmPETG投影镜片,配件采用聚乳酸材料3D打印而成。毕竟是智能设备的DIY,怎么能不请万能迷你电脑树莓派来玩呢。软件部分,手势识别程序依赖Python开源项目MediaPipe。此外,TeemuLaurila还编写了两个程序脚本。一种是通过手指捏合来控制亮度的应用实例,另一种是在实时视频中捕捉手势并将其发送到计算机进行处理,并叠加显示在智能眼镜上。条件都齐了,那就试试亲手组装吧。经过几番调整,最后各部分组合成下面的装置。要使程序在设备上可用,首先需要一个树莓派作为程序支持。然后设置内存、驱动、运行环境、多媒体接口、网络等条件,让整台设备都可以超频。硬件和软件环境准备就绪后,调试应用程序。应用功能的核心——手势识别模型由三个框架组成,包括手掌识别模型BlazePalm(用于识别手的整体框架和方向)、Landmark模型(用于识别三维手部节点)、手势识别模型(将识别节点分类为一系列手势)。在识别算法的训练过程中,BlazePalm模型识别手掌的初始位置,优化移动端的实时识别。在BlazePalm识别的手掌范围内,Landmark模型识别出21个三维节点的坐标。在此基础上,手势识别模型根据关节角度识别每个手指的状态,将状态映射到预定义的手势,预测基本静态手势。通过RaspberryPiZeroW采集手势信息,将图像信息传输到电脑,由手势识别AI进行处理。然后与设备通信,发出相应的手势命令,同步到投影图像中。等一下它的前世今生,它有摄像头,有微型投影仪,有电脑处理器,一面还是投影显示器。这样的AR眼镜好像在哪里见过。没错,连使用的手势识别代码都是谷歌开源的。虽然没有谷歌智能眼镜类似智能手机的功能,但相比其语音控制和触控功能,TeemuLaurila的智能眼镜选择使用自定义手势来触发指令,更有黑科技的味道。此外,GoogleGlass的摄像头仅用于拍照和录像,TeemuLaurila的摄像头还承担了接收手势指令和传达指令的功能。同时,投影还选择了更大的方形镜片,方便视野观察。这款设备已经是TeemuLaurila完成的第二版智能眼镜,在外观和性能上都进行了优化。在选材方面,采用了0.6mm厚度的投影镜头,而不是1mm的厚度;使用聚乳酸材料代替丙烯酸;增加了螺栓固定支架,并丢弃了胶水。最重要的优化是摄像头采用方形镜头,让画面更加清晰。TeemuLaurila在GitHub平台上分享了他添加的两段代码,供感兴趣的观众复现。参考链接:https://www.tomshardware.com/news/raspberry-pi-smart-glasses-recognize-hand-gestureshttps://www.youtube.com/watch?v=60Os5Iqdbswhttps://www.youtube.com/watch?v=Gu4oOYo38rQGitHub链接:https://github.com/Teneppa/CameraStreamhttps://github.com/Teneppa/HandTrackingBrightnessControl