感谢DigiKey和EEWORLD论坛,这是一款离线边缘AI产品,可以识别手势和人脸数量
一、开箱
开箱照:
主板硬件
主板上有一颗来自安徽聆思智能科技的AI SoC 型号CSK6011A。主打图像与视觉场景适配,凭借强劲的 AI 算力和丰富的硬件接口,可以实现极致离线的AI应用。三核异构,主频高达300MHz,拥有独立NPU,依托 CNN 卷积神经网络算法,可支持人脸识别、物体分类、坐姿检测、头肩检测等功能,搭配聆思的模型训练推理工具 LNN,还能自定义算法,并将模型部署到芯片上,灵活扩展 AI 能力。
还有来自华邦电子的W25Q128JVPQ,为CSK6011A提供128Mbit的Flash空间。
以及一颗RS2227XN,用于切换UART/I2C输出。
代码片段介绍
快速测试传感器效果,可以使用arduino IDE ,按照正确接线方式连接好串口后,安装库 “DFRobot_GestureFaceDetection.h”。
然后输入以下代码:
#include “DFRobot_GestureFaceDetection.h”
#define DEVICE_ID 0x72
DFRobot_GestureFaceDetection_I2C gfd(DEVICE_ID);char str[100];
void setup(){
gfd.begin(&Wire);
Serial.begin(115200);
gfd.setFaceDetectThres(60);
gfd.setGestureDetectThres(60);
gfd.setDetectThres(100);}
void loop(){
if(gfd.getFaceNumber() > 0){
uint16_t faceScore = gfd.getFaceScore();
uint16_t faceX = gfd.getFaceLocationX();
uint16_t faceY = gfd.getFaceLocationY();
sprintf(str, “detect face at (x = %d, y = %d, score = %d)\n”, faceX, faceY, faceScore);
Serial.print(str);
uint16_t gestureType = gfd.getGestureType();
uint16_t gestureScore = gfd.getGestureScore();
sprintf(str, “detect gesture %d, score = %d\n”, gestureType, gestureScore);
Serial.print(str);
}
delay(1500);}
这样就可以实现读取手势传感器输出,,输出如下:
detect face at (x = 291, y = 330, score = 74)
detect gesture 2, score = 91
四、效果演示
五、总结
作为一个离线边缘 AI 手势与面部检测传感器,虽然我们无法对其内部代码进行修改,但是,其搭载 CSK6011A 的 SEN0626 让我眼前一新。它最大的亮点在于纯离线运行,无需依赖云端算力,既规避了网络延迟与断连风险,又杜绝了隐私数据外发的安全隐患,仅靠本地 NPU 即可完成检测任务。它没有走传统传感器 “仅采集数据、依赖上位机运算” 的老路,而是凭借 CSK6011A 的三核异构架构,把 AI 推理能力直接 “搬进” 了传感器本体,真正实现了 “采集 - 运算 - 输出结果” 的端侧闭环。


