OpenVINO + OpenCV实现点头与摇头识别验证

gloomyfish
博客专家认证
2020-11-17 11:01:33
模型介绍
OpenVINO支持头部姿态评估模型,预训练模型为:head-pose-estimation-adas-0001,在三个维度方向实现头部动作识别,它们分别是:
pitch是俯仰角,是“点头“
yaw是偏航角,是‘摇头’
roll是旋转角,是“翻滚

它们的角度范围分别为:

YAW [-90,90], PITCH [-70,70], ROLL [-70,70]

这三个专业词汇其实是来自无人机与航空领域,计算机视觉科学家一大爱好就是搞新词,就把它们借用到头部姿态评估中,它们的意思图示如下:

对应到头部姿态评估中

输入格式:[1x3x60x60] BGR顺序
输出格式:
name: "angle_y_fc", shape: [1, 1] - Estimated
name: "angle_p_fc", shape: [1, 1] - Estimated pitch
name: "angle_r_fc", shape: [1, 1] - Estimated roll


代码演示

人脸检测
基于OpenVINO中MobileNetv2 SSD人脸检测模型,实现人脸检测,然后得到ROI区域,基于ROI实现头部姿态评估,完成头部动作识别,这里只会识别幅度超过正负20度以上的头部动作。实现模型加载与输入输出格式解析的代码如下:
ie = IECore()
for device in ie.available_devices:
print(device)

net = ie.read_network(model=model_xml, weights=model_bin)
input_blob = next(iter(net.input_info))
out_blob = next(iter(net.outputs))

n, c, h, w = net.input_info[input_blob].input_data.shape
print(n, c, h, w)

# cap = cv.VideoCapture("D:/images/video/Boogie_Up.mp4")
cap = cv.VideoCapture(0)
exec_net = ie.load_network(network=net, device_name="CPU")

head_net = ie.read_network(model=head_xml, weights=head_bin)
em_input_blob = next(iter(head_net.input_info))
head_it = iter(head_net.outputs)
head_out_blob1 = next(head_it) # angle_p_fc
head_out_blob2 = next(head_it) # angle_r_fc
head_out_blob3 = next(head_it) # angle_y_fc
print(head_out_blob1, head_out_blob2, head_out_blob3)

en, ec, eh, ew = head_net.input_info[em_input_blob].input_data.shape
print(en, ec, eh, ew)

em_exec_net = ie.load_network(network=head_net, device_name="CPU")


实现头部动作检测
解析模型的输出,对视频流实现人脸检测与头部动作识别的代码如下:

while True:
ret, frame = cap.read()
if ret is not True:
break
image = cv.resize(frame, (w, h))
image = image.transpose(2, 0, 1)
inf_start = time.time()
res = exec_net.infer(inputs={input_blob: [image]})
inf_end = time.time() - inf_start
# print("infer time(ms):%.3f"%(inf_end*1000))
ih, iw, ic = frame.shape
res = res[out_blob]
for obj in res[0][0]:
if obj[2] > 0.75:
xmin = int(obj[3] * iw)
ymin = int(obj[4] * ih)
xmax = int(obj[5] * iw)
ymax = int(obj[6] * ih)
if xmin < 0:
xmin = 0
if ymin < 0:
ymin = 0
if xmax >= iw:
xmax = iw - 1
if ymax >= ih:
ymax = ih - 1
roi = frame[ymin:ymax, xmin:xmax, :]
roi_img = cv.resize(roi, (ew, eh))
roi_img = roi_img.transpose(2, 0, 1)
head_res = em_exec_net.infer(inputs={em_input_blob: [roi_img]})
angle_p_fc = head_res[head_out_blob1][0][0]
angle_r_fc = head_res[head_out_blob2][0][0]
angle_y_fc = head_res[head_out_blob3][0][0]
head_pose = ""
if angle_p_fc > 20 or angle_p_fc < -20:
head_pose += "pitch, "
if angle_r_fc > 20 or angle_r_fc < -20:
head_pose += "roll, "
if angle_y_fc > 20 or angle_y_fc < -20:
head_pose += "yaw, "
cv.rectangle(frame, (xmin, ymin), (xmax, ymax), (0, 255, 255), 2, 8)
cv.putText(frame, head_pose, (xmin, ymin), cv.FONT_HERSHEY_SIMPLEX, 1.0, (255, 0, 255), 2, 8)

cv.putText(frame, "infer time(ms): %.3f, FPS: %.2f" % (inf_end * 1000, 1/inf_end), (50, 50),
cv.FONT_HERSHEY_SIMPLEX, 1.0, (255, 0, 255), 2, 8)
cv.imshow("Face+emotion Detection", frame)
c = cv.waitKey(1)
if c == 27:
break
cv.waitKey(0)
cv.destroyAllWindows()


运行结果如下:

这个建议感兴趣的可以尝试一下,把视频文件换成摄像头,基本上实时识别点头,摇头,转头等动作毫无压力,我自所以不用我自己的测试截图,主要把我自己长的太丑!另外速度实时!真的好用!

...全文
3563 1 打赏 收藏 转发到动态 举报
写回复
用AI写文章
1 条回复
切换为时间正序
请发表友善的回复…
发表回复
sinkinka 2020-11-17
  • 打赏
  • 举报
回复
这个有意思,可以用来实现我们厂里的应用场景

567

社区成员

发帖
与我相关
我的任务
社区描述
英特尔® 边缘计算,聚焦于边缘计算、AI、IoT等领域,为开发者提供丰富的开发资源、创新技术、解决方案与行业活动。
社区管理员
  • 英特尔技术社区
  • shere_lin
加入社区
  • 近7日
  • 近30日
  • 至今
社区公告
暂无公告

试试用AI创作助手写篇文章吧