测试人脸,经常发现切出来的图不对,没有人脸.哪里有问题?把原图,区域位置保存下来.一检查,这两个都对.那么,唯一不对的,只能是百度人脸识别了,把区域搞错了?
首先认为自己没问题,这是人之常情.然后吾进行了排查,确认自己没犯错.
那么百度会犯错?也不太可能.这也不是什么高技术含量.也可能是运动时模糊,导致计算错误,这可能性很小.
想了半天,吾怀疑是自己没有处理帧与结果的匹配.什么意思?猜测流程如下:
吾发了帧A.
发送帧B,返回帧A的结果.
吾没有区分,用A的结果来处理B.
这样来说,就很合理了.