![](/img/trans.png)
[英]How possibly can I use the frames generated from my webcam to be the input of my Keras model?
[英]How can I detect my robot from an overhead webcam image?
这是我的问题:
假设有一个机器人可以通过的课程,并且有一个可以看到整个场景的高架网络摄像头,并且该机器人可以用来导航。 现在的问题是,在此网络摄像头的图像上检测机器人(位置和方向)的最佳方法是什么? 我正在考虑一些解决方案,例如在其上放置发光二极管或两个单独的彩色圆圈,但是这些似乎并不是最好的方法。
有没有更好的解决方案,如果是的话,我真的很感谢它的一些opencv2 python代码示例,因为我是计算机视觉的新手。
我将执行以下操作,并且我很确定它会起作用:
我假设视频流(机器人附近)的背景是非常静态的,因此第一步是:1.背景扣除2.检测前景中的运动,这是您的机器人以及所有其他与背景模型不同的东西,您将在此处需要一些阈值3.连接组件检测以获取斑点4.识别与机器人相对应的斑点(最大?)5.现在您可以获得斑点的坐标6.如果可以,您可以计算标题通过多个帧跟踪您的斑点
您可以通过搜索关键字找到很好的例子
独特的颜色可用于颜色过滤和模板匹配等,但是上述方法更为通用。
声明:本站的技术帖子网页,遵循CC BY-SA 4.0协议,如果您需要转载,请注明本站网址或者原文地址。任何问题请咨询:yoyou2525@163.com.