在过去几年里,我做过的最有趣的项目之一是一个关于图像处理的项目。目标是开发一种能够识别可口可乐“罐”的系统(请注意,我强调的是“罐”这个词,你会在一分钟内看到原因)。您可以看到下面的一个示例,其中可以在绿色矩形中识别,带有缩放和旋转。

项目的一些限制:

背景可能非常嘈杂。罐可以有任何刻度或旋转,甚至可以有方向(在合理的范围内)。图像可能具有一定程度的模糊性(轮廓可能不完全笔直)。图像中可能有可口可乐瓶子,算法应该只检测到罐子!图像的亮度可能会有很大的变化(所以你不能“太依赖”颜色检测)。罐子可以部分隐藏在侧面或中间,也可能部分隐藏在瓶子后面。图像中可能根本就没有罐头,在这种情况下,你必须什么都找不到,然后写一条消息这样说。

所以你可能会遇到这样棘手的事情(在这种情况下,我的算法完全失败了):

我不久前做过这个项目,做得很开心,我有一个不错的实现。以下是关于我的实现的一些细节:

语言:使用OpenCV库在C++中完成。

预处理:对于图像预处理,即将图像转换为更原始的形式以提供给算法,我使用了两种方法:

将颜色域从RGB更改为HSV,并基于“红色”色调进行过滤,饱和度高于一定阈值以避免类似橙色的颜色,低值过滤以避免暗色调。最终的结果是一个黑白二值图像,其中所有的白色像素都将表示符合此阈值的像素。显然,图像中仍然有很多垃圾,但这减少了您必须处理的维度的数量。使用中值滤波(取所有邻居的中值像素值并用该值替换像素)进行噪声滤波,以减少噪声。使用Canny边缘检测滤波器在两个前一步骤后获得所有项目的轮廓。

算法:我为这项任务选择的算法本身取自这本关于特征提取的很棒的书,称为广义霍夫变换(与常规霍夫变换截然不同)。它基本上说了几件事:

你可以在不知道其解析方程的情况下描述空间中的物体(这里就是这种情况)。它可以抵抗图像变形,例如缩放和旋转,因为它基本上会测试图像的缩放因子和旋转因子的每一种组合。它使用算法将“学习”的基础模型(模板)。轮廓图像中剩余的每个像素将根据从模型中获得的信息,投票给另一个像素,该像素可能是对象的中心(按重力计算)。

最后,你会得到一张选票的热图,例如,在这里,罐子轮廓的所有像素都会投票给它的引力中心,所以你会在与中心相对应的同一个像素中获得很多选票,并且会在热图中看到一个峰值,如下所示:

一旦你做到了这一点,一个简单的基于阈值的启发式方法可以为你提供中心像素的位置,你可以从中导出缩放和旋转,然后围绕它绘制你的小矩形(最终的缩放和旋转因子显然是相对于你的原始模板的)。至少在理论上。。。

结果:现在,虽然这种方法在基本案例中有效,但在某些领域严重缺乏:

它非常慢!我没有充分强调这一点。几乎需要整整一天的时间来处理30张测试图像,显然是因为我的旋转和平移比例非常高,因为有些罐子非常小。当瓶子出现在图像中时,它完全丢失了,出于某种原因,几乎总是找到瓶子而不是罐子(可能是因为瓶子更大,因此像素更多,因此投票更多)模糊图像也不好,因为投票结果以像素形式出现在中心周围的随机位置,从而以非常嘈杂的热图结束。在平移和旋转方面实现了差异,但在方向上没有,这意味着没有直接面对摄像机目标的罐子无法被识别。

你能帮我改进我的特定算法吗,专门使用OpenCV特性,来解决上面提到的四个特定问题吗?

我希望有些人也能从中学到一些东西,毕竟我认为不仅仅是提问的人应该学习


当前回答

如果你不局限于一个不受你限制的相机,也许你可以改用像Xbox Kinect这样的距离传感器。使用此功能,您可以对图像执行基于深度和颜色的匹配分割。这允许更快地分离图像中的对象。然后,您可以使用ICP匹配或类似技术来匹配罐子的形状,而不仅仅是它的轮廓或颜色,如果它是圆柱形的,如果您之前对目标进行过3D扫描,这可能是任何方向的有效选项。这些技术通常很快,特别是用于解决速度问题的特定目的时。

我还建议,不一定是为了准确性或速度,而是为了好玩,你可以在色调分割图像上使用经过训练的神经网络来识别罐子的形状。这些速度非常快,通常可以达到80/90%的准确率。培训需要一个很长的过程,因为您必须手动识别每个图像中的罐。

其他回答

你需要一个从经验中学习和提高分类精度的程序。

我建议深度学习,随着深度学习,这将成为一个微不足道的问题。

您可以在Tensorflow上重新培训inception v3模型:

如何为新类别重新获取Inception的最终层。

在这种情况下,您将训练卷积神经网络来将对象分类为可口可乐罐或非可口可乐罐。

请看一下Zdenek Kalal的捕食者跟踪器。它需要一些训练,但它可以主动学习被跟踪对象在不同方向和尺度上的外观,并实时进行操作!

源代码可以在他的网站上找到。它在MATLAB中,但也许社区成员已经完成了一个Java实现。我已经成功地在C#中重新实现了TLD的跟踪器部分。如果我没记错的话,TLD使用费尔斯作为关键点检测器。我使用SURF或SIFT(@stacker已经建议)来重新获取被跟踪器丢失的对象。跟踪器的反馈可以很容易地随时间建立一个筛选/冲浪模板的动态列表,随着时间的推移,可以以非常高的精度重新获取对象。

如果你对我的跟踪器的C#实现感兴趣,欢迎提问。

我回答这个问题晚了几年。在过去的5年里,CNN将最先进的技术推向了极限,我现在不会使用OpenCV来完成这项任务了!(我知道你在这个问题中特别想要OpenCv功能)我觉得与OpenCv功能相比,更快的RCNN、YOLO、SSD等对象检测算法将以显著的优势解决这个问题。如果我现在(6年后)解决这个问题,我肯定会使用更快的RCNN。

有趣的问题:当我瞥了一眼你的瓶子图片时,我以为它也是一个罐子。但是,作为一个人,我所做的区别是,我注意到这也是一个瓶子。。。

那么,为了区分罐子和瓶子,先扫描瓶子怎么样?如果你找到了一个,在找罐头之前先把标签遮住。

如果你已经在做罐头,那么实施起来并不太困难。真正的缺点是它使处理时间加倍。(但考虑到现实世界中的应用程序,你最终还是会想做瓶子;-)

我会检测红色矩形:RGB->HSV,过滤红色->二值图像,关闭(展开然后侵蚀,在matlab中称为imclose)

然后从大到小看矩形。在已知位置/比例中具有较小矩形的矩形都可以删除(假设瓶子比例恒定,较小的矩形将是瓶盖)。

这会给你留下红色的矩形,然后你需要以某种方式检测标识,以确定它们是红色的矩形还是可乐罐。像OCR,但有一个已知的标志?