全面的产品系列,满足您的设计需求
常见问题
我需要EVK才能起步吗?
评估工具包或事件视觉设备并不一定是您探索新一代机器视觉的必需品。您可以从 Metavision Studio开始,尝试与我们提供的数据集进行交互。
我能从传感器得到什么数据?
传感器将输出连续的数据流,包括:
- X和Y坐标,表示产生事件的像素在传感器阵列中的位置
- 极性,即被激活的事件是否对应于正(暗到亮)或负(亮到暗)的对比变化
- 时间戳“t”,以微秒分辨率精确编码事件产生的时间
如果您想了解更多信息,请查看我们关于基于事件的概念和事件流和解码的页面。
如何做到“无模糊”?
图像模糊主要是由于相机或被摄体在曝光过程中的运动造成的。当快门速度太慢或动作太快时,就会发生这种情况。
使用事件传感器,没有曝光,而是在检测到照明变化时由每个像素独立触发的连续“事件”流。因此没有模糊。
除了事件之外,我还可以获得图像吗?
您不能直接从事件传感器中获得图像,但出于可视化目的,您可以从事件生成帧。
要做到这一点,事件将在一段时间内(通常是帧周期,例如50 FPS的20ms)累积,因为在精确时间T(微秒精度)发生的事件数量可能非常少。
然后,可以首先用背景颜色初始化帧(例如白色),并且对于帧期间发生的每个事件,像素存储在帧中。
我可以用提供的软件许可证做什么?
该套件是在商业许可下提供的,允许您免费下载、使用、构建甚至出售自己的商业应用程序。点击此处阅读许可协议。
帧率是多少?
没有帧率,我们的Metavision传感器既不是全局快门也不是滚动快门,它实际上是无快门的。
这代表了一种新的机器视觉类别,该类别由专利传感器设计实现,该设计将每个像素嵌入智能处理,使它们能够在检测到变化时独立地激活自己。
事件一旦生成,就会像素为单位连续地发送到系统,而不再以固定的速度发送。
动态范围为何会这么高?
我们事件传感器的像素包含以对数尺度检测光照变化的光感受器。因此,它可以自动适应低光和高光强度,而不会像传统的基于帧的传感器那样使传感器饱和。
基于现有的图像数据集,我可以用它们来训练基于事件的模型吗?
是的,你可以利用我们的“视频到事件模拟器”。这是一个Python脚本,允许您将基于帧的图像或视频转换为基于事件的对应对象,然后您可以使用这些基于事件的文件来训练基于事件的模型。