ON THIS PAGE

  • 回放节点

回放节点

使用 rh.ColorReplayCamera 节点作为 dai.node.ColorCamera 节点的替代对象, 当您想要将视频文件或图像序列馈送到应用而不是实时相机输入时. 只需将其指向一个 mp4 file 或一个充满 .jpg images 的文件夹, 它就会处理其余的事情,将这些视频或图像直接传输到您的管道中.这对于使用预先录制的素材或快照开发, 测试或调整您的应用程序非常方便. . 此外, 如果您在OAK Hub上有运行了一个发送视频事件的应用程序, 您可以循环播放这些视频以优化, 调试或进一步测试您的应用程序.当前, 它支持 video, previewout 输出, 很好地涵盖了基础功能. 输出提供用于编码的 NV12 帧, video preview 提供适合神经网络输入的 BGR 或 RGB 帧, 并且 out 提供 RAW8 灰度图像, 就像你从 MonoCamera.out 获取的输出一样
Python
1rgb_sensor = rh.ColorReplayCamera(pipeline=pipeline, fps=rh.CONFIGURATION["fps"], src="video.mp4", run_in_loop=True)
2# when you have .jpg images stored in 'folder_with_jpg/' then you can
3rgb_sensor = rh.ColorReplayCamera(pipeline=pipeline, fps=rh.CONFIGURATION["fps"], src="folder_with_jpg/", run_in_loop=True)
4# create other pipeline nodes
5rgb_sensor.video.link(h264_encoder.input)
6rgb_sensor.preview.link(nn_node.input)
替换 MonoCamera 节点, 就像:
Python
1mono_sensor = rh.MonoReplayCamera(pipeline=pipeline, fps=rh.CONFIGURATION["fps"], src="video.mp4", run_in_loop=True)
2mono_sensor_brg = pipeline.createImageManip()
3mono_sensor_brg.setFrameType(dai.RawImgFrame.Type.BGR888p)
4mono_sensor.out.link(mono_sensor_brg.inputImage)
5# create other pipeline nodes
6mono_sensor.out.link(h264_encoder.input)
7mono_sensor_bgr.out.link(nn_node.input)