从视频中取帧 vs 拍照
Taking Frame from Video vs Taking a Photo
我的具体问题是:使用视频中的截取帧与拍照相比有什么缺点?
详情:
我想使用实时视频流中的帧来代替拍照,因为它更快。我已经研究和考虑过:
- 视频需要更快的快门速度,导致模糊的可能性更高
- 更快的快门速度也意味着更少的曝光,从而导致图像可能更暗
- 视频中截取的帧可能分辨率较低(尽管我们或许可以调高分辨率来弥补这一点?)
- 视频可能会占用更多内存 -- 我仍在与另一个人探讨细节 post (What is being stored and where when you use cv2.VideoCapture()?)
- 还有什么吗?
我将改写我的问题以使其(可能)更容易回答:我必须对 "snip frame from video" 过程进行哪些更改才能使结果等同于拍照?这些改变值得吗?
picamera 中静态照片的最大分辨率为 2592x1944,视频录制的最大分辨率为 1920x1080。其他需要考虑的问题是您无法从 VideoCapture 接收所有格式,因此现在将 YUV 帧转换为 JPG 将是您的责任。好的,OpenCV 可以处理这个,但是它需要相当多的 CPU 时间和内存。
我的具体问题是:使用视频中的截取帧与拍照相比有什么缺点?
详情: 我想使用实时视频流中的帧来代替拍照,因为它更快。我已经研究和考虑过:
- 视频需要更快的快门速度,导致模糊的可能性更高
- 更快的快门速度也意味着更少的曝光,从而导致图像可能更暗
- 视频中截取的帧可能分辨率较低(尽管我们或许可以调高分辨率来弥补这一点?)
- 视频可能会占用更多内存 -- 我仍在与另一个人探讨细节 post (What is being stored and where when you use cv2.VideoCapture()?)
- 还有什么吗?
我将改写我的问题以使其(可能)更容易回答:我必须对 "snip frame from video" 过程进行哪些更改才能使结果等同于拍照?这些改变值得吗?
picamera 中静态照片的最大分辨率为 2592x1944,视频录制的最大分辨率为 1920x1080。其他需要考虑的问题是您无法从 VideoCapture 接收所有格式,因此现在将 YUV 帧转换为 JPG 将是您的责任。好的,OpenCV 可以处理这个,但是它需要相当多的 CPU 时间和内存。