流媒体视频中的人脸识别 returns 每秒一帧
Face rekognition in streaming video returns just one frame for each second
我正在尝试 运行 通过亚马逊 rekogntion 和 kinesis 服务在直播中进行人脸识别。我已经为输入视频配置了运动视频流,为识别配置了流处理器,为从流处理器获取结果配置了运动数据流。一切正常,但我在流中每秒只得到一帧。
我自动计算帧时间戳:
https://docs.aws.amazon.com/rekognition/latest/dg/streaming-video-kinesis-output.html
通过将 ProducerTimestamp
和 FrameOffsetInSeconds
字段值加在一起并获得具有 1 秒差异的时间戳。
例如:
1528993313.0310001
1528993314.0310001
1528993314.0310001
我使用来自 Java Producer SDK 的视频流演示应用程序
https://github.com/awslabs/amazon-kinesis-video-streams-producer-sdk-java.git
来自流处理器的数据总持续时间是正确的,等于视频文件的持续时间,但正如我所说,我每秒都在帧上。
在进一步研究后回答了我自己的问题。截至目前,Rekognition Streaming Video 具有限制,每秒只能分析一帧。
我正在尝试 运行 通过亚马逊 rekogntion 和 kinesis 服务在直播中进行人脸识别。我已经为输入视频配置了运动视频流,为识别配置了流处理器,为从流处理器获取结果配置了运动数据流。一切正常,但我在流中每秒只得到一帧。
我自动计算帧时间戳:
https://docs.aws.amazon.com/rekognition/latest/dg/streaming-video-kinesis-output.html
通过将 ProducerTimestamp
和 FrameOffsetInSeconds
字段值加在一起并获得具有 1 秒差异的时间戳。
例如:
1528993313.0310001
1528993314.0310001
1528993314.0310001
我使用来自 Java Producer SDK 的视频流演示应用程序 https://github.com/awslabs/amazon-kinesis-video-streams-producer-sdk-java.git
来自流处理器的数据总持续时间是正确的,等于视频文件的持续时间,但正如我所说,我每秒都在帧上。
在进一步研究后回答了我自己的问题。截至目前,Rekognition Streaming Video 具有限制,每秒只能分析一帧。