Raspberry Pi는 카메라 보드에서 비디오를 녹화 할 때 하드웨어 가속 h264 인코딩을 수행합니다. 소스 이미지가 카메라에서 직접 나오지 않을 때 어떻게 하드웨어 가속을 사용하여 h264를 인코딩 할 수 있습니까?
이를 지원하는 명령 줄 도구가 있습니까?
그렇지 않은 경우이를 가능하게하기 위해 어떤 API를 살펴 봐야합니까?
raspiyuv -o - | rpi-encode-yuv
(거의) rpi-encode-yuv
도구가 여기 있는 곳과 같습니다 . 이 도구에서는 프레임 크기가 하드 코딩되어 있으므로 C 파일의 시작 부분에서 프레임 크기를 변경하고 다시 컴파일해야합니다. 불행히도 raspiyuv
프레임 크기를 출력으로 인코딩하지 않는 것처럼 올바르게 정렬 된 출력을 얻지 못했습니다 . 나는 결국 쓰레기로 변하는 점차 변화하는 그림을 얻습니다. 여전히 노력하고 있습니다.