web-dev-qa-db-ja.com

FFmpeg libavformatでRTSPストリームを記録する

私はFFmpeg libavformatでAxisカメラからRTSPストリームを記録しようとしています。ファイルからビデオを取得して別のファイルに保存できます。これで問題ありません。しかし、カメラは奇妙なデータを送信し、FPSは100で、カメラは4フレームごとに送信するため、結果のFPSは約25です。しかし、libavformatは90000 fpsのパケットのdts/ptsを設定し(デフォルト?)、新しいファイルストリームは100fpsです。結果は、100フレームのみの1時間のビデオです。

これが私のコードです

#include <stdio.h>
#include <stdlib.h>
#include <libavcodec/avcodec.h>
#include <libavformat/avformat.h>
#include <libavformat/avio.h>


int main(int argc, char** argv) {

    AVFormatContext* context = avformat_alloc_context();
    int video_stream_index;

    av_register_all();
    avcodec_register_all();
    avformat_network_init();

    //open rtsp
    if(avformat_open_input(&context, "rtsp://195.200.199.8/mpeg4/media.amp",NULL,NULL) != 0){
        return EXIT_FAILURE;
    }

    if(avformat_find_stream_info(context,NULL) < 0){
        return EXIT_FAILURE;
    }

    //search video stream
    for(int i =0;i<context->nb_streams;i++){
        if(context->streams[i]->codec->codec_type == AVMEDIA_TYPE_VIDEO)
            video_stream_index = i;
    }

    AVPacket packet;
    av_init_packet(&packet);

    //open output file
    AVOutputFormat* fmt = av_guess_format(NULL,"test2.avi",NULL);
    AVFormatContext* oc = avformat_alloc_context();
    oc->oformat = fmt;
    avio_open2(&oc->pb, "test.avi", AVIO_FLAG_WRITE,NULL,NULL);

    AVStream* stream=NULL;
    int cnt = 0;
    //start reading packets from stream and write them to file

    av_read_play(context);//play RTSP
    while(av_read_frame(context,&packet)>=0 && cnt <100){//read 100 frames
        if(packet.stream_index == video_stream_index){//packet is video               
            if(stream == NULL){//create stream in file
                stream = avformat_new_stream(oc,context->streams[video_stream_index]->codec->codec);
                avcodec_copy_context(stream->codec,context->streams[video_stream_index]->codec);
                stream->sample_aspect_ratio = context->streams[video_stream_index]->codec->sample_aspect_ratio;
                avformat_write_header(oc,NULL);
            }
            packet.stream_index = stream->id;

            av_write_frame(oc,&packet);
            cnt++;
        }
        av_free_packet(&packet);
        av_init_packet(&packet);
    }
    av_read_pause(context);
    av_write_trailer(oc);
    avio_close(oc->pb);
    avformat_free_context(oc);

    return (EXIT_SUCCESS);
}

結果ファイルはこちら: http://dl.dropbox.com/u/1243577/test.avi

アドバイスをありがとう

16
chatoooo

これが私のやり方です。私が見つけたのは、H264を受信したときにストリームのフレームレートが正しくないことです。 1/90000タイムベースを送信します。着信ストリームからの新しいストリームの初期化をスキップし、特定のパラメーターをコピーします。 max_analyze_framesが正しく機能している場合、着信r_frame_rateは正確である必要があります。

#include <stdio.h>
#include <stdlib.h>
#include <libavcodec/avcodec.h>
#include <libavformat/avformat.h>
#include <libavformat/avio.h>
#include <sys/time.h>

time_t get_time()
{
  struct timeval tv;

  gettimeofday( &tv, NULL );

  return tv.tv_sec; 
} 

int main( int argc, char* argv[] )
{
  AVFormatContext *ifcx = NULL;
  AVInputFormat *ifmt;
  AVCodecContext *iccx;
  AVCodec *icodec;
  AVStream *ist;
  int i_index;
  time_t timenow, timestart;
  int got_key_frame = 0;

  AVFormatContext *ofcx;
  AVOutputFormat *ofmt;
  AVCodecContext *occx;
  AVCodec *ocodec;
  AVStream *ost;
  int o_index;

  AVPacket pkt;

  int ix;

  const char *sProg = argv[ 0 ];
  const char *sFileInput;
  const char *sFileOutput;
  int bRunTime;

  if ( argc != 4 ) {
    printf( "Usage: %s url outfile runtime\n", sProg );
    return EXIT_FAILURE;
  } 
  sFileInput = argv[ 1 ];
  sFileOutput = argv[ 2 ];
  bRunTime = atoi( argv[ 3 ] );

  // Initialize library
  av_log_set_level( AV_LOG_DEBUG );
  av_register_all();
  avcodec_register_all(); 
  avformat_network_init();

  //
  // Input
  //

  //open rtsp
  if ( avformat_open_input( &ifcx, sFileInput, NULL, NULL) != 0 ) {
    printf( "ERROR: Cannot open input file\n" );
    return EXIT_FAILURE;
  }

  if ( avformat_find_stream_info( ifcx, NULL ) < 0 ) {
    printf( "ERROR: Cannot find stream info\n" );
    avformat_close_input( &ifcx );
    return EXIT_FAILURE;
  }

  snprintf( ifcx->filename, sizeof( ifcx->filename ), "%s", sFileInput );

  //search video stream
  i_index = -1;
  for ( ix = 0; ix < ifcx->nb_streams; ix++ ) {
    iccx = ifcx->streams[ ix ]->codec;
    if ( iccx->codec_type == AVMEDIA_TYPE_VIDEO ) {
      ist = ifcx->streams[ ix ];
      i_index = ix;
      break;
    }
  }
  if ( i_index < 0 ) {
    printf( "ERROR: Cannot find input video stream\n" );
    avformat_close_input( &ifcx );
    return EXIT_FAILURE;
  }

  //
  // Output
  //

  //open output file
  ofmt = av_guess_format( NULL, sFileOutput, NULL );
  ofcx = avformat_alloc_context();
  ofcx->oformat = ofmt;
  avio_open2( &ofcx->pb, sFileOutput, AVIO_FLAG_WRITE, NULL, NULL );

  // Create output stream
  //ost = avformat_new_stream( ofcx, (AVCodec *) iccx->codec );
  ost = avformat_new_stream( ofcx, NULL );
  avcodec_copy_context( ost->codec, iccx );

  ost->sample_aspect_ratio.num = iccx->sample_aspect_ratio.num;
  ost->sample_aspect_ratio.den = iccx->sample_aspect_ratio.den;

  // Assume r_frame_rate is accurate
  ost->r_frame_rate = ist->r_frame_rate;
  ost->avg_frame_rate = ost->r_frame_rate;
  ost->time_base = av_inv_q( ost->r_frame_rate );
  ost->codec->time_base = ost->time_base;

  avformat_write_header( ofcx, NULL );

  snprintf( ofcx->filename, sizeof( ofcx->filename ), "%s", sFileOutput );

  //start reading packets from stream and write them to file

  av_dump_format( ifcx, 0, ifcx->filename, 0 );
  av_dump_format( ofcx, 0, ofcx->filename, 1 );

  timestart = timenow = get_time();

  ix = 0;
  //av_read_play(context);//play RTSP (Shouldn't need this since it defaults to playing on connect)
  av_init_packet( &pkt );
  while ( av_read_frame( ifcx, &pkt ) >= 0 && timenow - timestart <= bRunTime ) {
    if ( pkt.stream_index == i_index ) { //packet is video               
      // Make sure we start on a key frame
      if ( timestart == timenow && ! ( pkt.flags & AV_PKT_FLAG_KEY ) ) {
        timestart = timenow = get_time();
        continue;
      }
      got_key_frame = 1;

      pkt.stream_index = ost->id;

      pkt.pts = ix++;
      pkt.dts = pkt.pts;

      av_interleaved_write_frame( ofcx, &pkt );
    }
    av_free_packet( &pkt );
    av_init_packet( &pkt );

    timenow = get_time();
  }
  av_read_pause( ifcx );
  av_write_trailer( ofcx );
  avio_close( ofcx->pb );
  avformat_free_context( ofcx );

  avformat_network_deinit();

  return EXIT_SUCCESS;
}
6
Ryan Ayers

私はあなたがそのようなPTS値を単に増加させることになっているとは思いません。タイムベースが適切なまれなケースでは機能する可能性がありますが、一般的なケースでは機能しません。

これを変更する必要があります:

pkt.pts = ix++;
pkt.dts = pkt.pts;

これに:

pkt.pts = av_rescale_q(pkt.pts, ifcx->streams[0]->codec->time_base, ofcx->streams[0]->time_base);
pkt.dts = av_rescale_q(pkt.dts, ifcx->streams[0]->codec->time_base, ofcx->streams[0]->time_base);

これにより、パケットのPTS/DTSが、入力ストリームのコーデックで使用される単位から出力ストリームの単位に変換されます。

また、一部のストリームにはフレームごとに複数のティックがあるため、ビデオが2倍の速度で実行される場合は、上記の行のすぐ下にこれが必要になる場合があります。

pkt.pts *= ifcx->streams[0]->codec->ticks_per_frame;
pkt.dts *= ifcx->streams[0]->codec->ticks_per_frame;
3
Ph0t0n

現代のH.264エンコーダーでの私の経験では、ffmpegによって返される期間は「提案」に過ぎず、PTSに「ジッター」があることがわかりました。フレームレートまたは期間を決定する唯一の正確な方法は、PTS値を使用して自分で測定することです。

30fpsで実行されているH.264エンコーダーの場合、持続時間はalwaysとして3000/90000として報告されますが、測定された持続時間は通常+/- 1ですが、定期的にジャンプして3000 + 25 1フレームと3000-25が次のフレームになります。反対の偏差を持つ隣接フレームに気づき、合計時間を維持しながら2番目のフレームのPTSを調整することで、記録のためにこれを平滑化しています。

これにより、クロックドリフトを反映して、時々(計算された)継続時間が30001または2999のストリームが得られます。

29.97fpsストリームを記録するとき、av_read_frame()は常に3000の継続時間を返しますが、公称計算継続時間は3003(29.97に対して正しい)で、上記と同じジッターとドリフトです。

私の場合、タイミングをクリーンアップするためにステートマシンを構築しただけです。これが誰かを助けることを願っています。

1
Steve Sisak

最近同じことをしていた。送信されたカメラより2倍低いFPSでした。その理由は、AVstream-> codec-> ticks_per_frameフィールドにあり、2に設定されています。私のソースはプログレッシブで、インターリーブされている場合は、さらに2倍のFPSを与える2の要因の可能性があります。 90000 Hzは、RTSP経由で送信されるビデオストリームのデフォルトのタイムベースです。タイムベースはFPSとは解像度が異なります。たとえば、タイムベースが90000 Hzの場合、タイムスタンプ30000のフレームは1/3秒で表示されます。タイムベースは出力中にAVstream構造体に入れる必要がありますが、AVFormatContextは実際のFPS値を持つ必要があります。

0
Tosha