`
xpp02
  • 浏览: 1014328 次
社区版块
存档分类
最新评论

FFMpeg的output_example.c例子分析

 
阅读更多

该例子讲了如何输出一个libavformat库所支持格式的媒体文件。 (1)av_register_all(),初始化libavcodec库,并注册所有的编解码器和格式。 (2)guess_format(),根据文件名来获取输出文件格式,默认为mpeg。 (3)av_alloc_format_context()分配输出媒体内容。   ov->oformat = fmt;   snprintf( oc->filename, sizeof(oc->filename), “%s”, filename ); (4)add_video_stream()使用默认格式的编解码器来增加一个视频流,并初始化编解码器。   (4.1)av_new_stream()增加一个新的流到一个媒体文件。   (4.2)初始化编解码器:     c = st->codec;     c->codec_id = codec_id;     c->codec_type = CODEC_TYPE_VIDEO;     c->bit_rate = 400000;     c->width = 352;     c->height = 288;     c->time_base.den = STREAM_FRAME_RATE; //每秒25副图像     c->time_base.num = 1;     c->gop_size = 12;     c->pix_fmt = STREAM_PIX_FMT; //默认格式为PIX_FMT_YUV420P     …… …… (5)av_set_parameters()设置输出参数,即使没有参数,该函数也必须被调用。 (6)dump_format()输出格式信息,用于调试。 (7)open_video()打开视频编解码器并分配必要的编码缓存。   (7.1)avcodec_find_encoder()寻找c->codec_id指定的视频编码器。   (7.2)avcodec_open()打开编码器。   (7.3)分配视频输出缓存:     video_outbuf_size = 200000;     video_outbuf = av_malloc( video_outbuf_size );   (7.4)picture = alloc_picture()分配原始图像。     (7.4.1)avcodec_alloc_frame()分配一个AVFrame并设置默认值。     (7.4.2)size = avpicture_get_size()计算对于给定的图片格式以及宽和高,所需占用多少内存。     (7.4.3)picture_buf = av_malloc( size )分配所需内存。     (7.4.4)avpicture_fill()填充AVPicture的域。   (7.5)可选。如果输出格式不是YUV420P,那么临时的YUV420P格式的图像也是需要的,由此再转换为我们所需的格式,因此需要为临时的YUV420P图像分配缓存:   tmp_picture = alloc_picture() 说明:tmp_picture,picture,video_outbuf。如果输出格式为YUV420P,则直接通过avcodec_ encode_video()函数将picture缓存中的原始图像编码保存到video_outbuf缓存中;如果输出格式不是YUV420P,则需要先通过sws_scale()函数,将YUV420P格式转换为目标格式,此时tmp_picture缓存存放的是YUV420P格式的图像,而picture缓存为转换为目标格式后保存的图像,进而再将picture缓存中的图像编码保存到video_outbuf缓存中。 (8)url_fopen()打开输出文件,如果需要的话。 (9)av_write_header()写流动头部。 (10)LOOP循环{     计算当前视频时间video_pts     是否超时退出循环?     write_video_frame()视频编码   }   (10.1)write_video_frame()     如果图片不是YUV420P,则需要用sws_scale()函数先进行格式转换。     若需要原始图像:       av_init_packet()初始化一个包的选项域。       av_write_frame()向输出媒体文件写一个包,该包会包含一个视频帧。     若需要编码图像:       avcodec_encode_video()编码一视频帧。       av_init_packet()       av_write_frame() (11)close_video()关闭每个编解码器。 (12)av_write_trailer()写流的尾部。 (13)释放资源   av_freep()释放AVFormatContext下的AVStream->AVCodecContext和AVStream:     for( i = 0; i < oc->nb_streams; i++ ){       av_freep( &oc->streams[i]->codec );       av_freep( &oc->streams[i] );     }   url_fclose()关闭输出文件。   av_free()释放AVFormatContext。 apiexample.c例子教我们如何去利用ffmpeg库中的api函数来自己编写编解码程序。 (1)首先,main函数中一开始会去调用avcodec_init()函数,该函数的作用是初始化libavcodec,而我们在使用avcodec库时,该函数必须被调用。   (2)avcodec_register_all()函数,注册所有的编解码器(codecs),解析器(parsers)以及码流过滤器(bitstream filters)。当然我们也可以使用个别的注册函数来注册我们所要支持的格式。   (3)video_encode_example()函数用于视频编码,由图可知,所有的编码工作都在该函数内完成。   (4)avcodec_find_encoder()函数用于查找一个与codec ID相匹配的已注册的编码器。   (5)avcodec_alloc_context()函数用于分配一个AVCodecContext并设置默认值,如果失败返回NULL,并可用av_free()进行释放。   (6)avcodec_alloc_frame()函数用于分配一个AVFrame并设置默认值,如果失败返回NULL,并可用av_free()进行释放。   (7)设置参数:     设置采样参数,即比特率。     c->bit_rate = 400000;     设置分辨率,必须是2的倍数。     c->width = 352;     c->height = 288;     设置帧率。     c->time_base = (AVRational){1,25}; 该帧率为25,其实timebase = 1/framerate,花括号内分别为分子和分母。     设置GOP大小。     c->gop_size = 10; 该值表示每10帧会插入一个I帧(intra frame)。     设置B帧最大数。     c->max_b_frames = 1; 该值表示在两个非B帧之间,所允许插入的B帧的最大帧数。     设置像素格式。     c->pix_fmt = PIX_FMT_YUV420P; 该值将像素格式设置为YUV420P。   (8)avcodec_open()函数用给定的AVCodec来初始化AVCodecContext。   (9)接着是打开文件,f = fopen( filename, “wb” ); (10)分配图像和输出缓存。     申请100KB左右的内存作为输出缓存。 outbuf_size = 100000;     outbuf = malloc( outbuf_size );     根据帧的大小来确定YUV420所占内存大小,一个像素,RGB格式占用3个字节,而YUV420格式只占用两个字节。YUV420格式是指,每个像素都保留一个Y(亮度)分量,而在水平方向上,不是每行都取U和V分量,而是一行只取U分量,则其接着一行就只取V分量,以此重复,所以420不是指没有V,而是指一行采样只取U,另一行采样只取V。在取U和V时,每两个Y之间取一个U或V。但从4x4矩阵列来看,每4个矩阵点Y区域中,只有一个U和V,所以它们的比值是4:1。所以对于一个像素,RGB需要8 * 3 = 24位,即占3个字节;而YUV420P,8 + 8/4 + 8/4 = 12位,即占2个字节,其中8指Y分量,8/4指U和V分量。     size = c->width * c->height;     picture_buf = malloc( (size * 3) / 2 );     picture->data[0] = picture_buf;     picture->data[1] = picture->data[0] + size;     picture->data[2] = picture->data[1] + size / 4;     picture->linesize[0] = c->width;     picture->linesize[1] = c->width / 2;     picture->linesize[2] = c->width / 2;     其中,data[0]存放Y,data[1]存放U,data[2]存放V【FixMe】。linesize[0]表示Y分量的宽度,linesize[1]表示U分量的宽度,linesize[2]表示V分量的宽度。   (11)编码一秒钟的视频,帧率为25,所以需要循环25次,每次编码一帧。   (11.1)准备一幅伪图像,即自己自定义往里面塞数据。     for(y=0;yheight;y++){ for(x=0;xwidth;x++){ picture->data[0][y*picture->linesize[0]+x]=x+y+i*3; } } for(y=0;yheight/2;y++){ for(x=0;xwidth/2;x++){ picture->data[1][y*picture->linesize[1]+x]=128+y+i*2; picture->data[2][y*picture->linesize[2]+x]=64+x+i*5; } }   (11.2)avcodec_encode_video()从picture中编码一帧视频数据,并存入到outbuf中,而期间所使用的编码器为c。   (11.3)将编码完的数据写入到文件里。   (12)对延时的帧数据进行编码。因为像MPEG4中,I帧、P帧和B帧之间存在一定的延时【FixMe】。同样是avcodec_encode_video(),然后写入文件。   (13)添加结束代码,使其成为一个真正的mpeg文件。     outbuf[0] = 0x00;     outbuf[1] = 0x00;     outbuf[2] = 0x01;     outbuf[3] = 0xb7;     fwrite( outbuf, 1, 4, f );   这个结束代码表示什么???   (14)释放资源。     fclose(f);     free(picture_buf);     free(outbuf);     avcodec_close(c);     av_free(c);     av_free(picture);

分享到:
评论

相关推荐

Global site tag (gtag.js) - Google Analytics