从本文开始逐渐学习iOS自带的多媒体处理框架,例如AVFoundation,VideoToolbox,CoreMedia,CoreVideo实现多媒体的处理,并且将实现方式以及效果和ffmpeg的方式做对比 本文的目的为实现将本地的多媒体文件(MP4,MP3,MOV等等)解封装 对应的ffmpeg实现方式参考:MP4/MP3解封装ffmpeg(十三)
解封装相关流程image.png
解封装相关对象及函数介绍-
1、AVURLAsset对象 AVAsset对象是一个抽象子类,是AVFoundation中对封装格式资源的封装,比如MP4容器,MKV容器,MP3容器等等。AVURLAsset对象则是它的一个具体子类 通常通过该子类来初始化一个AVAsset对象。容器的属性(如音视频时长,视频帧率,编解码格式等等)通过键值对的方式存储于AVAsset对象中;
-
2、loadValuesAsynchronouslyForKeys: 初始化AVURLAsset对象的资源可以是本地的MP4资源,也可以是远程的基于HTTP协议的MP4资源;访问AVURLAsset对象(这里假设为inputAsset)的属性有两种方式,同步和异步 a、直接调用属性名如下,inputAsset.tracks,inputAsset.duration等等是同步的方式,它的机制为:如果属性值未初始化,那么将阻塞当前线程去解封装容器的资源去 b、异步方式,通过loadValuesAsynchronouslyForKeys方法将对应的属性名传递进去异步获取,比如@[@"tracks",@"duration"]将异步获取这两个属性;该函数的作用和ffmpeg的avformat_open_input()函数功能一样;备注:inputAsset不能被释放,否则初始化会失败,回调函数不在主线程中
-
3、AVAssetReader对象 它作为从容器对象AVAsset对象读取音视频数据的管理器,需要音视频输出对象才能向外部输出数据
-
4、AVAssetTrack 对象 1、音视频流对象,它代表了容器中的某一路音视频流,跟ffmpeg中AVStream对象功能一样。 2、一个容器中可以包括一路视频流或者多路音频流或者多路字幕流 3、当AVAsset对象被初始化之后,音视频流对象就被初始化了
-
5、AVAssetReaderTrackOutput 对象 1、音视频输出对象,它是AVAssetReaderOutput对象的具体实现子类,外部通过该对象读取音视频数据 2、该对象负责配置输出音视频数据的格式等等参数 3、音视频输出对象要加入到音视频读取管理对象中才能从其中读取数据
-
6、assetReaderTrackOutputWithTrack:outputSettings: 此方法要说明下,当outputSettings:对应的参数为nil时当代表输出压缩的数据, 如果配置了outputSettings 则内部会自动调用gpu硬解码输出解压后的数据,解压后的数据格式为前面outputSettings中配置的;
头文件 AVDemuxer.h
#import
#import
@interface AVDemuxer : NSObject
@property(nonatomic,strong)AVAsset *asset;
@property(nonatomic,strong)AVAssetReader *assetReader;
@property(nonatomic,assign)BOOL autoDecode;
- (id)initWithURL:(NSURL*)localURL;
/** 实现解封装MP4文件,并且将其中的未压缩音视频数据读取出来
*/
- (void)startProcess;
- (void)stopProcess;
@end
autoDecode如果设置为YES,那么AVFoundation默认将自动将未压缩的音视频数据进行解码然后输出未压缩数据。默认为NO,代表输出的是压缩的音视频数据
实现文件
#import "AVDemuxer.h"
@interface AVDemuxer()
{
dispatch_semaphore_t decodeSemaphore;
}
@property(nonatomic,strong)NSURL *url;
@end
@implementation AVDemuxer
+ (void)testGeneric
{
// 代表了AVFoundation支持的媒体格式类型的全称
NSLog(@"types %@",[AVURLAsset audiovisualTypes]);
// 代表了AVFoundation支持的媒体格式类型的简称
NSLog(@"types %@",[AVURLAsset audiovisualMIMETypes]);
// 判断是否支持MOV格式;AVFoundation默认是支持MOV、MP4等容器格式的
NSLog(@"yes %d",[AVURLAsset isPlayableExtendedMIMEType:@"video/quicktime"]);
}
- (id)initWithURL:(NSURL*)localURL
{
if (!(self = [super init])) {
return nil;
}
self.url = localURL;
self.autoDecode = YES;
/** 遇到问题:AVDemuxer对象释放后程序崩溃
* 分析原因:当对象释放时GCD会检查信号量的值,如果其值小于等于信号量初始化时的值 会认为其处于in use状态,所以会对其dispose 时就会崩溃
* 解决方案:用如下代码替换之前dispatch_semaphore_create(1);的写法
*/
decodeSemaphore = dispatch_semaphore_create(0);
dispatch_semaphore_signal(decodeSemaphore);
return self;
}
- (void)startProcess
{
if (dispatch_semaphore_wait(decodeSemaphore, DISPATCH_TIME_NOW) != 0) {
return;
}
NSDictionary *inputOptions = @{
AVURLAssetPreferPreciseDurationAndTimingKey:@(YES)
};
/** AVAsset对象
* 1、它是一个抽象类,是AVFoundation中对封装格式资源的封装,比如MP4容器,MKV容器,MP3容器等等。AVURLAsset对象则是它的一个具体子类
* 通常通过该子类来初始化一个AVAsset对象。容器的属性(如音视频时长,视频帧率,编解码格式等等)通过键值对的方式存储于AVAsset对象中;
* 2、初始化AVURLAsset对象的资源可以是本地的MP4资源,也可以是远程的基于HTTP协议的MP4资源;访问AVURLAsset对象的属性有两种方式,同步和异步
* a、直接调用属性名如下,inputAsset.tracks,inputAsset.duration等等是同步的方式,它的机制为:如果属性值未初始化,那么将阻塞当前线程去解封装容器的资源去
* 初始化属性,当为远程资源时该过程会比较耗时。
* b、异步方式,通过loadValuesAsynchronouslyForKeys方法将对应的属性名传递进去异步获取,比如@[@"tracks",@"duration"]将异步获取这两个属性
*
* 后续的从容器中读取数据读取以及写入数据到容器中都需要依赖此对象
*/
NSLog(@"开始");
// 1、初始化AVAsset对象
self.asset = [[AVURLAsset alloc] initWithURL:self.url options:inputOptions];
// AVURLAsset *inputAsset = [[AVURLAsset alloc] initWithURL:[NSURL URLWithString:@"https://images.flypie.net/test_1280x720_3.mp4"] options:inputOptions];
NSLog(@"结束");
// 如果在这里直接调用如下属性,那么将采用同步方式初始化属性,会阻塞当前线程,一般本地资源是可以采用如下方式
// NSLog(@"duration %f",CMTimeGetSeconds(inputAsset.duration));
// NSLog(@"tracks %@",inputAsset.tracks);
__weak typeof(self) weakSelf = self;
// 2、解析容器格式,作用和ffmpeg的avformat_open_input()函数功能一样。初始化AVAsset对象通过此方式异步初始化属性;
// 备注:inputAsset不能被释放,否则初始化会失败,回调函数不在主线程中
CFAbsoluteTime startTime = CFAbsoluteTimeGetCurrent();
[self.asset loadValuesAsynchronouslyForKeys:@[@"tracks",@"duration"] completionHandler:^{
// NSLog(@"thread %@",[NSThread currentThread]);
NSError *error = nil;
AVKeyValueStatus status = [weakSelf.asset statusOfValueForKey:@"tracks" error:&error];
if (status != AVKeyValueStatusLoaded) {
NSLog(@"error %@",error);
return;
}
NSLog(@"aync duration %f",CMTimeGetSeconds(weakSelf.asset.duration));
NSLog(@"aync tracks %@",weakSelf.asset.tracks);
// 3、创建音视频读数据读取对象
[weakSelf processAsset];
NSLog(@"总耗时 %f秒",CFAbsoluteTimeGetCurrent() - startTime);
// 任务完毕
dispatch_semaphore_signal(self->decodeSemaphore);
NSLog(@"结束111");
}];
// 阻塞当前线程
dispatch_semaphore_wait(decodeSemaphore, DISPATCH_TIME_FOREVER);
NSLog(@"结束");
}
- (void)processAsset
{
self.assetReader = [self createAssetReader];
AVAssetReaderOutput *videoTrackout = nil;
AVAssetReaderOutput *audioTrackout = nil;
for (AVAssetReaderOutput *output in self.assetReader.outputs) {
if ([output.mediaType isEqualToString:AVMediaTypeVideo]) {
videoTrackout = output;
}
if ([output.mediaType isEqualToString:AVMediaTypeAudio]) {
audioTrackout = output;
}
}
// 开始读取;不会阻塞
if ([self.assetReader startReading] == NO) {
NSLog(@"start reading failer");
return;
}
// 通过读取状态来判断是否还有未读取完的音视频数据
CMSampleBufferRef videoSamplebuffer = NULL;
CMSampleBufferRef audioSamplebuffer = NULL;
BOOL videoFinish = NO;
BOOL audioFinish = NO;
int sum = 0;
while (self.assetReader.status == AVAssetReaderStatusReading && (!videoFinish || !audioFinish)) {
// 读取视频数据
if (videoTrackout != nil) {
videoSamplebuffer = [videoTrackout copyNextSampleBuffer];
if (videoSamplebuffer != NULL) {
CMTime pts = CMSampleBufferGetOutputPresentationTimeStamp(videoSamplebuffer);
CMTime dts = CMSampleBufferGetOutputDecodeTimeStamp(videoSamplebuffer);
CMTime duration = CMSampleBufferGetOutputDuration(videoSamplebuffer);
size_t size = CMSampleBufferGetSampleSize(videoSamplebuffer,0);
sum++;
// 对于未解压的数据,是可以获取到pts,dts,duration的,如果经过系统内部自动解码后,dts,duration可能会被丢失了
NSLog(@"video pts(%f),dts(%f),duration(%f) size(%ld) sum %d",CMTimeGetSeconds(pts),CMTimeGetSeconds(dts),CMTimeGetSeconds(duration),size,sum);
// 释放资源
CMSampleBufferInvalidate(videoSamplebuffer);
CFRelease(videoSamplebuffer);
} else {
videoFinish = YES;
}
} else {
videoFinish = YES;
}
// 读取音频数据
if (audioTrackout != nil) {
audioSamplebuffer = [audioTrackout copyNextSampleBuffer];
if (audioSamplebuffer != NULL) {
CMTime pts = CMSampleBufferGetOutputPresentationTimeStamp(audioSamplebuffer);
CMTime dts = CMSampleBufferGetOutputDecodeTimeStamp(audioSamplebuffer);
CMTime duration = CMSampleBufferGetOutputDuration(audioSamplebuffer);
// 对于未解压的数据,是可以获取到pts,dts,duration的,如果经过系统内部自动解码后,dts,duration可能会被丢失了
NSLog(@"audio pts(%f),dts(%f),duration(%f)",CMTimeGetSeconds(pts),CMTimeGetSeconds(dts),CMTimeGetSeconds(duration));
CMSampleBufferInvalidate(audioSamplebuffer);
CFRelease(audioSamplebuffer);
} else {
audioFinish = YES;
}
} else {
audioFinish = YES;
}
}
/** 遇到问题:
*/
if (self.assetReader.status == AVAssetReaderStatusCompleted) {
[self.assetReader cancelReading];
self.assetReader = nil;
}
}
- (AVAssetReader *)createAssetReader
{
NSError *error = nil;
/** AVAssetReader对象
* 它跟AVCaptureSession作用一样,作为从容器对象AVAsset对象读取数据的管理器,需要音视频输出对象
*/
AVAssetReader *assetReader = [AVAssetReader assetReaderWithAsset:self.asset error:&error];
NSMutableDictionary *videoOutputSettings = [NSMutableDictionary dictionary];
if ([AVDemuxer supportsFastTextureUpload]) {
[videoOutputSettings setObject:@(kCVPixelFormatType_420YpCbCr8BiPlanarFullRange) forKey:(__bridge NSString*)kCVPixelBufferPixelFormatTypeKey];
} else {
[videoOutputSettings setObject:@(kCVPixelFormatType_32BGRA) forKey:(__bridge NSString*)kCVPixelBufferPixelFormatTypeKey];
}
/** AVAssetTrack 对象
* 1、音视频流对象,它代表了容器中的某一路音视频流,跟ffmpeg中AVStream对象功能一样。
* 2、一个容器中可以包括一路视频流或者多路音频流或者多路字幕流
* 3、当AVAsset对象被初始化之后,音视频流对象就被初始化了,通过如下方式获取该对象
*/
AVAssetTrack *videoTrack = [[self.asset tracksWithMediaType:AVMediaTypeVideo] objectAtIndex:0];
/** AVAssetReaderTrackOutput 对象
* 1、音视频输出对象,它是AVAssetReaderOutput对象的具体实现子类,外部通过该对象读取音视频数据
* 2、该对象负责配置输出音视频数据的格式等等参数
* 3、音视频输出对象要加入到音视频读取管理对象中才能从其中读取数据
*/
// 添加视频输出对象;备注:当最后一个参数为nil时代表输出压缩的数据;
// 如果配置了outputSettings 则内部会自动调用gpu硬解码输出解压后的数据,解压后的数据格式为前面outputSettings中配置的;
if (!self.autoDecode) {
videoOutputSettings = nil;
}
AVAssetReaderTrackOutput *videoTrackOut = [AVAssetReaderTrackOutput assetReaderTrackOutputWithTrack:videoTrack outputSettings:videoOutputSettings];
videoTrackOut.alwaysCopiesSampleData = NO;
[assetReader addOutput:videoTrackOut];
// 添加音频输出对象
AVAssetTrack *audioTrack = [[self.asset tracksWithMediaType:AVMediaTypeAudio] objectAtIndex:0];
AVAssetReaderTrackOutput *audioTrackOutput = [AVAssetReaderTrackOutput assetReaderTrackOutputWithTrack:audioTrack outputSettings:nil];
audioTrackOutput.alwaysCopiesSampleData = NO;
[assetReader addOutput:audioTrackOutput];
return assetReader;
}
- (void)stopProcess
{
}
+ (BOOL)supportsFastTextureUpload
{
#if TARGET_IPHONE_SIMULATOR
return NO;
#endif
// IOS5 之后就支持了
return YES;
}
@end
遇到问题:
1、AVDemuxer对象释放后程序崩溃 分析原因:当对象释放时GCD会检查信号量的值,如果其值小于等于信号量初始化时的值 会认为其处于in use状态,所以会对其dispose 时就会崩溃 解决方案:用如下代码替换之前dispatch_semaphore_create(1);的写法 decodeSemaphore = dispatch_semaphore_create(0); dispatch_semaphore_signal(decodeSemaphore);