如何快速的开发一个完整的iOS直播app 如何快速的开发一个完整的iOS直播app
使用的工具:
README.md文件:
框架的描述文件。
编译语言。
程序在被执行之前,需要一个专门的编译过程,把程序编译成为机器语言的文件,运行时不需要翻译,所以编译型语言的程序执行效率高,比如OC,C,C++。
解释性语言
解释性语言的程序不需要编译,在运行程序的时候才翻译,每个语句都是执行的时候才翻译。
脚本语言。
属于解析语言,必须通过解释器解析,将其一条条的翻译成机器可识别的指令,并按程序顺序执行。
shell解释器
shell是一个命令行解释器,相当于windows的cmd,处于内核和用户之间,负责把用户的指令传递给内核并且把执行结果回显给用户。
bash
bash是一种shell解释器版本,shell有很多种版本,就像人,也分不同国家的人。
shell
指的是shell脚本语言,而不是shell解释器。
步骤:
下载ijkPlayer,打开Demo,查看用法,一般学习第三方库,都是先查看Demo。
找到ijkPlayerMediaDemo并运行。
打开终端,cd进入到ijkplayer-master的目录中。
输入./init-ios.sh,就会执行当前脚本了。
执行完脚本后,就会发现ijkplayer中有ffmpeg了。
打开 IJKMediaPlayer库,查看下源码,右击,发现FFMPEG中的库都是红的,表示不存在。
查看ijkplayer的README.md。
需要掌握的知识:
前期需求规划与信息——你需要制定出一个完整的需求文档,功能文档,流程图,时序图。
熟练掌握App发布的流程,真机调试技巧,证书,打包,上架。 App开发其实不一定适合一个人搞,太费劲,除非是一个单机版的小应用,或者利用现成的app开发简单的第三方应用,否则还是让一个团队来完成各自擅长的领域。
交互设计、UI设计——设计出基本且完善的原型图和app基础的交互设计效果,之后再根据这些设计出完整的UI界面并学会切图,一些需要做自适应的素材图片需要做点9patch。
1.创建AVCaptureSession对象
2.获取AVCaptureDevicel录像设备(摄像头),录音设备(麦克风),注意不具备输入数据功能,只是用来调节硬件设备的配置。
3.根据音频/视频硬件设备(AVCaptureDevice)创建音频/视频硬件输入数据对象(AVCaptureDeviceInput),专门管理数据输入。
4.创建视频输出数据管理对象(AVCaptureVideoDataOutput),并且设置样品缓存代理(setSampleBufferDelegate)就可以通过它拿到采集到的视频数据
5.创建音频输出数据管理对象(AVCaptureAudioDataOutput),并且设置样品缓存代理(setSampleBufferDelegate)就可以通过它拿到采集到的音频数据
6.将数据输入对象AVCaptureDeviceInput、数据输出对象AVCaptureOutput添加到媒体会话管理对象AVCaptureSession中,就会自动让音频输入与输出和视频输入与输出产生连接.
7.创建视频预览图层AVCaptureVideoPreviewLayer并指定媒体会话,添加图层到显示容器layer中
8.启动AVCaptureSession,只有开启,才会开始输入到输出数据流传输。
// 捕获音视频
- (void)setupCaputureVideo
{
// 1.创建捕获会话,必须要强引用,否则会被释放
AVCaptureSession *captureSession = [[AVCaptureSession alloc] init];
_captureSession = captureSession;
// 2.获取摄像头设备,默认是后置摄像头
AVCaptureDevice *videoDevice = [self getVideoDevice:AVCaptureDevicePositionFront];
// 3.获取声音设备
AVCaptureDevice *audioDevice = [AVCaptureDevice defaultDeviceWithMediaType:AVMediaTypeAudio];
// 4.创建对应视频设备输入对象
AVCaptureDeviceInput *videoDeviceInput = [AVCaptureDeviceInput deviceInputWithDevice:videoDevice error:nil];
_currentVideoDeviceInput = videoDeviceInput;
// 5.创建对应音频设备输入对象
AVCaptureDeviceInput *audioDeviceInput = [AVCaptureDeviceInput deviceInputWithDevice:audioDevice error:nil];
// 6.添加到会话中
// 注意“最好要判断是否能添加输入,会话不能添加空的
// 6.1 添加视频
if ([captureSession canAddInput:videoDeviceInput]) {
[captureSession addInput:videoDeviceInput];
}
// 6.2 添加音频
if ([captureSession canAddInput:audioDeviceInput]) {
[captureSession addInput:audioDeviceInput];
}
// 7.获取视频数据输出设备
AVCaptureVideoDataOutput *videoOutput = [[AVCaptureVideoDataOutput alloc] init];
// 7.1 设置代理,捕获视频样品数据
// 注意:队列必须是串行队列,才能获取到数据,而且不能为空
dispatch_queue_t videoQueue = dispatch_queue_create("Video Capture Queue", DISPATCH_QUEUE_SERIAL);
[videoOutput setSampleBufferDelegate:self queue:videoQueue];
if ([captureSession canAddOutput:videoOutput]) {
[captureSession addOutput:videoOutput];
}
// 8.获取音频数据输出设备
AVCaptureAudioDataOutput *audioOutput = [[AVCaptureAudioDataOutput alloc] init];
// 8.2 设置代理,捕获视频样品数据
// 注意:队列必须是串行队列,才能获取到数据,而且不能为空
dispatch_queue_t audioQueue = dispatch_queue_create("Audio Capture Queue", DISPATCH_QUEUE_SERIAL);
[audioOutput setSampleBufferDelegate:self queue:audioQueue];
if ([captureSession canAddOutput:audioOutput]) {
[captureSession addOutput:audioOutput];
}
// 9.获取视频输入与输出连接,用于分辨音视频数据
_videoConnection = [videoOutput connectionWithMediaType:AVMediaTypeVideo];
// 10.添加视频预览图层
AVCaptureVideoPreviewLayer *previedLayer = [AVCaptureVideoPreviewLayer layerWithSession:captureSession];
previedLayer.frame = [UIScreen mainScreen].bounds;
[self.view.layer insertSublayer:previedLayer atIndex:0];
_previedLayer = previedLayer;
// 11.启动会话
[captureSession startRunning];
}
// 指定摄像头方向获取摄像头
- (AVCaptureDevice *)getVideoDevice:(AVCaptureDevicePosition)position
{
NSArray *devices = [AVCaptureDevice devicesWithMediaType:AVMediaTypeVideo];
for (AVCaptureDevice *device in devices) {
if (device.position == position) {
return device;
}
}
return nil;
}
#pragma mark - AVCaptureVideoDataOutputSampleBufferDelegate
// 获取输入设备数据,有可能是音频有可能是视频
- (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection
{
if (_videoConnection == connection) {
NSLog(@"采集到视频数据");
} else {
NSLog(@"采集到音频数据");
}
}
视频采集额外功能一(切换摄像头)
切换摄像头步骤
1.获取当前视频设备输入对象
2.判断当前视频设备是前置还是后置
3.确定切换摄像头的方向
4.根据摄像头方向获取对应的摄像头设备
5.创建对应的摄像头输入对象
6.从会话中移除之前的视频输入对象
7.添加新的视频输入对象到会话中
// 切换摄像头
- (IBAction)toggleCapture:(id)sender {
// 获取当前设备方向
AVCaptureDevicePosition curPosition = _currentVideoDeviceInput.device.position;
// 获取需要改变的方向
AVCaptureDevicePosition togglePosition = curPosition == AVCaptureDevicePositionFront?AVCaptureDevicePositionBack:AVCaptureDevicePositionFront;
// 获取改变的摄像头设备
AVCaptureDevice *toggleDevice = [self getVideoDevice:togglePosition];
// 获取改变的摄像头输入设备
AVCaptureDeviceInput *toggleDeviceInput = [AVCaptureDeviceInput deviceInputWithDevice:toggleDevice error:nil];
// 移除之前摄像头输入设备
[_captureSession removeInput:_currentVideoDeviceInput];
// 添加新的摄像头输入设备
[_captureSession addInput:toggleDeviceInput];
// 记录当前摄像头输入设备
_currentVideoDeviceInput = toggleDeviceInput;
}
视频采集额外功能二(聚焦光标)
聚焦光标步骤
1.监听屏幕的点击
2.获取点击的点位置,转换为摄像头上的点,必须通过视频预览图层(AVCaptureVideoPreviewLayer)转
3.设置聚焦光标图片的位置,并做动画
4.设置摄像头设备聚焦模式和曝光模式(注意:这里设置一定要锁定配置lockForConfiguration,否则报错)
// 点击屏幕,出现聚焦视图
- (void)touchesBegan:(NSSet *)touches withEvent:(UIEvent *)event
{
// 获取点击位置
UITouch *touch = [touches anyObject];
CGPoint point = [touch locationInView:self.view];
// 把当前位置转换为摄像头点上的位置
CGPoint cameraPoint = [_previedLayer captureDevicePointOfInterestForPoint:point];
// 设置聚焦点光标位置
[self setFocusCursorWithPoint:point];
// 设置聚焦
[self focusWithMode:AVCaptureFocusModeAutoFocus exposureMode:AVCaptureExposureModeAutoExpose atPoint:cameraPoint];
}
/**
* 设置聚焦光标位置
*
* @param point 光标位置
*/
-(void)setFocusCursorWithPoint:(CGPoint)point{
self.focusCursorImageView.center=point;
self.focusCursorImageView.transform=CGAffineTransformMakeScale(1.5, 1.5);
self.focusCursorImageView.alpha=1.0;
[UIView animateWithDuration:1.0 animations:^{
self.focusCursorImageView.transform=CGAffineTransformIdentity;
} completion:^(BOOL finished) {
self.focusCursorImageView.alpha=0;
}];
}
/**
* 设置聚焦
*/
-(void)focusWithMode:(AVCaptureFocusMode)focusMode exposureMode:(AVCaptureExposureMode)exposureMode atPoint:(CGPoint)point{
AVCaptureDevice *captureDevice = _currentVideoDeviceInput.device;
// 锁定配置
[captureDevice lockForConfiguration:nil];
// 设置聚焦
if ([captureDevice isFocusModeSupported:AVCaptureFocusModeAutoFocus]) {
[captureDevice setFocusMode:AVCaptureFocusModeAutoFocus];
}
if ([captureDevice isFocusPointOfInterestSupported]) {
[captureDevice setFocusPointOfInterest:point];
}
// 设置曝光
if ([captureDevice isExposureModeSupported:AVCaptureExposureModeAutoExpose]) {
[captureDevice setExposureMode:AVCaptureExposureModeAutoExpose];
}
if ([captureDevice isExposurePointOfInterestSupported]) {
[captureDevice setExposurePointOfInterest:point];
}
// 解锁配置
[captureDevice unlockForConfiguration];
}
【直播短视频APP开发】
短视频APP主要功能:
1.发布视频
两种视频发布途径:本地视频、拍摄视频,拍摄视频可以设置多种滤镜,使拍摄出来的视频更加美观,当然视频分类也是不可缺少的选择,对视频进行统一归类
2.视频分类
音乐、搞笑、社会新闻、小品、相声、生活、影视、娱乐、游戏、原创、随手拍等,多种分类,满足不同用户,不同人群的需要
3.丰富的互动功能
神评论、转发、点赞、打赏、关注等
4.商城
某宝特价商品,抢购,组团等
5.积分兑换
每天签到,通过签到积分兑换商品等,保持用户活跃度
【教育直播APP开发】
一.教育直播APP开发设计发展前途浅谈。
1、课堂教学参与性强:
孩子们的教学方式不尽相同,而通常传统式的文化教育方法只适用一部分大学生,这都是为何大部分大学生客户考试成绩止步不前的缘故,而教育直播APP的课堂教学参与性强,老师教学特点不尽相同,客户彻底能够依照自身的学习培训要求挑选适合的老师。而一部分老师的教学课堂设计风格幽默搞笑,让小孩可以在趣味的气氛中充足学知识,促使小孩针对学习培训造成必须的激情。
2、宣传策划实际效果优良:
近些年教育直播类APP也刚开始导入一部分新科技原素,比如,VR文化教育等作用特性,吸引住客户免费下载APP。而这正巧表明了文化教育网络直播平台搞好了宣传策划营销推广工作中,而且有关APP还感受了优良的宣传策划营销推广实际效果。
二.教育直播APP开发设计有哪些方式种类?
1、1对1直播间文化教育:
教育直播APP大量是协助小孩提升学业成绩,而一对一教育直播间方法能让老师充足和大学生客户开展交流学习,而且老师也可以立即改正大学生不正确的教学方式及其协助大学生创建恰当的学习培训意识,对于小孩的学习培训特性1对1开展指导。
2、在线课程直播间文化教育:
这类教育直播方法大量的是应对众多大学生,客户根据选购课程培训,随后在特性时间进到文化教育课堂直播就能收看网上课程,大伙儿一块儿课程学习,而且老师还会在课后练习创建1个微信群,让相同课程内容的客户之中学习交流工作经验,共同奋斗。
教育直播APP开发设计大量的是以便协助小孩塑造学习培训喜好,终究学习培训是长期的事儿,要想在朝夕之间获得挺大的发展基础不大可能,因此长期性应用教育直播APP也许能让客户受益匪浅。
【直播APP开发】
网络直播app开发的主要功能
1、app开发视频直播功能,要能支持高清直播RTMP推流,使画面传输流畅、清晰。
2、app开发网络直播app开发聊天功能,用户之间的文字互动聊天。
3、高清网络直播app开发互动功能,用户与主播间的互动,点亮个灯,送一束花等互动栏目。
4、app开发直播支付和提现的功能,用户用现金购买礼物送给心仪的主播,主播收到礼物后可再兑换成现金取出来。
5、app开发视频直播高清回放功能,在直播的过程中同时录像,使得没看到直播的小粉丝也有机会再看。
6、app开发分享功能,用户可以将房间号分享到微信、QQ、微博等其他平台上,让更多的人关注到。