以服务于中国广大创业者为己任,立志于做最好的创业网站。

标签云创业博客联系我们

导航菜单

苹果手机怎么一键录屏,苹果手机怎么录游戏视频

  

  #一、概述。   

  

  直播时分两步分享屏幕:屏幕数据采集流媒体数据推送.之前对于iOS,   

  

  一般来说,截屏需要系统的许可,这是受到iOS系统限制的。第三方应用没有权限直接录屏,必须通过系统的功能来实现。   

  

  本文将描述iOS系统中屏幕共享的应用、实现、限制和实现细节。(注:由于iOS,   

  

  10及以前的系统只支持app内录制屏幕,所以只做简单介绍,不做详细说明。)   

  

  # 2.申请。   

  

  屏幕共享最早出现在视频会议中,后来出现在一些直播游戏的大规模应用中。苹果早期并不支持屏幕共享,但随着直播的普及,苹果也根据用户需求支持屏幕共享。   

  

  ReplayKit库可以满足这种情况。   

  

  市场上屏幕共享的场景大致分类如下:   

  

  * I:远程操作画面:协助他人操作手机。比如年轻人帮助老年人远程设置,客服帮助客户解决软件故障或者使用帮助组,有效解决了语言表达效率低下的问题。   

  

  *二。游戏直播:知名游戏主播可以将自己手机上玩游戏的画面广播给其他人,还可以教授讲解游戏,让其他人更好地学习游戏技巧。   

  

  *三。视频会议。会议室会向他人展示手机的内容,如手机中的邮件内容、图片、文档等,方便与会者快速分享信息,提高沟通效率。   

  

  # 3.每个系统的屏幕共享。   

  

  在iOS系统上实现屏幕共享的技术主要在于系统不同版本的差异。下面将比较不同版本系统的实现方法和局限性。   

  

  首先,由于需要使用手机的摄像头、麦克风等硬件,无法在模拟器上调试使用。首先让我们了解一下目前各个版本的覆盖情况。   

  

  #系统覆盖范围。   

  

  根据苹果官网的数据,截至2021年6月,iOS系统各版本的份额大致如下图所示。可以看出,iOS13。   

  

  以下系统的用户覆盖率小于2%,而iOS14系统的覆盖率约为90%,iOS13系统的覆盖率约为8%。为了兼顾老版本,目前市面上的应用一般都兼容iOS。   

  

  9。   

  

     

  

  # iOS 8   

  

  在iOS8及以前的版本中,系统没有提供相应的功能,是通过破解系统的功能调用私有API来实现的。IOS8太旧了,它可以运行。   

  

  基本上系统设备不能支持直播功能,这里就不详细讨论了,有兴趣的可以研究一下。   

  

  # iOS 9系统。   

  

  苹果在iOS 9中引入了ReplayKit框架,提供了屏幕录制功能,但限制是只能在这个App中录制屏幕。录制后会生成一个视频文件,只能由录制。   

  

  RPPreviewViewController   

  

  对生成的文件进行预览和编译,录制时无法获取数据,最终录制后只能将整个mp4文件提供给开发者,所以实际上并不是真正的屏幕直播分享,实时性无法保证。   

  

  # iOS 10系统。   

  

  IOS 10苹果推出广播上传扩展和广播设置界面。   

  

  扩展,解决视频录制问题。   

  

  首先介绍App扩展,官方文档(扩展的官方文档)。该扩展适用于应用程序。   

  

  在某种程度上,它打破了沙盒的限制,为应用程序之间的通信提供了可能。扩展是一个独立的过程,有自己的生命周期。如下所示:   

  

     

  

  虽然iOS 10系统解决了之前系统的一系列弊端,但仍然无法解决只能记录当前app的屏幕内容,会限制部分应用的使用场景的问题。   

  

  # iOS 11系统。   

  

  在iOS 11正式直播的时代,为了满足市场需求,苹果提供了跨app录屏的功能,可以实现全屏录制的功能。同时重放2。   

  

  可以满足开发者的大部分需求,但对于用户来说,这个版本实现屏幕直播时,用户需要提前在手机设置中配置屏幕录制的访问控制权限,让屏幕录制按钮显示在系统的上拉管理菜单中,录制时上拉底部菜单调出快捷管理菜单,长按圆形按钮进行屏幕录制即可开始录制和直播。复杂的操作流程,让用户使用的门槛提高。所以在iOS上,   

  

  11屏幕共享功能也很轻薄。   

  

  # iOS12系统。   

  

  IOS 12在iOS11的基础上进行了优化,提供了r。   

PSystemBroadcastPickerView,解决了录制屏幕,用户无需在控制中心手动启动。

  

# 总结

  

结合上面iOS各个系统版本对屏幕录制的限制的分析,从版本稳定性和发布可靠性角度来说,我们应该从iOS12系统开始提供屏幕录制功能,而之前的系统版本不做兼容。如果只录制

  

app 页面进行直播,那么系统可兼容到iOS 9。

  

# 四. 屏幕共享注意事项

  

* 由于 iOS 手机屏幕分辨率较高,考虑到内存占用和传输效率,需要对采集图像和处理过程进行优化,一般限制分辨率在720P以内。

  

* Extension 子进程有50M内存限制,当在该线程内存超过50M会导致程序崩溃,就是由于这个限制,业界相似的处理方案都会限制其视频质量不超过720P,高端机型的视频针数保持在30之内,低端机型视频帧率保持在10之内。

  

* 子进程崩溃会导致页面一直弹提示框,用户只能重启手机来解决该问题。

  

* 子进程和 host app 通信,需要看传输的内容选择不同的形式:1、通过配置app group的方式共享文件或者UserDefault。2、进程间通知:CFNotificationCenter,一般开启关闭等可以通过通知实现。3、通过Socket传输,像屏幕分享这样的场景比较适合这么做。

  

# 五. anyRTC 屏幕共享实现

  

anyRTC 视频屏幕共享可有两种实现方式:

  

* 一种是在Extension 子进程中通过 Socket 传输发送屏幕共享视频数据到 host app 中,host app中以自采集Push的方式向 SDK 塞流,该方式只能传输一路视频流,要么屏幕共享要么摄像头的视频流。

  

* 一种是在Extension 子进程中初始化 SDK, 拉流设置为不订阅其他人的音频和视频,只做发送端。该方式实现了一个客户端可以发送自己的摄像头的视频流,也可以发送屏幕共享的流,只是以两个uid进入同一个频道的形式。

  

# 本地Socket传输到host app

  

思路参考:博客

  

大致的思路是:本地起一个socket,通过tcp的形式传输到host app,复杂的操作在host app 中进行,有效解决Extension

  

50M的限制问题。

  

# 子进程中直接使用SDK

  

思路:在Extension中直接使用 SDK ,只做发流,不接收流。同时也要注意Extension

  

50M的问题(1:应用限制横竖屏直播,要么横盘、要么竖屏,应用横竖屏切换容易导致内存突增。2:低性能机器限制视频的帧率(1~10帧))

  

# 1.初始化

  

设置频道属性为 直播模式 ,并设置为 主播角色 ,启用 视频模块

  

// 实例化 rtc 对象 rtcKit = [ARtcEngineKit sharedEngineWithAppId:appId delegate:self]; [rtcKit setChannelProfile:ARChannelProfileLiveBroadcasting]; [rtcKit setClientRole:ARClientRoleBroadcaster]; [rtcKit enableVideo];

  

# 2.设置屏幕共享的分辨率

  

* 由于子进程中有 50M 限制,为了系统的稳定性建议分辨率不要设置超过 720P

  

* 根据屏幕的宽高,跟分辨率做换算,计算出 最佳的分辨率输出

  

* 视频的帧率,如果在低端机型下,建议设置 5帧 ,高端机器不要超过 30帧

  

* 屏幕共享的清晰度,可以适当调整bitrate,建议不要超过1800

  

// 获取当前屏幕的最佳分辨率 CGSize screenSize = [[UIScreen mainScreen] currentMode].size; CGSize boundingSize = CGSizeMake(720, 1280); CGFloat mW = boundingSize.width / screenSize.width; CGFloat mH = boundingSize.height / screenSize.height; if( mH < mW ) { boundingSize.width = boundingSize.height / screenSize.height * screenSize.width; } else if( mW < mH ) { boundingSize.height = boundingSize.width / screenSize.width * screenSize.height; } // 视频编码配置 ARVideoEncoderConfiguration *config = [[ARVideoEncoderConfiguration alloc] init]; config.dimensions = boundingSize; config.bitrate = 1500; config.frameRate = 10; config.orientationMode = ARVideoOutputOrientationModeAdaptative; [rtcKit setVideoEncoderConfiguration:config];

  

# 3.设置使用外部音视频源

  

* 设置使用外部 视频源采集 ,打开后内部采集自动关停

  

* 设置使用外部 音频源采集 ,打开后内部音频采集自动关停

  

// 配置外部视频源 [rtcKit setExternalVideoSource:YES useTexture:YES pushMode:YES]; // 推送外部音频帧 [rtcKit enableExternalAudioSourceWithSampleRate:48000 channelsPerFrame:2];

  

# 4.禁止接收音视频

  

作为屏幕共享端只需要 发流 ,不需要 接收流

  

// 禁止接收所有音视频流 [rtcKit muteAllRemoteVideoStreams:YES]; [rtcKit muteAllRemoteAudioStreams:YES];

  

# 5.加入频道

  

* 获取 host app 中的用户Id,在进行一层组装,标记为某个人的辅流

  

* 获取 host app 中正在使用的频道Id,开始屏幕共享的时候以该用户的辅流的形式进入频道

  

// 获取 host app 中的用户Id,在进行一层组装,标记为某个人的辅流 NSString *uid = [NSString stringWithFormat:@"%@_sub",self.userId]; // 加入频道 [rtcKit joinChannelByToken:nil channelId:self.channelId uid:uid joinSuccess:^(NSString * _Nonnull channel, NSString * _Nonnull uid, NSInteger elapsed) { NSLog(@"joinSuccess"); }];

  

# 6.发流

  

* RPSampleBufferTypeVideo:获取视频数据,并使用外置塞流接口把视频数据发送出去

  

* RPSampleBufferTypeAudioApp:获取应用内的声音源,并使用外置塞流接口把音频数据发送出去

  

* RPSampleBufferTypeAudioMic:获取麦克风声音源,并使用外置塞流接口把音频数据发送出去

  

* 视频塞流,需要对视频数据进行组装,视频类型、时间戳、旋转角度等信息

  

- (void)processSampleBuffer:(CMSampleBufferRef)sampleBuffer withType:(RPSampleBufferType)sampleBufferType { switch (sampleBufferType) { case RPSampleBufferTypeVideo: { // 处理视频数据 CVPixelBufferRef pixelBuffer = CMSampleBufferGetImageBuffer(sampleBuffer); if (pixelBuffer) { CMTime timestamp = CMSampleBufferGetPresentationTimeStamp(sampleBuffer); ARVideoFrame *videoFrame = [[ARVideoFrame alloc] init]; videoFrame.format = 12; videoFrame.time = timestamp; videoFrame.textureBuf = pixelBuffer; videoFrame.rotation = [self getRotateByBuffer:sampleBuffer]; [rtcKit pushExternalVideoFrame:videoFrame]; } } break; case RPSampleBufferTypeAudioApp: // 处理音频数据,音频由App产生 [rtcKit pushExternalAudioFrameSampleBuffer:sampleBuffer type:ARAudioTypeApp]; break; case RPSampleBufferTypeAudioMic: // 处理音频数据,音频由麦克风产生 [rtcKit pushExternalAudioFrameSampleBuffer:sampleBuffer type:ARAudioTypeMic]; break; default: break; }}

  

经过上述步骤,便可实现屏幕共享功能。为了方便开发者更能快速上手,可以参考demo快速上手。

  

iOS 屏幕共享

  

Android 屏幕共享