[本文属原创,如有转载,请注明出处http://blog.csdn.net/yl02520/article/]

WebRTC是一个实时的视频通信功能,Android平台上的Chrome也提供了支持,在Chrome 29之后WebRTC功能趋于稳定,所以在之后的版本中默认被打开。也就是说不需要在”chrome://flags”中手动去打开该功能。

本节主要介绍一下Android平台上Chrome支持WebRTC硬件加速编解码的现状:

首先介绍一下WebRTC的视频传输的大致流程,摄像头在一端拍下图片,然后编码,通过RTP传输给另一端,另一端接收到图片后,解码,最后显示到屏幕上。该过程反复进行就实现了端对端的视频通信。

这里重点介绍一下编码和解码,Google实现的WebRTC只支持VP8编解码,不支持当今流行的H264(由于专利费用问题),VP8编码是Google开发的一种编码,已经开源了,开发者可以免费使用,更多信息可以参考http://www.webmproject.org/code/

在Android平台上WebRTC的视频编解码共有三种方案,即调用第三方编解码库(libvpx)和调用Android平台上的MediaCodec编解码,而MediaCodec编解码又可细分为两种,其一是MediaCodec的软件解码,其二是真正的GPU硬件加速编解码。MediaCodec采用软件或硬件编解码取决于平台GPU有没有实现VP8的编解码,如果平台支持,MediaCodec自然就会调用硬件去加速编解码,否则MediaCodec就会调用软件的编解码来完成。据写本文为止,只有三星的Nexus10支持VP8的硬件解码。至于VP8的硬件编码,目前还没有厂商支持,因为VP8的解码除了WebRTC需要之外,播放VP8编码的视频也可以受益,而VP8的硬件编码只有WebRTC有该需求,所以厂商在支持解码比编码的动力更强一些。在WebRTC实现的早期阶段(chrome 30之前),Android平台上都是采用第一种方式(调用libvpx)来完成编解码的。在chrome 31及其以后就会调用平台自带的MediaCodec完成编解码。

下面介绍一下这三种解码的效率如何:采用MediaCodec的硬件加速解码与libvpx相比,fps没有明显的变化保持在28左右,但是cpu的利用率可以减少一半,这样就可以解放CPU去执行其他的任务,UI响应会更及时,带来更好的用户体验。

更多相关文章

  1. 一、初识GVR ---- Android(安卓)VR视频/Google VR for Android(
  2. Android(安卓)源码 图形系统概述
  3. 【极光推送Jpush】Android集成极光推送及其基本使用
  4. 利用makefile的语法功能,查看Android中Android.mk里面的变量的值
  5. Android(安卓)App实现仅有横屏切换功能或仅有竖屏切换功能
  6. Android(安卓)简单实现倒计时功能
  7. webview的白屏,和硬件加速
  8. Android(安卓)studio禁用启动时自动更新SDK功能
  9. OpenERP Android(安卓)DEMO工程发布下载

随机推荐

  1. Android DEX 方法超过64K限制
  2. android--创建快捷方式和判断是否已经创
  3. Android ApiDemos示例解析(137):Views->L
  4. 高煥堂的四本Android开发新書(簡體完整版
  5. Android的内存优化相关记录
  6. ubuntu9.10安装android SDK
  7. Android中垃圾回收日志信息
  8. android获取手机型号和系统版本号
  9. 【Android】Android处理Home键方法小结
  10. Android常用方法——获取系统信息