3. Startup and expected operation sequence

这段描述了使用camera API的详细步骤。其中涉及到的结构体和函数请参考文件:platform/hardware/libhardware/include/hardware/camera3.h

1.Framework层调用函数camera_module_t->common.open(),将返回一个hardware_device_t类型的结构体。

2.Framework层检查字段hardware_device_t->version,根据版本信息,实例化一个适合这个版本的camera硬件设备的句柄。例如版本号是CAMERA_DEVICE_API_VERSION_3_0,则这个设备将被转化为camera3_device_t

3.Framework层调用函数camera3_device_t->ops->initialize(),并传递了framework层的回调函数指针。这个函数只能被调用一次,且在调用函数open()之后,在其他函数被调用之前。

4.Framework层调用函数camera3_device_t->ops->configure_streams(),向这个HAL层设备传递了输入输出的流信息。

5.Framework层分配grallocbuffer;调用函数camera3_device_t->ops->register_stream_buffers(),至少使用一个configure_streams中列举的输出流。同一个流只能被注册一次。

6.Framework层通过调用camera3_device_t->ops->construct_default_request_settings()获取用例的默认设置。这个在第三步之后任意地方进行调用。

7.Framework层使用默认设置集合中某一套设置,且保证之前注册了至少一个输出流,创建并向HAL层发第一个捕获请求。这个请求将通过调用函数camera3_device_t->ops->process_capture_request()发送到HAL层。HAL必须阻止函数返回,直到HAL准备好接收下一个请求。

8.Framework层连续地提交请求。可能会调用函数register_stream_buffers()来注册没有注册过的流,调用函数construct_default_request_settings获取其他用例所需的默认设置。

9.当一个请求的捕获开始时(sensor开始曝光),HAL层将调用函数camera3_callback_ops_t->notify()通知上层SHUTTER事件,其中包括sensor开始曝光的帧号和时间戳。调用函数process_capture_result()处理这个帧号对应的数据之前,HAL层必须发出SHUTTER通知。

10.流水线持续一些时间后,HAL层开始使用函数camera3_callback_ops_t->process_capture_result()framework层返回处理完的图像数据。返回结果的次序与提交请求的次序完全一致。多个请求可以被一次提交,但这取决于camera HAL层设备的流水线深度。

11.工作一段时间之后,framework层可能会停止提交新的请求,等待其他请求被完成(所有buffer被填充,所有结果被返回),然后再次调用函数configure_streams()。这是为一组新的输入输出流重启camera硬件和流水线。前面配置的一些流可能会被重复使用;如果流的buffer已经注册到了HAL层,它们将不再被注册。如果有一个被注册的输出流还存在,则framework层将从第七步重新开始(否则,将从第五步开始)。

12.Framework层将调用函数camera3_device_t->common->close()结束camera会话。当framework层没有其他调用时,可以在任何时间调用这个函数,尽管这个调用会阻塞,直到所有正在处理的捕获被完成(所有结果被返回,所有buffer被填充)。函数close()返回之后,不允许HAL调用camera3_callback_ops_t的任何函数。一旦函数close()被调用,framework层将不能调用其他任何HAL层设备函数。

13.如果发生错误或者其他异步事件,HAL层必须调用函数camera3_callback_ops_t->notify()告知上层对应的错误或者事件信息。一个与设备相关的致命错误被通知上层后,HAL应该像被调用了函数close()一样。但是,在调用函数notify()之前,HAL必须取消或者完成所有未结束的数据捕获操作,以便致命错误被上报之后,framework不会收到设备的任何回调函数。除了函数close(),致命错误信息发出后,其他函数只能返回-ENODEV或者NULL

Figure4. Camera operational flow

4. Operational modes

Camera HALv3版本的设备实现两种可能的操作模式之一:limited模式和full模式。新的高端设备预计会支持full模式。Limited模式与camera HALv1版本一样,对硬件需求很低,用于旧的或者低价设备。Full模式是limited模式的超集,如上面所述,它们有着基本上一样的操作流程。

Camera HAL层必须使用静态元数据android.info.supportedHardwareLevel指明其所支持的模式。0表示支持limited模式,1表示支持full模式。

简单来讲,limited模式设备不允许应用程序控制捕获数据信息的设置(3A控制除外),大分辨率图像的高帧率捕获,raw数据的获取,或者上面所说的最大视频分辨率的YUV输出流(对于大图像只支持JPEG)。
Limited
模式行为的细节如下:

·Limited模式的设备不需要实现请求配置与实际捕获图像数据的完全匹配。相反,将来有时改变配置将更高效,可能也不需要一个配置必须对应一个同样的输出帧。快速改变配置可能会使得某些配置从来没有被使用过。但是,有高分辨率(大于1080P)输出buffer的捕获必须使用指定的配置(处理速度的描述如下)。

·limited模式下,有高分辨率(大于1080P)输出buffer的捕获在函数process_capture_request()中会阻塞,直到所有输出buffer都被填充。Full模式HAL层设备必须按照静态元数据中指定的速率,处理相应像素格式的高分辨率请求的序列。HAL层调用函数process_capture_result()产生输出结果;framework层需要为函数process_capture_request()做好准备,然后阻塞,直到limited模式设备的高分辨率捕获请求被函数process_capture_result()执行完毕。

·Limited设备不需要支持大多数的配置、结果、静态信息。只有下面的配置期待被limited模式HAL层设备所支持:

oandroid.control.aeAntibandingMode(controls)

oandroid.control.aeExposureCompensation(controls)

oandroid.control.aeLock(controls)

oandroid.control.aeMode(controls)

o[OFF meansON_FLASH_TORCH]

oandroid.control.aeRegions(controls)

oandroid.control.aeTargetFpsRange(controls)

oandroid.control.afMode(controls)

o[OFF means infinityfocus]

oandroid.control.afRegions(controls)

oandroid.control.awbLock(controls)

oandroid.control.awbMode(controls)

o[OFF not supported]

oandroid.control.awbRegions(controls)

oandroid.control.captureIntent(controls)

oandroid.control.effectMode(controls)

oandroid.control.mode(controls)

o[OFF not supported]

oandroid.control.sceneMode(controls)

oandroid.control.videoStabilizationMode(controls)

oandroid.control.aeAvailableAntibandingModes(static)

oandroid.control.aeAvailableModes(static)

oandroid.control.aeAvailableTargetFpsRanges(static)

oandroid.control.aeCompensationRange(static)

oandroid.control.aeCompensationStep(static)

oandroid.control.afAvailableModes(static)

oandroid.control.availableEffects(static)

oandroid.control.availableSceneModes(static)

oandroid.control.availableVideoStabilizationModes(static)

oandroid.control.awbAvailableModes(static)

oandroid.control.maxRegions(static)

oandroid.control.sceneModeOverrides(static)

oandroid.control.aeRegions(dynamic)

oandroid.control.aeState(dynamic)

oandroid.control.afMode(dynamic)

oandroid.control.afRegions(dynamic)

oandroid.control.afState(dynamic)

oandroid.control.awbMode(dynamic)

oandroid.control.awbRegions(dynamic)

oandroid.control.awbState(dynamic)

oandroid.control.mode(dynamic)

oandroid.flash.info.available(static)

oandroid.info.supportedHardwareLevel(static)

oandroid.jpeg.gpsCoordinates(controls)

oandroid.jpeg.gpsProcessingMethod(controls)

oandroid.jpeg.gpsTimestamp(controls)

oandroid.jpeg.orientation(controls)

oandroid.jpeg.quality(controls)

oandroid.jpeg.thumbnailQuality(controls)

oandroid.jpeg.thumbnailSize(controls)

oandroid.jpeg.availableThumbnailSizes(static)

oandroid.jpeg.maxSize(static)

oandroid.jpeg.gpsCoordinates(dynamic)

oandroid.jpeg.gpsProcessingMethod(dynamic)

oandroid.jpeg.gpsTimestamp(dynamic)

oandroid.jpeg.orientation(dynamic)

oandroid.jpeg.quality(dynamic)

oandroid.jpeg.size(dynamic)

oandroid.jpeg.thumbnailQuality(dynamic)

oandroid.jpeg.thumbnailSize(dynamic)

oandroid.lens.info.minimumFocusDistance(static)

oandroid.request.id(controls)

oandroid.request.id(dynamic)

oandroid.scaler.cropRegion(controls)

o[ignores (x,y),assumes center-zoom]

oandroid.scaler.availableFormats(static)

o[RAW not supported]

oandroid.scaler.availableJpegMinDurations(static)

oandroid.scaler.availableJpegSizes(static)

oandroid.scaler.availableMaxDigitalZoom(static)

oandroid.scaler.availableProcessedMinDurations(static)

oandroid.scaler.availableProcessedSizes(static)

o[full resolution notsupported]

oandroid.scaler.maxDigitalZoom(static)

oandroid.scaler.cropRegion(dynamic)

oandroid.sensor.orientation(static)

oandroid.sensor.timestamp(dynamic)

oandroid.statistics.faceDetectMode(controls)

oandroid.statistics.info.availableFaceDetectModes(static)

oandroid.statistics.faceDetectMode(dynamic)

oandroid.statistics.faceIds(dynamic)

oandroid.statistics.faceLandmarks(dynamic)

oandroid.statistics.faceRectangles(dynamic)

oandroid.statistics.faceScores(dynamic)

5.Interaction between the application capturerequest, 3A control, and the processing pipeline

根据3A控制模块的配置,camera流水线会忽略应用程序请求中的一些参数,而使用3A控制模块提供的值代替。例如,当自动曝光开启时,曝光时间,帧率,sensor的敏感参数都由3A算法控制,应用程序提供的值全被忽略。3A事务为帧所设置的参数值必须包含在输出的元数据中。下面的表格描述了3A模块的不同模式和被这些模式所控制的属性。属性的定义见文件platform/system/media/camera/docs/docs.html

Parameter State Properties controlled
android.control.aeMode OFF None
ON android.sensor.exposureTime android.sensor.frameDuration android.sensor.sensitivity android.lens.aperture (if supported) android.lens.filterDensity (if supported)
ON_AUTO_FLASH Everything is ON, plus android.flash.firingPower, android.flash.firingTime, and android.flash.mode
ON_ALWAYS_FLASH Same as ON_AUTO_FLASH
ON_AUTO_FLASH_RED_EYE Same as ON_AUTO_FLASH
android.control.awbMode OFF None
WHITE_BALANCE_* android.colorCorrection.transform. Platform-specific adjustments if android.colorCorrection.mode is FAST or HIGH_QUALITY.
android.control.afMode OFF None
FOCUS_MODE_* android.lens.focusDistance
android.control.videoStabilization OFF None
ON Can adjust android.scaler.cropRegion to implement video stabilization
android.control.mode OFF AE, AWB, and AF are disabled
AUTO Individual AE, AWB, and AF settings are used
SCENE_MODE_* Can override all parameters listed above. Individual 3A controls are disabled.

所列的3A算法的控制大部分都是与旧的API参数一一匹配(例如曝光补偿,场景模式,或者白平衡模式)。

2中的图像处理模块的控制都是基于一个相似的原则,通常每个模块有三中模式:

·OFF:这个处理模块不使能。去马赛克,颜色校正和tone曲线调整模块必须使能。

·FAST:在这种模式,与off模式相比,处理模块不会降低输出帧率,但是对于产生高质量输出时就不受这个限制了。典型地,它被用于预览或者视频录制模式,或者静态图片的快速捕获。在一些设备中,这种模式与OFF模式一样(不工作就不会降低帧率);在一些设备中,它与HIGH_QUALITY模式一样(高质量处理也不会降低帧率)。

·HIGHQUALITY:在这种模式中,处理模块产生最高质量的结果,如果需要会降低输出帧率。典型地,它被用于高质量静态图片的捕获。一些包括手动控制的模块,可以替代FAST 或者HIGHQUALITY。例如,图像校正模块支持一个颜色转换矩阵,而tone曲线调整支持一个任意全局tone映射曲线。

一个camera子系统能够支持的最大帧率是多个元素的函数:

·输出图像流所需要的分辨率

·Imagerbinning / skipping模式的支持

·imager接口的带宽

·各个ISP处理模块的带宽

因为对于不同的ISPsensor,这些因子有很大的变化,camera HAL层接口想要抽象一个尽可能简单的带宽限制模型。这个模型有如下特性:

·Sensor总是输出能满足应用程序请求的输出流大小的最小分辨率图像数据。这个最小分辨率至少与被请求的最大输出流大小一样大。

·因为任何情况可能会用到被配置的输出流的几个或者所有,所以sensorISP必须被配置为能够将一个图像同时缩放到所有输出流中。

·JPEG流就像请求的被处理的YUV流;在请求中,它们直接被当作JPEG流来引用。

·JPEG处理器能够同时处理camera流水线的剩余部分,但不能在同一个时刻处理多于一张的图片。

(全文完)

更多相关文章

  1. No.11 使用firewall配置的防火墙策略的生效模式
  2. Android培训班(30)
  3. 夜间模式 values-night
  4. Android(安卓)Volley
  5. [Android][工具类]AppUtils
  6. LocationManager定位
  7. kotlin超简单recyclerView测试
  8. Android(安卓)访问外部存储设备 - getExternalFilesDir
  9. android ndk Toolchain

随机推荐

  1. MYSQL中 char 和 varchar的区别
  2. Mysql表创建外键报错解决方案
  3. MySQL8.0 如何快速加列
  4. 聊聊MySQL中的参数
  5. MySQL的自增ID(主键) 用完了的解决方法
  6. MySQL中的悲观锁与乐观锁
  7. JDBC-idea导入mysql连接java的jar包(mac)
  8. MySQL 选择合适的存储引擎
  9. Mysql脏页flush及收缩表空间原理解析
  10. Mysql读写分离过期常用解决方案