OSDN Git Service

Merge "Make inlines static"
[android-x86/system-media.git] / camera / docs / ndk_metadata_properties.xml
1 <?xml version="1.0" encoding="utf-8"?>
2 <!-- Copyright (C) 2016 The Android Open Source Project
3
4      Licensed under the Apache License, Version 2.0 (the "License");
5      you may not use this file except in compliance with the License.
6      You may obtain a copy of the License at
7
8           http://www.apache.org/licenses/LICENSE-2.0
9
10      Unless required by applicable law or agreed to in writing, software
11      distributed under the License is distributed on an "AS IS" BASIS,
12      WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
13      See the License for the specific language governing permissions and
14      limitations under the License.
15 -->
16 <metadata xmlns="http://schemas.android.com/service/camera/metadata/"
17 xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
18 xsi:schemaLocation="http://schemas.android.com/service/camera/metadata/ metadata_properties.xsd">
19
20   <tags>
21     <tag id="BC">
22         Needed for backwards compatibility with old Java API
23     </tag>
24     <tag id="V1">
25         New features for first camera 2 release (API1)
26     </tag>
27     <tag id="RAW">
28         Needed for useful RAW image processing and DNG file support
29     </tag>
30     <tag id="HAL2">
31         Entry is only used by camera device HAL 2.x
32     </tag>
33     <tag id="FULL">
34         Entry is required for full hardware level devices, and optional for other hardware levels
35     </tag>
36     <tag id="DEPTH">
37         Entry is required for the depth capability.
38     </tag>
39     <tag id="REPROC">
40         Entry is required for the YUV or PRIVATE reprocessing capability.
41     </tag>
42     <tag id="FUTURE">
43         Entry is  under-specified and is not required for now. This is for book-keeping purpose,
44         do not implement or use it, it may be revised for future.
45     </tag>
46   </tags>
47
48   <types>
49     <typedef name="pairFloatFloat">
50       <language name="java">android.util.Pair&lt;Float,Float&gt;</language>
51     </typedef>
52     <typedef name="pairDoubleDouble">
53       <language name="java">android.util.Pair&lt;Double,Double&gt;</language>
54     </typedef>
55     <typedef name="rectangle">
56       <language name="java">android.graphics.Rect</language>
57     </typedef>
58     <typedef name="size">
59       <language name="java">android.util.Size</language>
60     </typedef>
61     <typedef name="string">
62       <language name="java">String</language>
63     </typedef>
64     <typedef name="boolean">
65       <language name="java">boolean</language>
66     </typedef>
67     <typedef name="imageFormat">
68       <language name="java">int</language>
69     </typedef>
70     <typedef name="streamConfigurationMap">
71       <language name="java">android.hardware.camera2.params.StreamConfigurationMap</language>
72     </typedef>
73     <typedef name="streamConfiguration">
74       <language name="java">android.hardware.camera2.params.StreamConfiguration</language>
75     </typedef>
76     <typedef name="streamConfigurationDuration">
77       <language name="java">android.hardware.camera2.params.StreamConfigurationDuration</language>
78     </typedef>
79     <typedef name="face">
80       <language name="java">android.hardware.camera2.params.Face</language>
81     </typedef>
82     <typedef name="meteringRectangle">
83       <language name="java">android.hardware.camera2.params.MeteringRectangle</language>
84     </typedef>
85     <typedef name="rangeFloat">
86       <language name="java">android.util.Range&lt;Float&gt;</language>
87     </typedef>
88     <typedef name="rangeInt">
89       <language name="java">android.util.Range&lt;Integer&gt;</language>
90     </typedef>
91     <typedef name="rangeLong">
92       <language name="java">android.util.Range&lt;Long&gt;</language>
93     </typedef>
94     <typedef name="colorSpaceTransform">
95       <language name="java">android.hardware.camera2.params.ColorSpaceTransform</language>
96     </typedef>
97     <typedef name="rggbChannelVector">
98       <language name="java">android.hardware.camera2.params.RggbChannelVector</language>
99     </typedef>
100     <typedef name="blackLevelPattern">
101       <language name="java">android.hardware.camera2.params.BlackLevelPattern</language>
102     </typedef>
103     <typedef name="enumList">
104       <language name="java">int</language>
105     </typedef>
106     <typedef name="sizeF">
107       <language name="java">android.util.SizeF</language>
108     </typedef>
109     <typedef name="point">
110       <language name="java">android.graphics.Point</language>
111     </typedef>
112     <typedef name="tonemapCurve">
113       <language name="java">android.hardware.camera2.params.TonemapCurve</language>
114     </typedef>
115     <typedef name="lensShadingMap">
116       <language name="java">android.hardware.camera2.params.LensShadingMap</language>
117     </typedef>
118     <typedef name="location">
119       <language name="java">android.location.Location</language>
120     </typedef>
121     <typedef name="highSpeedVideoConfiguration">
122       <language name="java">android.hardware.camera2.params.HighSpeedVideoConfiguration</language>
123     </typedef>
124     <typedef name="reprocessFormatsMap">
125       <language name="java">android.hardware.camera2.params.ReprocessFormatsMap</language>
126     </typedef>
127   </types>
128
129   <namespace name="android">
130     <section name="colorCorrection">
131       <controls>
132         <entry name="mode" type="byte" visibility="public" enum="true" hwlevel="full">
133           <enum>
134             <value>TRANSFORM_MATRIX
135               <notes>Use the android.colorCorrection.transform matrix
136                 and android.colorCorrection.gains to do color conversion.
137
138                 All advanced white balance adjustments (not specified
139                 by our white balance pipeline) must be disabled.
140
141                 If AWB is enabled with `android.control.awbMode != OFF`, then
142                 TRANSFORM_MATRIX is ignored. The camera device will override
143                 this value to either FAST or HIGH_QUALITY.
144               </notes>
145             </value>
146             <value>FAST
147               <notes>Color correction processing must not slow down
148               capture rate relative to sensor raw output.
149
150               Advanced white balance adjustments above and beyond
151               the specified white balance pipeline may be applied.
152
153               If AWB is enabled with `android.control.awbMode != OFF`, then
154               the camera device uses the last frame's AWB values
155               (or defaults if AWB has never been run).
156             </notes>
157             </value>
158             <value>HIGH_QUALITY
159               <notes>Color correction processing operates at improved
160               quality but the capture rate might be reduced (relative to sensor
161               raw output rate)
162
163               Advanced white balance adjustments above and beyond
164               the specified white balance pipeline may be applied.
165
166               If AWB is enabled with `android.control.awbMode != OFF`, then
167               the camera device uses the last frame's AWB values
168               (or defaults if AWB has never been run).
169             </notes>
170             </value>
171           </enum>
172
173           <description>
174           The mode control selects how the image data is converted from the
175           sensor's native color into linear sRGB color.
176           </description>
177           <details>
178           When auto-white balance (AWB) is enabled with android.control.awbMode, this
179           control is overridden by the AWB routine. When AWB is disabled, the
180           application controls how the color mapping is performed.
181
182           We define the expected processing pipeline below. For consistency
183           across devices, this is always the case with TRANSFORM_MATRIX.
184
185           When either FULL or HIGH_QUALITY is used, the camera device may
186           do additional processing but android.colorCorrection.gains and
187           android.colorCorrection.transform will still be provided by the
188           camera device (in the results) and be roughly correct.
189
190           Switching to TRANSFORM_MATRIX and using the data provided from
191           FAST or HIGH_QUALITY will yield a picture with the same white point
192           as what was produced by the camera device in the earlier frame.
193
194           The expected processing pipeline is as follows:
195
196           ![White balance processing pipeline](android.colorCorrection.mode/processing_pipeline.png)
197
198           The white balance is encoded by two values, a 4-channel white-balance
199           gain vector (applied in the Bayer domain), and a 3x3 color transform
200           matrix (applied after demosaic).
201
202           The 4-channel white-balance gains are defined as:
203
204               android.colorCorrection.gains = [ R G_even G_odd B ]
205
206           where `G_even` is the gain for green pixels on even rows of the
207           output, and `G_odd` is the gain for green pixels on the odd rows.
208           These may be identical for a given camera device implementation; if
209           the camera device does not support a separate gain for even/odd green
210           channels, it will use the `G_even` value, and write `G_odd` equal to
211           `G_even` in the output result metadata.
212
213           The matrices for color transforms are defined as a 9-entry vector:
214
215               android.colorCorrection.transform = [ I0 I1 I2 I3 I4 I5 I6 I7 I8 ]
216
217           which define a transform from input sensor colors, `P_in = [ r g b ]`,
218           to output linear sRGB, `P_out = [ r' g' b' ]`,
219
220           with colors as follows:
221
222               r' = I0r + I1g + I2b
223               g' = I3r + I4g + I5b
224               b' = I6r + I7g + I8b
225
226           Both the input and output value ranges must match. Overflow/underflow
227           values are clipped to fit within the range.
228           </details>
229           <hal_details>
230           HAL must support both FAST and HIGH_QUALITY if color correction control is available
231           on the camera device, but the underlying implementation can be the same for both modes.
232           That is, if the highest quality implementation on the camera device does not slow down
233           capture rate, then FAST and HIGH_QUALITY should generate the same output.
234           </hal_details>
235         </entry>
236         <entry name="transform" type="rational" visibility="public"
237                type_notes="3x3 rational matrix in row-major order"
238                container="array" typedef="colorSpaceTransform" hwlevel="full">
239           <array>
240             <size>3</size>
241             <size>3</size>
242           </array>
243           <description>A color transform matrix to use to transform
244           from sensor RGB color space to output linear sRGB color space.
245           </description>
246           <units>Unitless scale factors</units>
247           <details>This matrix is either set by the camera device when the request
248           android.colorCorrection.mode is not TRANSFORM_MATRIX, or
249           directly by the application in the request when the
250           android.colorCorrection.mode is TRANSFORM_MATRIX.
251
252           In the latter case, the camera device may round the matrix to account
253           for precision issues; the final rounded matrix should be reported back
254           in this matrix result metadata. The transform should keep the magnitude
255           of the output color values within `[0, 1.0]` (assuming input color
256           values is within the normalized range `[0, 1.0]`), or clipping may occur.
257
258           The valid range of each matrix element varies on different devices, but
259           values within [-1.5, 3.0] are guaranteed not to be clipped.
260           </details>
261         </entry>
262         <entry name="gains" type="float" visibility="public"
263                type_notes="A 1D array of floats for 4 color channel gains"
264                container="array" typedef="rggbChannelVector" hwlevel="full">
265           <array>
266             <size>4</size>
267           </array>
268           <description>Gains applying to Bayer raw color channels for
269           white-balance.</description>
270           <units>Unitless gain factors</units>
271           <details>
272           These per-channel gains are either set by the camera device
273           when the request android.colorCorrection.mode is not
274           TRANSFORM_MATRIX, or directly by the application in the
275           request when the android.colorCorrection.mode is
276           TRANSFORM_MATRIX.
277
278           The gains in the result metadata are the gains actually
279           applied by the camera device to the current frame.
280
281           The valid range of gains varies on different devices, but gains
282           between [1.0, 3.0] are guaranteed not to be clipped. Even if a given
283           device allows gains below 1.0, this is usually not recommended because
284           this can create color artifacts.
285           </details>
286           <hal_details>
287           The 4-channel white-balance gains are defined in
288           the order of `[R G_even G_odd B]`, where `G_even` is the gain
289           for green pixels on even rows of the output, and `G_odd`
290           is the gain for green pixels on the odd rows.
291
292           If a HAL does not support a separate gain for even/odd green
293           channels, it must use the `G_even` value, and write
294           `G_odd` equal to `G_even` in the output result metadata.
295           </hal_details>
296         </entry>
297         <entry name="aberrationMode" type="byte" visibility="public" enum="true" hwlevel="legacy">
298           <enum>
299             <value>OFF
300               <notes>
301                 No aberration correction is applied.
302               </notes>
303             </value>
304             <value>FAST
305               <notes>
306                 Aberration correction will not slow down capture rate
307                 relative to sensor raw output.
308             </notes>
309             </value>
310             <value>HIGH_QUALITY
311               <notes>
312                 Aberration correction operates at improved quality but the capture rate might be
313                 reduced (relative to sensor raw output rate)
314             </notes>
315             </value>
316           </enum>
317           <description>
318             Mode of operation for the chromatic aberration correction algorithm.
319           </description>
320           <range>android.colorCorrection.availableAberrationModes</range>
321           <details>
322             Chromatic (color) aberration is caused by the fact that different wavelengths of light
323             can not focus on the same point after exiting from the lens. This metadata defines
324             the high level control of chromatic aberration correction algorithm, which aims to
325             minimize the chromatic artifacts that may occur along the object boundaries in an
326             image.
327
328             FAST/HIGH_QUALITY both mean that camera device determined aberration
329             correction will be applied. HIGH_QUALITY mode indicates that the camera device will
330             use the highest-quality aberration correction algorithms, even if it slows down
331             capture rate. FAST means the camera device will not slow down capture rate when
332             applying aberration correction.
333
334             LEGACY devices will always be in FAST mode.
335           </details>
336         </entry>
337       </controls>
338       <dynamic>
339         <clone entry="android.colorCorrection.mode" kind="controls">
340         </clone>
341         <clone entry="android.colorCorrection.transform" kind="controls">
342         </clone>
343         <clone entry="android.colorCorrection.gains" kind="controls">
344         </clone>
345         <clone entry="android.colorCorrection.aberrationMode" kind="controls">
346         </clone>
347       </dynamic>
348       <static>
349         <entry name="availableAberrationModes" type="byte" visibility="public"
350         type_notes="list of enums" container="array" typedef="enumList" hwlevel="legacy">
351           <array>
352             <size>n</size>
353           </array>
354           <description>
355             List of aberration correction modes for android.colorCorrection.aberrationMode that are
356             supported by this camera device.
357           </description>
358           <range>Any value listed in android.colorCorrection.aberrationMode</range>
359           <details>
360             This key lists the valid modes for android.colorCorrection.aberrationMode.  If no
361             aberration correction modes are available for a device, this list will solely include
362             OFF mode. All camera devices will support either OFF or FAST mode.
363
364             Camera devices that support the MANUAL_POST_PROCESSING capability will always list
365             OFF mode. This includes all FULL level devices.
366
367             LEGACY devices will always only support FAST mode.
368           </details>
369           <hal_details>
370             HAL must support both FAST and HIGH_QUALITY if chromatic aberration control is available
371             on the camera device, but the underlying implementation can be the same for both modes.
372             That is, if the highest quality implementation on the camera device does not slow down
373             capture rate, then FAST and HIGH_QUALITY will generate the same output.
374           </hal_details>
375           <tag id="V1" />
376         </entry>
377       </static>
378     </section>
379     <section name="control">
380       <controls>
381         <entry name="aeAntibandingMode" type="byte" visibility="public"
382                enum="true" hwlevel="legacy">
383           <enum>
384             <value>OFF
385               <notes>
386                 The camera device will not adjust exposure duration to
387                 avoid banding problems.
388               </notes>
389             </value>
390             <value>50HZ
391               <notes>
392                 The camera device will adjust exposure duration to
393                 avoid banding problems with 50Hz illumination sources.
394               </notes>
395             </value>
396             <value>60HZ
397               <notes>
398                 The camera device will adjust exposure duration to
399                 avoid banding problems with 60Hz illumination
400                 sources.
401               </notes>
402             </value>
403             <value>AUTO
404               <notes>
405                 The camera device will automatically adapt its
406                 antibanding routine to the current illumination
407                 condition. This is the default mode if AUTO is
408                 available on given camera device.
409               </notes>
410             </value>
411           </enum>
412           <description>
413             The desired setting for the camera device's auto-exposure
414             algorithm's antibanding compensation.
415           </description>
416           <range>
417             android.control.aeAvailableAntibandingModes
418           </range>
419           <details>
420             Some kinds of lighting fixtures, such as some fluorescent
421             lights, flicker at the rate of the power supply frequency
422             (60Hz or 50Hz, depending on country). While this is
423             typically not noticeable to a person, it can be visible to
424             a camera device. If a camera sets its exposure time to the
425             wrong value, the flicker may become visible in the
426             viewfinder as flicker or in a final captured image, as a
427             set of variable-brightness bands across the image.
428
429             Therefore, the auto-exposure routines of camera devices
430             include antibanding routines that ensure that the chosen
431             exposure value will not cause such banding. The choice of
432             exposure time depends on the rate of flicker, which the
433             camera device can detect automatically, or the expected
434             rate can be selected by the application using this
435             control.
436
437             A given camera device may not support all of the possible
438             options for the antibanding mode. The
439             android.control.aeAvailableAntibandingModes key contains
440             the available modes for a given camera device.
441
442             AUTO mode is the default if it is available on given
443             camera device. When AUTO mode is not available, the
444             default will be either 50HZ or 60HZ, and both 50HZ
445             and 60HZ will be available.
446
447             If manual exposure control is enabled (by setting
448             android.control.aeMode or android.control.mode to OFF),
449             then this setting has no effect, and the application must
450             ensure it selects exposure times that do not cause banding
451             issues. The android.statistics.sceneFlicker key can assist
452             the application in this.
453           </details>
454           <hal_details>
455             For all capture request templates, this field must be set
456             to AUTO if AUTO mode is available. If AUTO is not available,
457             the default must be either 50HZ or 60HZ, and both 50HZ and
458             60HZ must be available.
459
460             If manual exposure control is enabled (by setting
461             android.control.aeMode or android.control.mode to OFF),
462             then the exposure values provided by the application must not be
463             adjusted for antibanding.
464           </hal_details>
465           <tag id="BC" />
466         </entry>
467         <entry name="aeExposureCompensation" type="int32" visibility="public" hwlevel="legacy">
468           <description>Adjustment to auto-exposure (AE) target image
469           brightness.</description>
470           <units>Compensation steps</units>
471           <range>android.control.aeCompensationRange</range>
472           <details>
473           The adjustment is measured as a count of steps, with the
474           step size defined by android.control.aeCompensationStep and the
475           allowed range by android.control.aeCompensationRange.
476
477           For example, if the exposure value (EV) step is 0.333, '6'
478           will mean an exposure compensation of +2 EV; -3 will mean an
479           exposure compensation of -1 EV. One EV represents a doubling
480           of image brightness. Note that this control will only be
481           effective if android.control.aeMode `!=` OFF. This control
482           will take effect even when android.control.aeLock `== true`.
483
484           In the event of exposure compensation value being changed, camera device
485           may take several frames to reach the newly requested exposure target.
486           During that time, android.control.aeState field will be in the SEARCHING
487           state. Once the new exposure target is reached, android.control.aeState will
488           change from SEARCHING to either CONVERGED, LOCKED (if AE lock is enabled), or
489           FLASH_REQUIRED (if the scene is too dark for still capture).
490           </details>
491           <tag id="BC" />
492         </entry>
493         <entry name="aeLock" type="byte" visibility="public" enum="true"
494                typedef="boolean" hwlevel="legacy">
495           <enum>
496             <value>OFF
497             <notes>Auto-exposure lock is disabled; the AE algorithm
498             is free to update its parameters.</notes></value>
499             <value>ON
500             <notes>Auto-exposure lock is enabled; the AE algorithm
501             must not update the exposure and sensitivity parameters
502             while the lock is active.
503
504             android.control.aeExposureCompensation setting changes
505             will still take effect while auto-exposure is locked.
506
507             Some rare LEGACY devices may not support
508             this, in which case the value will always be overridden to OFF.
509             </notes></value>
510           </enum>
511           <description>Whether auto-exposure (AE) is currently locked to its latest
512           calculated values.</description>
513           <details>
514           When set to `true` (ON), the AE algorithm is locked to its latest parameters,
515           and will not change exposure settings until the lock is set to `false` (OFF).
516
517           Note that even when AE is locked, the flash may be fired if
518           the android.control.aeMode is ON_AUTO_FLASH /
519           ON_ALWAYS_FLASH / ON_AUTO_FLASH_REDEYE.
520
521           When android.control.aeExposureCompensation is changed, even if the AE lock
522           is ON, the camera device will still adjust its exposure value.
523
524           If AE precapture is triggered (see android.control.aePrecaptureTrigger)
525           when AE is already locked, the camera device will not change the exposure time
526           (android.sensor.exposureTime) and sensitivity (android.sensor.sensitivity)
527           parameters. The flash may be fired if the android.control.aeMode
528           is ON_AUTO_FLASH/ON_AUTO_FLASH_REDEYE and the scene is too dark. If the
529           android.control.aeMode is ON_ALWAYS_FLASH, the scene may become overexposed.
530           Similarly, AE precapture trigger CANCEL has no effect when AE is already locked.
531
532           When an AE precapture sequence is triggered, AE unlock will not be able to unlock
533           the AE if AE is locked by the camera device internally during precapture metering
534           sequence In other words, submitting requests with AE unlock has no effect for an
535           ongoing precapture metering sequence. Otherwise, the precapture metering sequence
536           will never succeed in a sequence of preview requests where AE lock is always set
537           to `false`.
538
539           Since the camera device has a pipeline of in-flight requests, the settings that
540           get locked do not necessarily correspond to the settings that were present in the
541           latest capture result received from the camera device, since additional captures
542           and AE updates may have occurred even before the result was sent out. If an
543           application is switching between automatic and manual control and wishes to eliminate
544           any flicker during the switch, the following procedure is recommended:
545
546             1. Starting in auto-AE mode:
547             2. Lock AE
548             3. Wait for the first result to be output that has the AE locked
549             4. Copy exposure settings from that result into a request, set the request to manual AE
550             5. Submit the capture request, proceed to run manual AE as desired.
551
552           See android.control.aeState for AE lock related state transition details.
553           </details>
554           <tag id="BC" />
555         </entry>
556         <entry name="aeMode" type="byte" visibility="public" enum="true" hwlevel="legacy">
557           <enum>
558             <value>OFF
559               <notes>
560                 The camera device's autoexposure routine is disabled.
561
562                 The application-selected android.sensor.exposureTime,
563                 android.sensor.sensitivity and
564                 android.sensor.frameDuration are used by the camera
565                 device, along with android.flash.* fields, if there's
566                 a flash unit for this camera device.
567
568                 Note that auto-white balance (AWB) and auto-focus (AF)
569                 behavior is device dependent when AE is in OFF mode.
570                 To have consistent behavior across different devices,
571                 it is recommended to either set AWB and AF to OFF mode
572                 or lock AWB and AF before setting AE to OFF.
573                 See android.control.awbMode, android.control.afMode,
574                 android.control.awbLock, and android.control.afTrigger
575                 for more details.
576
577                 LEGACY devices do not support the OFF mode and will
578                 override attempts to use this value to ON.
579               </notes>
580             </value>
581             <value>ON
582               <notes>
583                 The camera device's autoexposure routine is active,
584                 with no flash control.
585
586                 The application's values for
587                 android.sensor.exposureTime,
588                 android.sensor.sensitivity, and
589                 android.sensor.frameDuration are ignored. The
590                 application has control over the various
591                 android.flash.* fields.
592               </notes>
593             </value>
594             <value>ON_AUTO_FLASH
595               <notes>
596                 Like ON, except that the camera device also controls
597                 the camera's flash unit, firing it in low-light
598                 conditions.
599
600                 The flash may be fired during a precapture sequence
601                 (triggered by android.control.aePrecaptureTrigger) and
602                 may be fired for captures for which the
603                 android.control.captureIntent field is set to
604                 STILL_CAPTURE
605               </notes>
606             </value>
607             <value>ON_ALWAYS_FLASH
608               <notes>
609                 Like ON, except that the camera device also controls
610                 the camera's flash unit, always firing it for still
611                 captures.
612
613                 The flash may be fired during a precapture sequence
614                 (triggered by android.control.aePrecaptureTrigger) and
615                 will always be fired for captures for which the
616                 android.control.captureIntent field is set to
617                 STILL_CAPTURE
618               </notes>
619             </value>
620             <value>ON_AUTO_FLASH_REDEYE
621               <notes>
622                 Like ON_AUTO_FLASH, but with automatic red eye
623                 reduction.
624
625                 If deemed necessary by the camera device, a red eye
626                 reduction flash will fire during the precapture
627                 sequence.
628               </notes>
629             </value>
630           </enum>
631           <description>The desired mode for the camera device's
632           auto-exposure routine.</description>
633           <range>android.control.aeAvailableModes</range>
634           <details>
635             This control is only effective if android.control.mode is
636             AUTO.
637
638             When set to any of the ON modes, the camera device's
639             auto-exposure routine is enabled, overriding the
640             application's selected exposure time, sensor sensitivity,
641             and frame duration (android.sensor.exposureTime,
642             android.sensor.sensitivity, and
643             android.sensor.frameDuration). If one of the FLASH modes
644             is selected, the camera device's flash unit controls are
645             also overridden.
646
647             The FLASH modes are only available if the camera device
648             has a flash unit (android.flash.info.available is `true`).
649
650             If flash TORCH mode is desired, this field must be set to
651             ON or OFF, and android.flash.mode set to TORCH.
652
653             When set to any of the ON modes, the values chosen by the
654             camera device auto-exposure routine for the overridden
655             fields for a given capture will be available in its
656             CaptureResult.
657           </details>
658           <tag id="BC" />
659         </entry>
660         <entry name="aeRegions" type="int32" visibility="public"
661             optional="true" container="array" typedef="meteringRectangle">
662           <array>
663             <size>5</size>
664             <size>area_count</size>
665           </array>
666           <description>List of metering areas to use for auto-exposure adjustment.</description>
667           <units>Pixel coordinates within android.sensor.info.activeArraySize</units>
668           <range>Coordinates must be between `[(0,0), (width, height))` of
669           android.sensor.info.activeArraySize</range>
670           <details>
671               Not available if android.control.maxRegionsAe is 0.
672               Otherwise will always be present.
673
674               The maximum number of regions supported by the device is determined by the value
675               of android.control.maxRegionsAe.
676
677               The data representation is int[5 * area_count].
678               Every five elements represent a metering region of (xmin, ymin, xmax, ymax, weight).
679               The rectangle is defined to be inclusive on xmin and ymin, but exclusive on xmax and
680               ymax.
681
682               The coordinate system is based on the active pixel array,
683               with (0,0) being the top-left pixel in the active pixel array, and
684               (android.sensor.info.activeArraySize.width - 1,
685               android.sensor.info.activeArraySize.height - 1) being the
686               bottom-right pixel in the active pixel array.
687
688               The weight must be within `[0, 1000]`, and represents a weight
689               for every pixel in the area. This means that a large metering area
690               with the same weight as a smaller area will have more effect in
691               the metering result. Metering areas can partially overlap and the
692               camera device will add the weights in the overlap region.
693
694               The weights are relative to weights of other exposure metering regions, so if only one
695               region is used, all non-zero weights will have the same effect. A region with 0
696               weight is ignored.
697
698               If all regions have 0 weight, then no specific metering area needs to be used by the
699               camera device.
700
701               If the metering region is outside the used android.scaler.cropRegion returned in
702               capture result metadata, the camera device will ignore the sections outside the crop
703               region and output only the intersection rectangle as the metering region in the result
704               metadata.  If the region is entirely outside the crop region, it will be ignored and
705               not reported in the result metadata.
706           </details>
707           <hal_details>
708               The HAL level representation of MeteringRectangle[] is a
709               int[5 * area_count].
710               Every five elements represent a metering region of
711               (xmin, ymin, xmax, ymax, weight).
712               The rectangle is defined to be inclusive on xmin and ymin, but
713               exclusive on xmax and ymax.
714           </hal_details>
715           <tag id="BC" />
716         </entry>
717         <entry name="aeTargetFpsRange" type="int32" visibility="public"
718                container="array" typedef="rangeInt" hwlevel="legacy">
719           <array>
720             <size>2</size>
721           </array>
722           <description>Range over which the auto-exposure routine can
723           adjust the capture frame rate to maintain good
724           exposure.</description>
725           <units>Frames per second (FPS)</units>
726           <range>Any of the entries in android.control.aeAvailableTargetFpsRanges</range>
727           <details>Only constrains auto-exposure (AE) algorithm, not
728           manual control of android.sensor.exposureTime and
729           android.sensor.frameDuration.</details>
730           <tag id="BC" />
731         </entry>
732         <entry name="aePrecaptureTrigger" type="byte" visibility="public"
733                enum="true" hwlevel="limited">
734           <enum>
735             <value>IDLE
736               <notes>The trigger is idle.</notes>
737             </value>
738             <value>START
739               <notes>The precapture metering sequence will be started
740               by the camera device.
741
742               The exact effect of the precapture trigger depends on
743               the current AE mode and state.</notes>
744             </value>
745             <value>CANCEL
746               <notes>The camera device will cancel any currently active or completed
747               precapture metering sequence, the auto-exposure routine will return to its
748               initial state.</notes>
749             </value>
750           </enum>
751           <description>Whether the camera device will trigger a precapture
752           metering sequence when it processes this request.</description>
753           <details>This entry is normally set to IDLE, or is not
754           included at all in the request settings. When included and
755           set to START, the camera device will trigger the auto-exposure (AE)
756           precapture metering sequence.
757
758           When set to CANCEL, the camera device will cancel any active
759           precapture metering trigger, and return to its initial AE state.
760           If a precapture metering sequence is already completed, and the camera
761           device has implicitly locked the AE for subsequent still capture, the
762           CANCEL trigger will unlock the AE and return to its initial AE state.
763
764           The precapture sequence should be triggered before starting a
765           high-quality still capture for final metering decisions to
766           be made, and for firing pre-capture flash pulses to estimate
767           scene brightness and required final capture flash power, when
768           the flash is enabled.
769
770           Normally, this entry should be set to START for only a
771           single request, and the application should wait until the
772           sequence completes before starting a new one.
773
774           When a precapture metering sequence is finished, the camera device
775           may lock the auto-exposure routine internally to be able to accurately expose the
776           subsequent still capture image (`android.control.captureIntent == STILL_CAPTURE`).
777           For this case, the AE may not resume normal scan if no subsequent still capture is
778           submitted. To ensure that the AE routine restarts normal scan, the application should
779           submit a request with `android.control.aeLock == true`, followed by a request
780           with `android.control.aeLock == false`, if the application decides not to submit a
781           still capture request after the precapture sequence completes. Alternatively, for
782           API level 23 or newer devices, the CANCEL can be used to unlock the camera device
783           internally locked AE if the application doesn't submit a still capture request after
784           the AE precapture trigger. Note that, the CANCEL was added in API level 23, and must not
785           be used in devices that have earlier API levels.
786
787           The exact effect of auto-exposure (AE) precapture trigger
788           depends on the current AE mode and state; see
789           android.control.aeState for AE precapture state transition
790           details.
791
792           On LEGACY-level devices, the precapture trigger is not supported;
793           capturing a high-resolution JPEG image will automatically trigger a
794           precapture sequence before the high-resolution capture, including
795           potentially firing a pre-capture flash.
796
797           Using the precapture trigger and the auto-focus trigger android.control.afTrigger
798           simultaneously is allowed. However, since these triggers often require cooperation between
799           the auto-focus and auto-exposure routines (for example, the may need to be enabled for a
800           focus sweep), the camera device may delay acting on a later trigger until the previous
801           trigger has been fully handled. This may lead to longer intervals between the trigger and
802           changes to android.control.aeState indicating the start of the precapture sequence, for
803           example.
804
805           If both the precapture and the auto-focus trigger are activated on the same request, then
806           the camera device will complete them in the optimal order for that device.
807           </details>
808           <hal_details>
809           The HAL must support triggering the AE precapture trigger while an AF trigger is active
810           (and vice versa), or at the same time as the AF trigger.  It is acceptable for the HAL to
811           treat these as two consecutive triggers, for example handling the AF trigger and then the
812           AE trigger.  Or the HAL may choose to optimize the case with both triggers fired at once,
813           to minimize the latency for converging both focus and exposure/flash usage.
814           </hal_details>
815           <tag id="BC" />
816         </entry>
817         <entry name="afMode" type="byte" visibility="public" enum="true"
818                hwlevel="legacy">
819           <enum>
820             <value>OFF
821             <notes>The auto-focus routine does not control the lens;
822             android.lens.focusDistance is controlled by the
823             application.</notes></value>
824             <value>AUTO
825             <notes>Basic automatic focus mode.
826
827             In this mode, the lens does not move unless
828             the autofocus trigger action is called. When that trigger
829             is activated, AF will transition to ACTIVE_SCAN, then to
830             the outcome of the scan (FOCUSED or NOT_FOCUSED).
831
832             Always supported if lens is not fixed focus.
833
834             Use android.lens.info.minimumFocusDistance to determine if lens
835             is fixed-focus.
836
837             Triggering AF_CANCEL resets the lens position to default,
838             and sets the AF state to INACTIVE.</notes></value>
839             <value>MACRO
840             <notes>Close-up focusing mode.
841
842             In this mode, the lens does not move unless the
843             autofocus trigger action is called. When that trigger is
844             activated, AF will transition to ACTIVE_SCAN, then to
845             the outcome of the scan (FOCUSED or NOT_FOCUSED). This
846             mode is optimized for focusing on objects very close to
847             the camera.
848
849             When that trigger is activated, AF will transition to
850             ACTIVE_SCAN, then to the outcome of the scan (FOCUSED or
851             NOT_FOCUSED). Triggering cancel AF resets the lens
852             position to default, and sets the AF state to
853             INACTIVE.</notes></value>
854             <value>CONTINUOUS_VIDEO
855             <notes>In this mode, the AF algorithm modifies the lens
856             position continually to attempt to provide a
857             constantly-in-focus image stream.
858
859             The focusing behavior should be suitable for good quality
860             video recording; typically this means slower focus
861             movement and no overshoots. When the AF trigger is not
862             involved, the AF algorithm should start in INACTIVE state,
863             and then transition into PASSIVE_SCAN and PASSIVE_FOCUSED
864             states as appropriate. When the AF trigger is activated,
865             the algorithm should immediately transition into
866             AF_FOCUSED or AF_NOT_FOCUSED as appropriate, and lock the
867             lens position until a cancel AF trigger is received.
868
869             Once cancel is received, the algorithm should transition
870             back to INACTIVE and resume passive scan. Note that this
871             behavior is not identical to CONTINUOUS_PICTURE, since an
872             ongoing PASSIVE_SCAN must immediately be
873             canceled.</notes></value>
874             <value>CONTINUOUS_PICTURE
875             <notes>In this mode, the AF algorithm modifies the lens
876             position continually to attempt to provide a
877             constantly-in-focus image stream.
878
879             The focusing behavior should be suitable for still image
880             capture; typically this means focusing as fast as
881             possible. When the AF trigger is not involved, the AF
882             algorithm should start in INACTIVE state, and then
883             transition into PASSIVE_SCAN and PASSIVE_FOCUSED states as
884             appropriate as it attempts to maintain focus. When the AF
885             trigger is activated, the algorithm should finish its
886             PASSIVE_SCAN if active, and then transition into
887             AF_FOCUSED or AF_NOT_FOCUSED as appropriate, and lock the
888             lens position until a cancel AF trigger is received.
889
890             When the AF cancel trigger is activated, the algorithm
891             should transition back to INACTIVE and then act as if it
892             has just been started.</notes></value>
893             <value>EDOF
894             <notes>Extended depth of field (digital focus) mode.
895
896             The camera device will produce images with an extended
897             depth of field automatically; no special focusing
898             operations need to be done before taking a picture.
899
900             AF triggers are ignored, and the AF state will always be
901             INACTIVE.</notes></value>
902           </enum>
903           <description>Whether auto-focus (AF) is currently enabled, and what
904           mode it is set to.</description>
905           <range>android.control.afAvailableModes</range>
906           <details>Only effective if android.control.mode = AUTO and the lens is not fixed focus
907           (i.e. `android.lens.info.minimumFocusDistance &gt; 0`). Also note that
908           when android.control.aeMode is OFF, the behavior of AF is device
909           dependent. It is recommended to lock AF by using android.control.afTrigger before
910           setting android.control.aeMode to OFF, or set AF mode to OFF when AE is OFF.
911
912           If the lens is controlled by the camera device auto-focus algorithm,
913           the camera device will report the current AF status in android.control.afState
914           in result metadata.</details>
915           <hal_details>
916           When afMode is AUTO or MACRO, the lens must not move until an AF trigger is sent in a
917           request (android.control.afTrigger `==` START). After an AF trigger, the afState will end
918           up with either FOCUSED_LOCKED or NOT_FOCUSED_LOCKED state (see
919           android.control.afState for detailed state transitions), which indicates that the lens is
920           locked and will not move. If camera movement (e.g. tilting camera) causes the lens to move
921           after the lens is locked, the HAL must compensate this movement appropriately such that
922           the same focal plane remains in focus.
923
924           When afMode is one of the continuous auto focus modes, the HAL is free to start a AF
925           scan whenever it's not locked. When the lens is locked after an AF trigger
926           (see android.control.afState for detailed state transitions), the HAL should maintain the
927           same lock behavior as above.
928
929           When afMode is OFF, the application controls focus manually. The accuracy of the
930           focus distance control depends on the android.lens.info.focusDistanceCalibration.
931           However, the lens must not move regardless of the camera movement for any focus distance
932           manual control.
933
934           To put this in concrete terms, if the camera has lens elements which may move based on
935           camera orientation or motion (e.g. due to gravity), then the HAL must drive the lens to
936           remain in a fixed position invariant to the camera's orientation or motion, for example,
937           by using accelerometer measurements in the lens control logic. This is a typical issue
938           that will arise on camera modules with open-loop VCMs.
939           </hal_details>
940           <tag id="BC" />
941         </entry>
942         <entry name="afRegions" type="int32" visibility="public"
943                optional="true" container="array" typedef="meteringRectangle">
944           <array>
945             <size>5</size>
946             <size>area_count</size>
947           </array>
948           <description>List of metering areas to use for auto-focus.</description>
949           <units>Pixel coordinates within android.sensor.info.activeArraySize</units>
950           <range>Coordinates must be between `[(0,0), (width, height))` of
951           android.sensor.info.activeArraySize</range>
952           <details>
953               Not available if android.control.maxRegionsAf is 0.
954               Otherwise will always be present.
955
956               The maximum number of focus areas supported by the device is determined by the value
957               of android.control.maxRegionsAf.
958
959               The data representation is int[5 * area_count].
960               Every five elements represent a metering region of (xmin, ymin, xmax, ymax, weight).
961               The rectangle is defined to be inclusive on xmin and ymin, but exclusive on xmax and
962               ymax.
963
964               The coordinate system is based on the active pixel array,
965               with (0,0) being the top-left pixel in the active pixel array, and
966               (android.sensor.info.activeArraySize.width - 1,
967               android.sensor.info.activeArraySize.height - 1) being the
968               bottom-right pixel in the active pixel array.
969
970               The weight must be within `[0, 1000]`, and represents a weight
971               for every pixel in the area. This means that a large metering area
972               with the same weight as a smaller area will have more effect in
973               the metering result. Metering areas can partially overlap and the
974               camera device will add the weights in the overlap region.
975
976               The weights are relative to weights of other metering regions, so if only one region
977               is used, all non-zero weights will have the same effect. A region with 0 weight is
978               ignored.
979
980               If all regions have 0 weight, then no specific metering area needs to be used by the
981               camera device.
982
983               If the metering region is outside the used android.scaler.cropRegion returned in
984               capture result metadata, the camera device will ignore the sections outside the crop
985               region and output only the intersection rectangle as the metering region in the result
986               metadata. If the region is entirely outside the crop region, it will be ignored and
987               not reported in the result metadata.
988           </details>
989           <hal_details>
990               The HAL level representation of MeteringRectangle[] is a
991               int[5 * area_count].
992               Every five elements represent a metering region of
993               (xmin, ymin, xmax, ymax, weight).
994               The rectangle is defined to be inclusive on xmin and ymin, but
995               exclusive on xmax and ymax.
996           </hal_details>
997           <tag id="BC" />
998         </entry>
999         <entry name="afTrigger" type="byte" visibility="public" enum="true"
1000                hwlevel="legacy">
1001           <enum>
1002             <value>IDLE
1003               <notes>The trigger is idle.</notes>
1004             </value>
1005             <value>START
1006               <notes>Autofocus will trigger now.</notes>
1007             </value>
1008             <value>CANCEL
1009               <notes>Autofocus will return to its initial
1010               state, and cancel any currently active trigger.</notes>
1011             </value>
1012           </enum>
1013           <description>
1014           Whether the camera device will trigger autofocus for this request.
1015           </description>
1016           <details>This entry is normally set to IDLE, or is not
1017           included at all in the request settings.
1018
1019           When included and set to START, the camera device will trigger the
1020           autofocus algorithm. If autofocus is disabled, this trigger has no effect.
1021
1022           When set to CANCEL, the camera device will cancel any active trigger,
1023           and return to its initial AF state.
1024
1025           Generally, applications should set this entry to START or CANCEL for only a
1026           single capture, and then return it to IDLE (or not set at all). Specifying
1027           START for multiple captures in a row means restarting the AF operation over
1028           and over again.
1029
1030           See android.control.afState for what the trigger means for each AF mode.
1031
1032           Using the autofocus trigger and the precapture trigger android.control.aePrecaptureTrigger
1033           simultaneously is allowed. However, since these triggers often require cooperation between
1034           the auto-focus and auto-exposure routines (for example, the may need to be enabled for a
1035           focus sweep), the camera device may delay acting on a later trigger until the previous
1036           trigger has been fully handled. This may lead to longer intervals between the trigger and
1037           changes to android.control.afState, for example.
1038           </details>
1039           <hal_details>
1040           The HAL must support triggering the AF trigger while an AE precapture trigger is active
1041           (and vice versa), or at the same time as the AE trigger.  It is acceptable for the HAL to
1042           treat these as two consecutive triggers, for example handling the AF trigger and then the
1043           AE trigger.  Or the HAL may choose to optimize the case with both triggers fired at once,
1044           to minimize the latency for converging both focus and exposure/flash usage.
1045           </hal_details>
1046           <tag id="BC" />
1047         </entry>
1048         <entry name="awbLock" type="byte" visibility="public" enum="true"
1049                typedef="boolean" hwlevel="legacy">
1050           <enum>
1051             <value>OFF
1052             <notes>Auto-white balance lock is disabled; the AWB
1053             algorithm is free to update its parameters if in AUTO
1054             mode.</notes></value>
1055             <value>ON
1056             <notes>Auto-white balance lock is enabled; the AWB
1057             algorithm will not update its parameters while the lock
1058             is active.</notes></value>
1059           </enum>
1060           <description>Whether auto-white balance (AWB) is currently locked to its
1061           latest calculated values.</description>
1062           <details>
1063           When set to `true` (ON), the AWB algorithm is locked to its latest parameters,
1064           and will not change color balance settings until the lock is set to `false` (OFF).
1065
1066           Since the camera device has a pipeline of in-flight requests, the settings that
1067           get locked do not necessarily correspond to the settings that were present in the
1068           latest capture result received from the camera device, since additional captures
1069           and AWB updates may have occurred even before the result was sent out. If an
1070           application is switching between automatic and manual control and wishes to eliminate
1071           any flicker during the switch, the following procedure is recommended:
1072
1073             1. Starting in auto-AWB mode:
1074             2. Lock AWB
1075             3. Wait for the first result to be output that has the AWB locked
1076             4. Copy AWB settings from that result into a request, set the request to manual AWB
1077             5. Submit the capture request, proceed to run manual AWB as desired.
1078
1079           Note that AWB lock is only meaningful when
1080           android.control.awbMode is in the AUTO mode; in other modes,
1081           AWB is already fixed to a specific setting.
1082
1083           Some LEGACY devices may not support ON; the value is then overridden to OFF.
1084           </details>
1085           <tag id="BC" />
1086         </entry>
1087         <entry name="awbMode" type="byte" visibility="public" enum="true"
1088                hwlevel="legacy">
1089           <enum>
1090             <value>OFF
1091             <notes>
1092             The camera device's auto-white balance routine is disabled.
1093
1094             The application-selected color transform matrix
1095             (android.colorCorrection.transform) and gains
1096             (android.colorCorrection.gains) are used by the camera
1097             device for manual white balance control.
1098             </notes>
1099             </value>
1100             <value>AUTO
1101             <notes>
1102             The camera device's auto-white balance routine is active.
1103
1104             The application's values for android.colorCorrection.transform
1105             and android.colorCorrection.gains are ignored.
1106             For devices that support the MANUAL_POST_PROCESSING capability, the
1107             values used by the camera device for the transform and gains
1108             will be available in the capture result for this request.
1109             </notes>
1110             </value>
1111             <value>INCANDESCENT
1112             <notes>
1113             The camera device's auto-white balance routine is disabled;
1114             the camera device uses incandescent light as the assumed scene
1115             illumination for white balance.
1116
1117             While the exact white balance transforms are up to the
1118             camera device, they will approximately match the CIE
1119             standard illuminant A.
1120
1121             The application's values for android.colorCorrection.transform
1122             and android.colorCorrection.gains are ignored.
1123             For devices that support the MANUAL_POST_PROCESSING capability, the
1124             values used by the camera device for the transform and gains
1125             will be available in the capture result for this request.
1126             </notes>
1127             </value>
1128             <value>FLUORESCENT
1129             <notes>
1130             The camera device's auto-white balance routine is disabled;
1131             the camera device uses fluorescent light as the assumed scene
1132             illumination for white balance.
1133
1134             While the exact white balance transforms are up to the
1135             camera device, they will approximately match the CIE
1136             standard illuminant F2.
1137
1138             The application's values for android.colorCorrection.transform
1139             and android.colorCorrection.gains are ignored.
1140             For devices that support the MANUAL_POST_PROCESSING capability, the
1141             values used by the camera device for the transform and gains
1142             will be available in the capture result for this request.
1143             </notes>
1144             </value>
1145             <value>WARM_FLUORESCENT
1146             <notes>
1147             The camera device's auto-white balance routine is disabled;
1148             the camera device uses warm fluorescent light as the assumed scene
1149             illumination for white balance.
1150
1151             While the exact white balance transforms are up to the
1152             camera device, they will approximately match the CIE
1153             standard illuminant F4.
1154
1155             The application's values for android.colorCorrection.transform
1156             and android.colorCorrection.gains are ignored.
1157             For devices that support the MANUAL_POST_PROCESSING capability, the
1158             values used by the camera device for the transform and gains
1159             will be available in the capture result for this request.
1160             </notes>
1161             </value>
1162             <value>DAYLIGHT
1163             <notes>
1164             The camera device's auto-white balance routine is disabled;
1165             the camera device uses daylight light as the assumed scene
1166             illumination for white balance.
1167
1168             While the exact white balance transforms are up to the
1169             camera device, they will approximately match the CIE
1170             standard illuminant D65.
1171
1172             The application's values for android.colorCorrection.transform
1173             and android.colorCorrection.gains are ignored.
1174             For devices that support the MANUAL_POST_PROCESSING capability, the
1175             values used by the camera device for the transform and gains
1176             will be available in the capture result for this request.
1177             </notes>
1178             </value>
1179             <value>CLOUDY_DAYLIGHT
1180             <notes>
1181             The camera device's auto-white balance routine is disabled;
1182             the camera device uses cloudy daylight light as the assumed scene
1183             illumination for white balance.
1184
1185             The application's values for android.colorCorrection.transform
1186             and android.colorCorrection.gains are ignored.
1187             For devices that support the MANUAL_POST_PROCESSING capability, the
1188             values used by the camera device for the transform and gains
1189             will be available in the capture result for this request.
1190             </notes>
1191             </value>
1192             <value>TWILIGHT
1193             <notes>
1194             The camera device's auto-white balance routine is disabled;
1195             the camera device uses twilight light as the assumed scene
1196             illumination for white balance.
1197
1198             The application's values for android.colorCorrection.transform
1199             and android.colorCorrection.gains are ignored.
1200             For devices that support the MANUAL_POST_PROCESSING capability, the
1201             values used by the camera device for the transform and gains
1202             will be available in the capture result for this request.
1203             </notes>
1204             </value>
1205             <value>SHADE
1206             <notes>
1207             The camera device's auto-white balance routine is disabled;
1208             the camera device uses shade light as the assumed scene
1209             illumination for white balance.
1210
1211             The application's values for android.colorCorrection.transform
1212             and android.colorCorrection.gains are ignored.
1213             For devices that support the MANUAL_POST_PROCESSING capability, the
1214             values used by the camera device for the transform and gains
1215             will be available in the capture result for this request.
1216             </notes>
1217             </value>
1218           </enum>
1219           <description>Whether auto-white balance (AWB) is currently setting the color
1220           transform fields, and what its illumination target
1221           is.</description>
1222           <range>android.control.awbAvailableModes</range>
1223           <details>
1224           This control is only effective if android.control.mode is AUTO.
1225
1226           When set to the ON mode, the camera device's auto-white balance
1227           routine is enabled, overriding the application's selected
1228           android.colorCorrection.transform, android.colorCorrection.gains and
1229           android.colorCorrection.mode. Note that when android.control.aeMode
1230           is OFF, the behavior of AWB is device dependent. It is recommened to
1231           also set AWB mode to OFF or lock AWB by using android.control.awbLock before
1232           setting AE mode to OFF.
1233
1234           When set to the OFF mode, the camera device's auto-white balance
1235           routine is disabled. The application manually controls the white
1236           balance by android.colorCorrection.transform, android.colorCorrection.gains
1237           and android.colorCorrection.mode.
1238
1239           When set to any other modes, the camera device's auto-white
1240           balance routine is disabled. The camera device uses each
1241           particular illumination target for white balance
1242           adjustment. The application's values for
1243           android.colorCorrection.transform,
1244           android.colorCorrection.gains and
1245           android.colorCorrection.mode are ignored.
1246           </details>
1247           <tag id="BC" />
1248         </entry>
1249         <entry name="awbRegions" type="int32" visibility="public"
1250                optional="true" container="array" typedef="meteringRectangle">
1251           <array>
1252             <size>5</size>
1253             <size>area_count</size>
1254           </array>
1255           <description>List of metering areas to use for auto-white-balance illuminant
1256           estimation.</description>
1257           <units>Pixel coordinates within android.sensor.info.activeArraySize</units>
1258           <range>Coordinates must be between `[(0,0), (width, height))` of
1259           android.sensor.info.activeArraySize</range>
1260           <details>
1261               Not available if android.control.maxRegionsAwb is 0.
1262               Otherwise will always be present.
1263
1264               The maximum number of regions supported by the device is determined by the value
1265               of android.control.maxRegionsAwb.
1266
1267               The data representation is int[5 * area_count].
1268               Every five elements represent a metering region of (xmin, ymin, xmax, ymax, weight).
1269               The rectangle is defined to be inclusive on xmin and ymin, but exclusive on xmax and
1270               ymax.
1271
1272               The coordinate system is based on the active pixel array,
1273               with (0,0) being the top-left pixel in the active pixel array, and
1274               (android.sensor.info.activeArraySize.width - 1,
1275               android.sensor.info.activeArraySize.height - 1) being the
1276               bottom-right pixel in the active pixel array.
1277
1278               The weight must range from 0 to 1000, and represents a weight
1279               for every pixel in the area. This means that a large metering area
1280               with the same weight as a smaller area will have more effect in
1281               the metering result. Metering areas can partially overlap and the
1282               camera device will add the weights in the overlap region.
1283
1284               The weights are relative to weights of other white balance metering regions, so if
1285               only one region is used, all non-zero weights will have the same effect. A region with
1286               0 weight is ignored.
1287
1288               If all regions have 0 weight, then no specific metering area needs to be used by the
1289               camera device.
1290
1291               If the metering region is outside the used android.scaler.cropRegion returned in
1292               capture result metadata, the camera device will ignore the sections outside the crop
1293               region and output only the intersection rectangle as the metering region in the result
1294               metadata.  If the region is entirely outside the crop region, it will be ignored and
1295               not reported in the result metadata.
1296           </details>
1297           <hal_details>
1298               The HAL level representation of MeteringRectangle[] is a
1299               int[5 * area_count].
1300               Every five elements represent a metering region of
1301               (xmin, ymin, xmax, ymax, weight).
1302               The rectangle is defined to be inclusive on xmin and ymin, but
1303               exclusive on xmax and ymax.
1304           </hal_details>
1305           <tag id="BC" />
1306         </entry>
1307         <entry name="captureIntent" type="byte" visibility="public" enum="true"
1308                hwlevel="legacy">
1309           <enum>
1310             <value>CUSTOM
1311             <notes>The goal of this request doesn't fall into the other
1312             categories. The camera device will default to preview-like
1313             behavior.</notes></value>
1314             <value>PREVIEW
1315             <notes>This request is for a preview-like use case.
1316
1317             The precapture trigger may be used to start off a metering
1318             w/flash sequence.
1319             </notes></value>
1320             <value>STILL_CAPTURE
1321             <notes>This request is for a still capture-type
1322             use case.
1323
1324             If the flash unit is under automatic control, it may fire as needed.
1325             </notes></value>
1326             <value>VIDEO_RECORD
1327             <notes>This request is for a video recording
1328             use case.</notes></value>
1329             <value>VIDEO_SNAPSHOT
1330             <notes>This request is for a video snapshot (still
1331             image while recording video) use case.
1332
1333             The camera device should take the highest-quality image
1334             possible (given the other settings) without disrupting the
1335             frame rate of video recording.  </notes></value>
1336             <value>ZERO_SHUTTER_LAG
1337             <notes>This request is for a ZSL usecase; the
1338             application will stream full-resolution images and
1339             reprocess one or several later for a final
1340             capture.
1341             </notes></value>
1342             <value>MANUAL
1343             <notes>This request is for manual capture use case where
1344             the applications want to directly control the capture parameters.
1345
1346             For example, the application may wish to manually control
1347             android.sensor.exposureTime, android.sensor.sensitivity, etc.
1348             </notes></value>
1349           </enum>
1350           <description>Information to the camera device 3A (auto-exposure,
1351           auto-focus, auto-white balance) routines about the purpose
1352           of this capture, to help the camera device to decide optimal 3A
1353           strategy.</description>
1354           <details>This control (except for MANUAL) is only effective if
1355           `android.control.mode != OFF` and any 3A routine is active.
1356
1357           ZERO_SHUTTER_LAG will be supported if android.request.availableCapabilities
1358           contains PRIVATE_REPROCESSING or YUV_REPROCESSING. MANUAL will be supported if
1359           android.request.availableCapabilities contains MANUAL_SENSOR. Other intent values are
1360           always supported.
1361           </details>
1362           <tag id="BC" />
1363         </entry>
1364         <entry name="effectMode" type="byte" visibility="public" enum="true"
1365                hwlevel="legacy">
1366           <enum>
1367             <value>OFF
1368               <notes>
1369               No color effect will be applied.
1370               </notes>
1371             </value>
1372             <value optional="true">MONO
1373               <notes>
1374               A "monocolor" effect where the image is mapped into
1375               a single color.
1376
1377               This will typically be grayscale.
1378               </notes>
1379             </value>
1380             <value optional="true">NEGATIVE
1381               <notes>
1382               A "photo-negative" effect where the image's colors
1383               are inverted.
1384               </notes>
1385             </value>
1386             <value optional="true">SOLARIZE
1387               <notes>
1388               A "solarisation" effect (Sabattier effect) where the
1389               image is wholly or partially reversed in
1390               tone.
1391               </notes>
1392             </value>
1393             <value optional="true">SEPIA
1394               <notes>
1395               A "sepia" effect where the image is mapped into warm
1396               gray, red, and brown tones.
1397               </notes>
1398             </value>
1399             <value optional="true">POSTERIZE
1400               <notes>
1401               A "posterization" effect where the image uses
1402               discrete regions of tone rather than a continuous
1403               gradient of tones.
1404               </notes>
1405             </value>
1406             <value optional="true">WHITEBOARD
1407               <notes>
1408               A "whiteboard" effect where the image is typically displayed
1409               as regions of white, with black or grey details.
1410               </notes>
1411             </value>
1412             <value optional="true">BLACKBOARD
1413               <notes>
1414               A "blackboard" effect where the image is typically displayed
1415               as regions of black, with white or grey details.
1416               </notes>
1417             </value>
1418             <value optional="true">AQUA
1419               <notes>
1420               An "aqua" effect where a blue hue is added to the image.
1421               </notes>
1422             </value>
1423           </enum>
1424           <description>A special color effect to apply.</description>
1425           <range>android.control.availableEffects</range>
1426           <details>
1427           When this mode is set, a color effect will be applied
1428           to images produced by the camera device. The interpretation
1429           and implementation of these color effects is left to the
1430           implementor of the camera device, and should not be
1431           depended on to be consistent (or present) across all
1432           devices.
1433           </details>
1434           <tag id="BC" />
1435         </entry>
1436         <entry name="mode" type="byte" visibility="public" enum="true"
1437                hwlevel="legacy">
1438           <enum>
1439             <value>OFF
1440             <notes>Full application control of pipeline.
1441
1442             All control by the device's metering and focusing (3A)
1443             routines is disabled, and no other settings in
1444             android.control.* have any effect, except that
1445             android.control.captureIntent may be used by the camera
1446             device to select post-processing values for processing
1447             blocks that do not allow for manual control, or are not
1448             exposed by the camera API.
1449
1450             However, the camera device's 3A routines may continue to
1451             collect statistics and update their internal state so that
1452             when control is switched to AUTO mode, good control values
1453             can be immediately applied.
1454             </notes></value>
1455             <value>AUTO
1456             <notes>Use settings for each individual 3A routine.
1457
1458             Manual control of capture parameters is disabled. All
1459             controls in android.control.* besides sceneMode take
1460             effect.</notes></value>
1461             <value optional="true">USE_SCENE_MODE
1462             <notes>Use a specific scene mode.
1463
1464             Enabling this disables control.aeMode, control.awbMode and
1465             control.afMode controls; the camera device will ignore
1466             those settings while USE_SCENE_MODE is active (except for
1467             FACE_PRIORITY scene mode). Other control entries are still active.
1468             This setting can only be used if scene mode is supported (i.e.
1469             android.control.availableSceneModes
1470             contain some modes other than DISABLED).</notes></value>
1471             <value optional="true">OFF_KEEP_STATE
1472             <notes>Same as OFF mode, except that this capture will not be
1473             used by camera device background auto-exposure, auto-white balance and
1474             auto-focus algorithms (3A) to update their statistics.
1475
1476             Specifically, the 3A routines are locked to the last
1477             values set from a request with AUTO, OFF, or
1478             USE_SCENE_MODE, and any statistics or state updates
1479             collected from manual captures with OFF_KEEP_STATE will be
1480             discarded by the camera device.
1481             </notes></value>
1482           </enum>
1483           <description>Overall mode of 3A (auto-exposure, auto-white-balance, auto-focus) control
1484           routines.</description>
1485           <range>android.control.availableModes</range>
1486           <details>
1487           This is a top-level 3A control switch. When set to OFF, all 3A control
1488           by the camera device is disabled. The application must set the fields for
1489           capture parameters itself.
1490
1491           When set to AUTO, the individual algorithm controls in
1492           android.control.* are in effect, such as android.control.afMode.
1493
1494           When set to USE_SCENE_MODE, the individual controls in
1495           android.control.* are mostly disabled, and the camera device implements
1496           one of the scene mode settings (such as ACTION, SUNSET, or PARTY)
1497           as it wishes. The camera device scene mode 3A settings are provided by
1498           capture results {@link ACameraMetadata} from
1499           {@link ACameraCaptureSession_captureCallback_result}.
1500
1501           When set to OFF_KEEP_STATE, it is similar to OFF mode, the only difference
1502           is that this frame will not be used by camera device background 3A statistics
1503           update, as if this frame is never captured. This mode can be used in the scenario
1504           where the application doesn't want a 3A manual control capture to affect
1505           the subsequent auto 3A capture results.
1506           </details>
1507           <tag id="BC" />
1508         </entry>
1509         <entry name="sceneMode" type="byte" visibility="public" enum="true"
1510                hwlevel="legacy">
1511           <enum>
1512             <value id="0">DISABLED
1513               <notes>
1514               Indicates that no scene modes are set for a given capture request.
1515               </notes>
1516             </value>
1517             <value>FACE_PRIORITY
1518               <notes>If face detection support exists, use face
1519               detection data for auto-focus, auto-white balance, and
1520               auto-exposure routines.
1521
1522               If face detection statistics are disabled
1523               (i.e. android.statistics.faceDetectMode is set to OFF),
1524               this should still operate correctly (but will not return
1525               face detection statistics to the framework).
1526
1527               Unlike the other scene modes, android.control.aeMode,
1528               android.control.awbMode, and android.control.afMode
1529               remain active when FACE_PRIORITY is set.
1530               </notes>
1531             </value>
1532             <value optional="true">ACTION
1533               <notes>
1534               Optimized for photos of quickly moving objects.
1535
1536               Similar to SPORTS.
1537               </notes>
1538             </value>
1539             <value optional="true">PORTRAIT
1540               <notes>
1541               Optimized for still photos of people.
1542               </notes>
1543             </value>
1544             <value optional="true">LANDSCAPE
1545               <notes>
1546               Optimized for photos of distant macroscopic objects.
1547               </notes>
1548             </value>
1549             <value optional="true">NIGHT
1550               <notes>
1551               Optimized for low-light settings.
1552               </notes>
1553             </value>
1554             <value optional="true">NIGHT_PORTRAIT
1555               <notes>
1556               Optimized for still photos of people in low-light
1557               settings.
1558               </notes>
1559             </value>
1560             <value optional="true">THEATRE
1561               <notes>
1562               Optimized for dim, indoor settings where flash must
1563               remain off.
1564               </notes>
1565             </value>
1566             <value optional="true">BEACH
1567               <notes>
1568               Optimized for bright, outdoor beach settings.
1569               </notes>
1570             </value>
1571             <value optional="true">SNOW
1572               <notes>
1573               Optimized for bright, outdoor settings containing snow.
1574               </notes>
1575             </value>
1576             <value optional="true">SUNSET
1577               <notes>
1578               Optimized for scenes of the setting sun.
1579               </notes>
1580             </value>
1581             <value optional="true">STEADYPHOTO
1582               <notes>
1583               Optimized to avoid blurry photos due to small amounts of
1584               device motion (for example: due to hand shake).
1585               </notes>
1586             </value>
1587             <value optional="true">FIREWORKS
1588               <notes>
1589               Optimized for nighttime photos of fireworks.
1590               </notes>
1591             </value>
1592             <value optional="true">SPORTS
1593               <notes>
1594               Optimized for photos of quickly moving people.
1595
1596               Similar to ACTION.
1597               </notes>
1598             </value>
1599             <value optional="true">PARTY
1600               <notes>
1601               Optimized for dim, indoor settings with multiple moving
1602               people.
1603               </notes>
1604             </value>
1605             <value optional="true">CANDLELIGHT
1606               <notes>
1607               Optimized for dim settings where the main light source
1608               is a flame.
1609               </notes>
1610             </value>
1611             <value optional="true">BARCODE
1612               <notes>
1613               Optimized for accurately capturing a photo of barcode
1614               for use by camera applications that wish to read the
1615               barcode value.
1616               </notes>
1617             </value>
1618             <value deprecated="true" optional="true" ndk_hidden="true">HIGH_SPEED_VIDEO
1619               <notes>
1620               This is deprecated, please use {@link
1621               android.hardware.camera2.CameraDevice#createConstrainedHighSpeedCaptureSession}
1622               and {@link
1623               android.hardware.camera2.CameraConstrainedHighSpeedCaptureSession#createHighSpeedRequestList}
1624               for high speed video recording.
1625
1626               Optimized for high speed video recording (frame rate >=60fps) use case.
1627
1628               The supported high speed video sizes and fps ranges are specified in
1629               android.control.availableHighSpeedVideoConfigurations. To get desired
1630               output frame rates, the application is only allowed to select video size
1631               and fps range combinations listed in this static metadata. The fps range
1632               can be control via android.control.aeTargetFpsRange.
1633
1634               In this mode, the camera device will override aeMode, awbMode, and afMode to
1635               ON, ON, and CONTINUOUS_VIDEO, respectively. All post-processing block mode
1636               controls will be overridden to be FAST. Therefore, no manual control of capture
1637               and post-processing parameters is possible. All other controls operate the
1638               same as when android.control.mode == AUTO. This means that all other
1639               android.control.* fields continue to work, such as
1640
1641               * android.control.aeTargetFpsRange
1642               * android.control.aeExposureCompensation
1643               * android.control.aeLock
1644               * android.control.awbLock
1645               * android.control.effectMode
1646               * android.control.aeRegions
1647               * android.control.afRegions
1648               * android.control.awbRegions
1649               * android.control.afTrigger
1650               * android.control.aePrecaptureTrigger
1651
1652               Outside of android.control.*, the following controls will work:
1653
1654               * android.flash.mode (automatic flash for still capture will not work since aeMode is ON)
1655               * android.lens.opticalStabilizationMode (if it is supported)
1656               * android.scaler.cropRegion
1657               * android.statistics.faceDetectMode
1658
1659               For high speed recording use case, the actual maximum supported frame rate may
1660               be lower than what camera can output, depending on the destination Surfaces for
1661               the image data. For example, if the destination surface is from video encoder,
1662               the application need check if the video encoder is capable of supporting the
1663               high frame rate for a given video size, or it will end up with lower recording
1664               frame rate. If the destination surface is from preview window, the preview frame
1665               rate will be bounded by the screen refresh rate.
1666
1667               The camera device will only support up to 2 output high speed streams
1668               (processed non-stalling format defined in android.request.maxNumOutputStreams)
1669               in this mode. This control will be effective only if all of below conditions are true:
1670
1671               * The application created no more than maxNumHighSpeedStreams processed non-stalling
1672               format output streams, where maxNumHighSpeedStreams is calculated as
1673               min(2, android.request.maxNumOutputStreams[Processed (but not-stalling)]).
1674               * The stream sizes are selected from the sizes reported by
1675               android.control.availableHighSpeedVideoConfigurations.
1676               * No processed non-stalling or raw streams are configured.
1677
1678               When above conditions are NOT satistied, the controls of this mode and
1679               android.control.aeTargetFpsRange will be ignored by the camera device,
1680               the camera device will fall back to android.control.mode `==` AUTO,
1681               and the returned capture result metadata will give the fps range choosen
1682               by the camera device.
1683
1684               Switching into or out of this mode may trigger some camera ISP/sensor
1685               reconfigurations, which may introduce extra latency. It is recommended that
1686               the application avoids unnecessary scene mode switch as much as possible.
1687               </notes>
1688             </value>
1689             <value optional="true">HDR
1690               <notes>
1691               Turn on a device-specific high dynamic range (HDR) mode.
1692
1693               In this scene mode, the camera device captures images
1694               that keep a larger range of scene illumination levels
1695               visible in the final image. For example, when taking a
1696               picture of a object in front of a bright window, both
1697               the object and the scene through the window may be
1698               visible when using HDR mode, while in normal AUTO mode,
1699               one or the other may be poorly exposed. As a tradeoff,
1700               HDR mode generally takes much longer to capture a single
1701               image, has no user control, and may have other artifacts
1702               depending on the HDR method used.
1703
1704               Therefore, HDR captures operate at a much slower rate
1705               than regular captures.
1706
1707               In this mode, on LIMITED or FULL devices, when a request
1708               is made with a android.control.captureIntent of
1709               STILL_CAPTURE, the camera device will capture an image
1710               using a high dynamic range capture technique.  On LEGACY
1711               devices, captures that target a JPEG-format output will
1712               be captured with HDR, and the capture intent is not
1713               relevant.
1714
1715               The HDR capture may involve the device capturing a burst
1716               of images internally and combining them into one, or it
1717               may involve the device using specialized high dynamic
1718               range capture hardware. In all cases, a single image is
1719               produced in response to a capture request submitted
1720               while in HDR mode.
1721
1722               Since substantial post-processing is generally needed to
1723               produce an HDR image, only YUV, PRIVATE, and JPEG
1724               outputs are supported for LIMITED/FULL device HDR
1725               captures, and only JPEG outputs are supported for LEGACY
1726               HDR captures. Using a RAW output for HDR capture is not
1727               supported.
1728
1729               Some devices may also support always-on HDR, which
1730               applies HDR processing at full frame rate.  For these
1731               devices, intents other than STILL_CAPTURE will also
1732               produce an HDR output with no frame rate impact compared
1733               to normal operation, though the quality may be lower
1734               than for STILL_CAPTURE intents.
1735
1736               If SCENE_MODE_HDR is used with unsupported output types
1737               or capture intents, the images captured will be as if
1738               the SCENE_MODE was not enabled at all.
1739               </notes>
1740             </value>
1741             <value optional="true" hidden="true">FACE_PRIORITY_LOW_LIGHT
1742               <notes>Same as FACE_PRIORITY scene mode, except that the camera
1743               device will choose higher sensitivity values (android.sensor.sensitivity)
1744               under low light conditions.
1745
1746               The camera device may be tuned to expose the images in a reduced
1747               sensitivity range to produce the best quality images. For example,
1748               if the android.sensor.info.sensitivityRange gives range of [100, 1600],
1749               the camera device auto-exposure routine tuning process may limit the actual
1750               exposure sensitivity range to [100, 1200] to ensure that the noise level isn't
1751               exessive in order to preserve the image quality. Under this situation, the image under
1752               low light may be under-exposed when the sensor max exposure time (bounded by the
1753               android.control.aeTargetFpsRange when android.control.aeMode is one of the
1754               ON_* modes) and effective max sensitivity are reached. This scene mode allows the
1755               camera device auto-exposure routine to increase the sensitivity up to the max
1756               sensitivity specified by android.sensor.info.sensitivityRange when the scene is too
1757               dark and the max exposure time is reached. The captured images may be noisier
1758               compared with the images captured in normal FACE_PRIORITY mode; therefore, it is
1759               recommended that the application only use this scene mode when it is capable of
1760               reducing the noise level of the captured images.
1761
1762               Unlike the other scene modes, android.control.aeMode,
1763               android.control.awbMode, and android.control.afMode
1764               remain active when FACE_PRIORITY_LOW_LIGHT is set.
1765               </notes>
1766             </value>
1767             <value optional="true" hidden="true" id="100">DEVICE_CUSTOM_START
1768               <notes>
1769                 Scene mode values within the range of
1770                 `[DEVICE_CUSTOM_START, DEVICE_CUSTOM_END]` are reserved for device specific
1771                 customized scene modes.
1772               </notes>
1773             </value>
1774             <value optional="true" hidden="true" id="127">DEVICE_CUSTOM_END
1775               <notes>
1776                 Scene mode values within the range of
1777                 `[DEVICE_CUSTOM_START, DEVICE_CUSTOM_END]` are reserved for device specific
1778                 customized scene modes.
1779               </notes>
1780             </value>
1781           </enum>
1782           <description>
1783           Control for which scene mode is currently active.
1784           </description>
1785           <range>android.control.availableSceneModes</range>
1786           <details>
1787           Scene modes are custom camera modes optimized for a certain set of conditions and
1788           capture settings.
1789
1790           This is the mode that that is active when
1791           `android.control.mode == USE_SCENE_MODE`. Aside from FACE_PRIORITY, these modes will
1792           disable android.control.aeMode, android.control.awbMode, and android.control.afMode
1793           while in use.
1794
1795           The interpretation and implementation of these scene modes is left
1796           to the implementor of the camera device. Their behavior will not be
1797           consistent across all devices, and any given device may only implement
1798           a subset of these modes.
1799           </details>
1800           <hal_details>
1801           HAL implementations that include scene modes are expected to provide
1802           the per-scene settings to use for android.control.aeMode,
1803           android.control.awbMode, and android.control.afMode in
1804           android.control.sceneModeOverrides.
1805
1806           For HIGH_SPEED_VIDEO mode, if it is included in android.control.availableSceneModes,
1807           the HAL must list supported video size and fps range in
1808           android.control.availableHighSpeedVideoConfigurations. For a given size, e.g.
1809           1280x720, if the HAL has two different sensor configurations for normal streaming
1810           mode and high speed streaming, when this scene mode is set/reset in a sequence of capture
1811           requests, the HAL may have to switch between different sensor modes.
1812           This mode is deprecated in HAL3.3, to support high speed video recording, please implement
1813           android.control.availableHighSpeedVideoConfigurations and CONSTRAINED_HIGH_SPEED_VIDEO
1814           capbility defined in android.request.availableCapabilities.
1815           </hal_details>
1816           <tag id="BC" />
1817         </entry>
1818         <entry name="videoStabilizationMode" type="byte" visibility="public"
1819                enum="true" hwlevel="legacy">
1820           <enum>
1821             <value>OFF
1822             <notes>
1823               Video stabilization is disabled.
1824             </notes></value>
1825             <value>ON
1826             <notes>
1827               Video stabilization is enabled.
1828             </notes></value>
1829           </enum>
1830           <description>Whether video stabilization is
1831           active.</description>
1832           <details>
1833           Video stabilization automatically warps images from
1834           the camera in order to stabilize motion between consecutive frames.
1835
1836           If enabled, video stabilization can modify the
1837           android.scaler.cropRegion to keep the video stream stabilized.
1838
1839           Switching between different video stabilization modes may take several
1840           frames to initialize, the camera device will report the current mode
1841           in capture result metadata. For example, When "ON" mode is requested,
1842           the video stabilization modes in the first several capture results may
1843           still be "OFF", and it will become "ON" when the initialization is
1844           done.
1845
1846           In addition, not all recording sizes or frame rates may be supported for
1847           stabilization by a device that reports stabilization support. It is guaranteed
1848           that an output targeting a MediaRecorder or MediaCodec will be stabilized if
1849           the recording resolution is less than or equal to 1920 x 1080 (width less than
1850           or equal to 1920, height less than or equal to 1080), and the recording
1851           frame rate is less than or equal to 30fps.  At other sizes, the CaptureResult
1852           android.control.videoStabilizationMode field will return
1853           OFF if the recording output is not stabilized, or if there are no output
1854           Surface types that can be stabilized.
1855
1856           If a camera device supports both this mode and OIS
1857           (android.lens.opticalStabilizationMode), turning both modes on may
1858           produce undesirable interaction, so it is recommended not to enable
1859           both at the same time.
1860           </details>
1861           <tag id="BC" />
1862         </entry>
1863       </controls>
1864       <static>
1865         <entry name="aeAvailableAntibandingModes" type="byte" visibility="public"
1866                type_notes="list of enums" container="array" typedef="enumList"
1867                hwlevel="legacy">
1868           <array>
1869             <size>n</size>
1870           </array>
1871           <description>
1872             List of auto-exposure antibanding modes for android.control.aeAntibandingMode that are
1873             supported by this camera device.
1874           </description>
1875           <range>Any value listed in android.control.aeAntibandingMode</range>
1876           <details>
1877             Not all of the auto-exposure anti-banding modes may be
1878             supported by a given camera device. This field lists the
1879             valid anti-banding modes that the application may request
1880             for this camera device with the
1881             android.control.aeAntibandingMode control.
1882           </details>
1883           <tag id="BC" />
1884         </entry>
1885         <entry name="aeAvailableModes" type="byte" visibility="public"
1886                type_notes="list of enums" container="array" typedef="enumList"
1887                hwlevel="legacy">
1888           <array>
1889             <size>n</size>
1890           </array>
1891           <description>
1892             List of auto-exposure modes for android.control.aeMode that are supported by this camera
1893             device.
1894           </description>
1895           <range>Any value listed in android.control.aeMode</range>
1896           <details>
1897             Not all the auto-exposure modes may be supported by a
1898             given camera device, especially if no flash unit is
1899             available. This entry lists the valid modes for
1900             android.control.aeMode for this camera device.
1901
1902             All camera devices support ON, and all camera devices with flash
1903             units support ON_AUTO_FLASH and ON_ALWAYS_FLASH.
1904
1905             FULL mode camera devices always support OFF mode,
1906             which enables application control of camera exposure time,
1907             sensitivity, and frame duration.
1908
1909             LEGACY mode camera devices never support OFF mode.
1910             LIMITED mode devices support OFF if they support the MANUAL_SENSOR
1911             capability.
1912           </details>
1913           <tag id="BC" />
1914         </entry>
1915         <entry name="aeAvailableTargetFpsRanges" type="int32" visibility="public"
1916                type_notes="list of pairs of frame rates"
1917                container="array" typedef="rangeInt"
1918                hwlevel="legacy">
1919           <array>
1920             <size>2</size>
1921             <size>n</size>
1922           </array>
1923           <description>List of frame rate ranges for android.control.aeTargetFpsRange supported by
1924           this camera device.</description>
1925           <units>Frames per second (FPS)</units>
1926           <details>
1927           For devices at the LEGACY level or above:
1928
1929           * For constant-framerate recording, for each normal
1930           [CamcorderProfile](https://developer.android.com/reference/android/media/CamcorderProfile.html), that is, a
1931           [CamcorderProfile](https://developer.android.com/reference/android/media/CamcorderProfile.html) that has
1932           [quality](https://developer.android.com/reference/android/media/CamcorderProfile.html#quality)
1933           in the range [
1934           [QUALITY_LOW](https://developer.android.com/reference/android/media/CamcorderProfile.html#QUALITY_LOW),
1935           [QUALITY_2160P](https://developer.android.com/reference/android/media/CamcorderProfile.html#QUALITY_2160P)],
1936           if the profile is supported by the device and has
1937           [videoFrameRate](https://developer.android.com/reference/android/media/CamcorderProfile.html#videoFrameRate)
1938           `x`, this list will always include (`x`,`x`).
1939
1940           * Also, a camera device must either not support any
1941           [CamcorderProfile](https://developer.android.com/reference/android/media/CamcorderProfile.html),
1942           or support at least one
1943           normal [CamcorderProfile](https://developer.android.com/reference/android/media/CamcorderProfile.html)
1944           that has
1945           [videoFrameRate](https://developer.android.com/reference/android/media/CamcorderProfile.html#videoFrameRate) `x` &gt;= 24.
1946
1947           For devices at the LIMITED level or above:
1948
1949           * For YUV_420_888 burst capture use case, this list will always include (`min`, `max`)
1950           and (`max`, `max`) where `min` &lt;= 15 and `max` = the maximum output frame rate of the
1951           maximum YUV_420_888 output size.
1952           </details>
1953           <tag id="BC" />
1954         </entry>
1955         <entry name="aeCompensationRange" type="int32" visibility="public"
1956                container="array" typedef="rangeInt"
1957                hwlevel="legacy">
1958           <array>
1959             <size>2</size>
1960           </array>
1961           <description>Maximum and minimum exposure compensation values for
1962           android.control.aeExposureCompensation, in counts of android.control.aeCompensationStep,
1963           that are supported by this camera device.</description>
1964           <range>
1965             Range [0,0] indicates that exposure compensation is not supported.
1966
1967             For LIMITED and FULL devices, range must follow below requirements if exposure
1968             compensation is supported (`range != [0, 0]`):
1969
1970             `Min.exposure compensation * android.control.aeCompensationStep &lt;= -2 EV`
1971
1972             `Max.exposure compensation * android.control.aeCompensationStep &gt;= 2 EV`
1973
1974             LEGACY devices may support a smaller range than this.
1975           </range>
1976           <tag id="BC" />
1977         </entry>
1978         <entry name="aeCompensationStep" type="rational" visibility="public"
1979                hwlevel="legacy">
1980           <description>Smallest step by which the exposure compensation
1981           can be changed.</description>
1982           <units>Exposure Value (EV)</units>
1983           <details>
1984           This is the unit for android.control.aeExposureCompensation. For example, if this key has
1985           a value of `1/2`, then a setting of `-2` for android.control.aeExposureCompensation means
1986           that the target EV offset for the auto-exposure routine is -1 EV.
1987
1988           One unit of EV compensation changes the brightness of the captured image by a factor
1989           of two. +1 EV doubles the image brightness, while -1 EV halves the image brightness.
1990           </details>
1991           <hal_details>
1992             This must be less than or equal to 1/2.
1993           </hal_details>
1994           <tag id="BC" />
1995         </entry>
1996         <entry name="afAvailableModes" type="byte" visibility="public"
1997                type_notes="List of enums" container="array" typedef="enumList"
1998                hwlevel="legacy">
1999           <array>
2000             <size>n</size>
2001           </array>
2002           <description>
2003           List of auto-focus (AF) modes for android.control.afMode that are
2004           supported by this camera device.
2005           </description>
2006           <range>Any value listed in android.control.afMode</range>
2007           <details>
2008           Not all the auto-focus modes may be supported by a
2009           given camera device. This entry lists the valid modes for
2010           android.control.afMode for this camera device.
2011
2012           All LIMITED and FULL mode camera devices will support OFF mode, and all
2013           camera devices with adjustable focuser units
2014           (`android.lens.info.minimumFocusDistance &gt; 0`) will support AUTO mode.
2015
2016           LEGACY devices will support OFF mode only if they support
2017           focusing to infinity (by also setting android.lens.focusDistance to
2018           `0.0f`).
2019           </details>
2020           <tag id="BC" />
2021         </entry>
2022         <entry name="availableEffects" type="byte" visibility="public"
2023                type_notes="List of enums (android.control.effectMode)." container="array"
2024                typedef="enumList" hwlevel="legacy">
2025           <array>
2026             <size>n</size>
2027           </array>
2028           <description>
2029           List of color effects for android.control.effectMode that are supported by this camera
2030           device.
2031           </description>
2032           <range>Any value listed in android.control.effectMode</range>
2033           <details>
2034           This list contains the color effect modes that can be applied to
2035           images produced by the camera device.
2036           Implementations are not expected to be consistent across all devices.
2037           If no color effect modes are available for a device, this will only list
2038           OFF.
2039
2040           A color effect will only be applied if
2041           android.control.mode != OFF.  OFF is always included in this list.
2042
2043           This control has no effect on the operation of other control routines such
2044           as auto-exposure, white balance, or focus.
2045           </details>
2046           <tag id="BC" />
2047         </entry>
2048         <entry name="availableSceneModes" type="byte" visibility="public"
2049                type_notes="List of enums (android.control.sceneMode)."
2050                container="array" typedef="enumList" hwlevel="legacy">
2051           <array>
2052             <size>n</size>
2053           </array>
2054           <description>
2055           List of scene modes for android.control.sceneMode that are supported by this camera
2056           device.
2057           </description>
2058           <range>Any value listed in android.control.sceneMode</range>
2059           <details>
2060           This list contains scene modes that can be set for the camera device.
2061           Only scene modes that have been fully implemented for the
2062           camera device may be included here. Implementations are not expected
2063           to be consistent across all devices.
2064
2065           If no scene modes are supported by the camera device, this
2066           will be set to DISABLED. Otherwise DISABLED will not be listed.
2067
2068           FACE_PRIORITY is always listed if face detection is
2069           supported (i.e.`android.statistics.info.maxFaceCount &gt;
2070           0`).
2071           </details>
2072           <tag id="BC" />
2073         </entry>
2074         <entry name="availableVideoStabilizationModes" type="byte"
2075                visibility="public" type_notes="List of enums." container="array"
2076                typedef="enumList" hwlevel="legacy">
2077           <array>
2078             <size>n</size>
2079           </array>
2080           <description>
2081           List of video stabilization modes for android.control.videoStabilizationMode
2082           that are supported by this camera device.
2083           </description>
2084           <range>Any value listed in android.control.videoStabilizationMode</range>
2085           <details>
2086           OFF will always be listed.
2087           </details>
2088           <tag id="BC" />
2089         </entry>
2090         <entry name="awbAvailableModes" type="byte" visibility="public"
2091                type_notes="List of enums"
2092                container="array" typedef="enumList" hwlevel="legacy">
2093           <array>
2094             <size>n</size>
2095           </array>
2096           <description>
2097           List of auto-white-balance modes for android.control.awbMode that are supported by this
2098           camera device.
2099           </description>
2100           <range>Any value listed in android.control.awbMode</range>
2101           <details>
2102           Not all the auto-white-balance modes may be supported by a
2103           given camera device. This entry lists the valid modes for
2104           android.control.awbMode for this camera device.
2105
2106           All camera devices will support ON mode.
2107
2108           Camera devices that support the MANUAL_POST_PROCESSING capability will always support OFF
2109           mode, which enables application control of white balance, by using
2110           android.colorCorrection.transform and android.colorCorrection.gains
2111           (android.colorCorrection.mode must be set to TRANSFORM_MATRIX). This includes all FULL
2112           mode camera devices.
2113           </details>
2114           <tag id="BC" />
2115         </entry>
2116         <entry name="maxRegions" type="int32" visibility="ndk_public"
2117                container="array" hwlevel="legacy">
2118           <array>
2119             <size>3</size>
2120           </array>
2121           <description>
2122           List of the maximum number of regions that can be used for metering in
2123           auto-exposure (AE), auto-white balance (AWB), and auto-focus (AF);
2124           this corresponds to the the maximum number of elements in
2125           android.control.aeRegions, android.control.awbRegions,
2126           and android.control.afRegions.
2127           </description>
2128           <range>
2129           Value must be &amp;gt;= 0 for each element. For full-capability devices
2130           this value must be &amp;gt;= 1 for AE and AF. The order of the elements is:
2131           `(AE, AWB, AF)`.</range>
2132           <tag id="BC" />
2133         </entry>
2134         <entry name="maxRegionsAe" type="int32" visibility="java_public"
2135                synthetic="true" hwlevel="legacy">
2136           <description>
2137           The maximum number of metering regions that can be used by the auto-exposure (AE)
2138           routine.
2139           </description>
2140           <range>Value will be &amp;gt;= 0. For FULL-capability devices, this
2141           value will be &amp;gt;= 1.
2142           </range>
2143           <details>
2144           This corresponds to the the maximum allowed number of elements in
2145           android.control.aeRegions.
2146           </details>
2147           <hal_details>This entry is private to the framework. Fill in
2148           maxRegions to have this entry be automatically populated.
2149           </hal_details>
2150         </entry>
2151         <entry name="maxRegionsAwb" type="int32" visibility="java_public"
2152                synthetic="true" hwlevel="legacy">
2153           <description>
2154           The maximum number of metering regions that can be used by the auto-white balance (AWB)
2155           routine.
2156           </description>
2157           <range>Value will be &amp;gt;= 0.
2158           </range>
2159           <details>
2160           This corresponds to the the maximum allowed number of elements in
2161           android.control.awbRegions.
2162           </details>
2163           <hal_details>This entry is private to the framework. Fill in
2164           maxRegions to have this entry be automatically populated.
2165           </hal_details>
2166         </entry>
2167         <entry name="maxRegionsAf" type="int32" visibility="java_public"
2168                synthetic="true" hwlevel="legacy">
2169           <description>
2170           The maximum number of metering regions that can be used by the auto-focus (AF) routine.
2171           </description>
2172           <range>Value will be &amp;gt;= 0. For FULL-capability devices, this
2173           value will be &amp;gt;= 1.
2174           </range>
2175           <details>
2176           This corresponds to the the maximum allowed number of elements in
2177           android.control.afRegions.
2178           </details>
2179           <hal_details>This entry is private to the framework. Fill in
2180           maxRegions to have this entry be automatically populated.
2181           </hal_details>
2182         </entry>
2183         <entry name="sceneModeOverrides" type="byte" visibility="system"
2184                container="array" hwlevel="limited">
2185           <array>
2186             <size>3</size>
2187             <size>length(availableSceneModes)</size>
2188           </array>
2189           <description>
2190           Ordered list of auto-exposure, auto-white balance, and auto-focus
2191           settings to use with each available scene mode.
2192           </description>
2193           <range>
2194           For each available scene mode, the list must contain three
2195           entries containing the android.control.aeMode,
2196           android.control.awbMode, and android.control.afMode values used
2197           by the camera device. The entry order is `(aeMode, awbMode, afMode)`
2198           where aeMode has the lowest index position.
2199           </range>
2200           <details>
2201           When a scene mode is enabled, the camera device is expected
2202           to override android.control.aeMode, android.control.awbMode,
2203           and android.control.afMode with its preferred settings for
2204           that scene mode.
2205
2206           The order of this list matches that of availableSceneModes,
2207           with 3 entries for each mode.  The overrides listed
2208           for FACE_PRIORITY and FACE_PRIORITY_LOW_LIGHT (if supported) are ignored,
2209           since for that mode the application-set android.control.aeMode,
2210           android.control.awbMode, and android.control.afMode values are
2211           used instead, matching the behavior when android.control.mode
2212           is set to AUTO. It is recommended that the FACE_PRIORITY and
2213           FACE_PRIORITY_LOW_LIGHT (if supported) overrides should be set to 0.
2214
2215           For example, if availableSceneModes contains
2216           `(FACE_PRIORITY, ACTION, NIGHT)`,  then the camera framework
2217           expects sceneModeOverrides to have 9 entries formatted like:
2218           `(0, 0, 0, ON_AUTO_FLASH, AUTO, CONTINUOUS_PICTURE,
2219           ON_AUTO_FLASH, INCANDESCENT, AUTO)`.
2220           </details>
2221           <hal_details>
2222           To maintain backward compatibility, this list will be made available
2223           in the static metadata of the camera service.  The camera service will
2224           use these values to set android.control.aeMode,
2225           android.control.awbMode, and android.control.afMode when using a scene
2226           mode other than FACE_PRIORITY and FACE_PRIORITY_LOW_LIGHT (if supported).
2227           </hal_details>
2228           <tag id="BC" />
2229         </entry>
2230       </static>
2231       <dynamic>
2232         <entry name="aePrecaptureId" type="int32" visibility="system" deprecated="true">
2233           <description>The ID sent with the latest
2234           CAMERA2_TRIGGER_PRECAPTURE_METERING call</description>
2235           <details>Must be 0 if no
2236           CAMERA2_TRIGGER_PRECAPTURE_METERING trigger received yet
2237           by HAL. Always updated even if AE algorithm ignores the
2238           trigger</details>
2239         </entry>
2240         <clone entry="android.control.aeAntibandingMode" kind="controls">
2241         </clone>
2242         <clone entry="android.control.aeExposureCompensation" kind="controls">
2243         </clone>
2244         <clone entry="android.control.aeLock" kind="controls">
2245         </clone>
2246         <clone entry="android.control.aeMode" kind="controls">
2247         </clone>
2248         <clone entry="android.control.aeRegions" kind="controls">
2249         </clone>
2250         <clone entry="android.control.aeTargetFpsRange" kind="controls">
2251         </clone>
2252         <clone entry="android.control.aePrecaptureTrigger" kind="controls">
2253         </clone>
2254         <entry name="aeState" type="byte" visibility="public" enum="true"
2255                hwlevel="limited">
2256           <enum>
2257             <value>INACTIVE
2258             <notes>AE is off or recently reset.
2259
2260             When a camera device is opened, it starts in
2261             this state. This is a transient state, the camera device may skip reporting
2262             this state in capture result.</notes></value>
2263             <value>SEARCHING
2264             <notes>AE doesn't yet have a good set of control values
2265             for the current scene.
2266
2267             This is a transient state, the camera device may skip
2268             reporting this state in capture result.</notes></value>
2269             <value>CONVERGED
2270             <notes>AE has a good set of control values for the
2271             current scene.</notes></value>
2272             <value>LOCKED
2273             <notes>AE has been locked.</notes></value>
2274             <value>FLASH_REQUIRED
2275             <notes>AE has a good set of control values, but flash
2276             needs to be fired for good quality still
2277             capture.</notes></value>
2278             <value>PRECAPTURE
2279             <notes>AE has been asked to do a precapture sequence
2280             and is currently executing it.
2281
2282             Precapture can be triggered through setting
2283             android.control.aePrecaptureTrigger to START. Currently
2284             active and completed (if it causes camera device internal AE lock) precapture
2285             metering sequence can be canceled through setting
2286             android.control.aePrecaptureTrigger to CANCEL.
2287
2288             Once PRECAPTURE completes, AE will transition to CONVERGED
2289             or FLASH_REQUIRED as appropriate. This is a transient
2290             state, the camera device may skip reporting this state in
2291             capture result.</notes></value>
2292           </enum>
2293           <description>Current state of the auto-exposure (AE) algorithm.</description>
2294           <details>Switching between or enabling AE modes (android.control.aeMode) always
2295           resets the AE state to INACTIVE. Similarly, switching between android.control.mode,
2296           or android.control.sceneMode if `android.control.mode == USE_SCENE_MODE` resets all
2297           the algorithm states to INACTIVE.
2298
2299           The camera device can do several state transitions between two results, if it is
2300           allowed by the state transition table. For example: INACTIVE may never actually be
2301           seen in a result.
2302
2303           The state in the result is the state for this image (in sync with this image): if
2304           AE state becomes CONVERGED, then the image data associated with this result should
2305           be good to use.
2306
2307           Below are state transition tables for different AE modes.
2308
2309             State       | Transition Cause | New State | Notes
2310           :------------:|:----------------:|:---------:|:-----------------------:
2311           INACTIVE      |                  | INACTIVE  | Camera device auto exposure algorithm is disabled
2312
2313           When android.control.aeMode is AE_MODE_ON_*:
2314
2315             State        | Transition Cause                             | New State      | Notes
2316           :-------------:|:--------------------------------------------:|:--------------:|:-----------------:
2317           INACTIVE       | Camera device initiates AE scan              | SEARCHING      | Values changing
2318           INACTIVE       | android.control.aeLock is ON                 | LOCKED         | Values locked
2319           SEARCHING      | Camera device finishes AE scan               | CONVERGED      | Good values, not changing
2320           SEARCHING      | Camera device finishes AE scan               | FLASH_REQUIRED | Converged but too dark w/o flash
2321           SEARCHING      | android.control.aeLock is ON                 | LOCKED         | Values locked
2322           CONVERGED      | Camera device initiates AE scan              | SEARCHING      | Values changing
2323           CONVERGED      | android.control.aeLock is ON                 | LOCKED         | Values locked
2324           FLASH_REQUIRED | Camera device initiates AE scan              | SEARCHING      | Values changing
2325           FLASH_REQUIRED | android.control.aeLock is ON                 | LOCKED         | Values locked
2326           LOCKED         | android.control.aeLock is OFF                | SEARCHING      | Values not good after unlock
2327           LOCKED         | android.control.aeLock is OFF                | CONVERGED      | Values good after unlock
2328           LOCKED         | android.control.aeLock is OFF                | FLASH_REQUIRED | Exposure good, but too dark
2329           PRECAPTURE     | Sequence done. android.control.aeLock is OFF | CONVERGED      | Ready for high-quality capture
2330           PRECAPTURE     | Sequence done. android.control.aeLock is ON  | LOCKED         | Ready for high-quality capture
2331           LOCKED         | aeLock is ON and aePrecaptureTrigger is START | LOCKED        | Precapture trigger is ignored when AE is already locked
2332           LOCKED         | aeLock is ON and aePrecaptureTrigger is CANCEL| LOCKED        | Precapture trigger is ignored when AE is already locked
2333           Any state (excluding LOCKED) | android.control.aePrecaptureTrigger is START | PRECAPTURE     | Start AE precapture metering sequence
2334           Any state (excluding LOCKED) | android.control.aePrecaptureTrigger is CANCEL| INACTIVE       | Currently active precapture metering sequence is canceled
2335
2336           For the above table, the camera device may skip reporting any state changes that happen
2337           without application intervention (i.e. mode switch, trigger, locking). Any state that
2338           can be skipped in that manner is called a transient state.
2339
2340           For example, for above AE modes (AE_MODE_ON_*), in addition to the state transitions
2341           listed in above table, it is also legal for the camera device to skip one or more
2342           transient states between two results. See below table for examples:
2343
2344             State        | Transition Cause                                            | New State      | Notes
2345           :-------------:|:-----------------------------------------------------------:|:--------------:|:-----------------:
2346           INACTIVE       | Camera device finished AE scan                              | CONVERGED      | Values are already good, transient states are skipped by camera device.
2347           Any state (excluding LOCKED) | android.control.aePrecaptureTrigger is START, sequence done | FLASH_REQUIRED | Converged but too dark w/o flash after a precapture sequence, transient states are skipped by camera device.
2348           Any state (excluding LOCKED) | android.control.aePrecaptureTrigger is START, sequence done | CONVERGED      | Converged after a precapture sequence, transient states are skipped by camera device.
2349           Any state (excluding LOCKED) | android.control.aePrecaptureTrigger is CANCEL, converged    | FLASH_REQUIRED | Converged but too dark w/o flash after a precapture sequence is canceled, transient states are skipped by camera device.
2350           Any state (excluding LOCKED) | android.control.aePrecaptureTrigger is CANCEL, converged    | CONVERGED      | Converged after a precapture sequenceis canceled, transient states are skipped by camera device.
2351           CONVERGED      | Camera device finished AE scan                              | FLASH_REQUIRED | Converged but too dark w/o flash after a new scan, transient states are skipped by camera device.
2352           FLASH_REQUIRED | Camera device finished AE scan                              | CONVERGED      | Converged after a new scan, transient states are skipped by camera device.
2353           </details>
2354         </entry>
2355         <clone entry="android.control.afMode" kind="controls">
2356         </clone>
2357         <clone entry="android.control.afRegions" kind="controls">
2358         </clone>
2359         <clone entry="android.control.afTrigger" kind="controls">
2360         </clone>
2361         <entry name="afState" type="byte" visibility="public" enum="true"
2362                hwlevel="legacy">
2363           <enum>
2364             <value>INACTIVE
2365             <notes>AF is off or has not yet tried to scan/been asked
2366             to scan.
2367
2368             When a camera device is opened, it starts in this
2369             state. This is a transient state, the camera device may
2370             skip reporting this state in capture
2371             result.</notes></value>
2372             <value>PASSIVE_SCAN
2373             <notes>AF is currently performing an AF scan initiated the
2374             camera device in a continuous autofocus mode.
2375
2376             Only used by CONTINUOUS_* AF modes. This is a transient
2377             state, the camera device may skip reporting this state in
2378             capture result.</notes></value>
2379             <value>PASSIVE_FOCUSED
2380             <notes>AF currently believes it is in focus, but may
2381             restart scanning at any time.
2382
2383             Only used by CONTINUOUS_* AF modes. This is a transient
2384             state, the camera device may skip reporting this state in
2385             capture result.</notes></value>
2386             <value>ACTIVE_SCAN
2387             <notes>AF is performing an AF scan because it was
2388             triggered by AF trigger.
2389
2390             Only used by AUTO or MACRO AF modes. This is a transient
2391             state, the camera device may skip reporting this state in
2392             capture result.</notes></value>
2393             <value>FOCUSED_LOCKED
2394             <notes>AF believes it is focused correctly and has locked
2395             focus.
2396
2397             This state is reached only after an explicit START AF trigger has been
2398             sent (android.control.afTrigger), when good focus has been obtained.
2399
2400             The lens will remain stationary until the AF mode (android.control.afMode) is changed or
2401             a new AF trigger is sent to the camera device (android.control.afTrigger).
2402             </notes></value>
2403             <value>NOT_FOCUSED_LOCKED
2404             <notes>AF has failed to focus successfully and has locked
2405             focus.
2406
2407             This state is reached only after an explicit START AF trigger has been
2408             sent (android.control.afTrigger), when good focus cannot be obtained.
2409
2410             The lens will remain stationary until the AF mode (android.control.afMode) is changed or
2411             a new AF trigger is sent to the camera device (android.control.afTrigger).
2412             </notes></value>
2413             <value>PASSIVE_UNFOCUSED
2414             <notes>AF finished a passive scan without finding focus,
2415             and may restart scanning at any time.
2416
2417             Only used by CONTINUOUS_* AF modes. This is a transient state, the camera
2418             device may skip reporting this state in capture result.
2419
2420             LEGACY camera devices do not support this state. When a passive
2421             scan has finished, it will always go to PASSIVE_FOCUSED.
2422             </notes></value>
2423           </enum>
2424           <description>Current state of auto-focus (AF) algorithm.</description>
2425           <details>
2426           Switching between or enabling AF modes (android.control.afMode) always
2427           resets the AF state to INACTIVE. Similarly, switching between android.control.mode,
2428           or android.control.sceneMode if `android.control.mode == USE_SCENE_MODE` resets all
2429           the algorithm states to INACTIVE.
2430
2431           The camera device can do several state transitions between two results, if it is
2432           allowed by the state transition table. For example: INACTIVE may never actually be
2433           seen in a result.
2434
2435           The state in the result is the state for this image (in sync with this image): if
2436           AF state becomes FOCUSED, then the image data associated with this result should
2437           be sharp.
2438
2439           Below are state transition tables for different AF modes.
2440
2441           When android.control.afMode is AF_MODE_OFF or AF_MODE_EDOF:
2442
2443             State       | Transition Cause | New State | Notes
2444           :------------:|:----------------:|:---------:|:-----------:
2445           INACTIVE      |                  | INACTIVE  | Never changes
2446
2447           When android.control.afMode is AF_MODE_AUTO or AF_MODE_MACRO:
2448
2449             State            | Transition Cause | New State          | Notes
2450           :-----------------:|:----------------:|:------------------:|:--------------:
2451           INACTIVE           | AF_TRIGGER       | ACTIVE_SCAN        | Start AF sweep, Lens now moving
2452           ACTIVE_SCAN        | AF sweep done    | FOCUSED_LOCKED     | Focused, Lens now locked
2453           ACTIVE_SCAN        | AF sweep done    | NOT_FOCUSED_LOCKED | Not focused, Lens now locked
2454           ACTIVE_SCAN        | AF_CANCEL        | INACTIVE           | Cancel/reset AF, Lens now locked
2455           FOCUSED_LOCKED     | AF_CANCEL        | INACTIVE           | Cancel/reset AF
2456           FOCUSED_LOCKED     | AF_TRIGGER       | ACTIVE_SCAN        | Start new sweep, Lens now moving
2457           NOT_FOCUSED_LOCKED | AF_CANCEL        | INACTIVE           | Cancel/reset AF
2458           NOT_FOCUSED_LOCKED | AF_TRIGGER       | ACTIVE_SCAN        | Start new sweep, Lens now moving
2459           Any state          | Mode change      | INACTIVE           |
2460
2461           For the above table, the camera device may skip reporting any state changes that happen
2462           without application intervention (i.e. mode switch, trigger, locking). Any state that
2463           can be skipped in that manner is called a transient state.
2464
2465           For example, for these AF modes (AF_MODE_AUTO and AF_MODE_MACRO), in addition to the
2466           state transitions listed in above table, it is also legal for the camera device to skip
2467           one or more transient states between two results. See below table for examples:
2468
2469             State            | Transition Cause | New State          | Notes
2470           :-----------------:|:----------------:|:------------------:|:--------------:
2471           INACTIVE           | AF_TRIGGER       | FOCUSED_LOCKED     | Focus is already good or good after a scan, lens is now locked.
2472           INACTIVE           | AF_TRIGGER       | NOT_FOCUSED_LOCKED | Focus failed after a scan, lens is now locked.
2473           FOCUSED_LOCKED     | AF_TRIGGER       | FOCUSED_LOCKED     | Focus is already good or good after a scan, lens is now locked.
2474           NOT_FOCUSED_LOCKED | AF_TRIGGER       | FOCUSED_LOCKED     | Focus is good after a scan, lens is not locked.
2475
2476
2477           When android.control.afMode is AF_MODE_CONTINUOUS_VIDEO:
2478
2479             State            | Transition Cause                    | New State          | Notes
2480           :-----------------:|:-----------------------------------:|:------------------:|:--------------:
2481           INACTIVE           | Camera device initiates new scan    | PASSIVE_SCAN       | Start AF scan, Lens now moving
2482           INACTIVE           | AF_TRIGGER                          | NOT_FOCUSED_LOCKED | AF state query, Lens now locked
2483           PASSIVE_SCAN       | Camera device completes current scan| PASSIVE_FOCUSED    | End AF scan, Lens now locked
2484           PASSIVE_SCAN       | Camera device fails current scan    | PASSIVE_UNFOCUSED  | End AF scan, Lens now locked
2485           PASSIVE_SCAN       | AF_TRIGGER                          | FOCUSED_LOCKED     | Immediate transition, if focus is good. Lens now locked
2486           PASSIVE_SCAN       | AF_TRIGGER                          | NOT_FOCUSED_LOCKED | Immediate transition, if focus is bad. Lens now locked
2487           PASSIVE_SCAN       | AF_CANCEL                           | INACTIVE           | Reset lens position, Lens now locked
2488           PASSIVE_FOCUSED    | Camera device initiates new scan    | PASSIVE_SCAN       | Start AF scan, Lens now moving
2489           PASSIVE_UNFOCUSED  | Camera device initiates new scan    | PASSIVE_SCAN       | Start AF scan, Lens now moving
2490           PASSIVE_FOCUSED    | AF_TRIGGER                          | FOCUSED_LOCKED     | Immediate transition, lens now locked
2491           PASSIVE_UNFOCUSED  | AF_TRIGGER                          | NOT_FOCUSED_LOCKED | Immediate transition, lens now locked
2492           FOCUSED_LOCKED     | AF_TRIGGER                          | FOCUSED_LOCKED     | No effect
2493           FOCUSED_LOCKED     | AF_CANCEL                           | INACTIVE           | Restart AF scan
2494           NOT_FOCUSED_LOCKED | AF_TRIGGER                          | NOT_FOCUSED_LOCKED | No effect
2495           NOT_FOCUSED_LOCKED | AF_CANCEL                           | INACTIVE           | Restart AF scan
2496
2497           When android.control.afMode is AF_MODE_CONTINUOUS_PICTURE:
2498
2499             State            | Transition Cause                     | New State          | Notes
2500           :-----------------:|:------------------------------------:|:------------------:|:--------------:
2501           INACTIVE           | Camera device initiates new scan     | PASSIVE_SCAN       | Start AF scan, Lens now moving
2502           INACTIVE           | AF_TRIGGER                           | NOT_FOCUSED_LOCKED | AF state query, Lens now locked
2503           PASSIVE_SCAN       | Camera device completes current scan | PASSIVE_FOCUSED    | End AF scan, Lens now locked
2504           PASSIVE_SCAN       | Camera device fails current scan     | PASSIVE_UNFOCUSED  | End AF scan, Lens now locked
2505           PASSIVE_SCAN       | AF_TRIGGER                           | FOCUSED_LOCKED     | Eventual transition once the focus is good. Lens now locked
2506           PASSIVE_SCAN       | AF_TRIGGER                           | NOT_FOCUSED_LOCKED | Eventual transition if cannot find focus. Lens now locked
2507           PASSIVE_SCAN       | AF_CANCEL                            | INACTIVE           | Reset lens position, Lens now locked
2508           PASSIVE_FOCUSED    | Camera device initiates new scan     | PASSIVE_SCAN       | Start AF scan, Lens now moving
2509           PASSIVE_UNFOCUSED  | Camera device initiates new scan     | PASSIVE_SCAN       | Start AF scan, Lens now moving
2510           PASSIVE_FOCUSED    | AF_TRIGGER                           | FOCUSED_LOCKED     | Immediate trans. Lens now locked
2511           PASSIVE_UNFOCUSED  | AF_TRIGGER                           | NOT_FOCUSED_LOCKED | Immediate trans. Lens now locked
2512           FOCUSED_LOCKED     | AF_TRIGGER                           | FOCUSED_LOCKED     | No effect
2513           FOCUSED_LOCKED     | AF_CANCEL                            | INACTIVE           | Restart AF scan
2514           NOT_FOCUSED_LOCKED | AF_TRIGGER                           | NOT_FOCUSED_LOCKED | No effect
2515           NOT_FOCUSED_LOCKED | AF_CANCEL                            | INACTIVE           | Restart AF scan
2516
2517           When switch between AF_MODE_CONTINUOUS_* (CAF modes) and AF_MODE_AUTO/AF_MODE_MACRO
2518           (AUTO modes), the initial INACTIVE or PASSIVE_SCAN states may be skipped by the
2519           camera device. When a trigger is included in a mode switch request, the trigger
2520           will be evaluated in the context of the new mode in the request.
2521           See below table for examples:
2522
2523             State      | Transition Cause                       | New State                                | Notes
2524           :-----------:|:--------------------------------------:|:----------------------------------------:|:--------------:
2525           any state    | CAF-->AUTO mode switch                 | INACTIVE                                 | Mode switch without trigger, initial state must be INACTIVE
2526           any state    | CAF-->AUTO mode switch with AF_TRIGGER | trigger-reachable states from INACTIVE   | Mode switch with trigger, INACTIVE is skipped
2527           any state    | AUTO-->CAF mode switch                 | passively reachable states from INACTIVE | Mode switch without trigger, passive transient state is skipped
2528           </details>
2529         </entry>
2530         <entry name="afTriggerId" type="int32" visibility="system" deprecated="true">
2531           <description>The ID sent with the latest
2532           CAMERA2_TRIGGER_AUTOFOCUS call</description>
2533           <details>Must be 0 if no CAMERA2_TRIGGER_AUTOFOCUS trigger
2534           received yet by HAL. Always updated even if AF algorithm
2535           ignores the trigger</details>
2536         </entry>
2537         <clone entry="android.control.awbLock" kind="controls">
2538         </clone>
2539         <clone entry="android.control.awbMode" kind="controls">
2540         </clone>
2541         <clone entry="android.control.awbRegions" kind="controls">
2542         </clone>
2543         <clone entry="android.control.captureIntent" kind="controls">
2544         </clone>
2545         <entry name="awbState" type="byte" visibility="public" enum="true"
2546                hwlevel="limited">
2547           <enum>
2548             <value>INACTIVE
2549             <notes>AWB is not in auto mode, or has not yet started metering.
2550
2551             When a camera device is opened, it starts in this
2552             state. This is a transient state, the camera device may
2553             skip reporting this state in capture
2554             result.</notes></value>
2555             <value>SEARCHING
2556             <notes>AWB doesn't yet have a good set of control
2557             values for the current scene.
2558
2559             This is a transient state, the camera device
2560             may skip reporting this state in capture result.</notes></value>
2561             <value>CONVERGED
2562             <notes>AWB has a good set of control values for the
2563             current scene.</notes></value>
2564             <value>LOCKED
2565             <notes>AWB has been locked.
2566             </notes></value>
2567           </enum>
2568           <description>Current state of auto-white balance (AWB) algorithm.</description>
2569           <details>Switching between or enabling AWB modes (android.control.awbMode) always
2570           resets the AWB state to INACTIVE. Similarly, switching between android.control.mode,
2571           or android.control.sceneMode if `android.control.mode == USE_SCENE_MODE` resets all
2572           the algorithm states to INACTIVE.
2573
2574           The camera device can do several state transitions between two results, if it is
2575           allowed by the state transition table. So INACTIVE may never actually be seen in
2576           a result.
2577
2578           The state in the result is the state for this image (in sync with this image): if
2579           AWB state becomes CONVERGED, then the image data associated with this result should
2580           be good to use.
2581
2582           Below are state transition tables for different AWB modes.
2583
2584           When `android.control.awbMode != AWB_MODE_AUTO`:
2585
2586             State       | Transition Cause | New State | Notes
2587           :------------:|:----------------:|:---------:|:-----------------------:
2588           INACTIVE      |                  |INACTIVE   |Camera device auto white balance algorithm is disabled
2589
2590           When android.control.awbMode is AWB_MODE_AUTO:
2591
2592             State        | Transition Cause                 | New State     | Notes
2593           :-------------:|:--------------------------------:|:-------------:|:-----------------:
2594           INACTIVE       | Camera device initiates AWB scan | SEARCHING     | Values changing
2595           INACTIVE       | android.control.awbLock is ON    | LOCKED        | Values locked
2596           SEARCHING      | Camera device finishes AWB scan  | CONVERGED     | Good values, not changing
2597           SEARCHING      | android.control.awbLock is ON    | LOCKED        | Values locked
2598           CONVERGED      | Camera device initiates AWB scan | SEARCHING     | Values changing
2599           CONVERGED      | android.control.awbLock is ON    | LOCKED        | Values locked
2600           LOCKED         | android.control.awbLock is OFF   | SEARCHING     | Values not good after unlock
2601
2602           For the above table, the camera device may skip reporting any state changes that happen
2603           without application intervention (i.e. mode switch, trigger, locking). Any state that
2604           can be skipped in that manner is called a transient state.
2605
2606           For example, for this AWB mode (AWB_MODE_AUTO), in addition to the state transitions
2607           listed in above table, it is also legal for the camera device to skip one or more
2608           transient states between two results. See below table for examples:
2609
2610             State        | Transition Cause                 | New State     | Notes
2611           :-------------:|:--------------------------------:|:-------------:|:-----------------:
2612           INACTIVE       | Camera device finished AWB scan  | CONVERGED     | Values are already good, transient states are skipped by camera device.
2613           LOCKED         | android.control.awbLock is OFF   | CONVERGED     | Values good after unlock, transient states are skipped by camera device.
2614           </details>
2615         </entry>
2616         <clone entry="android.control.effectMode" kind="controls">
2617         </clone>
2618         <clone entry="android.control.mode" kind="controls">
2619         </clone>
2620         <clone entry="android.control.sceneMode" kind="controls">
2621         </clone>
2622         <clone entry="android.control.videoStabilizationMode" kind="controls">
2623         </clone>
2624       </dynamic>
2625       <static>
2626         <entry name="availableHighSpeedVideoConfigurations" type="int32" visibility="hidden"
2627                container="array" typedef="highSpeedVideoConfiguration" hwlevel="limited">
2628           <array>
2629             <size>5</size>
2630             <size>n</size>
2631           </array>
2632           <description>
2633           List of available high speed video size, fps range and max batch size configurations
2634           supported by the camera device, in the format of (width, height, fps_min, fps_max, batch_size_max).
2635           </description>
2636           <range>
2637           For each configuration, the fps_max &amp;gt;= 120fps.
2638           </range>
2639           <details>
2640           When CONSTRAINED_HIGH_SPEED_VIDEO is supported in android.request.availableCapabilities,
2641           this metadata will list the supported high speed video size, fps range and max batch size
2642           configurations. All the sizes listed in this configuration will be a subset of the sizes
2643           reported by {@link android.hardware.camera2.params.StreamConfigurationMap#getOutputSizes}
2644           for processed non-stalling formats.
2645
2646           For the high speed video use case, the application must
2647           select the video size and fps range from this metadata to configure the recording and
2648           preview streams and setup the recording requests. For example, if the application intends
2649           to do high speed recording, it can select the maximum size reported by this metadata to
2650           configure output streams. Once the size is selected, application can filter this metadata
2651           by selected size and get the supported fps ranges, and use these fps ranges to setup the
2652           recording requests. Note that for the use case of multiple output streams, application
2653           must select one unique size from this metadata to use (e.g., preview and recording streams
2654           must have the same size). Otherwise, the high speed capture session creation will fail.
2655
2656           The min and max fps will be multiple times of 30fps.
2657
2658           High speed video streaming extends significant performance pressue to camera hardware,
2659           to achieve efficient high speed streaming, the camera device may have to aggregate
2660           multiple frames together and send to camera device for processing where the request
2661           controls are same for all the frames in this batch. Max batch size indicates
2662           the max possible number of frames the camera device will group together for this high
2663           speed stream configuration. This max batch size will be used to generate a high speed
2664           recording request list by
2665           {@link android.hardware.camera2.CameraConstrainedHighSpeedCaptureSession#createHighSpeedRequestList}.
2666           The max batch size for each configuration will satisfy below conditions:
2667
2668           * Each max batch size will be a divisor of its corresponding fps_max / 30. For example,
2669           if max_fps is 300, max batch size will only be 1, 2, 5, or 10.
2670           * The camera device may choose smaller internal batch size for each configuration, but
2671           the actual batch size will be a divisor of max batch size. For example, if the max batch
2672           size is 8, the actual batch size used by camera device will only be 1, 2, 4, or 8.
2673           * The max batch size in each configuration entry must be no larger than 32.
2674
2675           The camera device doesn't have to support batch mode to achieve high speed video recording,
2676           in such case, batch_size_max will be reported as 1 in each configuration entry.
2677
2678           This fps ranges in this configuration list can only be used to create requests
2679           that are submitted to a high speed camera capture session created by
2680           {@link android.hardware.camera2.CameraDevice#createConstrainedHighSpeedCaptureSession}.
2681           The fps ranges reported in this metadata must not be used to setup capture requests for
2682           normal capture session, or it will cause request error.
2683           </details>
2684           <hal_details>
2685           All the sizes listed in this configuration will be a subset of the sizes reported by
2686           android.scaler.availableStreamConfigurations for processed non-stalling output formats.
2687           Note that for all high speed video configurations, HAL must be able to support a minimum
2688           of two streams, though the application might choose to configure just one stream.
2689
2690           The HAL may support multiple sensor modes for high speed outputs, for example, 120fps
2691           sensor mode and 120fps recording, 240fps sensor mode for 240fps recording. The application
2692           usually starts preview first, then starts recording. To avoid sensor mode switch caused
2693           stutter when starting recording as much as possible, the application may want to ensure
2694           the same sensor mode is used for preview and recording. Therefore, The HAL must advertise
2695           the variable fps range [30, fps_max] for each fixed fps range in this configuration list.
2696           For example, if the HAL advertises [120, 120] and [240, 240], the HAL must also advertise
2697           [30, 120] and [30, 240] for each configuration. In doing so, if the application intends to
2698           do 120fps recording, it can select [30, 120] to start preview, and [120, 120] to start
2699           recording. For these variable fps ranges, it's up to the HAL to decide the actual fps
2700           values that are suitable for smooth preview streaming. If the HAL sees different max_fps
2701           values that fall into different sensor modes in a sequence of requests, the HAL must
2702           switch the sensor mode as quick as possible to minimize the mode switch caused stutter.
2703           </hal_details>
2704           <tag id="V1" />
2705         </entry>
2706         <entry name="aeLockAvailable" type="byte" visibility="public" enum="true"
2707                typedef="boolean" hwlevel="legacy">
2708           <enum>
2709             <value>FALSE</value>
2710             <value>TRUE</value>
2711           </enum>
2712           <description>Whether the camera device supports android.control.aeLock</description>
2713           <details>
2714               Devices with MANUAL_SENSOR capability or BURST_CAPTURE capability will always
2715               list `true`. This includes FULL devices.
2716           </details>
2717           <tag id="BC"/>
2718         </entry>
2719         <entry name="awbLockAvailable" type="byte" visibility="public" enum="true"
2720                typedef="boolean" hwlevel="legacy">
2721           <enum>
2722             <value>FALSE</value>
2723             <value>TRUE</value>
2724           </enum>
2725           <description>Whether the camera device supports android.control.awbLock</description>
2726           <details>
2727               Devices with MANUAL_POST_PROCESSING capability or BURST_CAPTURE capability will
2728               always list `true`. This includes FULL devices.
2729           </details>
2730           <tag id="BC"/>
2731         </entry>
2732         <entry name="availableModes" type="byte" visibility="public"
2733             type_notes="List of enums (android.control.mode)." container="array"
2734             typedef="enumList" hwlevel="legacy">
2735           <array>
2736             <size>n</size>
2737           </array>
2738           <description>
2739           List of control modes for android.control.mode that are supported by this camera
2740           device.
2741           </description>
2742           <range>Any value listed in android.control.mode</range>
2743           <details>
2744               This list contains control modes that can be set for the camera device.
2745               LEGACY mode devices will always support AUTO mode. LIMITED and FULL
2746               devices will always support OFF, AUTO modes.
2747           </details>
2748         </entry>
2749         <entry name="postRawSensitivityBoostRange" type="int32" visibility="public"
2750             type_notes="Range of supported post RAW sensitivitiy boosts"
2751             container="array" typedef="rangeInt">
2752           <array>
2753             <size>2</size>
2754           </array>
2755           <description>Range of boosts for android.control.postRawSensitivityBoost supported
2756             by this camera device.
2757           </description>
2758           <units>ISO arithmetic units, the same as android.sensor.sensitivity</units>
2759           <details>
2760             Devices support post RAW sensitivity boost  will advertise
2761             android.control.postRawSensitivityBoost key for controling
2762             post RAW sensitivity boost.
2763
2764             This key will be `null` for devices that do not support any RAW format
2765             outputs. For devices that do support RAW format outputs, this key will always
2766             present, and if a device does not support post RAW sensitivity boost, it will
2767             list `(100, 100)` in this key.
2768           </details>
2769           <hal_details>
2770              This key is added in HAL3.4. For HAL3.3 or earlier devices, camera framework will
2771              generate this key as `(100, 100)` if device supports any of RAW output formats.
2772              All HAL3.4 and above devices should list this key if device supports any of RAW
2773              output formats.
2774           </hal_details>
2775         </entry>
2776       </static>
2777       <controls>
2778         <entry name="postRawSensitivityBoost" type="int32" visibility="public">
2779           <description>The amount of additional sensitivity boost applied to output images
2780              after RAW sensor data is captured.
2781           </description>
2782           <units>ISO arithmetic units, the same as android.sensor.sensitivity</units>
2783           <range>android.control.postRawSensitivityBoostRange</range>
2784           <details>
2785           Some camera devices support additional digital sensitivity boosting in the
2786           camera processing pipeline after sensor RAW image is captured.
2787           Such a boost will be applied to YUV/JPEG format output images but will not
2788           have effect on RAW output formats like RAW_SENSOR, RAW10, RAW12 or RAW_OPAQUE.
2789
2790           This key will be `null` for devices that do not support any RAW format
2791           outputs. For devices that do support RAW format outputs, this key will always
2792           present, and if a device does not support post RAW sensitivity boost, it will
2793           list `100` in this key.
2794
2795           If the camera device cannot apply the exact boost requested, it will reduce the
2796           boost to the nearest supported value.
2797           The final boost value used will be available in the output capture result.
2798
2799           For devices that support post RAW sensitivity boost, the YUV/JPEG output images
2800           of such device will have the total sensitivity of
2801           `android.sensor.sensitivity * android.control.postRawSensitivityBoost / 100`
2802           The sensitivity of RAW format images will always be `android.sensor.sensitivity`
2803
2804           This control is only effective if android.control.aeMode or android.control.mode is set to
2805           OFF; otherwise the auto-exposure algorithm will override this value.
2806           </details>
2807         </entry>
2808       </controls>
2809       <dynamic>
2810         <clone entry="android.control.postRawSensitivityBoost" kind="controls">
2811         </clone>
2812       </dynamic>
2813     </section>
2814     <section name="demosaic">
2815       <controls>
2816         <entry name="mode" type="byte" enum="true">
2817           <enum>
2818             <value>FAST
2819             <notes>Minimal or no slowdown of frame rate compared to
2820             Bayer RAW output.</notes></value>
2821             <value>HIGH_QUALITY
2822             <notes>Improved processing quality but the frame rate might be slowed down
2823             relative to raw output.</notes></value>
2824           </enum>
2825           <description>Controls the quality of the demosaicing
2826           processing.</description>
2827           <tag id="FUTURE" />
2828         </entry>
2829       </controls>
2830     </section>
2831     <section name="edge">
2832       <controls>
2833         <entry name="mode" type="byte" visibility="public" enum="true" hwlevel="full">
2834           <enum>
2835             <value>OFF
2836             <notes>No edge enhancement is applied.</notes></value>
2837             <value>FAST
2838             <notes>Apply edge enhancement at a quality level that does not slow down frame rate
2839             relative to sensor output. It may be the same as OFF if edge enhancement will
2840             slow down frame rate relative to sensor.</notes></value>
2841             <value>HIGH_QUALITY
2842             <notes>Apply high-quality edge enhancement, at a cost of possibly reduced output frame rate.
2843             </notes></value>
2844             <value optional="true">ZERO_SHUTTER_LAG
2845             <notes>Edge enhancement is applied at different levels for different output streams,
2846             based on resolution. Streams at maximum recording resolution (see {@link
2847             ACameraDevice_createCaptureSession}) or below have
2848             edge enhancement applied, while higher-resolution streams have no edge enhancement
2849             applied. The level of edge enhancement for low-resolution streams is tuned so that
2850             frame rate is not impacted, and the quality is equal to or better than FAST (since it
2851             is only applied to lower-resolution outputs, quality may improve from FAST).
2852
2853             This mode is intended to be used by applications operating in a zero-shutter-lag mode
2854             with YUV or PRIVATE reprocessing, where the application continuously captures
2855             high-resolution intermediate buffers into a circular buffer, from which a final image is
2856             produced via reprocessing when a user takes a picture.  For such a use case, the
2857             high-resolution buffers must not have edge enhancement applied to maximize efficiency of
2858             preview and to avoid double-applying enhancement when reprocessed, while low-resolution
2859             buffers (used for recording or preview, generally) need edge enhancement applied for
2860             reasonable preview quality.
2861
2862             This mode is guaranteed to be supported by devices that support either the
2863             YUV_REPROCESSING or PRIVATE_REPROCESSING capabilities
2864             (android.request.availableCapabilities lists either of those capabilities) and it will
2865             be the default mode for CAMERA3_TEMPLATE_ZERO_SHUTTER_LAG template.
2866             </notes></value>
2867           </enum>
2868           <description>Operation mode for edge
2869           enhancement.</description>
2870           <range>android.edge.availableEdgeModes</range>
2871           <details>Edge enhancement improves sharpness and details in the captured image. OFF means
2872           no enhancement will be applied by the camera device.
2873
2874           FAST/HIGH_QUALITY both mean camera device determined enhancement
2875           will be applied. HIGH_QUALITY mode indicates that the
2876           camera device will use the highest-quality enhancement algorithms,
2877           even if it slows down capture rate. FAST means the camera device will
2878           not slow down capture rate when applying edge enhancement. FAST may be the same as OFF if
2879           edge enhancement will slow down capture rate. Every output stream will have a similar
2880           amount of enhancement applied.
2881
2882           ZERO_SHUTTER_LAG is meant to be used by applications that maintain a continuous circular
2883           buffer of high-resolution images during preview and reprocess image(s) from that buffer
2884           into a final capture when triggered by the user. In this mode, the camera device applies
2885           edge enhancement to low-resolution streams (below maximum recording resolution) to
2886           maximize preview quality, but does not apply edge enhancement to high-resolution streams,
2887           since those will be reprocessed later if necessary.
2888
2889           For YUV_REPROCESSING, these FAST/HIGH_QUALITY modes both mean that the camera
2890           device will apply FAST/HIGH_QUALITY YUV-domain edge enhancement, respectively.
2891           The camera device may adjust its internal edge enhancement parameters for best
2892           image quality based on the android.reprocess.effectiveExposureFactor, if it is set.
2893           </details>
2894           <hal_details>
2895           For YUV_REPROCESSING The HAL can use android.reprocess.effectiveExposureFactor to
2896           adjust the internal edge enhancement reduction parameters appropriately to get the best
2897           quality images.
2898           </hal_details>
2899           <tag id="V1" />
2900           <tag id="REPROC" />
2901         </entry>
2902         <entry name="strength" type="byte">
2903           <description>Control the amount of edge enhancement
2904           applied to the images</description>
2905           <units>1-10; 10 is maximum sharpening</units>
2906           <tag id="FUTURE" />
2907         </entry>
2908       </controls>
2909       <static>
2910         <entry name="availableEdgeModes" type="byte" visibility="public"
2911                type_notes="list of enums" container="array" typedef="enumList"
2912                hwlevel="full">
2913           <array>
2914             <size>n</size>
2915           </array>
2916           <description>
2917           List of edge enhancement modes for android.edge.mode that are supported by this camera
2918           device.
2919           </description>
2920           <range>Any value listed in android.edge.mode</range>
2921           <details>
2922           Full-capability camera devices must always support OFF; camera devices that support
2923           YUV_REPROCESSING or PRIVATE_REPROCESSING will list ZERO_SHUTTER_LAG; all devices will
2924           list FAST.
2925           </details>
2926           <hal_details>
2927           HAL must support both FAST and HIGH_QUALITY if edge enhancement control is available
2928           on the camera device, but the underlying implementation can be the same for both modes.
2929           That is, if the highest quality implementation on the camera device does not slow down
2930           capture rate, then FAST and HIGH_QUALITY will generate the same output.
2931           </hal_details>
2932           <tag id="V1" />
2933           <tag id="REPROC" />
2934         </entry>
2935       </static>
2936       <dynamic>
2937         <clone entry="android.edge.mode" kind="controls">
2938           <tag id="V1" />
2939           <tag id="REPROC" />
2940         </clone>
2941       </dynamic>
2942     </section>
2943     <section name="flash">
2944       <controls>
2945         <entry name="firingPower" type="byte">
2946           <description>Power for flash firing/torch</description>
2947           <units>10 is max power; 0 is no flash. Linear</units>
2948           <range>0 - 10</range>
2949           <details>Power for snapshot may use a different scale than
2950           for torch mode. Only one entry for torch mode will be
2951           used</details>
2952           <tag id="FUTURE" />
2953         </entry>
2954         <entry name="firingTime" type="int64">
2955           <description>Firing time of flash relative to start of
2956           exposure</description>
2957           <units>nanoseconds</units>
2958           <range>0-(exposure time-flash duration)</range>
2959           <details>Clamped to (0, exposure time - flash
2960           duration).</details>
2961           <tag id="FUTURE" />
2962         </entry>
2963         <entry name="mode" type="byte" visibility="public" enum="true" hwlevel="legacy">
2964           <enum>
2965             <value>OFF
2966               <notes>
2967               Do not fire the flash for this capture.
2968               </notes>
2969             </value>
2970             <value>SINGLE
2971               <notes>
2972               If the flash is available and charged, fire flash
2973               for this capture.
2974               </notes>
2975             </value>
2976             <value>TORCH
2977               <notes>
2978               Transition flash to continuously on.
2979               </notes>
2980             </value>
2981           </enum>
2982           <description>The desired mode for for the camera device's flash control.</description>
2983           <details>
2984           This control is only effective when flash unit is available
2985           (`android.flash.info.available == true`).
2986
2987           When this control is used, the android.control.aeMode must be set to ON or OFF.
2988           Otherwise, the camera device auto-exposure related flash control (ON_AUTO_FLASH,
2989           ON_ALWAYS_FLASH, or ON_AUTO_FLASH_REDEYE) will override this control.
2990
2991           When set to OFF, the camera device will not fire flash for this capture.
2992
2993           When set to SINGLE, the camera device will fire flash regardless of the camera
2994           device's auto-exposure routine's result. When used in still capture case, this
2995           control should be used along with auto-exposure (AE) precapture metering sequence
2996           (android.control.aePrecaptureTrigger), otherwise, the image may be incorrectly exposed.
2997
2998           When set to TORCH, the flash will be on continuously. This mode can be used
2999           for use cases such as preview, auto-focus assist, still capture, or video recording.
3000
3001           The flash status will be reported by android.flash.state in the capture result metadata.
3002           </details>
3003           <tag id="BC" />
3004         </entry>
3005       </controls>
3006       <static>
3007         <namespace name="info">
3008           <entry name="available" type="byte" visibility="public" enum="true"
3009                  typedef="boolean" hwlevel="legacy">
3010             <enum>
3011               <value>FALSE</value>
3012               <value>TRUE</value>
3013             </enum>
3014             <description>Whether this camera device has a
3015             flash unit.</description>
3016             <details>
3017             Will be `false` if no flash is available.
3018
3019             If there is no flash unit, none of the flash controls do
3020             anything.</details>
3021             <tag id="BC" />
3022           </entry>
3023           <entry name="chargeDuration" type="int64">
3024             <description>Time taken before flash can fire
3025             again</description>
3026             <units>nanoseconds</units>
3027             <range>0-1e9</range>
3028             <details>1 second too long/too short for recharge? Should
3029             this be power-dependent?</details>
3030             <tag id="FUTURE" />
3031           </entry>
3032         </namespace>
3033         <entry name="colorTemperature" type="byte">
3034           <description>The x,y whitepoint of the
3035           flash</description>
3036           <units>pair of floats</units>
3037           <range>0-1 for both</range>
3038           <tag id="FUTURE" />
3039         </entry>
3040         <entry name="maxEnergy" type="byte">
3041           <description>Max energy output of the flash for a full
3042           power single flash</description>
3043           <units>lumen-seconds</units>
3044           <range>&amp;gt;= 0</range>
3045           <tag id="FUTURE" />
3046         </entry>
3047       </static>
3048       <dynamic>
3049         <clone entry="android.flash.firingPower" kind="controls">
3050         </clone>
3051         <clone entry="android.flash.firingTime" kind="controls">
3052         </clone>
3053         <clone entry="android.flash.mode" kind="controls"></clone>
3054         <entry name="state" type="byte" visibility="public" enum="true"
3055                hwlevel="limited">
3056           <enum>
3057             <value>UNAVAILABLE
3058             <notes>No flash on camera.</notes></value>
3059             <value>CHARGING
3060             <notes>Flash is charging and cannot be fired.</notes></value>
3061             <value>READY
3062             <notes>Flash is ready to fire.</notes></value>
3063             <value>FIRED
3064             <notes>Flash fired for this capture.</notes></value>
3065             <value>PARTIAL
3066             <notes>Flash partially illuminated this frame.
3067
3068             This is usually due to the next or previous frame having
3069             the flash fire, and the flash spilling into this capture
3070             due to hardware limitations.</notes></value>
3071           </enum>
3072           <description>Current state of the flash
3073           unit.</description>
3074           <details>
3075           When the camera device doesn't have flash unit
3076           (i.e. `android.flash.info.available == false`), this state will always be UNAVAILABLE.
3077           Other states indicate the current flash status.
3078
3079           In certain conditions, this will be available on LEGACY devices:
3080
3081            * Flash-less cameras always return UNAVAILABLE.
3082            * Using android.control.aeMode `==` ON_ALWAYS_FLASH
3083              will always return FIRED.
3084            * Using android.flash.mode `==` TORCH
3085              will always return FIRED.
3086
3087           In all other conditions the state will not be available on
3088           LEGACY devices (i.e. it will be `null`).
3089           </details>
3090         </entry>
3091       </dynamic>
3092     </section>
3093     <section name="hotPixel">
3094       <controls>
3095         <entry name="mode" type="byte" visibility="public" enum="true">
3096           <enum>
3097             <value>OFF
3098               <notes>
3099               No hot pixel correction is applied.
3100
3101               The frame rate must not be reduced relative to sensor raw output
3102               for this option.
3103
3104               The hotpixel map may be returned in android.statistics.hotPixelMap.
3105               </notes>
3106             </value>
3107             <value>FAST
3108               <notes>
3109               Hot pixel correction is applied, without reducing frame
3110               rate relative to sensor raw output.
3111
3112               The hotpixel map may be returned in android.statistics.hotPixelMap.
3113               </notes>
3114             </value>
3115             <value>HIGH_QUALITY
3116               <notes>
3117               High-quality hot pixel correction is applied, at a cost
3118               of possibly reduced frame rate relative to sensor raw output.
3119
3120               The hotpixel map may be returned in android.statistics.hotPixelMap.
3121               </notes>
3122             </value>
3123           </enum>
3124           <description>
3125           Operational mode for hot pixel correction.
3126           </description>
3127           <range>android.hotPixel.availableHotPixelModes</range>
3128           <details>
3129           Hotpixel correction interpolates out, or otherwise removes, pixels
3130           that do not accurately measure the incoming light (i.e. pixels that
3131           are stuck at an arbitrary value or are oversensitive).
3132           </details>
3133           <tag id="V1" />
3134           <tag id="RAW" />
3135         </entry>
3136       </controls>
3137       <static>
3138         <entry name="availableHotPixelModes" type="byte" visibility="public"
3139           type_notes="list of enums" container="array" typedef="enumList">
3140           <array>
3141             <size>n</size>
3142           </array>
3143           <description>
3144           List of hot pixel correction modes for android.hotPixel.mode that are supported by this
3145           camera device.
3146           </description>
3147           <range>Any value listed in android.hotPixel.mode</range>
3148           <details>
3149           FULL mode camera devices will always support FAST.
3150           </details>
3151           <hal_details>
3152           To avoid performance issues, there will be significantly fewer hot
3153           pixels than actual pixels on the camera sensor.
3154           HAL must support both FAST and HIGH_QUALITY if hot pixel correction control is available
3155           on the camera device, but the underlying implementation can be the same for both modes.
3156           That is, if the highest quality implementation on the camera device does not slow down
3157           capture rate, then FAST and HIGH_QUALITY will generate the same output.
3158           </hal_details>
3159           <tag id="V1" />
3160           <tag id="RAW" />
3161         </entry>
3162       </static>
3163       <dynamic>
3164         <clone entry="android.hotPixel.mode" kind="controls">
3165           <tag id="V1" />
3166           <tag id="RAW" />
3167         </clone>
3168       </dynamic>
3169     </section>
3170     <section name="jpeg">
3171       <controls>
3172         <entry name="gpsLocation" type="byte" visibility="java_public" synthetic="true"
3173         typedef="location" hwlevel="legacy">
3174           <description>
3175           A location object to use when generating image GPS metadata.
3176           </description>
3177           <details>
3178           Setting a location object in a request will include the GPS coordinates of the location
3179           into any JPEG images captured based on the request. These coordinates can then be
3180           viewed by anyone who receives the JPEG image.
3181           </details>
3182         </entry>
3183         <entry name="gpsCoordinates" type="double" visibility="ndk_public"
3184         type_notes="latitude, longitude, altitude. First two in degrees, the third in meters"
3185         container="array" hwlevel="legacy">
3186           <array>
3187             <size>3</size>
3188           </array>
3189           <description>GPS coordinates to include in output JPEG
3190           EXIF.</description>
3191           <range>(-180 - 180], [-90,90], [-inf, inf]</range>
3192           <tag id="BC" />
3193         </entry>
3194         <entry name="gpsProcessingMethod" type="byte" visibility="ndk_public"
3195                typedef="string" hwlevel="legacy">
3196           <description>32 characters describing GPS algorithm to
3197           include in EXIF.</description>
3198           <units>UTF-8 null-terminated string</units>
3199           <tag id="BC" />
3200         </entry>
3201         <entry name="gpsTimestamp" type="int64" visibility="ndk_public" hwlevel="legacy">
3202           <description>Time GPS fix was made to include in
3203           EXIF.</description>
3204           <units>UTC in seconds since January 1, 1970</units>
3205           <tag id="BC" />
3206         </entry>
3207         <entry name="orientation" type="int32" visibility="public" hwlevel="legacy">
3208           <description>The orientation for a JPEG image.</description>
3209           <units>Degrees in multiples of 90</units>
3210           <range>0, 90, 180, 270</range>
3211           <details>
3212           The clockwise rotation angle in degrees, relative to the orientation
3213           to the camera, that the JPEG picture needs to be rotated by, to be viewed
3214           upright.
3215
3216           Camera devices may either encode this value into the JPEG EXIF header, or
3217           rotate the image data to match this orientation. When the image data is rotated,
3218           the thumbnail data will also be rotated.
3219
3220           Note that this orientation is relative to the orientation of the camera sensor, given
3221           by android.sensor.orientation.
3222
3223           To translate from the device orientation given by the Android sensor APIs, the following
3224           sample code may be used:
3225
3226               private int getJpegOrientation(CameraCharacteristics c, int deviceOrientation) {
3227                   if (deviceOrientation == android.view.OrientationEventListener.ORIENTATION_UNKNOWN) return 0;
3228                   int sensorOrientation = c.get(CameraCharacteristics.SENSOR_ORIENTATION);
3229
3230                   // Round device orientation to a multiple of 90
3231                   deviceOrientation = (deviceOrientation + 45) / 90 * 90;
3232
3233                   // Reverse device orientation for front-facing cameras
3234                   boolean facingFront = c.get(CameraCharacteristics.LENS_FACING) == CameraCharacteristics.LENS_FACING_FRONT;
3235                   if (facingFront) deviceOrientation = -deviceOrientation;
3236
3237                   // Calculate desired JPEG orientation relative to camera orientation to make
3238                   // the image upright relative to the device orientation
3239                   int jpegOrientation = (sensorOrientation + deviceOrientation + 360) % 360;
3240
3241                   return jpegOrientation;
3242               }
3243           </details>
3244           <tag id="BC" />
3245         </entry>
3246         <entry name="quality" type="byte" visibility="public" hwlevel="legacy">
3247           <description>Compression quality of the final JPEG
3248           image.</description>
3249           <range>1-100; larger is higher quality</range>
3250           <details>85-95 is typical usage range.</details>
3251           <tag id="BC" />
3252         </entry>
3253         <entry name="thumbnailQuality" type="byte" visibility="public" hwlevel="legacy">
3254           <description>Compression quality of JPEG
3255           thumbnail.</description>
3256           <range>1-100; larger is higher quality</range>
3257           <tag id="BC" />
3258         </entry>
3259         <entry name="thumbnailSize" type="int32" visibility="public"
3260         container="array" typedef="size" hwlevel="legacy">
3261           <array>
3262             <size>2</size>
3263           </array>
3264           <description>Resolution of embedded JPEG thumbnail.</description>
3265           <range>android.jpeg.availableThumbnailSizes</range>
3266           <details>When set to (0, 0) value, the JPEG EXIF will not contain thumbnail,
3267           but the captured JPEG will still be a valid image.
3268
3269           For best results, when issuing a request for a JPEG image, the thumbnail size selected
3270           should have the same aspect ratio as the main JPEG output.
3271
3272           If the thumbnail image aspect ratio differs from the JPEG primary image aspect
3273           ratio, the camera device creates the thumbnail by cropping it from the primary image.
3274           For example, if the primary image has 4:3 aspect ratio, the thumbnail image has
3275           16:9 aspect ratio, the primary image will be cropped vertically (letterbox) to
3276           generate the thumbnail image. The thumbnail image will always have a smaller Field
3277           Of View (FOV) than the primary image when aspect ratios differ.
3278
3279           When an android.jpeg.orientation of non-zero degree is requested,
3280           the camera device will handle thumbnail rotation in one of the following ways:
3281
3282           * Set the
3283             [EXIF orientation flag](https://developer.android.com/reference/android/media/ExifInterface.html#TAG_ORIENTATION)
3284             and keep jpeg and thumbnail image data unrotated.
3285           * Rotate the jpeg and thumbnail image data and not set
3286             [EXIF orientation flag](https://developer.android.com/reference/android/media/ExifInterface.html#TAG_ORIENTATION).
3287             In this case, LIMITED or FULL hardware level devices will report rotated thumnail size
3288             in capture result, so the width and height will be interchanged if 90 or 270 degree
3289             orientation is requested. LEGACY device will always report unrotated thumbnail size.
3290           </details>
3291           <hal_details>
3292           The HAL must not squeeze or stretch the downscaled primary image to generate thumbnail.
3293           The cropping must be done on the primary jpeg image rather than the sensor active array.
3294           The stream cropping rule specified by "S5. Cropping" in camera3.h doesn't apply to the
3295           thumbnail image cropping.
3296           </hal_details>
3297           <tag id="BC" />
3298         </entry>
3299       </controls>
3300       <static>
3301         <entry name="availableThumbnailSizes" type="int32" visibility="public"
3302         container="array" typedef="size" hwlevel="legacy">
3303           <array>
3304             <size>2</size>
3305             <size>n</size>
3306           </array>
3307           <description>List of JPEG thumbnail sizes for android.jpeg.thumbnailSize supported by this
3308           camera device.</description>
3309           <details>
3310           This list will include at least one non-zero resolution, plus `(0,0)` for indicating no
3311           thumbnail should be generated.
3312
3313           Below condiditions will be satisfied for this size list:
3314
3315           * The sizes will be sorted by increasing pixel area (width x height).
3316           If several resolutions have the same area, they will be sorted by increasing width.
3317           * The aspect ratio of the largest thumbnail size will be same as the
3318           aspect ratio of largest JPEG output size in android.scaler.availableStreamConfigurations.
3319           The largest size is defined as the size that has the largest pixel area
3320           in a given size list.
3321           * Each output JPEG size in android.scaler.availableStreamConfigurations will have at least
3322           one corresponding size that has the same aspect ratio in availableThumbnailSizes,
3323           and vice versa.
3324           * All non-`(0, 0)` sizes will have non-zero widths and heights.</details>
3325           <tag id="BC" />
3326         </entry>
3327         <entry name="maxSize" type="int32" visibility="system">
3328           <description>Maximum size in bytes for the compressed
3329           JPEG buffer</description>
3330           <range>Must be large enough to fit any JPEG produced by
3331           the camera</range>
3332           <details>This is used for sizing the gralloc buffers for
3333           JPEG</details>
3334         </entry>
3335       </static>
3336       <dynamic>
3337         <clone entry="android.jpeg.gpsLocation" kind="controls">
3338         </clone>
3339         <clone entry="android.jpeg.gpsCoordinates" kind="controls">
3340         </clone>
3341         <clone entry="android.jpeg.gpsProcessingMethod"
3342         kind="controls"></clone>
3343         <clone entry="android.jpeg.gpsTimestamp" kind="controls">
3344         </clone>
3345         <clone entry="android.jpeg.orientation" kind="controls">
3346         </clone>
3347         <clone entry="android.jpeg.quality" kind="controls">
3348         </clone>
3349         <entry name="size" type="int32">
3350           <description>The size of the compressed JPEG image, in
3351           bytes</description>
3352           <range>&amp;gt;= 0</range>
3353           <details>If no JPEG output is produced for the request,
3354           this must be 0.
3355
3356           Otherwise, this describes the real size of the compressed
3357           JPEG image placed in the output stream.  More specifically,
3358           if android.jpeg.maxSize = 1000000, and a specific capture
3359           has android.jpeg.size = 500000, then the output buffer from
3360           the JPEG stream will be 1000000 bytes, of which the first
3361           500000 make up the real data.</details>
3362           <tag id="FUTURE" />
3363         </entry>
3364         <clone entry="android.jpeg.thumbnailQuality"
3365         kind="controls"></clone>
3366         <clone entry="android.jpeg.thumbnailSize" kind="controls">
3367         </clone>
3368       </dynamic>
3369     </section>
3370     <section name="lens">
3371       <controls>
3372         <entry name="aperture" type="float" visibility="public" hwlevel="full">
3373           <description>The desired lens aperture size, as a ratio of lens focal length to the
3374           effective aperture diameter.</description>
3375           <units>The f-number (f/N)</units>
3376           <range>android.lens.info.availableApertures</range>
3377           <details>Setting this value is only supported on the camera devices that have a variable
3378           aperture lens.
3379
3380           When this is supported and android.control.aeMode is OFF,
3381           this can be set along with android.sensor.exposureTime,
3382           android.sensor.sensitivity, and android.sensor.frameDuration
3383           to achieve manual exposure control.
3384
3385           The requested aperture value may take several frames to reach the
3386           requested value; the camera device will report the current (intermediate)
3387           aperture size in capture result metadata while the aperture is changing.
3388           While the aperture is still changing, android.lens.state will be set to MOVING.
3389
3390           When this is supported and android.control.aeMode is one of
3391           the ON modes, this will be overridden by the camera device
3392           auto-exposure algorithm, the overridden values are then provided
3393           back to the user in the corresponding result.</details>
3394           <tag id="V1" />
3395         </entry>
3396         <entry name="filterDensity" type="float" visibility="public" hwlevel="full">
3397           <description>
3398           The desired setting for the lens neutral density filter(s).
3399           </description>
3400           <units>Exposure Value (EV)</units>
3401           <range>android.lens.info.availableFilterDensities</range>
3402           <details>
3403           This control will not be supported on most camera devices.
3404
3405           Lens filters are typically used to lower the amount of light the
3406           sensor is exposed to (measured in steps of EV). As used here, an EV
3407           step is the standard logarithmic representation, which are
3408           non-negative, and inversely proportional to the amount of light
3409           hitting the sensor.  For example, setting this to 0 would result
3410           in no reduction of the incoming light, and setting this to 2 would
3411           mean that the filter is set to reduce incoming light by two stops
3412           (allowing 1/4 of the prior amount of light to the sensor).
3413
3414           It may take several frames before the lens filter density changes
3415           to the requested value. While the filter density is still changing,
3416           android.lens.state will be set to MOVING.
3417           </details>
3418           <tag id="V1" />
3419         </entry>
3420         <entry name="focalLength" type="float" visibility="public" hwlevel="legacy">
3421           <description>
3422           The desired lens focal length; used for optical zoom.
3423           </description>
3424           <units>Millimeters</units>
3425           <range>android.lens.info.availableFocalLengths</range>
3426           <details>
3427           This setting controls the physical focal length of the camera
3428           device's lens. Changing the focal length changes the field of
3429           view of the camera device, and is usually used for optical zoom.
3430
3431           Like android.lens.focusDistance and android.lens.aperture, this
3432           setting won't be applied instantaneously, and it may take several
3433           frames before the lens can change to the requested focal length.
3434           While the focal length is still changing, android.lens.state will
3435           be set to MOVING.
3436
3437           Optical zoom will not be supported on most devices.
3438           </details>
3439           <tag id="V1" />
3440         </entry>
3441         <entry name="focusDistance" type="float" visibility="public" hwlevel="full">
3442           <description>Desired distance to plane of sharpest focus,
3443           measured from frontmost surface of the lens.</description>
3444           <units>See android.lens.info.focusDistanceCalibration for details</units>
3445           <range>&amp;gt;= 0</range>
3446           <details>
3447           This control can be used for setting manual focus, on devices that support
3448           the MANUAL_SENSOR capability and have a variable-focus lens (see
3449           android.lens.info.minimumFocusDistance).
3450
3451           A value of `0.0f` means infinity focus. The value set will be clamped to
3452           `[0.0f, android.lens.info.minimumFocusDistance]`.
3453
3454           Like android.lens.focalLength, this setting won't be applied
3455           instantaneously, and it may take several frames before the lens
3456           can move to the requested focus distance. While the lens is still moving,
3457           android.lens.state will be set to MOVING.
3458
3459           LEGACY devices support at most setting this to `0.0f`
3460           for infinity focus.
3461           </details>
3462           <tag id="BC" />
3463           <tag id="V1" />
3464         </entry>
3465         <entry name="opticalStabilizationMode" type="byte" visibility="public"
3466         enum="true" hwlevel="limited">
3467           <enum>
3468             <value>OFF
3469               <notes>Optical stabilization is unavailable.</notes>
3470             </value>
3471             <value optional="true">ON
3472               <notes>Optical stabilization is enabled.</notes>
3473             </value>
3474           </enum>
3475           <description>
3476           Sets whether the camera device uses optical image stabilization (OIS)
3477           when capturing images.
3478           </description>
3479           <range>android.lens.info.availableOpticalStabilization</range>
3480           <details>
3481           OIS is used to compensate for motion blur due to small
3482           movements of the camera during capture. Unlike digital image
3483           stabilization (android.control.videoStabilizationMode), OIS
3484           makes use of mechanical elements to stabilize the camera
3485           sensor, and thus allows for longer exposure times before
3486           camera shake becomes apparent.
3487
3488           Switching between different optical stabilization modes may take several
3489           frames to initialize, the camera device will report the current mode in
3490           capture result metadata. For example, When "ON" mode is requested, the
3491           optical stabilization modes in the first several capture results may still
3492           be "OFF", and it will become "ON" when the initialization is done.
3493
3494           If a camera device supports both OIS and digital image stabilization
3495           (android.control.videoStabilizationMode), turning both modes on may produce undesirable
3496           interaction, so it is recommended not to enable both at the same time.
3497
3498           Not all devices will support OIS; see
3499           android.lens.info.availableOpticalStabilization for
3500           available controls.
3501           </details>
3502           <tag id="V1" />
3503         </entry>
3504       </controls>
3505       <static>
3506         <namespace name="info">
3507           <entry name="availableApertures" type="float" visibility="public"
3508           container="array" hwlevel="full">
3509             <array>
3510               <size>n</size>
3511             </array>
3512             <description>List of aperture size values for android.lens.aperture that are
3513             supported by this camera device.</description>
3514             <units>The aperture f-number</units>
3515             <details>If the camera device doesn't support a variable lens aperture,
3516             this list will contain only one value, which is the fixed aperture size.
3517
3518             If the camera device supports a variable aperture, the aperture values
3519             in this list will be sorted in ascending order.</details>
3520             <tag id="V1" />
3521           </entry>
3522           <entry name="availableFilterDensities" type="float" visibility="public"
3523           container="array" hwlevel="full">
3524             <array>
3525               <size>n</size>
3526             </array>
3527             <description>
3528             List of neutral density filter values for
3529             android.lens.filterDensity that are supported by this camera device.
3530             </description>
3531             <units>Exposure value (EV)</units>
3532             <range>
3533             Values are &amp;gt;= 0
3534             </range>
3535             <details>
3536             If a neutral density filter is not supported by this camera device,
3537             this list will contain only 0. Otherwise, this list will include every
3538             filter density supported by the camera device, in ascending order.
3539             </details>
3540             <tag id="V1" />
3541           </entry>
3542           <entry name="availableFocalLengths" type="float" visibility="public"
3543           type_notes="The list of available focal lengths"
3544           container="array" hwlevel="legacy">
3545             <array>
3546               <size>n</size>
3547             </array>
3548             <description>
3549             List of focal lengths for android.lens.focalLength that are supported by this camera
3550             device.
3551             </description>
3552             <units>Millimeters</units>
3553             <range>
3554             Values are &amp;gt; 0
3555             </range>
3556             <details>
3557             If optical zoom is not supported, this list will only contain
3558             a single value corresponding to the fixed focal length of the
3559             device. Otherwise, this list will include every focal length supported
3560             by the camera device, in ascending order.
3561             </details>
3562             <tag id="BC" />
3563             <tag id="V1" />
3564           </entry>
3565           <entry name="availableOpticalStabilization" type="byte"
3566           visibility="public" type_notes="list of enums" container="array"
3567           typedef="enumList" hwlevel="limited">
3568             <array>
3569               <size>n</size>
3570             </array>
3571             <description>
3572             List of optical image stabilization (OIS) modes for
3573             android.lens.opticalStabilizationMode that are supported by this camera device.
3574             </description>
3575             <range>Any value listed in android.lens.opticalStabilizationMode</range>
3576             <details>
3577             If OIS is not supported by a given camera device, this list will
3578             contain only OFF.
3579             </details>
3580             <tag id="V1" />
3581           </entry>
3582           <entry name="hyperfocalDistance" type="float" visibility="public" optional="true"
3583                  hwlevel="limited">
3584             <description>Hyperfocal distance for this lens.</description>
3585             <units>See android.lens.info.focusDistanceCalibration for details</units>
3586             <range>If lens is fixed focus, &amp;gt;= 0. If lens has focuser unit, the value is
3587             within `(0.0f, android.lens.info.minimumFocusDistance]`</range>
3588             <details>
3589             If the lens is not fixed focus, the camera device will report this
3590             field when android.lens.info.focusDistanceCalibration is APPROXIMATE or CALIBRATED.
3591             </details>
3592           </entry>
3593           <entry name="minimumFocusDistance" type="float" visibility="public" optional="true"
3594                  hwlevel="limited">
3595             <description>Shortest distance from frontmost surface
3596             of the lens that can be brought into sharp focus.</description>
3597             <units>See android.lens.info.focusDistanceCalibration for details</units>
3598             <range>&amp;gt;= 0</range>
3599             <details>If the lens is fixed-focus, this will be
3600             0.</details>
3601             <hal_details>Mandatory for FULL devices; LIMITED devices
3602             must always set this value to 0 for fixed-focus; and may omit
3603             the minimum focus distance otherwise.
3604
3605             This field is also mandatory for all devices advertising
3606             the MANUAL_SENSOR capability.</hal_details>
3607             <tag id="V1" />
3608           </entry>
3609           <entry name="shadingMapSize" type="int32" visibility="ndk_public"
3610                  type_notes="width and height (N, M) of lens shading map provided by the camera device."
3611                  container="array" typedef="size" hwlevel="full">
3612             <array>
3613               <size>2</size>
3614             </array>
3615             <description>Dimensions of lens shading map.</description>
3616             <range>Both values &amp;gt;= 1</range>
3617             <details>
3618             The map should be on the order of 30-40 rows and columns, and
3619             must be smaller than 64x64.
3620             </details>
3621             <tag id="V1" />
3622           </entry>
3623           <entry name="focusDistanceCalibration" type="byte" visibility="public"
3624                  enum="true" hwlevel="limited">
3625             <enum>
3626               <value>UNCALIBRATED
3627                 <notes>
3628                 The lens focus distance is not accurate, and the units used for
3629                 android.lens.focusDistance do not correspond to any physical units.
3630
3631                 Setting the lens to the same focus distance on separate occasions may
3632                 result in a different real focus distance, depending on factors such
3633                 as the orientation of the device, the age of the focusing mechanism,
3634                 and the device temperature. The focus distance value will still be
3635                 in the range of `[0, android.lens.info.minimumFocusDistance]`, where 0
3636                 represents the farthest focus.
3637                 </notes>
3638               </value>
3639               <value>APPROXIMATE
3640                 <notes>
3641                 The lens focus distance is measured in diopters.
3642
3643                 However, setting the lens to the same focus distance
3644                 on separate occasions may result in a different real
3645                 focus distance, depending on factors such as the
3646                 orientation of the device, the age of the focusing
3647                 mechanism, and the device temperature.
3648                 </notes>
3649               </value>
3650               <value>CALIBRATED
3651                 <notes>
3652                 The lens focus distance is measured in diopters, and
3653                 is calibrated.
3654
3655                 The lens mechanism is calibrated so that setting the
3656                 same focus distance is repeatable on multiple
3657                 occasions with good accuracy, and the focus distance
3658                 corresponds to the real physical distance to the plane
3659                 of best focus.
3660                 </notes>
3661               </value>
3662             </enum>
3663             <description>The lens focus distance calibration quality.</description>
3664             <details>
3665             The lens focus distance calibration quality determines the reliability of
3666             focus related metadata entries, i.e. android.lens.focusDistance,
3667             android.lens.focusRange, android.lens.info.hyperfocalDistance, and
3668             android.lens.info.minimumFocusDistance.
3669
3670             APPROXIMATE and CALIBRATED devices report the focus metadata in
3671             units of diopters (1/meter), so `0.0f` represents focusing at infinity,
3672             and increasing positive numbers represent focusing closer and closer
3673             to the camera device. The focus distance control also uses diopters
3674             on these devices.
3675
3676             UNCALIBRATED devices do not use units that are directly comparable
3677             to any real physical measurement, but `0.0f` still represents farthest
3678             focus, and android.lens.info.minimumFocusDistance represents the
3679             nearest focus the device can achieve.
3680             </details>
3681             <hal_details>
3682             For devices advertise APPROXIMATE quality or higher, diopters 0 (infinity
3683             focus) must work. When autofocus is disabled (android.control.afMode == OFF)
3684             and the lens focus distance is set to 0 diopters
3685             (android.lens.focusDistance == 0), the lens will move to focus at infinity
3686             and is stably focused at infinity even if the device tilts. It may take the
3687             lens some time to move; during the move the lens state should be MOVING and
3688             the output diopter value should be changing toward 0.
3689             </hal_details>
3690           <tag id="V1" />
3691         </entry>
3692         </namespace>
3693         <entry name="facing" type="byte" visibility="public" enum="true" hwlevel="legacy">
3694           <enum>
3695             <value>FRONT
3696             <notes>
3697               The camera device faces the same direction as the device's screen.
3698             </notes></value>
3699             <value>BACK
3700             <notes>
3701               The camera device faces the opposite direction as the device's screen.
3702             </notes></value>
3703             <value>EXTERNAL
3704             <notes>
3705               The camera device is an external camera, and has no fixed facing relative to the
3706               device's screen.
3707             </notes></value>
3708           </enum>
3709           <description>Direction the camera faces relative to
3710           device screen.</description>
3711         </entry>
3712         <entry name="poseRotation" type="float" visibility="public"
3713                container="array">
3714           <array>
3715             <size>4</size>
3716           </array>
3717           <description>
3718             The orientation of the camera relative to the sensor
3719             coordinate system.
3720           </description>
3721           <units>
3722             Quaternion coefficients
3723           </units>
3724           <details>
3725             The four coefficients that describe the quaternion
3726             rotation from the Android sensor coordinate system to a
3727             camera-aligned coordinate system where the X-axis is
3728             aligned with the long side of the image sensor, the Y-axis
3729             is aligned with the short side of the image sensor, and
3730             the Z-axis is aligned with the optical axis of the sensor.
3731
3732             To convert from the quaternion coefficients `(x,y,z,w)`
3733             to the axis of rotation `(a_x, a_y, a_z)` and rotation
3734             amount `theta`, the following formulas can be used:
3735
3736                  theta = 2 * acos(w)
3737                 a_x = x / sin(theta/2)
3738                 a_y = y / sin(theta/2)
3739                 a_z = z / sin(theta/2)
3740
3741             To create a 3x3 rotation matrix that applies the rotation
3742             defined by this quaternion, the following matrix can be
3743             used:
3744
3745                 R = [ 1 - 2y^2 - 2z^2,       2xy - 2zw,       2xz + 2yw,
3746                            2xy + 2zw, 1 - 2x^2 - 2z^2,       2yz - 2xw,
3747                            2xz - 2yw,       2yz + 2xw, 1 - 2x^2 - 2y^2 ]
3748
3749              This matrix can then be used to apply the rotation to a
3750              column vector point with
3751
3752                `p' = Rp`
3753
3754              where `p` is in the device sensor coordinate system, and
3755              `p'` is in the camera-oriented coordinate system.
3756           </details>
3757           <tag id="DEPTH" />
3758         </entry>
3759         <entry name="poseTranslation" type="float" visibility="public"
3760                container="array">
3761           <array>
3762             <size>3</size>
3763           </array>
3764           <description>Position of the camera optical center.</description>
3765           <units>Meters</units>
3766           <details>
3767             The position of the camera device's lens optical center,
3768             as a three-dimensional vector `(x,y,z)`, relative to the
3769             optical center of the largest camera device facing in the
3770             same direction as this camera, in the
3771             [Android sensor coordinate axes](https://developer.android.com/reference/android/hardware/SensorEvent.html).
3772             Note that only the axis definitions are shared with
3773             the sensor coordinate system, but not the origin.
3774
3775             If this device is the largest or only camera device with a
3776             given facing, then this position will be `(0, 0, 0)`; a
3777             camera device with a lens optical center located 3 cm from
3778             the main sensor along the +X axis (to the right from the
3779             user's perspective) will report `(0.03, 0, 0)`.
3780
3781             To transform a pixel coordinates between two cameras
3782             facing the same direction, first the source camera
3783             android.lens.radialDistortion must be corrected for.  Then
3784             the source camera android.lens.intrinsicCalibration needs
3785             to be applied, followed by the android.lens.poseRotation
3786             of the source camera, the translation of the source camera
3787             relative to the destination camera, the
3788             android.lens.poseRotation of the destination camera, and
3789             finally the inverse of android.lens.intrinsicCalibration
3790             of the destination camera. This obtains a
3791             radial-distortion-free coordinate in the destination
3792             camera pixel coordinates.
3793
3794             To compare this against a real image from the destination
3795             camera, the destination camera image then needs to be
3796             corrected for radial distortion before comparison or
3797             sampling.
3798           </details>
3799           <tag id="DEPTH" />
3800         </entry>
3801       </static>
3802       <dynamic>
3803         <clone entry="android.lens.aperture" kind="controls">
3804           <tag id="V1" />
3805         </clone>
3806         <clone entry="android.lens.filterDensity" kind="controls">
3807           <tag id="V1" />
3808         </clone>
3809         <clone entry="android.lens.focalLength" kind="controls">
3810           <tag id="BC" />
3811         </clone>
3812         <clone entry="android.lens.focusDistance" kind="controls">
3813           <details>Should be zero for fixed-focus cameras</details>
3814           <tag id="BC" />
3815         </clone>
3816         <entry name="focusRange" type="float" visibility="public"
3817         type_notes="Range of scene distances that are in focus"
3818         container="array" typedef="pairFloatFloat" hwlevel="limited">
3819           <array>
3820             <size>2</size>
3821           </array>
3822           <description>The range of scene distances that are in
3823           sharp focus (depth of field).</description>
3824           <units>A pair of focus distances in diopters: (near,
3825           far); see android.lens.info.focusDistanceCalibration for details.</units>
3826           <range>&amp;gt;=0</range>
3827           <details>If variable focus not supported, can still report
3828           fixed depth of field range</details>
3829           <tag id="BC" />
3830         </entry>
3831         <clone entry="android.lens.opticalStabilizationMode"
3832         kind="controls">
3833           <tag id="V1" />
3834         </clone>
3835         <entry name="state" type="byte" visibility="public" enum="true" hwlevel="limited">
3836           <enum>
3837             <value>STATIONARY
3838               <notes>
3839               The lens parameters (android.lens.focalLength, android.lens.focusDistance,
3840               android.lens.filterDensity and android.lens.aperture) are not changing.
3841               </notes>
3842             </value>
3843             <value>MOVING
3844               <notes>
3845               One or several of the lens parameters
3846               (android.lens.focalLength, android.lens.focusDistance,
3847               android.lens.filterDensity or android.lens.aperture) is
3848               currently changing.
3849               </notes>
3850             </value>
3851           </enum>
3852           <description>Current lens status.</description>
3853           <details>
3854           For lens parameters android.lens.focalLength, android.lens.focusDistance,
3855           android.lens.filterDensity and android.lens.aperture, when changes are requested,
3856           they may take several frames to reach the requested values. This state indicates
3857           the current status of the lens parameters.
3858
3859           When the state is STATIONARY, the lens parameters are not changing. This could be
3860           either because the parameters are all fixed, or because the lens has had enough
3861           time to reach the most recently-requested values.
3862           If all these lens parameters are not changable for a camera device, as listed below:
3863
3864           * Fixed focus (`android.lens.info.minimumFocusDistance == 0`), which means
3865           android.lens.focusDistance parameter will always be 0.
3866           * Fixed focal length (android.lens.info.availableFocalLengths contains single value),
3867           which means the optical zoom is not supported.
3868           * No ND filter (android.lens.info.availableFilterDensities contains only 0).
3869           * Fixed aperture (android.lens.info.availableApertures contains single value).
3870
3871           Then this state will always be STATIONARY.
3872
3873           When the state is MOVING, it indicates that at least one of the lens parameters
3874           is changing.
3875           </details>
3876           <tag id="V1" />
3877         </entry>
3878         <clone entry="android.lens.poseRotation" kind="static">
3879         </clone>
3880         <clone entry="android.lens.poseTranslation" kind="static">
3881         </clone>
3882       </dynamic>
3883       <static>
3884         <entry name="intrinsicCalibration" type="float" visibility="public"
3885                container="array">
3886           <array>
3887             <size>5</size>
3888           </array>
3889           <description>
3890             The parameters for this camera device's intrinsic
3891             calibration.
3892           </description>
3893           <units>
3894             Pixels in the
3895             android.sensor.info.preCorrectionActiveArraySize
3896             coordinate system.
3897           </units>
3898           <details>
3899             The five calibration parameters that describe the
3900             transform from camera-centric 3D coordinates to sensor
3901             pixel coordinates:
3902
3903                 [f_x, f_y, c_x, c_y, s]
3904
3905             Where `f_x` and `f_y` are the horizontal and vertical
3906             focal lengths, `[c_x, c_y]` is the position of the optical
3907             axis, and `s` is a skew parameter for the sensor plane not
3908             being aligned with the lens plane.
3909
3910             These are typically used within a transformation matrix K:
3911
3912                 K = [ f_x,   s, c_x,
3913                        0, f_y, c_y,
3914                        0    0,   1 ]
3915
3916             which can then be combined with the camera pose rotation
3917             `R` and translation `t` (android.lens.poseRotation and
3918             android.lens.poseTranslation, respective) to calculate the
3919             complete transform from world coordinates to pixel
3920             coordinates:
3921
3922                 P = [ K 0   * [ R t
3923                      0 1 ]     0 1 ]
3924
3925             and with `p_w` being a point in the world coordinate system
3926             and `p_s` being a point in the camera active pixel array
3927             coordinate system, and with the mapping including the
3928             homogeneous division by z:
3929
3930                  p_h = (x_h, y_h, z_h) = P p_w
3931                 p_s = p_h / z_h
3932
3933             so `[x_s, y_s]` is the pixel coordinates of the world
3934             point, `z_s = 1`, and `w_s` is a measurement of disparity
3935             (depth) in pixel coordinates.
3936
3937             Note that the coordinate system for this transform is the
3938             android.sensor.info.preCorrectionActiveArraySize system,
3939             where `(0,0)` is the top-left of the
3940             preCorrectionActiveArraySize rectangle. Once the pose and
3941             intrinsic calibration transforms have been applied to a
3942             world point, then the android.lens.radialDistortion
3943             transform needs to be applied, and the result adjusted to
3944             be in the android.sensor.info.activeArraySize coordinate
3945             system (where `(0, 0)` is the top-left of the
3946             activeArraySize rectangle), to determine the final pixel
3947             coordinate of the world point for processed (non-RAW)
3948             output buffers.
3949           </details>
3950           <tag id="DEPTH" />
3951         </entry>
3952         <entry name="radialDistortion" type="float" visibility="public"
3953                container="array">
3954           <array>
3955             <size>6</size>
3956           </array>
3957           <description>
3958             The correction coefficients to correct for this camera device's
3959             radial and tangential lens distortion.
3960           </description>
3961           <units>
3962             Unitless coefficients.
3963           </units>
3964           <details>
3965             Four radial distortion coefficients `[kappa_0, kappa_1, kappa_2,
3966             kappa_3]` and two tangential distortion coefficients
3967             `[kappa_4, kappa_5]` that can be used to correct the
3968             lens's geometric distortion with the mapping equations:
3969
3970                  x_c = x_i * ( kappa_0 + kappa_1 * r^2 + kappa_2 * r^4 + kappa_3 * r^6 ) +
3971                        kappa_4 * (2 * x_i * y_i) + kappa_5 * ( r^2 + 2 * x_i^2 )
3972                  y_c = y_i * ( kappa_0 + kappa_1 * r^2 + kappa_2 * r^4 + kappa_3 * r^6 ) +
3973                        kappa_5 * (2 * x_i * y_i) + kappa_4 * ( r^2 + 2 * y_i^2 )
3974
3975             Here, `[x_c, y_c]` are the coordinates to sample in the
3976             input image that correspond to the pixel values in the
3977             corrected image at the coordinate `[x_i, y_i]`:
3978
3979                  correctedImage(x_i, y_i) = sample_at(x_c, y_c, inputImage)
3980
3981             The pixel coordinates are defined in a normalized
3982             coordinate system related to the
3983             android.lens.intrinsicCalibration calibration fields.
3984             Both `[x_i, y_i]` and `[x_c, y_c]` have `(0,0)` at the
3985             lens optical center `[c_x, c_y]`. The maximum magnitudes
3986             of both x and y coordinates are normalized to be 1 at the
3987             edge further from the optical center, so the range
3988             for both dimensions is `-1 &lt;= x &lt;= 1`.
3989
3990             Finally, `r` represents the radial distance from the
3991             optical center, `r^2 = x_i^2 + y_i^2`, and its magnitude
3992             is therefore no larger than `|r| &lt;= sqrt(2)`.
3993
3994             The distortion model used is the Brown-Conrady model.
3995           </details>
3996           <tag id="DEPTH" />
3997         </entry>
3998       </static>
3999       <dynamic>
4000         <clone entry="android.lens.intrinsicCalibration" kind="static">
4001         </clone>
4002         <clone entry="android.lens.radialDistortion" kind="static">
4003         </clone>
4004       </dynamic>
4005     </section>
4006     <section name="noiseReduction">
4007       <controls>
4008         <entry name="mode" type="byte" visibility="public" enum="true" hwlevel="full">
4009           <enum>
4010             <value>OFF
4011             <notes>No noise reduction is applied.</notes></value>
4012             <value>FAST
4013             <notes>Noise reduction is applied without reducing frame rate relative to sensor
4014             output. It may be the same as OFF if noise reduction will reduce frame rate
4015             relative to sensor.</notes></value>
4016             <value>HIGH_QUALITY
4017             <notes>High-quality noise reduction is applied, at the cost of possibly reduced frame
4018             rate relative to sensor output.</notes></value>
4019             <value optional="true">MINIMAL
4020             <notes>MINIMAL noise reduction is applied without reducing frame rate relative to
4021             sensor output. </notes></value>
4022             <value optional="true">ZERO_SHUTTER_LAG
4023
4024             <notes>Noise reduction is applied at different levels for different output streams,
4025             based on resolution. Streams at maximum recording resolution (see {@link
4026             ACameraDevice_createCaptureSession}) or below have noise
4027             reduction applied, while higher-resolution streams have MINIMAL (if supported) or no
4028             noise reduction applied (if MINIMAL is not supported.) The degree of noise reduction
4029             for low-resolution streams is tuned so that frame rate is not impacted, and the quality
4030             is equal to or better than FAST (since it is only applied to lower-resolution outputs,
4031             quality may improve from FAST).
4032
4033             This mode is intended to be used by applications operating in a zero-shutter-lag mode
4034             with YUV or PRIVATE reprocessing, where the application continuously captures
4035             high-resolution intermediate buffers into a circular buffer, from which a final image is
4036             produced via reprocessing when a user takes a picture.  For such a use case, the
4037             high-resolution buffers must not have noise reduction applied to maximize efficiency of
4038             preview and to avoid over-applying noise filtering when reprocessing, while
4039             low-resolution buffers (used for recording or preview, generally) need noise reduction
4040             applied for reasonable preview quality.
4041
4042             This mode is guaranteed to be supported by devices that support either the
4043             YUV_REPROCESSING or PRIVATE_REPROCESSING capabilities
4044             (android.request.availableCapabilities lists either of those capabilities) and it will
4045             be the default mode for CAMERA3_TEMPLATE_ZERO_SHUTTER_LAG template.
4046             </notes></value>
4047           </enum>
4048           <description>Mode of operation for the noise reduction algorithm.</description>
4049           <range>android.noiseReduction.availableNoiseReductionModes</range>
4050           <details>The noise reduction algorithm attempts to improve image quality by removing
4051           excessive noise added by the capture process, especially in dark conditions.
4052
4053           OFF means no noise reduction will be applied by the camera device, for both raw and
4054           YUV domain.
4055
4056           MINIMAL means that only sensor raw domain basic noise reduction is enabled ,to remove
4057           demosaicing or other processing artifacts. For YUV_REPROCESSING, MINIMAL is same as OFF.
4058           This mode is optional, may not be support by all devices. The application should check
4059           android.noiseReduction.availableNoiseReductionModes before using it.
4060
4061           FAST/HIGH_QUALITY both mean camera device determined noise filtering
4062           will be applied. HIGH_QUALITY mode indicates that the camera device
4063           will use the highest-quality noise filtering algorithms,
4064           even if it slows down capture rate. FAST means the camera device will not
4065           slow down capture rate when applying noise filtering. FAST may be the same as MINIMAL if
4066           MINIMAL is listed, or the same as OFF if any noise filtering will slow down capture rate.
4067           Every output stream will have a similar amount of enhancement applied.
4068
4069           ZERO_SHUTTER_LAG is meant to be used by applications that maintain a continuous circular
4070           buffer of high-resolution images during preview and reprocess image(s) from that buffer
4071           into a final capture when triggered by the user. In this mode, the camera device applies
4072           noise reduction to low-resolution streams (below maximum recording resolution) to maximize
4073           preview quality, but does not apply noise reduction to high-resolution streams, since
4074           those will be reprocessed later if necessary.
4075
4076           For YUV_REPROCESSING, these FAST/HIGH_QUALITY modes both mean that the camera device
4077           will apply FAST/HIGH_QUALITY YUV domain noise reduction, respectively. The camera device
4078           may adjust the noise reduction parameters for best image quality based on the
4079           android.reprocess.effectiveExposureFactor if it is set.
4080           </details>
4081           <hal_details>
4082           For YUV_REPROCESSING The HAL can use android.reprocess.effectiveExposureFactor to
4083           adjust the internal noise reduction parameters appropriately to get the best quality
4084           images.
4085           </hal_details>
4086           <tag id="V1" />
4087           <tag id="REPROC" />
4088         </entry>
4089         <entry name="strength" type="byte">
4090           <description>Control the amount of noise reduction
4091           applied to the images</description>
4092           <units>1-10; 10 is max noise reduction</units>
4093           <range>1 - 10</range>
4094           <tag id="FUTURE" />
4095         </entry>
4096       </controls>
4097       <static>
4098         <entry name="availableNoiseReductionModes" type="byte" visibility="public"
4099         type_notes="list of enums" container="array" typedef="enumList" hwlevel="limited">
4100           <array>
4101             <size>n</size>
4102           </array>
4103           <description>
4104           List of noise reduction modes for android.noiseReduction.mode that are supported
4105           by this camera device.
4106           </description>
4107           <range>Any value listed in android.noiseReduction.mode</range>
4108           <details>
4109           Full-capability camera devices will always support OFF and FAST.
4110
4111           Camera devices that support YUV_REPROCESSING or PRIVATE_REPROCESSING will support
4112           ZERO_SHUTTER_LAG.
4113
4114           Legacy-capability camera devices will only support FAST mode.
4115           </details>
4116           <hal_details>
4117           HAL must support both FAST and HIGH_QUALITY if noise reduction control is available
4118           on the camera device, but the underlying implementation can be the same for both modes.
4119           That is, if the highest quality implementation on the camera device does not slow down
4120           capture rate, then FAST and HIGH_QUALITY will generate the same output.
4121           </hal_details>
4122           <tag id="V1" />
4123           <tag id="REPROC" />
4124         </entry>
4125       </static>
4126       <dynamic>
4127         <clone entry="android.noiseReduction.mode" kind="controls">
4128           <tag id="V1" />
4129           <tag id="REPROC" />
4130         </clone>
4131       </dynamic>
4132     </section>
4133     <section name="quirks">
4134       <static>
4135         <entry name="meteringCropRegion" type="byte" visibility="system" deprecated="true" optional="true">
4136           <description>If set to 1, the camera service does not
4137           scale 'normalized' coordinates with respect to the crop
4138           region. This applies to metering input (a{e,f,wb}Region
4139           and output (face rectangles).</description>
4140           <details>Normalized coordinates refer to those in the
4141           (-1000,1000) range mentioned in the
4142           android.hardware.Camera API.
4143
4144           HAL implementations should instead always use and emit
4145           sensor array-relative coordinates for all region data. Does
4146           not need to be listed in static metadata. Support will be
4147           removed in future versions of camera service.</details>
4148         </entry>
4149         <entry name="triggerAfWithAuto" type="byte" visibility="system" deprecated="true" optional="true">
4150           <description>If set to 1, then the camera service always
4151           switches to FOCUS_MODE_AUTO before issuing a AF
4152           trigger.</description>
4153           <details>HAL implementations should implement AF trigger
4154           modes for AUTO, MACRO, CONTINUOUS_FOCUS, and
4155           CONTINUOUS_PICTURE modes instead of using this flag. Does
4156           not need to be listed in static metadata. Support will be
4157           removed in future versions of camera service</details>
4158         </entry>
4159         <entry name="useZslFormat" type="byte" visibility="system" deprecated="true" optional="true">
4160           <description>If set to 1, the camera service uses
4161           CAMERA2_PIXEL_FORMAT_ZSL instead of
4162           HAL_PIXEL_FORMAT_IMPLEMENTATION_DEFINED for the zero
4163           shutter lag stream</description>
4164           <details>HAL implementations should use gralloc usage flags
4165           to determine that a stream will be used for
4166           zero-shutter-lag, instead of relying on an explicit
4167           format setting. Does not need to be listed in static
4168           metadata. Support will be removed in future versions of
4169           camera service.</details>
4170         </entry>
4171         <entry name="usePartialResult" type="byte" visibility="hidden" deprecated="true" optional="true">
4172           <description>
4173           If set to 1, the HAL will always split result
4174           metadata for a single capture into multiple buffers,
4175           returned using multiple process_capture_result calls.
4176           </description>
4177           <details>
4178           Does not need to be listed in static
4179           metadata. Support for partial results will be reworked in
4180           future versions of camera service. This quirk will stop
4181           working at that point; DO NOT USE without careful
4182           consideration of future support.
4183           </details>
4184           <hal_details>
4185           Refer to `camera3_capture_result::partial_result`
4186           for information on how to implement partial results.
4187           </hal_details>
4188         </entry>
4189       </static>
4190       <dynamic>
4191         <entry name="partialResult" type="byte" visibility="hidden" deprecated="true" optional="true" enum="true" typedef="boolean">
4192           <enum>
4193             <value>FINAL
4194             <notes>The last or only metadata result buffer
4195             for this capture.</notes>
4196             </value>
4197             <value>PARTIAL
4198             <notes>A partial buffer of result metadata for this
4199             capture. More result buffers for this capture will be sent
4200             by the camera device, the last of which will be marked
4201             FINAL.</notes>
4202             </value>
4203           </enum>
4204           <description>
4205           Whether a result given to the framework is the
4206           final one for the capture, or only a partial that contains a
4207           subset of the full set of dynamic metadata
4208           values.</description>
4209           <range>Optional. Default value is FINAL.</range>
4210           <details>
4211           The entries in the result metadata buffers for a
4212           single capture may not overlap, except for this entry. The
4213           FINAL buffers must retain FIFO ordering relative to the
4214           requests that generate them, so the FINAL buffer for frame 3 must
4215           always be sent to the framework after the FINAL buffer for frame 2, and
4216           before the FINAL buffer for frame 4. PARTIAL buffers may be returned
4217           in any order relative to other frames, but all PARTIAL buffers for a given
4218           capture must arrive before the FINAL buffer for that capture. This entry may
4219           only be used by the camera device if quirks.usePartialResult is set to 1.
4220           </details>
4221           <hal_details>
4222           Refer to `camera3_capture_result::partial_result`
4223           for information on how to implement partial results.
4224           </hal_details>
4225         </entry>
4226       </dynamic>
4227     </section>
4228     <section name="request">
4229       <controls>
4230         <entry name="frameCount" type="int32" visibility="system" deprecated="true">
4231           <description>A frame counter set by the framework. Must
4232           be maintained unchanged in output frame. This value monotonically
4233           increases with every new result (that is, each new result has a unique
4234           frameCount value).
4235           </description>
4236           <units>incrementing integer</units>
4237           <range>Any int.</range>
4238         </entry>
4239         <entry name="id" type="int32" visibility="hidden">
4240           <description>An application-specified ID for the current
4241           request. Must be maintained unchanged in output
4242           frame</description>
4243           <units>arbitrary integer assigned by application</units>
4244           <range>Any int</range>
4245           <tag id="V1" />
4246         </entry>
4247         <entry name="inputStreams" type="int32" visibility="system" deprecated="true"
4248                container="array">
4249           <array>
4250             <size>n</size>
4251           </array>
4252           <description>List which camera reprocess stream is used
4253           for the source of reprocessing data.</description>
4254           <units>List of camera reprocess stream IDs</units>
4255           <range>
4256           Typically, only one entry allowed, must be a valid reprocess stream ID.
4257           </range>
4258           <details>Only meaningful when android.request.type ==
4259           REPROCESS. Ignored otherwise</details>
4260           <tag id="HAL2" />
4261         </entry>
4262         <entry name="metadataMode" type="byte" visibility="system"
4263                enum="true">
4264           <enum>
4265             <value>NONE
4266             <notes>No metadata should be produced on output, except
4267             for application-bound buffer data. If no
4268             application-bound streams exist, no frame should be
4269             placed in the output frame queue. If such streams
4270             exist, a frame should be placed on the output queue
4271             with null metadata but with the necessary output buffer
4272             information. Timestamp information should still be
4273             included with any output stream buffers</notes></value>
4274             <value>FULL
4275             <notes>All metadata should be produced. Statistics will
4276             only be produced if they are separately
4277             enabled</notes></value>
4278           </enum>
4279           <description>How much metadata to produce on
4280           output</description>
4281           <tag id="FUTURE" />
4282         </entry>
4283         <entry name="outputStreams" type="int32" visibility="system" deprecated="true"
4284                container="array">
4285           <array>
4286             <size>n</size>
4287           </array>
4288           <description>Lists which camera output streams image data
4289           from this capture must be sent to</description>
4290           <units>List of camera stream IDs</units>
4291           <range>List must only include streams that have been
4292           created</range>
4293           <details>If no output streams are listed, then the image
4294           data should simply be discarded. The image data must
4295           still be captured for metadata and statistics production,
4296           and the lens and flash must operate as requested.</details>
4297           <tag id="HAL2" />
4298         </entry>
4299         <entry name="type" type="byte" visibility="system" deprecated="true" enum="true">
4300           <enum>
4301             <value>CAPTURE
4302             <notes>Capture a new image from the imaging hardware,
4303             and process it according to the
4304             settings</notes></value>
4305             <value>REPROCESS
4306             <notes>Process previously captured data; the
4307             android.request.inputStreams parameter determines the
4308             source reprocessing stream. TODO: Mark dynamic metadata
4309             needed for reprocessing with [RP]</notes></value>
4310           </enum>
4311           <description>The type of the request; either CAPTURE or
4312           REPROCESS. For HAL3, this tag is redundant.
4313           </description>
4314           <tag id="HAL2" />
4315         </entry>
4316       </controls>
4317       <static>
4318         <entry name="maxNumOutputStreams" type="int32" visibility="ndk_public"
4319                container="array" hwlevel="legacy">
4320           <array>
4321             <size>3</size>
4322           </array>
4323           <description>The maximum numbers of different types of output streams
4324           that can be configured and used simultaneously by a camera device.
4325           </description>
4326           <range>
4327           For processed (and stalling) format streams, &amp;gt;= 1.
4328
4329           For Raw format (either stalling or non-stalling) streams, &amp;gt;= 0.
4330
4331           For processed (but not stalling) format streams, &amp;gt;= 3
4332           for FULL mode devices (`android.info.supportedHardwareLevel == FULL`);
4333           &amp;gt;= 2 for LIMITED mode devices (`android.info.supportedHardwareLevel == LIMITED`).
4334           </range>
4335           <details>
4336           This is a 3 element tuple that contains the max number of output simultaneous
4337           streams for raw sensor, processed (but not stalling), and processed (and stalling)
4338           formats respectively. For example, assuming that JPEG is typically a processed and
4339           stalling stream, if max raw sensor format output stream number is 1, max YUV streams
4340           number is 3, and max JPEG stream number is 2, then this tuple should be `(1, 3, 2)`.
4341
4342           This lists the upper bound of the number of output streams supported by
4343           the camera device. Using more streams simultaneously may require more hardware and
4344           CPU resources that will consume more power. The image format for an output stream can
4345           be any supported format provided by android.scaler.availableStreamConfigurations.
4346           The formats defined in android.scaler.availableStreamConfigurations can be catergorized
4347           into the 3 stream types as below:
4348
4349           * Processed (but stalling): any non-RAW format with a stallDurations &amp;gt; 0.
4350             Typically {@link AIMAGE_FORMAT_JPEG} format.
4351           * Raw formats: {@link AIMAGE_FORMAT_RAW16}, {@link AIMAGE_FORMAT_RAW10}, or
4352             {@link AIMAGE_FORMAT_RAW12}.
4353           * Processed (but not-stalling): any non-RAW format without a stall duration.
4354             Typically {@link AIMAGE_FORMAT_YUV_420_888}.
4355           </details>
4356           <tag id="BC" />
4357         </entry>
4358         <entry name="maxNumOutputRaw" type="int32" visibility="java_public" synthetic="true"
4359                hwlevel="legacy">
4360           <description>The maximum numbers of different types of output streams
4361           that can be configured and used simultaneously by a camera device
4362           for any `RAW` formats.
4363           </description>
4364           <range>
4365           &amp;gt;= 0
4366           </range>
4367           <details>
4368           This value contains the max number of output simultaneous
4369           streams from the raw sensor.
4370
4371           This lists the upper bound of the number of output streams supported by
4372           the camera device. Using more streams simultaneously may require more hardware and
4373           CPU resources that will consume more power. The image format for this kind of an output stream can
4374           be any `RAW` and supported format provided by android.scaler.streamConfigurationMap.
4375
4376           In particular, a `RAW` format is typically one of:
4377
4378           * {@link AIMAGE_FORMAT_RAW16}
4379           * {@link AIMAGE_FORMAT_RAW10}
4380           * {@link AIMAGE_FORMAT_RAW12}
4381
4382           LEGACY mode devices (android.info.supportedHardwareLevel `==` LEGACY)
4383           never support raw streams.
4384           </details>
4385         </entry>
4386         <entry name="maxNumOutputProc" type="int32" visibility="java_public" synthetic="true"
4387                hwlevel="legacy">
4388           <description>The maximum numbers of different types of output streams
4389           that can be configured and used simultaneously by a camera device
4390           for any processed (but not-stalling) formats.
4391           </description>
4392           <range>
4393           &amp;gt;= 3
4394           for FULL mode devices (`android.info.supportedHardwareLevel == FULL`);
4395           &amp;gt;= 2 for LIMITED mode devices (`android.info.supportedHardwareLevel == LIMITED`).
4396           </range>
4397           <details>
4398           This value contains the max number of output simultaneous
4399           streams for any processed (but not-stalling) formats.
4400
4401           This lists the upper bound of the number of output streams supported by
4402           the camera device. Using more streams simultaneously may require more hardware and
4403           CPU resources that will consume more power. The image format for this kind of an output stream can
4404           be any non-`RAW` and supported format provided by android.scaler.streamConfigurationMap.
4405
4406           Processed (but not-stalling) is defined as any non-RAW format without a stall duration.
4407           Typically:
4408
4409           * {@link AIMAGE_FORMAT_YUV_420_888}
4410           * Implementation-defined formats, i.e. {@link
4411             android.hardware.camera2.params.StreamConfigurationMap#isOutputSupportedFor(Class)}
4412
4413           For full guarantees, query {@link
4414           android.hardware.camera2.params.StreamConfigurationMap#getOutputStallDuration} with a
4415           processed format -- it will return 0 for a non-stalling stream.
4416
4417           LEGACY devices will support at least 2 processing/non-stalling streams.
4418           </details>
4419         </entry>
4420         <entry name="maxNumOutputProcStalling" type="int32" visibility="java_public" synthetic="true"
4421                hwlevel="legacy">
4422           <description>The maximum numbers of different types of output streams
4423           that can be configured and used simultaneously by a camera device
4424           for any processed (and stalling) formats.
4425           </description>
4426           <range>
4427           &amp;gt;= 1
4428           </range>
4429           <details>
4430           This value contains the max number of output simultaneous
4431           streams for any processed (but not-stalling) formats.
4432
4433           This lists the upper bound of the number of output streams supported by
4434           the camera device. Using more streams simultaneously may require more hardware and
4435           CPU resources that will consume more power. The image format for this kind of an output stream can
4436           be any non-`RAW` and supported format provided by android.scaler.streamConfigurationMap.
4437
4438           A processed and stalling format is defined as any non-RAW format with a stallDurations
4439           &amp;gt; 0.  Typically only the {@link AIMAGE_FORMAT_JPEG} format is a
4440           stalling format.
4441
4442           For full guarantees, query {@link
4443           android.hardware.camera2.params.StreamConfigurationMap#getOutputStallDuration} with a
4444           processed format -- it will return a non-0 value for a stalling stream.
4445
4446           LEGACY devices will support up to 1 processing/stalling stream.
4447           </details>
4448         </entry>
4449         <entry name="maxNumReprocessStreams" type="int32" visibility="system"
4450         deprecated="true" container="array">
4451           <array>
4452             <size>1</size>
4453           </array>
4454           <description>How many reprocessing streams of any type
4455           can be allocated at the same time.</description>
4456           <range>&amp;gt;= 0</range>
4457           <details>
4458           Only used by HAL2.x.
4459
4460           When set to 0, it means no reprocess stream is supported.
4461           </details>
4462           <tag id="HAL2" />
4463         </entry>
4464         <entry name="maxNumInputStreams" type="int32" visibility="java_public" hwlevel="full">
4465           <description>
4466           The maximum numbers of any type of input streams
4467           that can be configured and used simultaneously by a camera device.
4468           </description>
4469           <range>
4470           0 or 1.
4471           </range>
4472           <details>When set to 0, it means no input stream is supported.
4473
4474           The image format for a input stream can be any supported format returned by {@link
4475           android.hardware.camera2.params.StreamConfigurationMap#getInputFormats}. When using an
4476           input stream, there must be at least one output stream configured to to receive the
4477           reprocessed images.
4478
4479           When an input stream and some output streams are used in a reprocessing request,
4480           only the input buffer will be used to produce these output stream buffers, and a
4481           new sensor image will not be captured.
4482
4483           For example, for Zero Shutter Lag (ZSL) still capture use case, the input
4484           stream image format will be PRIVATE, the associated output stream image format
4485           should be JPEG.
4486           </details>
4487           <hal_details>
4488           For the reprocessing flow and controls, see
4489           hardware/libhardware/include/hardware/camera3.h Section 10 for more details.
4490           </hal_details>
4491           <tag id="REPROC" />
4492         </entry>
4493       </static>
4494       <dynamic>
4495         <entry name="frameCount" type="int32" visibility="hidden" deprecated="true">
4496           <description>A frame counter set by the framework. This value monotonically
4497           increases with every new result (that is, each new result has a unique
4498           frameCount value).</description>
4499           <units>count of frames</units>
4500           <range>&amp;gt; 0</range>
4501           <details>Reset on release()</details>
4502         </entry>
4503         <clone entry="android.request.id" kind="controls"></clone>
4504         <clone entry="android.request.metadataMode"
4505         kind="controls"></clone>
4506         <clone entry="android.request.outputStreams"
4507         kind="controls"></clone>
4508         <entry name="pipelineDepth" type="byte" visibility="public" hwlevel="legacy">
4509           <description>Specifies the number of pipeline stages the frame went
4510           through from when it was exposed to when the final completed result
4511           was available to the framework.</description>
4512           <range>&amp;lt;= android.request.pipelineMaxDepth</range>
4513           <details>Depending on what settings are used in the request, and
4514           what streams are configured, the data may undergo less processing,
4515           and some pipeline stages skipped.
4516
4517           See android.request.pipelineMaxDepth for more details.
4518           </details>
4519           <hal_details>
4520           This value must always represent the accurate count of how many
4521           pipeline stages were actually used.
4522           </hal_details>
4523         </entry>
4524       </dynamic>
4525       <static>
4526         <entry name="pipelineMaxDepth" type="byte" visibility="public" hwlevel="legacy">
4527           <description>Specifies the number of maximum pipeline stages a frame
4528           has to go through from when it's exposed to when it's available
4529           to the framework.</description>
4530           <details>A typical minimum value for this is 2 (one stage to expose,
4531           one stage to readout) from the sensor. The ISP then usually adds
4532           its own stages to do custom HW processing. Further stages may be
4533           added by SW processing.
4534
4535           Depending on what settings are used (e.g. YUV, JPEG) and what
4536           processing is enabled (e.g. face detection), the actual pipeline
4537           depth (specified by android.request.pipelineDepth) may be less than
4538           the max pipeline depth.
4539
4540           A pipeline depth of X stages is equivalent to a pipeline latency of
4541           X frame intervals.
4542
4543           This value will normally be 8 or less, however, for high speed capture session,
4544           the max pipeline depth will be up to 8 x size of high speed capture request list.
4545           </details>
4546           <hal_details>
4547           This value should be 4 or less, expect for the high speed recording session, where the
4548           max batch sizes may be larger than 1.
4549           </hal_details>
4550         </entry>
4551         <entry name="partialResultCount" type="int32" visibility="public" optional="true">
4552           <description>Defines how many sub-components
4553           a result will be composed of.
4554           </description>
4555           <range>&amp;gt;= 1</range>
4556           <details>In order to combat the pipeline latency, partial results
4557           may be delivered to the application layer from the camera device as
4558           soon as they are available.
4559
4560           Optional; defaults to 1. A value of 1 means that partial
4561           results are not supported, and only the final TotalCaptureResult will
4562           be produced by the camera device.
4563
4564           A typical use case for this might be: after requesting an
4565           auto-focus (AF) lock the new AF state might be available 50%
4566           of the way through the pipeline.  The camera device could
4567           then immediately dispatch this state via a partial result to
4568           the application, and the rest of the metadata via later
4569           partial results.
4570           </details>
4571         </entry>
4572         <entry name="availableCapabilities" type="byte" visibility="public"
4573           enum="true" container="array" hwlevel="legacy">
4574           <array>
4575             <size>n</size>
4576           </array>
4577           <enum>
4578             <value>BACKWARD_COMPATIBLE
4579               <notes>The minimal set of capabilities that every camera
4580                 device (regardless of android.info.supportedHardwareLevel)
4581                 supports.
4582
4583                 This capability is listed by all normal devices, and
4584                 indicates that the camera device has a feature set
4585                 that's comparable to the baseline requirements for the
4586                 older android.hardware.Camera API.
4587
4588                 Devices with the DEPTH_OUTPUT capability might not list this
4589                 capability, indicating that they support only depth measurement,
4590                 not standard color output.
4591               </notes>
4592             </value>
4593             <value optional="true">MANUAL_SENSOR
4594               <notes>
4595               The camera device can be manually controlled (3A algorithms such
4596               as auto-exposure, and auto-focus can be bypassed).
4597               The camera device supports basic manual control of the sensor image
4598               acquisition related stages. This means the following controls are
4599               guaranteed to be supported:
4600
4601               * Manual frame duration control
4602                   * android.sensor.frameDuration
4603                   * android.sensor.info.maxFrameDuration
4604               * Manual exposure control
4605                   * android.sensor.exposureTime
4606                   * android.sensor.info.exposureTimeRange
4607               * Manual sensitivity control
4608                   * android.sensor.sensitivity
4609                   * android.sensor.info.sensitivityRange
4610               * Manual lens control (if the lens is adjustable)
4611                   * android.lens.*
4612               * Manual flash control (if a flash unit is present)
4613                   * android.flash.*
4614               * Manual black level locking
4615                   * android.blackLevel.lock
4616               * Auto exposure lock
4617                   * android.control.aeLock
4618
4619               If any of the above 3A algorithms are enabled, then the camera
4620               device will accurately report the values applied by 3A in the
4621               result.
4622
4623               A given camera device may also support additional manual sensor controls,
4624               but this capability only covers the above list of controls.
4625
4626               If this is supported, android.scaler.streamConfigurationMap will
4627               additionally return a min frame duration that is greater than
4628               zero for each supported size-format combination.
4629               </notes>
4630             </value>
4631             <value optional="true">MANUAL_POST_PROCESSING
4632               <notes>
4633               The camera device post-processing stages can be manually controlled.
4634               The camera device supports basic manual control of the image post-processing
4635               stages. This means the following controls are guaranteed to be supported:
4636
4637               * Manual tonemap control
4638                   * android.tonemap.curve
4639                   * android.tonemap.mode
4640                   * android.tonemap.maxCurvePoints
4641                   * android.tonemap.gamma
4642                   * android.tonemap.presetCurve
4643
4644               * Manual white balance control
4645                   * android.colorCorrection.transform
4646                   * android.colorCorrection.gains
4647               * Manual lens shading map control
4648                     * android.shading.mode
4649                     * android.statistics.lensShadingMapMode
4650                     * android.statistics.lensShadingMap
4651                     * android.lens.info.shadingMapSize
4652               * Manual aberration correction control (if aberration correction is supported)
4653                     * android.colorCorrection.aberrationMode
4654                     * android.colorCorrection.availableAberrationModes
4655               * Auto white balance lock
4656                     * android.control.awbLock
4657
4658               If auto white balance is enabled, then the camera device
4659               will accurately report the values applied by AWB in the result.
4660
4661               A given camera device may also support additional post-processing
4662               controls, but this capability only covers the above list of controls.
4663               </notes>
4664             </value>
4665             <value optional="true">RAW
4666               <notes>
4667               The camera device supports outputting RAW buffers and
4668               metadata for interpreting them.
4669
4670               Devices supporting the RAW capability allow both for
4671               saving DNG files, and for direct application processing of
4672               raw sensor images.
4673
4674               * RAW_SENSOR is supported as an output format.
4675               * The maximum available resolution for RAW_SENSOR streams
4676                 will match either the value in
4677                 android.sensor.info.pixelArraySize or
4678                 android.sensor.info.preCorrectionActiveArraySize.
4679               * All DNG-related optional metadata entries are provided
4680                 by the camera device.
4681               </notes>
4682             </value>
4683             <value optional="true" ndk_hidden="true">PRIVATE_REPROCESSING
4684               <notes>
4685               The camera device supports the Zero Shutter Lag reprocessing use case.
4686
4687               * One input stream is supported, that is, `android.request.maxNumInputStreams == 1`.
4688               * {@link android.graphics.ImageFormat#PRIVATE} is supported as an output/input format,
4689                 that is, {@link android.graphics.ImageFormat#PRIVATE} is included in the lists of
4690                 formats returned by {@link
4691                 android.hardware.camera2.params.StreamConfigurationMap#getInputFormats} and {@link
4692                 android.hardware.camera2.params.StreamConfigurationMap#getOutputFormats}.
4693               * {@link android.hardware.camera2.params.StreamConfigurationMap#getValidOutputFormatsForInput}
4694                 returns non empty int[] for each supported input format returned by {@link
4695                 android.hardware.camera2.params.StreamConfigurationMap#getInputFormats}.
4696               * Each size returned by {@link
4697                 android.hardware.camera2.params.StreamConfigurationMap#getInputSizes
4698                 getInputSizes(ImageFormat.PRIVATE)} is also included in {@link
4699                 android.hardware.camera2.params.StreamConfigurationMap#getOutputSizes
4700                 getOutputSizes(ImageFormat.PRIVATE)}
4701               * Using {@link android.graphics.ImageFormat#PRIVATE} does not cause a frame rate drop
4702                 relative to the sensor's maximum capture rate (at that resolution).
4703               * {@link android.graphics.ImageFormat#PRIVATE} will be reprocessable into both
4704                 {@link android.graphics.ImageFormat#YUV_420_888} and
4705                 {@link android.graphics.ImageFormat#JPEG} formats.
4706               * The maximum available resolution for PRIVATE streams
4707                 (both input/output) will match the maximum available
4708                 resolution of JPEG streams.
4709               * Static metadata android.reprocess.maxCaptureStall.
4710               * Only below controls are effective for reprocessing requests and
4711                 will be present in capture results, other controls in reprocess
4712                 requests will be ignored by the camera device.
4713                     * android.jpeg.*
4714                     * android.noiseReduction.mode
4715                     * android.edge.mode
4716               * android.noiseReduction.availableNoiseReductionModes and
4717                 android.edge.availableEdgeModes will both list ZERO_SHUTTER_LAG as a supported mode.
4718               </notes>
4719             </value>
4720             <value optional="true">READ_SENSOR_SETTINGS
4721               <notes>
4722               The camera device supports accurately reporting the sensor settings for many of
4723               the sensor controls while the built-in 3A algorithm is running.  This allows
4724               reporting of sensor settings even when these settings cannot be manually changed.
4725
4726               The values reported for the following controls are guaranteed to be available
4727               in the CaptureResult, including when 3A is enabled:
4728
4729               * Exposure control
4730                   * android.sensor.exposureTime
4731               * Sensitivity control
4732                   * android.sensor.sensitivity
4733               * Lens controls (if the lens is adjustable)
4734                   * android.lens.focusDistance
4735                   * android.lens.aperture
4736
4737               This capability is a subset of the MANUAL_SENSOR control capability, and will
4738               always be included if the MANUAL_SENSOR capability is available.
4739               </notes>
4740             </value>
4741             <value optional="true">BURST_CAPTURE
4742               <notes>
4743               The camera device supports capturing high-resolution images at &gt;= 20 frames per
4744               second, in at least the uncompressed YUV format, when post-processing settings are set
4745               to FAST. Additionally, maximum-resolution images can be captured at &gt;= 10 frames
4746               per second.  Here, 'high resolution' means at least 8 megapixels, or the maximum
4747               resolution of the device, whichever is smaller.
4748
4749               More specifically, this means that at least one output {@link
4750               AIMAGE_FORMAT_YUV_420_888} size listed in
4751               {@link ACAMERA_SCALER_AVAILABLE_STREAM_CONFIGURATIONS} is larger or equal to the
4752               'high resolution' defined above, and can be captured at at least 20 fps.
4753               For the largest {@link AIMAGE_FORMAT_YUV_420_888} size listed in
4754               {@link ACAMERA_SCALER_AVAILABLE_STREAM_CONFIGURATIONS}, camera device can capture this
4755               size for at least 10 frames per second.
4756               Also the android.control.aeAvailableTargetFpsRanges entry lists at least one FPS range
4757               where the minimum FPS is &gt;= 1 / minimumFrameDuration for the largest YUV_420_888 size.
4758
4759               If the device supports the {@link AIMAGE_FORMAT_RAW10}, {@link
4760               AIMAGE_FORMAT_RAW12}, then those can also be captured at the same rate
4761               as the maximum-size YUV_420_888 resolution is.
4762
4763               In addition, the android.sync.maxLatency field is guaranted to have a value between 0
4764               and 4, inclusive. android.control.aeLockAvailable and android.control.awbLockAvailable
4765               are also guaranteed to be `true` so burst capture with these two locks ON yields
4766               consistent image output.
4767               </notes>
4768             </value>
4769             <value optional="true" ndk_hidden="true">YUV_REPROCESSING
4770               <notes>
4771               The camera device supports the YUV_420_888 reprocessing use case, similar as
4772               PRIVATE_REPROCESSING, This capability requires the camera device to support the
4773               following:
4774
4775               * One input stream is supported, that is, `android.request.maxNumInputStreams == 1`.
4776               * {@link android.graphics.ImageFormat#YUV_420_888} is supported as an output/input format, that is,
4777                 YUV_420_888 is included in the lists of formats returned by
4778                 {@link android.hardware.camera2.params.StreamConfigurationMap#getInputFormats} and
4779                 {@link android.hardware.camera2.params.StreamConfigurationMap#getOutputFormats}.
4780               * {@link
4781                 android.hardware.camera2.params.StreamConfigurationMap#getValidOutputFormatsForInput}
4782                 returns non-empty int[] for each supported input format returned by {@link
4783                 android.hardware.camera2.params.StreamConfigurationMap#getInputFormats}.
4784               * Each size returned by {@link
4785                 android.hardware.camera2.params.StreamConfigurationMap#getInputSizes
4786                 getInputSizes(YUV_420_888)} is also included in {@link
4787                 android.hardware.camera2.params.StreamConfigurationMap#getOutputSizes
4788                 getOutputSizes(YUV_420_888)}
4789               * Using {@link android.graphics.ImageFormat#YUV_420_888} does not cause a frame rate drop
4790                 relative to the sensor's maximum capture rate (at that resolution).
4791               * {@link android.graphics.ImageFormat#YUV_420_888} will be reprocessable into both
4792                 {@link android.graphics.ImageFormat#YUV_420_888} and {@link
4793                 android.graphics.ImageFormat#JPEG} formats.
4794               * The maximum available resolution for {@link
4795                 android.graphics.ImageFormat#YUV_420_888} streams (both input/output) will match the
4796                 maximum available resolution of {@link android.graphics.ImageFormat#JPEG} streams.
4797               * Static metadata android.reprocess.maxCaptureStall.
4798               * Only the below controls are effective for reprocessing requests and will be present
4799                 in capture results. The reprocess requests are from the original capture results that
4800                 are associated with the intermediate {@link android.graphics.ImageFormat#YUV_420_888}
4801                 output buffers.  All other controls in the reprocess requests will be ignored by the
4802                 camera device.
4803                     * android.jpeg.*
4804                     * android.noiseReduction.mode
4805                     * android.edge.mode
4806                     * android.reprocess.effectiveExposureFactor
4807               * android.noiseReduction.availableNoiseReductionModes and
4808                 android.edge.availableEdgeModes will both list ZERO_SHUTTER_LAG as a supported mode.
4809               </notes>
4810             </value>
4811             <value optional="true">DEPTH_OUTPUT
4812               <notes>
4813               The camera device can produce depth measurements from its field of view.
4814
4815               This capability requires the camera device to support the following:
4816
4817               * {@link AIMAGE_FORMAT_DEPTH16} is supported as an output format.
4818               * {@link AIMAGE_FORMAT_DEPTH_POINT_CLOUD} is optionally supported as an
4819                 output format.
4820               * This camera device, and all camera devices with the same android.lens.facing,
4821                 will list the following calibration entries in {@link ACameraMetadata} from both
4822                 {@link ACameraManager_getCameraCharacteristics} and
4823                 {@link ACameraCaptureSession_captureCallback_result}:
4824                   - android.lens.poseTranslation
4825                   - android.lens.poseRotation
4826                   - android.lens.intrinsicCalibration
4827                   - android.lens.radialDistortion
4828               * The android.depth.depthIsExclusive entry is listed by this device.
4829               * A LIMITED camera with only the DEPTH_OUTPUT capability does not have to support
4830                 normal YUV_420_888, JPEG, and PRIV-format outputs. It only has to support the DEPTH16
4831                 format.
4832
4833               Generally, depth output operates at a slower frame rate than standard color capture,
4834               so the DEPTH16 and DEPTH_POINT_CLOUD formats will commonly have a stall duration that
4835               should be accounted for (see
4836               {@link ACAMERA_DEPTH_AVAILABLE_DEPTH_STALL_DURATIONS}).
4837               On a device that supports both depth and color-based output, to enable smooth preview,
4838               using a repeating burst is recommended, where a depth-output target is only included
4839               once every N frames, where N is the ratio between preview output rate and depth output
4840               rate, including depth stall time.
4841               </notes>
4842             </value>
4843             <value optional="true" ndk_hidden="true">CONSTRAINED_HIGH_SPEED_VIDEO
4844               <notes>
4845               The device supports constrained high speed video recording (frame rate >=120fps)
4846               use case. The camera device will support high speed capture session created by
4847               {@link android.hardware.camera2.CameraDevice#createConstrainedHighSpeedCaptureSession}, which
4848               only accepts high speed request lists created by
4849               {@link android.hardware.camera2.CameraConstrainedHighSpeedCaptureSession#createHighSpeedRequestList}.
4850
4851               A camera device can still support high speed video streaming by advertising the high speed
4852               FPS ranges in android.control.aeAvailableTargetFpsRanges. For this case, all normal
4853               capture request per frame control and synchronization requirements will apply to
4854               the high speed fps ranges, the same as all other fps ranges. This capability describes
4855               the capability of a specialized operating mode with many limitations (see below), which
4856               is only targeted at high speed video recording.
4857
4858               The supported high speed video sizes and fps ranges are specified in
4859               {@link android.hardware.camera2.params.StreamConfigurationMap#getHighSpeedVideoFpsRanges}.
4860               To get desired output frame rates, the application is only allowed to select video size
4861               and FPS range combinations provided by
4862               {@link android.hardware.camera2.params.StreamConfigurationMap#getHighSpeedVideoSizes}.
4863               The fps range can be controlled via android.control.aeTargetFpsRange.
4864
4865               In this capability, the camera device will override aeMode, awbMode, and afMode to
4866               ON, AUTO, and CONTINUOUS_VIDEO, respectively. All post-processing block mode
4867               controls will be overridden to be FAST. Therefore, no manual control of capture
4868               and post-processing parameters is possible. All other controls operate the
4869               same as when android.control.mode == AUTO. This means that all other
4870               android.control.* fields continue to work, such as
4871
4872               * android.control.aeTargetFpsRange
4873               * android.control.aeExposureCompensation
4874               * android.control.aeLock
4875               * android.control.awbLock
4876               * android.control.effectMode
4877               * android.control.aeRegions
4878               * android.control.afRegions
4879               * android.control.awbRegions
4880               * android.control.afTrigger
4881               * android.control.aePrecaptureTrigger
4882
4883               Outside of android.control.*, the following controls will work:
4884
4885               * android.flash.mode (TORCH mode only, automatic flash for still capture will not
4886               work since aeMode is ON)
4887               * android.lens.opticalStabilizationMode (if it is supported)
4888               * android.scaler.cropRegion
4889               * android.statistics.faceDetectMode (if it is supported)
4890
4891               For high speed recording use case, the actual maximum supported frame rate may
4892               be lower than what camera can output, depending on the destination Surfaces for
4893               the image data. For example, if the destination surface is from video encoder,
4894               the application need check if the video encoder is capable of supporting the
4895               high frame rate for a given video size, or it will end up with lower recording
4896               frame rate. If the destination surface is from preview window, the actual preview frame
4897               rate will be bounded by the screen refresh rate.
4898
4899               The camera device will only support up to 2 high speed simultaneous output surfaces
4900               (preview and recording surfaces)
4901               in this mode. Above controls will be effective only if all of below conditions are true:
4902
4903               * The application creates a camera capture session with no more than 2 surfaces via
4904               {@link android.hardware.camera2.CameraDevice#createConstrainedHighSpeedCaptureSession}. The
4905               targeted surfaces must be preview surface (either from
4906               {@link android.view.SurfaceView} or {@link android.graphics.SurfaceTexture}) or
4907               recording surface(either from {@link android.media.MediaRecorder#getSurface} or
4908               {@link android.media.MediaCodec#createInputSurface}).
4909               * The stream sizes are selected from the sizes reported by
4910               {@link android.hardware.camera2.params.StreamConfigurationMap#getHighSpeedVideoSizes}.
4911               * The FPS ranges are selected from
4912               {@link android.hardware.camera2.params.StreamConfigurationMap#getHighSpeedVideoFpsRanges}.
4913
4914               When above conditions are NOT satistied,
4915               {@link android.hardware.camera2.CameraDevice#createConstrainedHighSpeedCaptureSession}
4916               will fail.
4917
4918               Switching to a FPS range that has different maximum FPS may trigger some camera device
4919               reconfigurations, which may introduce extra latency. It is recommended that
4920               the application avoids unnecessary maximum target FPS changes as much as possible
4921               during high speed streaming.
4922               </notes>
4923             </value>
4924           </enum>
4925           <description>List of capabilities that this camera device
4926           advertises as fully supporting.</description>
4927           <details>
4928           A capability is a contract that the camera device makes in order
4929           to be able to satisfy one or more use cases.
4930
4931           Listing a capability guarantees that the whole set of features
4932           required to support a common use will all be available.
4933
4934           Using a subset of the functionality provided by an unsupported
4935           capability may be possible on a specific camera device implementation;
4936           to do this query each of android.request.availableRequestKeys,
4937           android.request.availableResultKeys,
4938           android.request.availableCharacteristicsKeys.
4939
4940           The following capabilities are guaranteed to be available on
4941           android.info.supportedHardwareLevel `==` FULL devices:
4942
4943           * MANUAL_SENSOR
4944           * MANUAL_POST_PROCESSING
4945
4946           Other capabilities may be available on either FULL or LIMITED
4947           devices, but the application should query this key to be sure.
4948           </details>
4949           <hal_details>
4950           Additional constraint details per-capability will be available
4951           in the Compatibility Test Suite.
4952
4953           Minimum baseline requirements required for the
4954           BACKWARD_COMPATIBLE capability are not explicitly listed.
4955           Instead refer to "BC" tags and the camera CTS tests in the
4956           android.hardware.camera2.cts package.
4957
4958           Listed controls that can be either request or result (e.g.
4959           android.sensor.exposureTime) must be available both in the
4960           request and the result in order to be considered to be
4961           capability-compliant.
4962
4963           For example, if the HAL claims to support MANUAL control,
4964           then exposure time must be configurable via the request _and_
4965           the actual exposure applied must be available via
4966           the result.
4967
4968           If MANUAL_SENSOR is omitted, the HAL may choose to omit the
4969           android.scaler.availableMinFrameDurations static property entirely.
4970
4971           For PRIVATE_REPROCESSING and YUV_REPROCESSING capabilities, see
4972           hardware/libhardware/include/hardware/camera3.h Section 10 for more information.
4973
4974           Devices that support the MANUAL_SENSOR capability must support the
4975           CAMERA3_TEMPLATE_MANUAL template defined in camera3.h.
4976
4977           Devices that support the PRIVATE_REPROCESSING capability or the
4978           YUV_REPROCESSING capability must support the
4979           CAMERA3_TEMPLATE_ZERO_SHUTTER_LAG template defined in camera3.h.
4980
4981           For DEPTH_OUTPUT, the depth-format keys
4982           android.depth.availableDepthStreamConfigurations,
4983           android.depth.availableDepthMinFrameDurations,
4984           android.depth.availableDepthStallDurations must be available, in
4985           addition to the other keys explicitly mentioned in the DEPTH_OUTPUT
4986           enum notes. The entry android.depth.maxDepthSamples must be available
4987           if the DEPTH_POINT_CLOUD format is supported (HAL pixel format BLOB, dataspace
4988           DEPTH).
4989           </hal_details>
4990         </entry>
4991         <entry name="availableRequestKeys" type="int32" visibility="ndk_public"
4992                container="array" hwlevel="legacy">
4993           <array>
4994             <size>n</size>
4995           </array>
4996           <description>A list of all keys that the camera device has available
4997           to use with {@link ACaptureRequest}.</description>
4998
4999           <details>Attempting to set a key into a CaptureRequest that is not
5000           listed here will result in an invalid request and will be rejected
5001           by the camera device.
5002
5003           This field can be used to query the feature set of a camera device
5004           at a more granular level than capabilities. This is especially
5005           important for optional keys that are not listed under any capability
5006           in android.request.availableCapabilities.
5007           </details>
5008           <hal_details>
5009           Vendor tags must not be listed here. Use the vendor tag metadata
5010           extensions C api instead (refer to camera3.h for more details).
5011
5012           Setting/getting vendor tags will be checked against the metadata
5013           vendor extensions API and not against this field.
5014
5015           The HAL must not consume any request tags that are not listed either
5016           here or in the vendor tag list.
5017
5018           The public camera2 API will always make the vendor tags visible
5019           via
5020           {@link android.hardware.camera2.CameraCharacteristics#getAvailableCaptureRequestKeys}.
5021           </hal_details>
5022         </entry>
5023         <entry name="availableResultKeys" type="int32" visibility="ndk_public"
5024                container="array" hwlevel="legacy">
5025           <array>
5026             <size>n</size>
5027           </array>
5028           <description>A list of all keys that the camera device has available
5029           to query with {@link ACameraMetadata} from
5030           {@link ACameraCaptureSession_captureCallback_result}.</description>
5031
5032           <details>Attempting to get a key from a CaptureResult that is not
5033           listed here will always return a `null` value. Getting a key from
5034           a CaptureResult that is listed here will generally never return a `null`
5035           value.
5036
5037           The following keys may return `null` unless they are enabled:
5038
5039           * android.statistics.lensShadingMap (non-null iff android.statistics.lensShadingMapMode == ON)
5040
5041           (Those sometimes-null keys will nevertheless be listed here
5042           if they are available.)
5043
5044           This field can be used to query the feature set of a camera device
5045           at a more granular level than capabilities. This is especially
5046           important for optional keys that are not listed under any capability
5047           in android.request.availableCapabilities.
5048           </details>
5049           <hal_details>
5050           Tags listed here must always have an entry in the result metadata,
5051           even if that size is 0 elements. Only array-type tags (e.g. lists,
5052           matrices, strings) are allowed to have 0 elements.
5053
5054           Vendor tags must not be listed here. Use the vendor tag metadata
5055           extensions C api instead (refer to camera3.h for more details).
5056
5057           Setting/getting vendor tags will be checked against the metadata
5058           vendor extensions API and not against this field.
5059
5060           The HAL must not produce any result tags that are not listed either
5061           here or in the vendor tag list.
5062
5063           The public camera2 API will always make the vendor tags visible via {@link
5064           android.hardware.camera2.CameraCharacteristics#getAvailableCaptureResultKeys}.
5065           </hal_details>
5066         </entry>
5067         <entry name="availableCharacteristicsKeys" type="int32" visibility="ndk_public"
5068                container="array" hwlevel="legacy">
5069           <array>
5070             <size>n</size>
5071           </array>
5072           <description>A list of all keys that the camera device has available
5073           to query with {@link ACameraMetadata} from
5074           {@link ACameraManager_getCameraCharacteristics}.</description>
5075           <details>This entry follows the same rules as
5076           android.request.availableResultKeys (except that it applies for
5077           CameraCharacteristics instead of CaptureResult). See above for more
5078           details.
5079           </details>
5080           <hal_details>
5081           Keys listed here must always have an entry in the static info metadata,
5082           even if that size is 0 elements. Only array-type tags (e.g. lists,
5083           matrices, strings) are allowed to have 0 elements.
5084
5085           Vendor tags must not be listed here. Use the vendor tag metadata
5086           extensions C api instead (refer to camera3.h for more details).
5087
5088           Setting/getting vendor tags will be checked against the metadata
5089           vendor extensions API and not against this field.
5090
5091           The HAL must not have any tags in its static info that are not listed
5092           either here or in the vendor tag list.
5093
5094           The public camera2 API will always make the vendor tags visible
5095           via {@link android.hardware.camera2.CameraCharacteristics#getKeys}.
5096           </hal_details>
5097         </entry>
5098       </static>
5099     </section>
5100     <section name="scaler">
5101       <controls>
5102         <entry name="cropRegion" type="int32" visibility="public"
5103                container="array" typedef="rectangle" hwlevel="legacy">
5104           <array>
5105             <size>4</size>
5106           </array>
5107           <description>The desired region of the sensor to read out for this capture.</description>
5108           <units>Pixel coordinates relative to
5109           android.sensor.info.activeArraySize</units>
5110           <details>
5111             This control can be used to implement digital zoom.
5112
5113             The data representation is int[4], which maps to (left, top, width, height).
5114
5115             The crop region coordinate system is based off
5116             android.sensor.info.activeArraySize, with `(0, 0)` being the
5117             top-left corner of the sensor active array.
5118
5119             Output streams use this rectangle to produce their output,
5120             cropping to a smaller region if necessary to maintain the
5121             stream's aspect ratio, then scaling the sensor input to
5122             match the output's configured resolution.
5123
5124             The crop region is applied after the RAW to other color
5125             space (e.g. YUV) conversion. Since raw streams
5126             (e.g. RAW16) don't have the conversion stage, they are not
5127             croppable. The crop region will be ignored by raw streams.
5128
5129             For non-raw streams, any additional per-stream cropping will
5130             be done to maximize the final pixel area of the stream.
5131
5132             For example, if the crop region is set to a 4:3 aspect
5133             ratio, then 4:3 streams will use the exact crop
5134             region. 16:9 streams will further crop vertically
5135             (letterbox).
5136
5137             Conversely, if the crop region is set to a 16:9, then 4:3
5138             outputs will crop horizontally (pillarbox), and 16:9
5139             streams will match exactly. These additional crops will
5140             be centered within the crop region.
5141
5142             The width and height of the crop region cannot
5143             be set to be smaller than
5144             `floor( activeArraySize.width / android.scaler.availableMaxDigitalZoom )` and
5145             `floor( activeArraySize.height / android.scaler.availableMaxDigitalZoom )`, respectively.
5146
5147             The camera device may adjust the crop region to account
5148             for rounding and other hardware requirements; the final
5149             crop region used will be included in the output capture
5150             result.
5151           </details>
5152           <hal_details>
5153             The output streams must maintain square pixels at all
5154             times, no matter what the relative aspect ratios of the
5155             crop region and the stream are.  Negative values for
5156             corner are allowed for raw output if full pixel array is
5157             larger than active pixel array. Width and height may be
5158             rounded to nearest larger supportable width, especially
5159             for raw output, where only a few fixed scales may be
5160             possible.
5161
5162             For a set of output streams configured, if the sensor output is cropped to a smaller
5163             size than active array size, the HAL need follow below cropping rules:
5164
5165             * The HAL need handle the cropRegion as if the sensor crop size is the effective active
5166             array size.More specifically, the HAL must transform the request cropRegion from
5167             android.sensor.info.activeArraySize to the sensor cropped pixel area size in this way:
5168                 1. Translate the requested cropRegion w.r.t., the left top corner of the sensor
5169                 cropped pixel area by (tx, ty),
5170                 where `tx = sensorCrop.top * (sensorCrop.height / activeArraySize.height)`
5171                 and `tx = sensorCrop.left * (sensorCrop.width / activeArraySize.width)`. The
5172                 (sensorCrop.top, sensorCrop.left) is the coordinate based off the
5173                 android.sensor.info.activeArraySize.
5174                 2. Scale the width and height of requested cropRegion with scaling factor of
5175                 sensorCrop.width/activeArraySize.width and sensorCrop.height/activeArraySize.height
5176                 respectively.
5177             Once this new cropRegion is calculated, the HAL must use this region to crop the image
5178             with regard to the sensor crop size (effective active array size). The HAL still need
5179             follow the general cropping rule for this new cropRegion and effective active
5180             array size.
5181
5182             * The HAL must report the cropRegion with regard to android.sensor.info.activeArraySize.
5183             The HAL need convert the new cropRegion generated above w.r.t., full active array size.
5184             The reported cropRegion may be slightly different with the requested cropRegion since
5185             the HAL may adjust the crop region to account for rounding, conversion error, or other
5186             hardware limitations.
5187
5188             HAL2.x uses only (x, y, width)
5189           </hal_details>
5190           <tag id="BC" />
5191         </entry>
5192       </controls>
5193       <static>
5194         <entry name="availableFormats" type="int32"
5195         visibility="hidden" deprecated="true" enum="true"
5196         container="array" typedef="imageFormat">
5197           <array>
5198             <size>n</size>
5199           </array>
5200           <enum>
5201             <value optional="true" id="0x20">RAW16
5202               <notes>
5203               RAW16 is a standard, cross-platform format for raw image
5204               buffers with 16-bit pixels.
5205
5206               Buffers of this format are typically expected to have a
5207               Bayer Color Filter Array (CFA) layout, which is given in
5208               android.sensor.info.colorFilterArrangement. Sensors with
5209               CFAs that are not representable by a format in
5210               android.sensor.info.colorFilterArrangement should not
5211               use this format.
5212
5213               Buffers of this format will also follow the constraints given for
5214               RAW_OPAQUE buffers, but with relaxed performance constraints.
5215
5216               This format is intended to give users access to the full contents
5217               of the buffers coming directly from the image sensor prior to any
5218               cropping or scaling operations, and all coordinate systems for
5219               metadata used for this format are relative to the size of the
5220               active region of the image sensor before any geometric distortion
5221               correction has been applied (i.e.
5222               android.sensor.info.preCorrectionActiveArraySize). Supported
5223               dimensions for this format are limited to the full dimensions of
5224               the sensor (e.g. either android.sensor.info.pixelArraySize or
5225               android.sensor.info.preCorrectionActiveArraySize will be the
5226               only supported output size).
5227
5228               See android.scaler.availableInputOutputFormatsMap for
5229               the full set of performance guarantees.
5230               </notes>
5231             </value>
5232             <value optional="true" id="0x24">RAW_OPAQUE
5233               <notes>
5234               RAW_OPAQUE (or
5235               {@link android.graphics.ImageFormat#RAW_PRIVATE RAW_PRIVATE}
5236               as referred in public API) is a format for raw image buffers
5237               coming from an image sensor.
5238
5239               The actual structure of buffers of this format is
5240               platform-specific, but must follow several constraints:
5241
5242               1. No image post-processing operations may have been applied to
5243               buffers of this type. These buffers contain raw image data coming
5244               directly from the image sensor.
5245               1. If a buffer of this format is passed to the camera device for
5246               reprocessing, the resulting images will be identical to the images
5247               produced if the buffer had come directly from the sensor and was
5248               processed with the same settings.
5249
5250               The intended use for this format is to allow access to the native
5251               raw format buffers coming directly from the camera sensor without
5252               any additional conversions or decrease in framerate.
5253
5254               See android.scaler.availableInputOutputFormatsMap for the full set of
5255               performance guarantees.
5256               </notes>
5257             </value>
5258             <value optional="true" id="0x32315659">YV12
5259               <notes>YCrCb 4:2:0 Planar</notes>
5260             </value>
5261             <value optional="true" id="0x11">YCrCb_420_SP
5262               <notes>NV21</notes>
5263             </value>
5264             <value id="0x22">IMPLEMENTATION_DEFINED
5265               <notes>System internal format, not application-accessible</notes>
5266             </value>
5267             <value id="0x23">YCbCr_420_888
5268               <notes>Flexible YUV420 Format</notes>
5269             </value>
5270             <value id="0x21">BLOB
5271               <notes>JPEG format</notes>
5272             </value>
5273           </enum>
5274           <description>The list of image formats that are supported by this
5275           camera device for output streams.</description>
5276           <details>
5277           All camera devices will support JPEG and YUV_420_888 formats.
5278
5279           When set to YUV_420_888, application can access the YUV420 data directly.
5280           </details>
5281           <hal_details>
5282           These format values are from HAL_PIXEL_FORMAT_* in
5283           system/core/include/system/graphics.h.
5284
5285           When IMPLEMENTATION_DEFINED is used, the platform
5286           gralloc module will select a format based on the usage flags provided
5287           by the camera HAL device and the other endpoint of the stream. It is
5288           usually used by preview and recording streams, where the application doesn't
5289           need access the image data.
5290
5291           YCbCr_420_888 format must be supported by the HAL. When an image stream
5292           needs CPU/application direct access, this format will be used.
5293
5294           The BLOB format must be supported by the HAL. This is used for the JPEG stream.
5295
5296           A RAW_OPAQUE buffer should contain only pixel data. It is strongly
5297           recommended that any information used by the camera device when
5298           processing images is fully expressed by the result metadata
5299           for that image buffer.
5300           </hal_details>
5301           <tag id="BC" />
5302         </entry>
5303         <entry name="availableJpegMinDurations" type="int64" visibility="hidden" deprecated="true"
5304         container="array">
5305           <array>
5306             <size>n</size>
5307           </array>
5308           <description>The minimum frame duration that is supported
5309           for each resolution in android.scaler.availableJpegSizes.
5310           </description>
5311           <units>Nanoseconds</units>
5312           <range>TODO: Remove property.</range>
5313           <details>
5314           This corresponds to the minimum steady-state frame duration when only
5315           that JPEG stream is active and captured in a burst, with all
5316           processing (typically in android.*.mode) set to FAST.
5317
5318           When multiple streams are configured, the minimum
5319           frame duration will be &amp;gt;= max(individual stream min
5320           durations)</details>
5321           <tag id="BC" />
5322         </entry>
5323         <entry name="availableJpegSizes" type="int32" visibility="hidden"
5324         deprecated="true" container="array" typedef="size">
5325           <array>
5326             <size>n</size>
5327             <size>2</size>
5328           </array>
5329           <description>The JPEG resolutions that are supported by this camera device.</description>
5330           <range>TODO: Remove property.</range>
5331           <details>
5332           The resolutions are listed as `(width, height)` pairs. All camera devices will support
5333           sensor maximum resolution (defined by android.sensor.info.activeArraySize).
5334           </details>
5335           <hal_details>
5336           The HAL must include sensor maximum resolution
5337           (defined by android.sensor.info.activeArraySize),
5338           and should include half/quarter of sensor maximum resolution.
5339           </hal_details>
5340           <tag id="BC" />
5341         </entry>
5342         <entry name="availableMaxDigitalZoom" type="float" visibility="public"
5343               hwlevel="legacy">
5344           <description>The maximum ratio between both active area width
5345           and crop region width, and active area height and
5346           crop region height, for android.scaler.cropRegion.
5347           </description>
5348           <units>Zoom scale factor</units>
5349           <range>&amp;gt;=1</range>
5350           <details>
5351           This represents the maximum amount of zooming possible by
5352           the camera device, or equivalently, the minimum cropping
5353           window size.
5354
5355           Crop regions that have a width or height that is smaller
5356           than this ratio allows will be rounded up to the minimum
5357           allowed size by the camera device.
5358           </details>
5359           <tag id="BC" />
5360         </entry>
5361         <entry name="availableProcessedMinDurations" type="int64" visibility="hidden" deprecated="true"
5362         container="array">
5363           <array>
5364             <size>n</size>
5365           </array>
5366           <description>For each available processed output size (defined in
5367           android.scaler.availableProcessedSizes), this property lists the
5368           minimum supportable frame duration for that size.
5369           </description>
5370           <units>Nanoseconds</units>
5371           <details>
5372           This should correspond to the frame duration when only that processed
5373           stream is active, with all processing (typically in android.*.mode)
5374           set to FAST.
5375
5376           When multiple streams are configured, the minimum frame duration will
5377           be &amp;gt;= max(individual stream min durations).
5378           </details>
5379           <tag id="BC" />
5380         </entry>
5381         <entry name="availableProcessedSizes" type="int32" visibility="hidden"
5382         deprecated="true" container="array" typedef="size">
5383           <array>
5384             <size>n</size>
5385             <size>2</size>
5386           </array>
5387           <description>The resolutions available for use with
5388           processed output streams, such as YV12, NV12, and
5389           platform opaque YUV/RGB streams to the GPU or video
5390           encoders.</description>
5391           <details>
5392           The resolutions are listed as `(width, height)` pairs.
5393
5394           For a given use case, the actual maximum supported resolution
5395           may be lower than what is listed here, depending on the destination
5396           Surface for the image data. For example, for recording video,
5397           the video encoder chosen may have a maximum size limit (e.g. 1080p)
5398           smaller than what the camera (e.g. maximum resolution is 3264x2448)
5399           can provide.
5400
5401           Please reference the documentation for the image data destination to
5402           check if it limits the maximum size for image data.
5403           </details>
5404           <hal_details>
5405           For FULL capability devices (`android.info.supportedHardwareLevel == FULL`),
5406           the HAL must include all JPEG sizes listed in android.scaler.availableJpegSizes
5407           and each below resolution if it is smaller than or equal to the sensor
5408           maximum resolution (if they are not listed in JPEG sizes already):
5409
5410           * 240p (320 x 240)
5411           * 480p (640 x 480)
5412           * 720p (1280 x 720)
5413           * 1080p (1920 x 1080)
5414
5415           For LIMITED capability devices (`android.info.supportedHardwareLevel == LIMITED`),
5416           the HAL only has to list up to the maximum video size supported by the devices.
5417           </hal_details>
5418           <tag id="BC" />
5419         </entry>
5420         <entry name="availableRawMinDurations" type="int64" deprecated="true"
5421         container="array">
5422           <array>
5423             <size>n</size>
5424           </array>
5425           <description>
5426           For each available raw output size (defined in
5427           android.scaler.availableRawSizes), this property lists the minimum
5428           supportable frame duration for that size.
5429           </description>
5430           <units>Nanoseconds</units>
5431           <details>
5432           Should correspond to the frame duration when only the raw stream is
5433           active.
5434
5435           When multiple streams are configured, the minimum
5436           frame duration will be &amp;gt;= max(individual stream min
5437           durations)</details>
5438           <tag id="BC" />
5439         </entry>
5440         <entry name="availableRawSizes" type="int32" deprecated="true"
5441         container="array" typedef="size">
5442           <array>
5443             <size>n</size>
5444             <size>2</size>
5445           </array>
5446           <description>The resolutions available for use with raw
5447           sensor output streams, listed as width,
5448           height</description>
5449         </entry>
5450       </static>
5451       <dynamic>
5452         <clone entry="android.scaler.cropRegion" kind="controls">
5453         </clone>
5454       </dynamic>
5455       <static>
5456         <entry name="availableInputOutputFormatsMap" type="int32" visibility="hidden"
5457           typedef="reprocessFormatsMap">
5458           <description>The mapping of image formats that are supported by this
5459           camera device for input streams, to their corresponding output formats.
5460           </description>
5461           <details>
5462           All camera devices with at least 1
5463           android.request.maxNumInputStreams will have at least one
5464           available input format.
5465
5466           The camera device will support the following map of formats,
5467           if its dependent capability (android.request.availableCapabilities) is supported:
5468
5469             Input Format                                    | Output Format                                     | Capability
5470           :-------------------------------------------------|:--------------------------------------------------|:----------
5471           {@link android.graphics.ImageFormat#PRIVATE}      | {@link android.graphics.ImageFormat#JPEG}         | PRIVATE_REPROCESSING
5472           {@link android.graphics.ImageFormat#PRIVATE}      | {@link android.graphics.ImageFormat#YUV_420_888}  | PRIVATE_REPROCESSING
5473           {@link android.graphics.ImageFormat#YUV_420_888}  | {@link android.graphics.ImageFormat#JPEG}         | YUV_REPROCESSING
5474           {@link android.graphics.ImageFormat#YUV_420_888}  | {@link android.graphics.ImageFormat#YUV_420_888}  | YUV_REPROCESSING
5475
5476           PRIVATE refers to a device-internal format that is not directly application-visible.  A
5477           PRIVATE input surface can be acquired by {@link android.media.ImageReader#newInstance}
5478           with {@link android.graphics.ImageFormat#PRIVATE} as the format.
5479
5480           For a PRIVATE_REPROCESSING-capable camera device, using the PRIVATE format as either input
5481           or output will never hurt maximum frame rate (i.e.  {@link
5482           android.hardware.camera2.params.StreamConfigurationMap#getOutputStallDuration
5483           getOutputStallDuration(ImageFormat.PRIVATE, size)} is always 0),
5484
5485           Attempting to configure an input stream with output streams not
5486           listed as available in this map is not valid.
5487           </details>
5488           <hal_details>
5489           For the formats, see `system/core/include/system/graphics.h` for a definition
5490           of the image format enumerations. The PRIVATE format refers to the
5491           HAL_PIXEL_FORMAT_IMPLEMENTATION_DEFINED format. The HAL could determine
5492           the actual format by using the gralloc usage flags.
5493           For ZSL use case in particular, the HAL could choose appropriate format (partially
5494           processed YUV or RAW based format) by checking the format and GRALLOC_USAGE_HW_CAMERA_ZSL.
5495           See camera3.h for more details.
5496
5497           This value is encoded as a variable-size array-of-arrays.
5498           The inner array always contains `[format, length, ...]` where
5499           `...` has `length` elements. An inner array is followed by another
5500           inner array if the total metadata entry size hasn't yet been exceeded.
5501
5502           A code sample to read/write this encoding (with a device that
5503           supports reprocessing IMPLEMENTATION_DEFINED to YUV_420_888, and JPEG,
5504           and reprocessing YUV_420_888 to YUV_420_888 and JPEG):
5505
5506               // reading
5507               int32_t* contents = &amp;entry.i32[0];
5508               for (size_t i = 0; i &lt; entry.count; ) {
5509                   int32_t format = contents[i++];
5510                   int32_t length = contents[i++];
5511                   int32_t output_formats[length];
5512                   memcpy(&amp;output_formats[0], &amp;contents[i],
5513                          length * sizeof(int32_t));
5514                   i += length;
5515               }
5516
5517               // writing (static example, PRIVATE_REPROCESSING + YUV_REPROCESSING)
5518               int32_t[] contents = {
5519                 IMPLEMENTATION_DEFINED, 2, YUV_420_888, BLOB,
5520                 YUV_420_888, 2, YUV_420_888, BLOB,
5521               };
5522               update_camera_metadata_entry(metadata, index, &amp;contents[0],
5523                     sizeof(contents)/sizeof(contents[0]), &amp;updated_entry);
5524
5525           If the HAL claims to support any of the capabilities listed in the
5526           above details, then it must also support all the input-output
5527           combinations listed for that capability. It can optionally support
5528           additional formats if it so chooses.
5529           </hal_details>
5530           <tag id="REPROC" />
5531         </entry>
5532         <entry name="availableStreamConfigurations" type="int32" visibility="ndk_public"
5533                enum="true" container="array" typedef="streamConfiguration" hwlevel="legacy">
5534           <array>
5535             <size>n</size>
5536             <size>4</size>
5537           </array>
5538           <enum>
5539             <value>OUTPUT</value>
5540             <value>INPUT</value>
5541           </enum>
5542           <description>The available stream configurations that this
5543           camera device supports
5544           (i.e. format, width, height, output/input stream).
5545           </description>
5546           <details>
5547           The configurations are listed as `(format, width, height, input?)`
5548           tuples.
5549
5550           For a given use case, the actual maximum supported resolution
5551           may be lower than what is listed here, depending on the destination
5552           Surface for the image data. For example, for recording video,
5553           the video encoder chosen may have a maximum size limit (e.g. 1080p)
5554           smaller than what the camera (e.g. maximum resolution is 3264x2448)
5555           can provide.
5556
5557           Please reference the documentation for the image data destination to
5558           check if it limits the maximum size for image data.
5559
5560           Not all output formats may be supported in a configuration with
5561           an input stream of a particular format. For more details, see
5562           android.scaler.availableInputOutputFormatsMap.
5563
5564           The following table describes the minimum required output stream
5565           configurations based on the hardware level
5566           (android.info.supportedHardwareLevel):
5567
5568           Format         | Size                                         | Hardware Level | Notes
5569           :-------------:|:--------------------------------------------:|:--------------:|:--------------:
5570           JPEG           | android.sensor.info.activeArraySize          | Any            |
5571           JPEG           | 1920x1080 (1080p)                            | Any            | if 1080p &lt;= activeArraySize
5572           JPEG           | 1280x720 (720)                               | Any            | if 720p &lt;= activeArraySize
5573           JPEG           | 640x480 (480p)                               | Any            | if 480p &lt;= activeArraySize
5574           JPEG           | 320x240 (240p)                               | Any            | if 240p &lt;= activeArraySize
5575           YUV_420_888    | all output sizes available for JPEG          | FULL           |
5576           YUV_420_888    | all output sizes available for JPEG, up to the maximum video size | LIMITED        |
5577           IMPLEMENTATION_DEFINED | same as YUV_420_888                  | Any            |
5578
5579           Refer to android.request.availableCapabilities for additional
5580           mandatory stream configurations on a per-capability basis.
5581           </details>
5582           <hal_details>
5583           It is recommended (but not mandatory) to also include half/quarter
5584           of sensor maximum resolution for JPEG formats (regardless of hardware
5585           level).
5586
5587           (The following is a rewording of the above required table):
5588
5589           For JPEG format, the sizes may be restricted by below conditions:
5590
5591           * The HAL may choose the aspect ratio of each Jpeg size to be one of well known ones
5592           (e.g. 4:3, 16:9, 3:2 etc.). If the sensor maximum resolution
5593           (defined by android.sensor.info.activeArraySize) has an aspect ratio other than these,
5594           it does not have to be included in the supported JPEG sizes.
5595           * Some hardware JPEG encoders may have pixel boundary alignment requirements, such as
5596           the dimensions being a multiple of 16.
5597
5598           Therefore, the maximum JPEG size may be smaller than sensor maximum resolution.
5599           However, the largest JPEG size must be as close as possible to the sensor maximum
5600           resolution given above constraints. It is required that after aspect ratio adjustments,
5601           additional size reduction due to other issues must be less than 3% in area. For example,
5602           if the sensor maximum resolution is 3280x2464, if the maximum JPEG size has aspect
5603           ratio 4:3, the JPEG encoder alignment requirement is 16, the maximum JPEG size will be
5604           3264x2448.
5605
5606           For FULL capability devices (`android.info.supportedHardwareLevel == FULL`),
5607           the HAL must include all YUV_420_888 sizes that have JPEG sizes listed
5608           here as output streams.
5609
5610           It must also include each below resolution if it is smaller than or
5611           equal to the sensor maximum resolution (for both YUV_420_888 and JPEG
5612           formats), as output streams:
5613
5614           * 240p (320 x 240)
5615           * 480p (640 x 480)
5616           * 720p (1280 x 720)
5617           * 1080p (1920 x 1080)
5618
5619           For LIMITED capability devices
5620           (`android.info.supportedHardwareLevel == LIMITED`),
5621           the HAL only has to list up to the maximum video size
5622           supported by the device.
5623
5624           Regardless of hardware level, every output resolution available for
5625           YUV_420_888 must also be available for IMPLEMENTATION_DEFINED.
5626
5627           This supercedes the following fields, which are now deprecated:
5628
5629           * availableFormats
5630           * available[Processed,Raw,Jpeg]Sizes
5631           </hal_details>
5632         </entry>
5633         <entry name="availableMinFrameDurations" type="int64" visibility="ndk_public"
5634                container="array" typedef="streamConfigurationDuration" hwlevel="legacy">
5635           <array>
5636             <size>4</size>
5637             <size>n</size>
5638           </array>
5639           <description>This lists the minimum frame duration for each
5640           format/size combination.
5641           </description>
5642           <units>(format, width, height, ns) x n</units>
5643           <details>
5644           This should correspond to the frame duration when only that
5645           stream is active, with all processing (typically in android.*.mode)
5646           set to either OFF or FAST.
5647
5648           When multiple streams are used in a request, the minimum frame
5649           duration will be max(individual stream min durations).
5650
5651           The minimum frame duration of a stream (of a particular format, size)
5652           is the same regardless of whether the stream is input or output.
5653
5654           See android.sensor.frameDuration and
5655           android.scaler.availableStallDurations for more details about
5656           calculating the max frame rate.
5657           </details>
5658           <tag id="V1" />
5659         </entry>
5660         <entry name="availableStallDurations" type="int64" visibility="ndk_public"
5661                container="array" typedef="streamConfigurationDuration" hwlevel="legacy">
5662           <array>
5663             <size>4</size>
5664             <size>n</size>
5665           </array>
5666           <description>This lists the maximum stall duration for each
5667           output format/size combination.
5668           </description>
5669           <units>(format, width, height, ns) x n</units>
5670           <details>
5671           A stall duration is how much extra time would get added
5672           to the normal minimum frame duration for a repeating request
5673           that has streams with non-zero stall.
5674
5675           For example, consider JPEG captures which have the following
5676           characteristics:
5677
5678           * JPEG streams act like processed YUV streams in requests for which
5679           they are not included; in requests in which they are directly
5680           referenced, they act as JPEG streams. This is because supporting a
5681           JPEG stream requires the underlying YUV data to always be ready for
5682           use by a JPEG encoder, but the encoder will only be used (and impact
5683           frame duration) on requests that actually reference a JPEG stream.
5684           * The JPEG processor can run concurrently to the rest of the camera
5685           pipeline, but cannot process more than 1 capture at a time.
5686
5687           In other words, using a repeating YUV request would result
5688           in a steady frame rate (let's say it's 30 FPS). If a single
5689           JPEG request is submitted periodically, the frame rate will stay
5690           at 30 FPS (as long as we wait for the previous JPEG to return each
5691           time). If we try to submit a repeating YUV + JPEG request, then
5692           the frame rate will drop from 30 FPS.
5693
5694           In general, submitting a new request with a non-0 stall time
5695           stream will _not_ cause a frame rate drop unless there are still
5696           outstanding buffers for that stream from previous requests.
5697
5698           Submitting a repeating request with streams (call this `S`)
5699           is the same as setting the minimum frame duration from
5700           the normal minimum frame duration corresponding to `S`, added with
5701           the maximum stall duration for `S`.
5702
5703           If interleaving requests with and without a stall duration,
5704           a request will stall by the maximum of the remaining times
5705           for each can-stall stream with outstanding buffers.
5706
5707           This means that a stalling request will not have an exposure start
5708           until the stall has completed.
5709
5710           This should correspond to the stall duration when only that stream is
5711           active, with all processing (typically in android.*.mode) set to FAST
5712           or OFF. Setting any of the processing modes to HIGH_QUALITY
5713           effectively results in an indeterminate stall duration for all
5714           streams in a request (the regular stall calculation rules are
5715           ignored).
5716
5717           The following formats may always have a stall duration:
5718
5719           * {@link AIMAGE_FORMAT_JPEG}
5720           * {@link AIMAGE_FORMAT_RAW16}
5721
5722           The following formats will never have a stall duration:
5723
5724           * {@link AIMAGE_FORMAT_YUV_420_888}
5725           * {@link AIMAGE_FORMAT_RAW10}
5726
5727           All other formats may or may not have an allowed stall duration on
5728           a per-capability basis; refer to android.request.availableCapabilities
5729           for more details.
5730
5731           See android.sensor.frameDuration for more information about
5732           calculating the max frame rate (absent stalls).
5733           </details>
5734           <hal_details>
5735           If possible, it is recommended that all non-JPEG formats
5736           (such as RAW16) should not have a stall duration. RAW10, RAW12, RAW_OPAQUE
5737           and IMPLEMENTATION_DEFINED must not have stall durations.
5738           </hal_details>
5739           <tag id="V1" />
5740         </entry>
5741         <entry name="streamConfigurationMap" type="int32" visibility="java_public"
5742                synthetic="true" typedef="streamConfigurationMap"
5743                hwlevel="legacy">
5744           <description>The available stream configurations that this
5745           camera device supports; also includes the minimum frame durations
5746           and the stall durations for each format/size combination.
5747           </description>
5748           <details>
5749           All camera devices will support sensor maximum resolution (defined by
5750           android.sensor.info.activeArraySize) for the JPEG format.
5751
5752           For a given use case, the actual maximum supported resolution
5753           may be lower than what is listed here, depending on the destination
5754           Surface for the image data. For example, for recording video,
5755           the video encoder chosen may have a maximum size limit (e.g. 1080p)
5756           smaller than what the camera (e.g. maximum resolution is 3264x2448)
5757           can provide.
5758
5759           Please reference the documentation for the image data destination to
5760           check if it limits the maximum size for image data.
5761
5762           The following table describes the minimum required output stream
5763           configurations based on the hardware level
5764           (android.info.supportedHardwareLevel):
5765
5766           Format                                             | Size                                         | Hardware Level | Notes
5767           :-------------------------------------------------:|:--------------------------------------------:|:--------------:|:--------------:
5768           {@link android.graphics.ImageFormat#JPEG}          | android.sensor.info.activeArraySize (*1)     | Any            |
5769           {@link android.graphics.ImageFormat#JPEG}          | 1920x1080 (1080p)                            | Any            | if 1080p &lt;= activeArraySize
5770           {@link android.graphics.ImageFormat#JPEG}          | 1280x720 (720p)                               | Any            | if 720p &lt;= activeArraySize
5771           {@link android.graphics.ImageFormat#JPEG}          | 640x480 (480p)                               | Any            | if 480p &lt;= activeArraySize
5772           {@link android.graphics.ImageFormat#JPEG}          | 320x240 (240p)                               | Any            | if 240p &lt;= activeArraySize
5773           {@link android.graphics.ImageFormat#YUV_420_888}   | all output sizes available for JPEG          | FULL           |
5774           {@link android.graphics.ImageFormat#YUV_420_888}   | all output sizes available for JPEG, up to the maximum video size | LIMITED        |
5775           {@link android.graphics.ImageFormat#PRIVATE}       | same as YUV_420_888                          | Any            |
5776
5777           Refer to android.request.availableCapabilities and {@link
5778           android.hardware.camera2.CameraDevice#createCaptureSession} for additional mandatory
5779           stream configurations on a per-capability basis.
5780
5781           *1: For JPEG format, the sizes may be restricted by below conditions:
5782
5783           * The HAL may choose the aspect ratio of each Jpeg size to be one of well known ones
5784           (e.g. 4:3, 16:9, 3:2 etc.). If the sensor maximum resolution
5785           (defined by android.sensor.info.activeArraySize) has an aspect ratio other than these,
5786           it does not have to be included in the supported JPEG sizes.
5787           * Some hardware JPEG encoders may have pixel boundary alignment requirements, such as
5788           the dimensions being a multiple of 16.
5789           Therefore, the maximum JPEG size may be smaller than sensor maximum resolution.
5790           However, the largest JPEG size will be as close as possible to the sensor maximum
5791           resolution given above constraints. It is required that after aspect ratio adjustments,
5792           additional size reduction due to other issues must be less than 3% in area. For example,
5793           if the sensor maximum resolution is 3280x2464, if the maximum JPEG size has aspect
5794           ratio 4:3, and the JPEG encoder alignment requirement is 16, the maximum JPEG size will be
5795           3264x2448.
5796           </details>
5797           <hal_details>
5798           Do not set this property directly
5799           (it is synthetic and will not be available at the HAL layer);
5800           set the android.scaler.availableStreamConfigurations instead.
5801
5802           Not all output formats may be supported in a configuration with
5803           an input stream of a particular format. For more details, see
5804           android.scaler.availableInputOutputFormatsMap.
5805
5806           It is recommended (but not mandatory) to also include half/quarter
5807           of sensor maximum resolution for JPEG formats (regardless of hardware
5808           level).
5809
5810           (The following is a rewording of the above required table):
5811
5812           The HAL must include sensor maximum resolution (defined by
5813           android.sensor.info.activeArraySize).
5814
5815           For FULL capability devices (`android.info.supportedHardwareLevel == FULL`),
5816           the HAL must include all YUV_420_888 sizes that have JPEG sizes listed
5817           here as output streams.
5818
5819           It must also include each below resolution if it is smaller than or
5820           equal to the sensor maximum resolution (for both YUV_420_888 and JPEG
5821           formats), as output streams:
5822
5823           * 240p (320 x 240)
5824           * 480p (640 x 480)
5825           * 720p (1280 x 720)
5826           * 1080p (1920 x 1080)
5827
5828           For LIMITED capability devices
5829           (`android.info.supportedHardwareLevel == LIMITED`),
5830           the HAL only has to list up to the maximum video size
5831           supported by the device.
5832
5833           Regardless of hardware level, every output resolution available for
5834           YUV_420_888 must also be available for IMPLEMENTATION_DEFINED.
5835
5836           This supercedes the following fields, which are now deprecated:
5837
5838           * availableFormats
5839           * available[Processed,Raw,Jpeg]Sizes
5840           </hal_details>
5841         </entry>
5842         <entry name="croppingType" type="byte" visibility="public" enum="true"
5843                hwlevel="legacy">
5844           <enum>
5845             <value>CENTER_ONLY
5846               <notes>
5847                 The camera device only supports centered crop regions.
5848               </notes>
5849             </value>
5850             <value>FREEFORM
5851               <notes>
5852                 The camera device supports arbitrarily chosen crop regions.
5853               </notes>
5854             </value>
5855           </enum>
5856           <description>The crop type that this camera device supports.</description>
5857           <details>
5858           When passing a non-centered crop region (android.scaler.cropRegion) to a camera
5859           device that only supports CENTER_ONLY cropping, the camera device will move the
5860           crop region to the center of the sensor active array (android.sensor.info.activeArraySize)
5861           and keep the crop region width and height unchanged. The camera device will return the
5862           final used crop region in metadata result android.scaler.cropRegion.
5863
5864           Camera devices that support FREEFORM cropping will support any crop region that
5865           is inside of the active array. The camera device will apply the same crop region and
5866           return the final used crop region in capture result metadata android.scaler.cropRegion.
5867
5868           LEGACY capability devices will only support CENTER_ONLY cropping.
5869           </details>
5870         </entry>
5871       </static>
5872     </section>
5873     <section name="sensor">
5874       <controls>
5875         <entry name="exposureTime" type="int64" visibility="public" hwlevel="full">
5876           <description>Duration each pixel is exposed to
5877           light.</description>
5878           <units>Nanoseconds</units>
5879           <range>android.sensor.info.exposureTimeRange</range>
5880           <details>If the sensor can't expose this exact duration, it will shorten the
5881           duration exposed to the nearest possible value (rather than expose longer).
5882           The final exposure time used will be available in the output capture result.
5883
5884           This control is only effective if android.control.aeMode or android.control.mode is set to
5885           OFF; otherwise the auto-exposure algorithm will override this value.
5886           </details>
5887           <tag id="V1" />
5888         </entry>
5889         <entry name="frameDuration" type="int64" visibility="public" hwlevel="full">
5890           <description>Duration from start of frame exposure to
5891           start of next frame exposure.</description>
5892           <units>Nanoseconds</units>
5893           <range>See android.sensor.info.maxFrameDuration,
5894           ACAMERA_SCALER_AVAILABLE_MIN_FRAME_DURATIONS. The duration
5895           is capped to `max(duration, exposureTime + overhead)`.</range>
5896           <details>
5897           The maximum frame rate that can be supported by a camera subsystem is
5898           a function of many factors:
5899
5900           * Requested resolutions of output image streams
5901           * Availability of binning / skipping modes on the imager
5902           * The bandwidth of the imager interface
5903           * The bandwidth of the various ISP processing blocks
5904
5905           Since these factors can vary greatly between different ISPs and
5906           sensors, the camera abstraction tries to represent the bandwidth
5907           restrictions with as simple a model as possible.
5908
5909           The model presented has the following characteristics:
5910
5911           * The image sensor is always configured to output the smallest
5912           resolution possible given the application's requested output stream
5913           sizes.  The smallest resolution is defined as being at least as large
5914           as the largest requested output stream size; the camera pipeline must
5915           never digitally upsample sensor data when the crop region covers the
5916           whole sensor. In general, this means that if only small output stream
5917           resolutions are configured, the sensor can provide a higher frame
5918           rate.
5919           * Since any request may use any or all the currently configured
5920           output streams, the sensor and ISP must be configured to support
5921           scaling a single capture to all the streams at the same time.  This
5922           means the camera pipeline must be ready to produce the largest
5923           requested output size without any delay.  Therefore, the overall
5924           frame rate of a given configured stream set is governed only by the
5925           largest requested stream resolution.
5926           * Using more than one output stream in a request does not affect the
5927           frame duration.
5928           * Certain format-streams may need to do additional background processing
5929           before data is consumed/produced by that stream. These processors
5930           can run concurrently to the rest of the camera pipeline, but
5931           cannot process more than 1 capture at a time.
5932
5933           The necessary information for the application, given the model above,
5934           is provided via
5935           {@link ACAMERA_SCALER_AVAILABLE_MIN_FRAME_DURATIONS}.
5936           These are used to determine the maximum frame rate / minimum frame
5937           duration that is possible for a given stream configuration.
5938
5939           Specifically, the application can use the following rules to
5940           determine the minimum frame duration it can request from the camera
5941           device:
5942
5943           1. Let the set of currently configured input/output streams
5944           be called `S`.
5945           1. Find the minimum frame durations for each stream in `S`, by looking
5946           it up in {@link ACAMERA_SCALER_AVAILABLE_MIN_FRAME_DURATIONS}
5947           (with its respective size/format). Let this set of frame durations be
5948           called `F`.
5949           1. For any given request `R`, the minimum frame duration allowed
5950           for `R` is the maximum out of all values in `F`. Let the streams
5951           used in `R` be called `S_r`.
5952
5953           If none of the streams in `S_r` have a stall time (listed in {@link
5954           ACAMERA_SCALER_AVAILABLE_STALL_DURATIONS}
5955           using its respective size/format), then the frame duration in `F`
5956           determines the steady state frame rate that the application will get
5957           if it uses `R` as a repeating request. Let this special kind of
5958           request be called `Rsimple`.
5959
5960           A repeating request `Rsimple` can be _occasionally_ interleaved
5961           by a single capture of a new request `Rstall` (which has at least
5962           one in-use stream with a non-0 stall time) and if `Rstall` has the
5963           same minimum frame duration this will not cause a frame rate loss
5964           if all buffers from the previous `Rstall` have already been
5965           delivered.
5966
5967           For more details about stalling, see
5968           {@link ACAMERA_SCALER_AVAILABLE_STALL_DURATIONS}.
5969
5970           This control is only effective if android.control.aeMode or android.control.mode is set to
5971           OFF; otherwise the auto-exposure algorithm will override this value.
5972           </details>
5973           <hal_details>
5974           For more details about stalling, see
5975           android.scaler.availableStallDurations.
5976           </hal_details>
5977           <tag id="V1" />
5978         </entry>
5979         <entry name="sensitivity" type="int32" visibility="public" hwlevel="full">
5980           <description>The amount of gain applied to sensor data
5981           before processing.</description>
5982           <units>ISO arithmetic units</units>
5983           <range>android.sensor.info.sensitivityRange</range>
5984           <details>
5985           The sensitivity is the standard ISO sensitivity value,
5986           as defined in ISO 12232:2006.
5987
5988           The sensitivity must be within android.sensor.info.sensitivityRange, and
5989           if if it less than android.sensor.maxAnalogSensitivity, the camera device
5990           is guaranteed to use only analog amplification for applying the gain.
5991
5992           If the camera device cannot apply the exact sensitivity
5993           requested, it will reduce the gain to the nearest supported
5994           value. The final sensitivity used will be available in the
5995           output capture result.
5996
5997           This control is only effective if android.control.aeMode or android.control.mode is set to
5998           OFF; otherwise the auto-exposure algorithm will override this value.
5999           </details>
6000           <hal_details>ISO 12232:2006 REI method is acceptable.</hal_details>
6001           <tag id="V1" />
6002         </entry>
6003       </controls>
6004       <static>
6005         <namespace name="info">
6006           <entry name="activeArraySize" type="int32" visibility="public"
6007           type_notes="Four ints defining the active pixel rectangle"
6008           container="array" typedef="rectangle" hwlevel="legacy">
6009             <array>
6010               <size>4</size>
6011             </array>
6012             <description>
6013             The area of the image sensor which corresponds to active pixels after any geometric
6014             distortion correction has been applied.
6015             </description>
6016             <units>Pixel coordinates on the image sensor</units>
6017             <details>
6018             This is the rectangle representing the size of the active region of the sensor (i.e.
6019             the region that actually receives light from the scene) after any geometric correction
6020             has been applied, and should be treated as the maximum size in pixels of any of the
6021             image output formats aside from the raw formats.
6022
6023             This rectangle is defined relative to the full pixel array; (0,0) is the top-left of
6024             the full pixel array, and the size of the full pixel array is given by
6025             android.sensor.info.pixelArraySize.
6026
6027             The data representation is int[4], which maps to (left, top, width, height).
6028
6029             The coordinate system for most other keys that list pixel coordinates, including
6030             android.scaler.cropRegion, is defined relative to the active array rectangle given in
6031             this field, with `(0, 0)` being the top-left of this rectangle.
6032
6033             The active array may be smaller than the full pixel array, since the full array may
6034             include black calibration pixels or other inactive regions, and geometric correction
6035             resulting in scaling or cropping may have been applied.
6036             </details>
6037             <hal_details>
6038             This array contains `(xmin, ymin, width, height)`. The `(xmin, ymin)` must be
6039             &amp;gt;= `(0,0)`.
6040             The `(width, height)` must be &amp;lt;= `android.sensor.info.pixelArraySize`.
6041             </hal_details>
6042             <tag id="RAW" />
6043           </entry>
6044           <entry name="sensitivityRange" type="int32" visibility="public"
6045           type_notes="Range of supported sensitivities"
6046           container="array" typedef="rangeInt"
6047           hwlevel="full">
6048             <array>
6049               <size>2</size>
6050             </array>
6051             <description>Range of sensitivities for android.sensor.sensitivity supported by this
6052             camera device.</description>
6053             <range>Min &lt;= 100, Max &amp;gt;= 800</range>
6054             <details>
6055               The values are the standard ISO sensitivity values,
6056               as defined in ISO 12232:2006.
6057             </details>
6058
6059             <tag id="BC" />
6060             <tag id="V1" />
6061           </entry>
6062           <entry name="colorFilterArrangement" type="byte" visibility="public" enum="true"
6063             hwlevel="full">
6064             <enum>
6065               <value>RGGB</value>
6066               <value>GRBG</value>
6067               <value>GBRG</value>
6068               <value>BGGR</value>
6069               <value>RGB
6070               <notes>Sensor is not Bayer; output has 3 16-bit
6071               values for each pixel, instead of just 1 16-bit value
6072               per pixel.</notes></value>
6073             </enum>
6074             <description>The arrangement of color filters on sensor;
6075             represents the colors in the top-left 2x2 section of
6076             the sensor, in reading order.</description>
6077             <tag id="RAW" />
6078           </entry>
6079           <entry name="exposureTimeRange" type="int64" visibility="public"
6080                  type_notes="nanoseconds" container="array" typedef="rangeLong"
6081                  hwlevel="full">
6082             <array>
6083               <size>2</size>
6084             </array>
6085             <description>The range of image exposure times for android.sensor.exposureTime supported
6086             by this camera device.
6087             </description>
6088             <units>Nanoseconds</units>
6089             <range>The minimum exposure time will be less than 100 us. For FULL
6090             capability devices (android.info.supportedHardwareLevel == FULL),
6091             the maximum exposure time will be greater than 100ms.</range>
6092             <hal_details>For FULL capability devices (android.info.supportedHardwareLevel == FULL),
6093             The maximum of the range SHOULD be at least 1 second (1e9), MUST be at least
6094             100ms.
6095             </hal_details>
6096             <tag id="V1" />
6097           </entry>
6098           <entry name="maxFrameDuration" type="int64" visibility="public"
6099                  hwlevel="full">
6100             <description>The maximum possible frame duration (minimum frame rate) for
6101             android.sensor.frameDuration that is supported this camera device.</description>
6102             <units>Nanoseconds</units>
6103             <range>For FULL capability devices
6104             (android.info.supportedHardwareLevel == FULL), at least 100ms.
6105             </range>
6106             <details>Attempting to use frame durations beyond the maximum will result in the frame
6107             duration being clipped to the maximum. See that control for a full definition of frame
6108             durations.
6109
6110             Refer to {@link
6111             ACAMERA_SCALER_AVAILABLE_MIN_FRAME_DURATIONS}
6112             for the minimum frame duration values.
6113             </details>
6114             <hal_details>
6115             For FULL capability devices (android.info.supportedHardwareLevel == FULL),
6116             The maximum of the range SHOULD be at least
6117             1 second (1e9), MUST be at least 100ms (100e6).
6118
6119             android.sensor.info.maxFrameDuration must be greater or
6120             equal to the android.sensor.info.exposureTimeRange max
6121             value (since exposure time overrides frame duration).
6122
6123             Available minimum frame durations for JPEG must be no greater
6124             than that of the YUV_420_888/IMPLEMENTATION_DEFINED
6125             minimum frame durations (for that respective size).
6126
6127             Since JPEG processing is considered offline and can take longer than
6128             a single uncompressed capture, refer to
6129             android.scaler.availableStallDurations
6130             for details about encoding this scenario.
6131             </hal_details>
6132             <tag id="V1" />
6133           </entry>
6134           <entry name="physicalSize" type="float" visibility="public"
6135           type_notes="width x height"
6136           container="array" typedef="sizeF" hwlevel="legacy">
6137             <array>
6138               <size>2</size>
6139             </array>
6140             <description>The physical dimensions of the full pixel
6141             array.</description>
6142             <units>Millimeters</units>
6143             <details>This is the physical size of the sensor pixel
6144             array defined by android.sensor.info.pixelArraySize.
6145             </details>
6146             <hal_details>Needed for FOV calculation for old API</hal_details>
6147             <tag id="V1" />
6148             <tag id="BC" />
6149           </entry>
6150           <entry name="pixelArraySize" type="int32" visibility="public"
6151           container="array" typedef="size" hwlevel="legacy">
6152             <array>
6153               <size>2</size>
6154             </array>
6155             <description>Dimensions of the full pixel array, possibly
6156             including black calibration pixels.</description>
6157             <units>Pixels</units>
6158             <details>The pixel count of the full pixel array of the image sensor, which covers
6159             android.sensor.info.physicalSize area.  This represents the full pixel dimensions of
6160             the raw buffers produced by this sensor.
6161
6162             If a camera device supports raw sensor formats, either this or
6163             android.sensor.info.preCorrectionActiveArraySize is the maximum dimensions for the raw
6164             output formats listed in ACAMERA_SCALER_AVAILABLE_STREAM_CONFIGURATIONS (this depends on
6165             whether or not the image sensor returns buffers containing pixels that are not
6166             part of the active array region for blacklevel calibration or other purposes).
6167
6168             Some parts of the full pixel array may not receive light from the scene,
6169             or be otherwise inactive.  The android.sensor.info.preCorrectionActiveArraySize key
6170             defines the rectangle of active pixels that will be included in processed image
6171             formats.
6172             </details>
6173             <tag id="RAW" />
6174             <tag id="BC" />
6175           </entry>
6176           <entry name="whiteLevel" type="int32" visibility="public">
6177             <description>
6178             Maximum raw value output by sensor.
6179             </description>
6180             <range>&amp;gt; 255 (8-bit output)</range>
6181             <details>
6182             This specifies the fully-saturated encoding level for the raw
6183             sample values from the sensor.  This is typically caused by the
6184             sensor becoming highly non-linear or clipping. The minimum for
6185             each channel is specified by the offset in the
6186             android.sensor.blackLevelPattern key.
6187
6188             The white level is typically determined either by sensor bit depth
6189             (8-14 bits is expected), or by the point where the sensor response
6190             becomes too non-linear to be useful.  The default value for this is
6191             maximum representable value for a 16-bit raw sample (2^16 - 1).
6192
6193             The white level values of captured images may vary for different
6194             capture settings (e.g., android.sensor.sensitivity). This key
6195             represents a coarse approximation for such case. It is recommended
6196             to use android.sensor.dynamicWhiteLevel for captures when supported
6197             by the camera device, which provides more accurate white level values.
6198             </details>
6199             <hal_details>
6200             The full bit depth of the sensor must be available in the raw data,
6201             so the value for linear sensors should not be significantly lower
6202             than maximum raw value supported, i.e. 2^(sensor bits per pixel).
6203             </hal_details>
6204             <tag id="RAW" />
6205           </entry>
6206           <entry name="timestampSource" type="byte" visibility="public"
6207                  enum="true" hwlevel="legacy">
6208             <enum>
6209               <value>UNKNOWN
6210                 <notes>
6211                 Timestamps from android.sensor.timestamp are in nanoseconds and monotonic,
6212                 but can not be compared to timestamps from other subsystems
6213                 (e.g. accelerometer, gyro etc.), or other instances of the same or different
6214                 camera devices in the same system. Timestamps between streams and results for
6215                 a single camera instance are comparable, and the timestamps for all buffers
6216                 and the result metadata generated by a single capture are identical.
6217                 </notes>
6218               </value>
6219               <value>REALTIME
6220                 <notes>
6221                 Timestamps from android.sensor.timestamp are in the same timebase as
6222                 [elapsedRealtimeNanos](https://developer.android.com/reference/android/os/SystemClock.html#elapsedRealtimeNanos)
6223                 (or CLOCK_BOOTTIME), and they can be compared to other timestamps using that base.
6224                 </notes>
6225               </value>
6226             </enum>
6227             <description>The time base source for sensor capture start timestamps.</description>
6228             <details>
6229             The timestamps provided for captures are always in nanoseconds and monotonic, but
6230             may not based on a time source that can be compared to other system time sources.
6231
6232             This characteristic defines the source for the timestamps, and therefore whether they
6233             can be compared against other system time sources/timestamps.
6234             </details>
6235           <tag id="V1" />
6236         </entry>
6237         <entry name="lensShadingApplied" type="byte" visibility="public" enum="true"
6238                typedef="boolean">
6239           <enum>
6240             <value>FALSE</value>
6241             <value>TRUE</value>
6242           </enum>
6243           <description>Whether the RAW images output from this camera device are subject to
6244           lens shading correction.</description>
6245           <details>
6246           If TRUE, all images produced by the camera device in the RAW image formats will
6247           have lens shading correction already applied to it. If FALSE, the images will
6248           not be adjusted for lens shading correction.
6249           See android.request.maxNumOutputRaw for a list of RAW image formats.
6250
6251           This key will be `null` for all devices do not report this information.
6252           Devices with RAW capability will always report this information in this key.
6253           </details>
6254         </entry>
6255         <entry name="preCorrectionActiveArraySize" type="int32" visibility="public"
6256           type_notes="Four ints defining the active pixel rectangle" container="array"
6257           typedef="rectangle" hwlevel="legacy">
6258             <array>
6259               <size>4</size>
6260             </array>
6261             <description>
6262             The area of the image sensor which corresponds to active pixels prior to the
6263             application of any geometric distortion correction.
6264             </description>
6265             <units>Pixel coordinates on the image sensor</units>
6266             <details>
6267             The data representation is int[4], which maps to (left, top, width, height).
6268
6269             This is the rectangle representing the size of the active region of the sensor (i.e.
6270             the region that actually receives light from the scene) before any geometric correction
6271             has been applied, and should be treated as the active region rectangle for any of the
6272             raw formats.  All metadata associated with raw processing (e.g. the lens shading
6273             correction map, and radial distortion fields) treats the top, left of this rectangle as
6274             the origin, (0,0).
6275
6276             The size of this region determines the maximum field of view and the maximum number of
6277             pixels that an image from this sensor can contain, prior to the application of
6278             geometric distortion correction. The effective maximum pixel dimensions of a
6279             post-distortion-corrected image is given by the android.sensor.info.activeArraySize
6280             field, and the effective maximum field of view for a post-distortion-corrected image
6281             can be calculated by applying the geometric distortion correction fields to this
6282             rectangle, and cropping to the rectangle given in android.sensor.info.activeArraySize.
6283
6284             E.g. to calculate position of a pixel, (x,y), in a processed YUV output image with the
6285             dimensions in android.sensor.info.activeArraySize given the position of a pixel,
6286             (x', y'), in the raw pixel array with dimensions give in
6287             android.sensor.info.pixelArraySize:
6288
6289             1. Choose a pixel (x', y') within the active array region of the raw buffer given in
6290             android.sensor.info.preCorrectionActiveArraySize, otherwise this pixel is considered
6291             to be outside of the FOV, and will not be shown in the processed output image.
6292             1. Apply geometric distortion correction to get the post-distortion pixel coordinate,
6293             (x_i, y_i). When applying geometric correction metadata, note that metadata for raw
6294             buffers is defined relative to the top, left of the
6295             android.sensor.info.preCorrectionActiveArraySize rectangle.
6296             1. If the resulting corrected pixel coordinate is within the region given in
6297             android.sensor.info.activeArraySize, then the position of this pixel in the
6298             processed output image buffer is `(x_i - activeArray.left, y_i - activeArray.top)`,
6299             when the top, left coordinate of that buffer is treated as (0, 0).
6300
6301             Thus, for pixel x',y' = (25, 25) on a sensor where android.sensor.info.pixelArraySize
6302             is (100,100), android.sensor.info.preCorrectionActiveArraySize is (10, 10, 100, 100),
6303             android.sensor.info.activeArraySize is (20, 20, 80, 80), and the geometric distortion
6304             correction doesn't change the pixel coordinate, the resulting pixel selected in
6305             pixel coordinates would be x,y = (25, 25) relative to the top,left of the raw buffer
6306             with dimensions given in android.sensor.info.pixelArraySize, and would be (5, 5)
6307             relative to the top,left of post-processed YUV output buffer with dimensions given in
6308             android.sensor.info.activeArraySize.
6309
6310             The currently supported fields that correct for geometric distortion are:
6311
6312             1. android.lens.radialDistortion.
6313
6314             If all of the geometric distortion fields are no-ops, this rectangle will be the same
6315             as the post-distortion-corrected rectangle given in
6316             android.sensor.info.activeArraySize.
6317
6318             This rectangle is defined relative to the full pixel array; (0,0) is the top-left of
6319             the full pixel array, and the size of the full pixel array is given by
6320             android.sensor.info.pixelArraySize.
6321
6322             The pre-correction active array may be smaller than the full pixel array, since the
6323             full array may include black calibration pixels or other inactive regions.
6324             </details>
6325             <hal_details>
6326             This array contains `(xmin, ymin, width, height)`. The `(xmin, ymin)` must be
6327             &amp;gt;= `(0,0)`.
6328             The `(width, height)` must be &amp;lt;= `android.sensor.info.pixelArraySize`.
6329
6330             If omitted by the HAL implementation, the camera framework will assume that this is
6331             the same as the post-correction active array region given in
6332             android.sensor.info.activeArraySize.
6333             </hal_details>
6334             <tag id="RAW" />
6335           </entry>
6336         </namespace>
6337         <entry name="referenceIlluminant1" type="byte" visibility="public"
6338                enum="true">
6339           <enum>
6340             <value id="1">DAYLIGHT</value>
6341             <value id="2">FLUORESCENT</value>
6342             <value id="3">TUNGSTEN
6343               <notes>Incandescent light</notes>
6344             </value>
6345             <value id="4">FLASH</value>
6346             <value id="9">FINE_WEATHER</value>
6347             <value id="10">CLOUDY_WEATHER</value>
6348             <value id="11">SHADE</value>
6349             <value id="12">DAYLIGHT_FLUORESCENT
6350               <notes>D 5700 - 7100K</notes>
6351             </value>
6352             <value id="13">DAY_WHITE_FLUORESCENT
6353               <notes>N 4600 - 5400K</notes>
6354             </value>
6355             <value id="14">COOL_WHITE_FLUORESCENT
6356               <notes>W 3900 - 4500K</notes>
6357             </value>
6358             <value id="15">WHITE_FLUORESCENT
6359               <notes>WW 3200 - 3700K</notes>
6360             </value>
6361             <value id="17">STANDARD_A</value>
6362             <value id="18">STANDARD_B</value>
6363             <value id="19">STANDARD_C</value>
6364             <value id="20">D55</value>
6365             <value id="21">D65</value>
6366             <value id="22">D75</value>
6367             <value id="23">D50</value>
6368             <value id="24">ISO_STUDIO_TUNGSTEN</value>
6369           </enum>
6370           <description>
6371           The standard reference illuminant used as the scene light source when
6372           calculating the android.sensor.colorTransform1,
6373           android.sensor.calibrationTransform1, and
6374           android.sensor.forwardMatrix1 matrices.
6375           </description>
6376           <details>
6377           The values in this key correspond to the values defined for the
6378           EXIF LightSource tag. These illuminants are standard light sources
6379           that are often used calibrating camera devices.
6380
6381           If this key is present, then android.sensor.colorTransform1,
6382           android.sensor.calibrationTransform1, and
6383           android.sensor.forwardMatrix1 will also be present.
6384
6385           Some devices may choose to provide a second set of calibration
6386           information for improved quality, including
6387           android.sensor.referenceIlluminant2 and its corresponding matrices.
6388           </details>
6389           <hal_details>
6390           The first reference illuminant (android.sensor.referenceIlluminant1)
6391           and corresponding matrices must be present to support the RAW capability
6392           and DNG output.
6393
6394           When producing raw images with a color profile that has only been
6395           calibrated against a single light source, it is valid to omit
6396           android.sensor.referenceIlluminant2 along with the
6397           android.sensor.colorTransform2, android.sensor.calibrationTransform2,
6398           and android.sensor.forwardMatrix2 matrices.
6399
6400           If only android.sensor.referenceIlluminant1 is included, it should be
6401           chosen so that it is representative of typical scene lighting.  In
6402           general, D50 or DAYLIGHT will be chosen for this case.
6403
6404           If both android.sensor.referenceIlluminant1 and
6405           android.sensor.referenceIlluminant2 are included, they should be
6406           chosen to represent the typical range of scene lighting conditions.
6407           In general, low color temperature illuminant such as Standard-A will
6408           be chosen for the first reference illuminant and a higher color
6409           temperature illuminant such as D65 will be chosen for the second
6410           reference illuminant.
6411           </hal_details>
6412           <tag id="RAW" />
6413         </entry>
6414         <entry name="referenceIlluminant2" type="byte" visibility="public">
6415           <description>
6416           The standard reference illuminant used as the scene light source when
6417           calculating the android.sensor.colorTransform2,
6418           android.sensor.calibrationTransform2, and
6419           android.sensor.forwardMatrix2 matrices.
6420           </description>
6421           <range>Any value listed in android.sensor.referenceIlluminant1</range>
6422           <details>
6423           See android.sensor.referenceIlluminant1 for more details.
6424
6425           If this key is present, then android.sensor.colorTransform2,
6426           android.sensor.calibrationTransform2, and
6427           android.sensor.forwardMatrix2 will also be present.
6428           </details>
6429           <tag id="RAW" />
6430         </entry>
6431         <entry name="calibrationTransform1" type="rational"
6432         visibility="public" optional="true"
6433         type_notes="3x3 matrix in row-major-order" container="array"
6434         typedef="colorSpaceTransform">
6435           <array>
6436             <size>3</size>
6437             <size>3</size>
6438           </array>
6439           <description>
6440           A per-device calibration transform matrix that maps from the
6441           reference sensor colorspace to the actual device sensor colorspace.
6442           </description>
6443           <details>
6444           This matrix is used to correct for per-device variations in the
6445           sensor colorspace, and is used for processing raw buffer data.
6446
6447           The matrix is expressed as a 3x3 matrix in row-major-order, and
6448           contains a per-device calibration transform that maps colors
6449           from reference sensor color space (i.e. the "golden module"
6450           colorspace) into this camera device's native sensor color
6451           space under the first reference illuminant
6452           (android.sensor.referenceIlluminant1).
6453           </details>
6454           <tag id="RAW" />
6455         </entry>
6456         <entry name="calibrationTransform2" type="rational"
6457         visibility="public" optional="true"
6458         type_notes="3x3 matrix in row-major-order" container="array"
6459         typedef="colorSpaceTransform">
6460           <array>
6461             <size>3</size>
6462             <size>3</size>
6463           </array>
6464           <description>
6465           A per-device calibration transform matrix that maps from the
6466           reference sensor colorspace to the actual device sensor colorspace
6467           (this is the colorspace of the raw buffer data).
6468           </description>
6469           <details>
6470           This matrix is used to correct for per-device variations in the
6471           sensor colorspace, and is used for processing raw buffer data.
6472
6473           The matrix is expressed as a 3x3 matrix in row-major-order, and
6474           contains a per-device calibration transform that maps colors
6475           from reference sensor color space (i.e. the "golden module"
6476           colorspace) into this camera device's native sensor color
6477           space under the second reference illuminant
6478           (android.sensor.referenceIlluminant2).
6479
6480           This matrix will only be present if the second reference
6481           illuminant is present.
6482           </details>
6483           <tag id="RAW" />
6484         </entry>
6485         <entry name="colorTransform1" type="rational"
6486         visibility="public" optional="true"
6487         type_notes="3x3 matrix in row-major-order" container="array"
6488         typedef="colorSpaceTransform">
6489           <array>
6490             <size>3</size>
6491             <size>3</size>
6492           </array>
6493           <description>
6494           A matrix that transforms color values from CIE XYZ color space to
6495           reference sensor color space.
6496           </description>
6497           <details>
6498           This matrix is used to convert from the standard CIE XYZ color
6499           space to the reference sensor colorspace, and is used when processing
6500           raw buffer data.
6501
6502           The matrix is expressed as a 3x3 matrix in row-major-order, and
6503           contains a color transform matrix that maps colors from the CIE
6504           XYZ color space to the reference sensor color space (i.e. the
6505           "golden module" colorspace) under the first reference illuminant
6506           (android.sensor.referenceIlluminant1).
6507
6508           The white points chosen in both the reference sensor color space
6509           and the CIE XYZ colorspace when calculating this transform will
6510           match the standard white point for the first reference illuminant
6511           (i.e. no chromatic adaptation will be applied by this transform).
6512           </details>
6513           <tag id="RAW" />
6514         </entry>
6515         <entry name="colorTransform2" type="rational"
6516         visibility="public" optional="true"
6517         type_notes="3x3 matrix in row-major-order" container="array"
6518         typedef="colorSpaceTransform">
6519           <array>
6520             <size>3</size>
6521             <size>3</size>
6522           </array>
6523           <description>
6524           A matrix that transforms color values from CIE XYZ color space to
6525           reference sensor color space.
6526           </description>
6527           <details>
6528           This matrix is used to convert from the standard CIE XYZ color
6529           space to the reference sensor colorspace, and is used when processing
6530           raw buffer data.
6531
6532           The matrix is expressed as a 3x3 matrix in row-major-order, and
6533           contains a color transform matrix that maps colors from the CIE
6534           XYZ color space to the reference sensor color space (i.e. the
6535           "golden module" colorspace) under the second reference illuminant
6536           (android.sensor.referenceIlluminant2).
6537
6538           The white points chosen in both the reference sensor color space
6539           and the CIE XYZ colorspace when calculating this transform will
6540           match the standard white point for the second reference illuminant
6541           (i.e. no chromatic adaptation will be applied by this transform).
6542
6543           This matrix will only be present if the second reference
6544           illuminant is present.
6545           </details>
6546           <tag id="RAW" />
6547         </entry>
6548         <entry name="forwardMatrix1" type="rational"
6549         visibility="public" optional="true"
6550         type_notes="3x3 matrix in row-major-order" container="array"
6551         typedef="colorSpaceTransform">
6552           <array>
6553             <size>3</size>
6554             <size>3</size>
6555           </array>
6556           <description>
6557           A matrix that transforms white balanced camera colors from the reference
6558           sensor colorspace to the CIE XYZ colorspace with a D50 whitepoint.
6559           </description>
6560           <details>
6561           This matrix is used to convert to the standard CIE XYZ colorspace, and
6562           is used when processing raw buffer data.
6563
6564           This matrix is expressed as a 3x3 matrix in row-major-order, and contains
6565           a color transform matrix that maps white balanced colors from the
6566           reference sensor color space to the CIE XYZ color space with a D50 white
6567           point.
6568
6569           Under the first reference illuminant (android.sensor.referenceIlluminant1)
6570           this matrix is chosen so that the standard white point for this reference
6571           illuminant in the reference sensor colorspace is mapped to D50 in the
6572           CIE XYZ colorspace.
6573           </details>
6574           <tag id="RAW" />
6575         </entry>
6576         <entry name="forwardMatrix2" type="rational"
6577         visibility="public" optional="true"
6578         type_notes="3x3 matrix in row-major-order" container="array"
6579         typedef="colorSpaceTransform">
6580           <array>
6581             <size>3</size>
6582             <size>3</size>
6583           </array>
6584           <description>
6585           A matrix that transforms white balanced camera colors from the reference
6586           sensor colorspace to the CIE XYZ colorspace with a D50 whitepoint.
6587           </description>
6588           <details>
6589           This matrix is used to convert to the standard CIE XYZ colorspace, and
6590           is used when processing raw buffer data.
6591
6592           This matrix is expressed as a 3x3 matrix in row-major-order, and contains
6593           a color transform matrix that maps white balanced colors from the
6594           reference sensor color space to the CIE XYZ color space with a D50 white
6595           point.
6596
6597           Under the second reference illuminant (android.sensor.referenceIlluminant2)
6598           this matrix is chosen so that the standard white point for this reference
6599           illuminant in the reference sensor colorspace is mapped to D50 in the
6600           CIE XYZ colorspace.
6601
6602           This matrix will only be present if the second reference
6603           illuminant is present.
6604           </details>
6605           <tag id="RAW" />
6606         </entry>
6607         <entry name="baseGainFactor" type="rational"
6608         optional="true">
6609           <description>Gain factor from electrons to raw units when
6610           ISO=100</description>
6611           <tag id="FUTURE" />
6612         </entry>
6613         <entry name="blackLevelPattern" type="int32" visibility="public"
6614         optional="true" type_notes="2x2 raw count block" container="array"
6615         typedef="blackLevelPattern">
6616           <array>
6617             <size>4</size>
6618           </array>
6619           <description>
6620           A fixed black level offset for each of the color filter arrangement
6621           (CFA) mosaic channels.
6622           </description>
6623           <range>&amp;gt;= 0 for each.</range>
6624           <details>
6625           This key specifies the zero light value for each of the CFA mosaic
6626           channels in the camera sensor.  The maximal value output by the
6627           sensor is represented by the value in android.sensor.info.whiteLevel.
6628
6629           The values are given in the same order as channels listed for the CFA
6630           layout key (see android.sensor.info.colorFilterArrangement), i.e. the
6631           nth value given corresponds to the black level offset for the nth
6632           color channel listed in the CFA.
6633
6634           The black level values of captured images may vary for different
6635           capture settings (e.g., android.sensor.sensitivity). This key
6636           represents a coarse approximation for such case. It is recommended to
6637           use android.sensor.dynamicBlackLevel or use pixels from
6638           android.sensor.opticalBlackRegions directly for captures when
6639           supported by the camera device, which provides more accurate black
6640           level values. For raw capture in particular, it is recommended to use
6641           pixels from android.sensor.opticalBlackRegions to calculate black
6642           level values for each frame.
6643           </details>
6644           <hal_details>
6645           The values are given in row-column scan order, with the first value
6646           corresponding to the element of the CFA in row=0, column=0.
6647           </hal_details>
6648           <tag id="RAW" />
6649         </entry>
6650         <entry name="maxAnalogSensitivity" type="int32" visibility="public"
6651                optional="true" hwlevel="full">
6652           <description>Maximum sensitivity that is implemented
6653           purely through analog gain.</description>
6654           <details>For android.sensor.sensitivity values less than or
6655           equal to this, all applied gain must be analog. For
6656           values above this, the gain applied can be a mix of analog and
6657           digital.</details>
6658           <tag id="V1" />
6659           <tag id="FULL" />
6660         </entry>
6661         <entry name="orientation" type="int32" visibility="public"
6662                hwlevel="legacy">
6663           <description>Clockwise angle through which the output image needs to be rotated to be
6664           upright on the device screen in its native orientation.
6665           </description>
6666           <units>Degrees of clockwise rotation; always a multiple of
6667           90</units>
6668           <range>0, 90, 180, 270</range>
6669           <details>
6670           Also defines the direction of rolling shutter readout, which is from top to bottom in
6671           the sensor's coordinate system.
6672           </details>
6673           <tag id="BC" />
6674         </entry>
6675         <entry name="profileHueSatMapDimensions" type="int32"
6676         visibility="system" optional="true"
6677         type_notes="Number of samples for hue, saturation, and value"
6678         container="array">
6679           <array>
6680             <size>3</size>
6681           </array>
6682           <description>
6683           The number of input samples for each dimension of
6684           android.sensor.profileHueSatMap.
6685           </description>
6686           <range>
6687           Hue &amp;gt;= 1,
6688           Saturation &amp;gt;= 2,
6689           Value &amp;gt;= 1
6690           </range>
6691           <details>
6692           The number of input samples for the hue, saturation, and value
6693           dimension of android.sensor.profileHueSatMap. The order of the
6694           dimensions given is hue, saturation, value; where hue is the 0th
6695           element.
6696           </details>
6697           <tag id="RAW" />
6698         </entry>
6699       </static>
6700       <dynamic>
6701         <clone entry="android.sensor.exposureTime" kind="controls">
6702         </clone>
6703         <clone entry="android.sensor.frameDuration"
6704         kind="controls"></clone>
6705         <clone entry="android.sensor.sensitivity" kind="controls">
6706         </clone>
6707         <entry name="timestamp" type="int64" visibility="public"
6708                hwlevel="legacy">
6709           <description>Time at start of exposure of first
6710           row of the image sensor active array, in nanoseconds.</description>
6711           <units>Nanoseconds</units>
6712           <range>&amp;gt; 0</range>
6713           <details>The timestamps are also included in all image
6714           buffers produced for the same capture, and will be identical
6715           on all the outputs.
6716
6717           When android.sensor.info.timestampSource `==` UNKNOWN,
6718           the timestamps measure time since an unspecified starting point,
6719           and are monotonically increasing. They can be compared with the
6720           timestamps for other captures from the same camera device, but are
6721           not guaranteed to be comparable to any other time source.
6722
6723           When android.sensor.info.timestampSource `==` REALTIME, the
6724           timestamps measure time in the same timebase as
6725           [elapsedRealtimeNanos](https://developer.android.com/reference/android/os/SystemClock.html#elapsedRealtimeNanos)
6726           (or CLOCK_BOOTTIME), and they can
6727           be compared to other timestamps from other subsystems that
6728           are using that base.
6729
6730           For reprocessing, the timestamp will match the start of exposure of
6731           the input image, i.e. {@link CaptureResult#SENSOR_TIMESTAMP the
6732           timestamp} in the TotalCaptureResult that was used to create the
6733           reprocess capture request.
6734           </details>
6735           <hal_details>
6736           All timestamps must be in reference to the kernel's
6737           CLOCK_BOOTTIME monotonic clock, which properly accounts for
6738           time spent asleep. This allows for synchronization with
6739           sensors that continue to operate while the system is
6740           otherwise asleep.
6741
6742           If android.sensor.info.timestampSource `==` REALTIME,
6743           The timestamp must be synchronized with the timestamps from other
6744           sensor subsystems that are using the same timebase.
6745
6746           For reprocessing, the input image's start of exposure can be looked up
6747           with android.sensor.timestamp from the metadata included in the
6748           capture request.
6749           </hal_details>
6750           <tag id="BC" />
6751         </entry>
6752         <entry name="temperature" type="float"
6753         optional="true">
6754           <description>The temperature of the sensor, sampled at the time
6755           exposure began for this frame.
6756
6757           The thermal diode being queried should be inside the sensor PCB, or
6758           somewhere close to it.
6759           </description>
6760
6761           <units>Celsius</units>
6762           <range>Optional. This value is missing if no temperature is available.</range>
6763           <tag id="FUTURE" />
6764         </entry>
6765         <entry name="neutralColorPoint" type="rational" visibility="public"
6766         optional="true" container="array">
6767           <array>
6768             <size>3</size>
6769           </array>
6770           <description>
6771           The estimated camera neutral color in the native sensor colorspace at
6772           the time of capture.
6773           </description>
6774           <details>
6775           This value gives the neutral color point encoded as an RGB value in the
6776           native sensor color space.  The neutral color point indicates the
6777           currently estimated white point of the scene illumination.  It can be
6778           used to interpolate between the provided color transforms when
6779           processing raw sensor data.
6780
6781           The order of the values is R, G, B; where R is in the lowest index.
6782           </details>
6783           <tag id="RAW" />
6784         </entry>
6785         <entry name="noiseProfile" type="double" visibility="public"
6786         optional="true" type_notes="Pairs of noise model coefficients"
6787         container="array" typedef="pairDoubleDouble">
6788           <array>
6789             <size>2</size>
6790             <size>CFA Channels</size>
6791           </array>
6792           <description>
6793           Noise model coefficients for each CFA mosaic channel.
6794           </description>
6795           <details>
6796           This key contains two noise model coefficients for each CFA channel
6797           corresponding to the sensor amplification (S) and sensor readout
6798           noise (O).  These are given as pairs of coefficients for each channel
6799           in the same order as channels listed for the CFA layout key
6800           (see android.sensor.info.colorFilterArrangement).  This is
6801           represented as an array of Pair&amp;lt;Double, Double&amp;gt;, where
6802           the first member of the Pair at index n is the S coefficient and the
6803           second member is the O coefficient for the nth color channel in the CFA.
6804
6805           These coefficients are used in a two parameter noise model to describe
6806           the amount of noise present in the image for each CFA channel.  The
6807           noise model used here is:
6808
6809           N(x) = sqrt(Sx + O)
6810
6811           Where x represents the recorded signal of a CFA channel normalized to
6812           the range [0, 1], and S and O are the noise model coeffiecients for
6813           that channel.
6814
6815           A more detailed description of the noise model can be found in the
6816           Adobe DNG specification for the NoiseProfile tag.
6817           </details>
6818           <hal_details>
6819           For a CFA layout of RGGB, the list of coefficients would be given as
6820           an array of doubles S0,O0,S1,O1,..., where S0 and O0 are the coefficients
6821           for the red channel, S1 and O1 are the coefficients for the first green
6822           channel, etc.
6823           </hal_details>
6824           <tag id="RAW" />
6825         </entry>
6826         <entry name="profileHueSatMap" type="float"
6827         visibility="system" optional="true"
6828         type_notes="Mapping for hue, saturation, and value"
6829         container="array">
6830           <array>
6831             <size>hue_samples</size>
6832             <size>saturation_samples</size>
6833             <size>value_samples</size>
6834             <size>3</size>
6835           </array>
6836           <description>
6837           A mapping containing a hue shift, saturation scale, and value scale
6838           for each pixel.
6839           </description>
6840           <units>
6841           The hue shift is given in degrees; saturation and value scale factors are
6842           unitless and are between 0 and 1 inclusive
6843           </units>
6844           <details>
6845           hue_samples, saturation_samples, and value_samples are given in
6846           android.sensor.profileHueSatMapDimensions.
6847
6848           Each entry of this map contains three floats corresponding to the
6849           hue shift, saturation scale, and value scale, respectively; where the
6850           hue shift has the lowest index. The map entries are stored in the key
6851           in nested loop order, with the value divisions in the outer loop, the
6852           hue divisions in the middle loop, and the saturation divisions in the
6853           inner loop. All zero input saturation entries are required to have a
6854           value scale factor of 1.0.
6855           </details>
6856           <tag id="RAW" />
6857         </entry>
6858         <entry name="profileToneCurve" type="float"
6859         visibility="system" optional="true"
6860         type_notes="Samples defining a spline for a tone-mapping curve"
6861         container="array">
6862           <array>
6863             <size>samples</size>
6864             <size>2</size>
6865           </array>
6866           <description>
6867           A list of x,y samples defining a tone-mapping curve for gamma adjustment.
6868           </description>
6869           <range>
6870           Each sample has an input range of `[0, 1]` and an output range of
6871           `[0, 1]`.  The first sample is required to be `(0, 0)`, and the last
6872           sample is required to be `(1, 1)`.
6873           </range>
6874           <details>
6875           This key contains a default tone curve that can be applied while
6876           processing the image as a starting point for user adjustments.
6877           The curve is specified as a list of value pairs in linear gamma.
6878           The curve is interpolated using a cubic spline.
6879           </details>
6880           <tag id="RAW" />
6881         </entry>
6882         <entry name="greenSplit" type="float" visibility="public" optional="true">
6883           <description>
6884           The worst-case divergence between Bayer green channels.
6885           </description>
6886           <range>
6887           &amp;gt;= 0
6888           </range>
6889           <details>
6890           This value is an estimate of the worst case split between the
6891           Bayer green channels in the red and blue rows in the sensor color
6892           filter array.
6893
6894           The green split is calculated as follows:
6895
6896           1. A 5x5 pixel (or larger) window W within the active sensor array is
6897           chosen. The term 'pixel' here is taken to mean a group of 4 Bayer
6898           mosaic channels (R, Gr, Gb, B).  The location and size of the window
6899           chosen is implementation defined, and should be chosen to provide a
6900           green split estimate that is both representative of the entire image
6901           for this camera sensor, and can be calculated quickly.
6902           1. The arithmetic mean of the green channels from the red
6903           rows (mean_Gr) within W is computed.
6904           1. The arithmetic mean of the green channels from the blue
6905           rows (mean_Gb) within W is computed.
6906           1. The maximum ratio R of the two means is computed as follows:
6907           `R = max((mean_Gr + 1)/(mean_Gb + 1), (mean_Gb + 1)/(mean_Gr + 1))`
6908
6909           The ratio R is the green split divergence reported for this property,
6910           which represents how much the green channels differ in the mosaic
6911           pattern.  This value is typically used to determine the treatment of
6912           the green mosaic channels when demosaicing.
6913
6914           The green split value can be roughly interpreted as follows:
6915
6916           * R &amp;lt; 1.03 is a negligible split (&amp;lt;3% divergence).
6917           * 1.20 &amp;lt;= R &amp;gt;= 1.03 will require some software
6918           correction to avoid demosaic errors (3-20% divergence).
6919           * R &amp;gt; 1.20 will require strong software correction to produce
6920           a usuable image (&amp;gt;20% divergence).
6921           </details>
6922           <hal_details>
6923           The green split given may be a static value based on prior
6924           characterization of the camera sensor using the green split
6925           calculation method given here over a large, representative, sample
6926           set of images.  Other methods of calculation that produce equivalent
6927           results, and can be interpreted in the same manner, may be used.
6928           </hal_details>
6929           <tag id="RAW" />
6930         </entry>
6931       </dynamic>
6932       <controls>
6933         <entry name="testPatternData" type="int32" visibility="public" optional="true" container="array">
6934           <array>
6935             <size>4</size>
6936           </array>
6937           <description>
6938             A pixel `[R, G_even, G_odd, B]` that supplies the test pattern
6939             when android.sensor.testPatternMode is SOLID_COLOR.
6940           </description>
6941           <details>
6942           Each color channel is treated as an unsigned 32-bit integer.
6943           The camera device then uses the most significant X bits
6944           that correspond to how many bits are in its Bayer raw sensor
6945           output.
6946
6947           For example, a sensor with RAW10 Bayer output would use the
6948           10 most significant bits from each color channel.
6949           </details>
6950           <hal_details>
6951           </hal_details>
6952         </entry>
6953         <entry name="testPatternMode" type="int32" visibility="public" optional="true"
6954           enum="true">
6955           <enum>
6956             <value>OFF
6957               <notes>No test pattern mode is used, and the camera
6958               device returns captures from the image sensor.
6959
6960               This is the default if the key is not set.</notes>
6961             </value>
6962             <value>SOLID_COLOR
6963               <notes>
6964               Each pixel in `[R, G_even, G_odd, B]` is replaced by its
6965               respective color channel provided in
6966               android.sensor.testPatternData.
6967
6968               For example:
6969
6970                   android.testPatternData = [0, 0xFFFFFFFF, 0xFFFFFFFF, 0]
6971
6972               All green pixels are 100% green. All red/blue pixels are black.
6973
6974                   android.testPatternData = [0xFFFFFFFF, 0, 0xFFFFFFFF, 0]
6975
6976               All red pixels are 100% red. Only the odd green pixels
6977               are 100% green. All blue pixels are 100% black.
6978               </notes>
6979             </value>
6980             <value>COLOR_BARS
6981               <notes>
6982               All pixel data is replaced with an 8-bar color pattern.
6983
6984               The vertical bars (left-to-right) are as follows:
6985
6986               * 100% white
6987               * yellow
6988               * cyan
6989               * green
6990               * magenta
6991               * red
6992               * blue
6993               * black
6994
6995               In general the image would look like the following:
6996
6997                  W Y C G M R B K
6998                  W Y C G M R B K
6999                  W Y C G M R B K
7000                  W Y C G M R B K
7001                  W Y C G M R B K
7002                  . . . . . . . .
7003                  . . . . . . . .
7004                  . . . . . . . .
7005
7006                  (B = Blue, K = Black)
7007
7008              Each bar should take up 1/8 of the sensor pixel array width.
7009              When this is not possible, the bar size should be rounded
7010              down to the nearest integer and the pattern can repeat
7011              on the right side.
7012
7013              Each bar's height must always take up the full sensor
7014              pixel array height.
7015
7016              Each pixel in this test pattern must be set to either
7017              0% intensity or 100% intensity.
7018              </notes>
7019             </value>
7020             <value>COLOR_BARS_FADE_TO_GRAY
7021               <notes>
7022               The test pattern is similar to COLOR_BARS, except that
7023               each bar should start at its specified color at the top,
7024               and fade to gray at the bottom.
7025
7026               Furthermore each bar is further subdivided into a left and
7027               right half. The left half should have a smooth gradient,
7028               and the right half should have a quantized gradient.
7029
7030               In particular, the right half's should consist of blocks of the
7031               same color for 1/16th active sensor pixel array width.
7032
7033               The least significant bits in the quantized gradient should
7034               be copied from the most significant bits of the smooth gradient.
7035
7036               The height of each bar should always be a multiple of 128.
7037               When this is not the case, the pattern should repeat at the bottom
7038               of the image.
7039               </notes>
7040             </value>
7041             <value>PN9
7042               <notes>
7043               All pixel data is replaced by a pseudo-random sequence
7044               generated from a PN9 512-bit sequence (typically implemented
7045               in hardware with a linear feedback shift register).
7046
7047               The generator should be reset at the beginning of each frame,
7048               and thus each subsequent raw frame with this test pattern should
7049               be exactly the same as the last.
7050               </notes>
7051             </value>
7052             <value id="256">CUSTOM1
7053               <notes>The first custom test pattern. All custom patterns that are
7054               available only on this camera device are at least this numeric
7055               value.
7056
7057               All of the custom test patterns will be static
7058               (that is the raw image must not vary from frame to frame).
7059               </notes>
7060             </value>
7061           </enum>
7062           <description>When enabled, the sensor sends a test pattern instead of
7063           doing a real exposure from the camera.
7064           </description>
7065           <range>android.sensor.availableTestPatternModes</range>
7066           <details>
7067           When a test pattern is enabled, all manual sensor controls specified
7068           by android.sensor.* will be ignored. All other controls should
7069           work as normal.
7070
7071           For example, if manual flash is enabled, flash firing should still
7072           occur (and that the test pattern remain unmodified, since the flash
7073           would not actually affect it).
7074
7075           Defaults to OFF.
7076           </details>
7077           <hal_details>
7078           All test patterns are specified in the Bayer domain.
7079
7080           The HAL may choose to substitute test patterns from the sensor
7081           with test patterns from on-device memory. In that case, it should be
7082           indistinguishable to the ISP whether the data came from the
7083           sensor interconnect bus (such as CSI2) or memory.
7084           </hal_details>
7085         </entry>
7086       </controls>
7087       <dynamic>
7088         <clone entry="android.sensor.testPatternData" kind="controls">
7089         </clone>
7090         <clone entry="android.sensor.testPatternMode" kind="controls">
7091         </clone>
7092       </dynamic>
7093       <static>
7094         <entry name="availableTestPatternModes" type="int32" visibility="public" optional="true"
7095           type_notes="list of enums" container="array">
7096           <array>
7097             <size>n</size>
7098           </array>
7099           <description>List of sensor test pattern modes for android.sensor.testPatternMode
7100           supported by this camera device.
7101           </description>
7102           <range>Any value listed in android.sensor.testPatternMode</range>
7103           <details>
7104             Defaults to OFF, and always includes OFF if defined.
7105           </details>
7106           <hal_details>
7107             All custom modes must be >= CUSTOM1.
7108           </hal_details>
7109         </entry>
7110       </static>
7111       <dynamic>
7112         <entry name="rollingShutterSkew" type="int64" visibility="public" hwlevel="limited">
7113           <description>Duration between the start of first row exposure
7114           and the start of last row exposure.</description>
7115           <units>Nanoseconds</units>
7116           <range> &amp;gt;= 0 and &amp;lt;
7117           {@link android.hardware.camera2.params.StreamConfigurationMap#getOutputMinFrameDuration}.</range>
7118           <details>
7119           This is the exposure time skew between the first and last
7120           row exposure start times. The first row and the last row are
7121           the first and last rows inside of the
7122           android.sensor.info.activeArraySize.
7123
7124           For typical camera sensors that use rolling shutters, this is also equivalent
7125           to the frame readout time.
7126           </details>
7127           <hal_details>
7128           The HAL must report `0` if the sensor is using global shutter, where all pixels begin
7129           exposure at the same time.
7130           </hal_details>
7131           <tag id="V1" />
7132         </entry>
7133       </dynamic>
7134       <static>
7135         <entry name="opticalBlackRegions" type="int32" visibility="public" optional="true"
7136           container="array" typedef="rectangle">
7137           <array>
7138             <size>4</size>
7139             <size>num_regions</size>
7140           </array>
7141           <description>List of disjoint rectangles indicating the sensor
7142           optically shielded black pixel regions.
7143           </description>
7144           <details>
7145             In most camera sensors, the active array is surrounded by some
7146             optically shielded pixel areas. By blocking light, these pixels
7147             provides a reliable black reference for black level compensation
7148             in active array region.
7149
7150             The data representation is int[4], which maps to (left, top, width, height).
7151
7152             This key provides a list of disjoint rectangles specifying the
7153             regions of optically shielded (with metal shield) black pixel
7154             regions if the camera device is capable of reading out these black
7155             pixels in the output raw images. In comparison to the fixed black
7156             level values reported by android.sensor.blackLevelPattern, this key
7157             may provide a more accurate way for the application to calculate
7158             black level of each captured raw images.
7159
7160             When this key is reported, the android.sensor.dynamicBlackLevel and
7161             android.sensor.dynamicWhiteLevel will also be reported.
7162           </details>
7163           <hal_details>
7164             This array contains (xmin, ymin, width, height). The (xmin, ymin)
7165             must be &amp;gt;= (0,0) and &amp;lt;=
7166             android.sensor.info.pixelArraySize. The (width, height) must be
7167             &amp;lt;= android.sensor.info.pixelArraySize. Each region must be
7168             outside the region reported by
7169             android.sensor.info.preCorrectionActiveArraySize.
7170
7171             The HAL must report minimal number of disjoint regions for the
7172             optically shielded back pixel regions. For example, if a region can
7173             be covered by one rectangle, the HAL must not split this region into
7174             multiple rectangles.
7175           </hal_details>
7176         </entry>
7177       </static>
7178       <dynamic>
7179         <entry name="dynamicBlackLevel" type="float" visibility="public"
7180         optional="true" type_notes="2x2 raw count block" container="array">
7181           <array>
7182             <size>4</size>
7183           </array>
7184           <description>
7185           A per-frame dynamic black level offset for each of the color filter
7186           arrangement (CFA) mosaic channels.
7187           </description>
7188           <range>&amp;gt;= 0 for each.</range>
7189           <details>
7190           Camera sensor black levels may vary dramatically for different
7191           capture settings (e.g. android.sensor.sensitivity). The fixed black
7192           level reported by android.sensor.blackLevelPattern may be too
7193           inaccurate to represent the actual value on a per-frame basis. The
7194           camera device internal pipeline relies on reliable black level values
7195           to process the raw images appropriately. To get the best image
7196           quality, the camera device may choose to estimate the per frame black
7197           level values either based on optically shielded black regions
7198           (android.sensor.opticalBlackRegions) or its internal model.
7199
7200           This key reports the camera device estimated per-frame zero light
7201           value for each of the CFA mosaic channels in the camera sensor. The
7202           android.sensor.blackLevelPattern may only represent a coarse
7203           approximation of the actual black level values. This value is the
7204           black level used in camera device internal image processing pipeline
7205           and generally more accurate than the fixed black level values.
7206           However, since they are estimated values by the camera device, they
7207           may not be as accurate as the black level values calculated from the
7208           optical black pixels reported by android.sensor.opticalBlackRegions.
7209
7210           The values are given in the same order as channels listed for the CFA
7211           layout key (see android.sensor.info.colorFilterArrangement), i.e. the
7212           nth value given corresponds to the black level offset for the nth
7213           color channel listed in the CFA.
7214
7215           This key will be available if android.sensor.opticalBlackRegions is
7216           available or the camera device advertises this key via
7217           {@link ACAMERA_REQUEST_AVAILABLE_RESULT_KEYS}.
7218           </details>
7219           <hal_details>
7220           The values are given in row-column scan order, with the first value
7221           corresponding to the element of the CFA in row=0, column=0.
7222           </hal_details>
7223           <tag id="RAW" />
7224         </entry>
7225         <entry name="dynamicWhiteLevel" type="int32" visibility="public"
7226         optional="true" >
7227           <description>
7228           Maximum raw value output by sensor for this frame.
7229           </description>
7230           <range> &amp;gt;= 0</range>
7231           <details>
7232           Since the android.sensor.blackLevelPattern may change for different
7233           capture settings (e.g., android.sensor.sensitivity), the white
7234           level will change accordingly. This key is similar to
7235           android.sensor.info.whiteLevel, but specifies the camera device
7236           estimated white level for each frame.
7237
7238           This key will be available if android.sensor.opticalBlackRegions is
7239           available or the camera device advertises this key via
7240           {@link ACAMERA_REQUEST_AVAILABLE_RESULT_KEYS}.
7241           </details>
7242           <hal_details>
7243           The full bit depth of the sensor must be available in the raw data,
7244           so the value for linear sensors should not be significantly lower
7245           than maximum raw value supported, i.e. 2^(sensor bits per pixel).
7246           </hal_details>
7247           <tag id="RAW" />
7248         </entry>
7249       </dynamic>
7250       <static>
7251         <entry name="opaqueRawSize" type="int32" visibility="system" container="array">
7252           <array>
7253             <size>n</size>
7254             <size>3</size>
7255           </array>
7256           <description>Size in bytes for all the listed opaque RAW buffer sizes</description>
7257           <range>Must be large enough to fit the opaque RAW of corresponding size produced by
7258           the camera</range>
7259           <details>
7260           This configurations are listed as `(width, height, size_in_bytes)` tuples.
7261           This is used for sizing the gralloc buffers for opaque RAW buffers.
7262           All RAW_OPAQUE output stream configuration listed in
7263           android.scaler.availableStreamConfigurations will have a corresponding tuple in
7264           this key.
7265           </details>
7266           <hal_details>
7267               This key is added in HAL3.4.
7268               For HAL3.4 or above: devices advertising RAW_OPAQUE format output must list this key.
7269               For HAL3.3 or earlier devices: if RAW_OPAQUE ouput is advertised, camera framework
7270               will derive this key by assuming each pixel takes two bytes and no padding bytes
7271               between rows.
7272           </hal_details>
7273         </entry>
7274       </static>
7275     </section>
7276     <section name="shading">
7277       <controls>
7278         <entry name="mode" type="byte" visibility="public" enum="true" hwlevel="full">
7279           <enum>
7280             <value>OFF
7281             <notes>No lens shading correction is applied.</notes></value>
7282             <value>FAST
7283             <notes>Apply lens shading corrections, without slowing
7284             frame rate relative to sensor raw output</notes></value>
7285             <value>HIGH_QUALITY
7286             <notes>Apply high-quality lens shading correction, at the
7287             cost of possibly reduced frame rate.</notes></value>
7288           </enum>
7289           <description>Quality of lens shading correction applied
7290           to the image data.</description>
7291           <range>android.shading.availableModes</range>
7292           <details>
7293           When set to OFF mode, no lens shading correction will be applied by the
7294           camera device, and an identity lens shading map data will be provided
7295           if `android.statistics.lensShadingMapMode == ON`. For example, for lens
7296           shading map with size of `[ 4, 3 ]`,
7297           the output android.statistics.lensShadingCorrectionMap for this case will be an identity
7298           map shown below:
7299
7300               [ 1.0, 1.0, 1.0, 1.0,  1.0, 1.0, 1.0, 1.0,
7301                1.0, 1.0, 1.0, 1.0,  1.0, 1.0, 1.0, 1.0,
7302                1.0, 1.0, 1.0, 1.0,  1.0, 1.0, 1.0, 1.0,
7303                1.0, 1.0, 1.0, 1.0,  1.0, 1.0, 1.0, 1.0,
7304                1.0, 1.0, 1.0, 1.0,  1.0, 1.0, 1.0, 1.0,
7305                1.0, 1.0, 1.0, 1.0,  1.0, 1.0, 1.0, 1.0 ]
7306
7307           When set to other modes, lens shading correction will be applied by the camera
7308           device. Applications can request lens shading map data by setting
7309           android.statistics.lensShadingMapMode to ON, and then the camera device will provide lens
7310           shading map data in android.statistics.lensShadingCorrectionMap; the returned shading map
7311           data will be the one applied by the camera device for this capture request.
7312
7313           The shading map data may depend on the auto-exposure (AE) and AWB statistics, therefore
7314           the reliability of the map data may be affected by the AE and AWB algorithms. When AE and
7315           AWB are in AUTO modes(android.control.aeMode `!=` OFF and android.control.awbMode `!=`
7316           OFF), to get best results, it is recommended that the applications wait for the AE and AWB
7317           to be converged before using the returned shading map data.
7318           </details>
7319         </entry>
7320         <entry name="strength" type="byte">
7321           <description>Control the amount of shading correction
7322           applied to the images</description>
7323           <units>unitless: 1-10; 10 is full shading
7324           compensation</units>
7325           <tag id="FUTURE" />
7326         </entry>
7327       </controls>
7328       <dynamic>
7329         <clone entry="android.shading.mode" kind="controls">
7330         </clone>
7331       </dynamic>
7332       <static>
7333         <entry name="availableModes" type="byte" visibility="public"
7334             type_notes="List of enums (android.shading.mode)." container="array"
7335             typedef="enumList" hwlevel="legacy">
7336           <array>
7337             <size>n</size>
7338           </array>
7339           <description>
7340           List of lens shading modes for android.shading.mode that are supported by this camera device.
7341           </description>
7342           <range>Any value listed in android.shading.mode</range>
7343           <details>
7344               This list contains lens shading modes that can be set for the camera device.
7345               Camera devices that support the MANUAL_POST_PROCESSING capability will always
7346               list OFF and FAST mode. This includes all FULL level devices.
7347               LEGACY devices will always only support FAST mode.
7348           </details>
7349           <hal_details>
7350             HAL must support both FAST and HIGH_QUALITY if lens shading correction control is
7351             available on the camera device, but the underlying implementation can be the same for
7352             both modes. That is, if the highest quality implementation on the camera device does not
7353             slow down capture rate, then FAST and HIGH_QUALITY will generate the same output.
7354           </hal_details>
7355         </entry>
7356       </static>
7357     </section>
7358     <section name="statistics">
7359       <controls>
7360         <entry name="faceDetectMode" type="byte" visibility="public" enum="true"
7361                hwlevel="legacy">
7362           <enum>
7363             <value>OFF
7364             <notes>Do not include face detection statistics in capture
7365             results.</notes></value>
7366             <value optional="true">SIMPLE
7367             <notes>Return face rectangle and confidence values only.
7368             </notes></value>
7369             <value optional="true">FULL
7370             <notes>Return all face
7371             metadata.
7372
7373             In this mode, face rectangles, scores, landmarks, and face IDs are all valid.
7374             </notes></value>
7375           </enum>
7376           <description>Operating mode for the face detector
7377           unit.</description>
7378           <range>android.statistics.info.availableFaceDetectModes</range>
7379           <details>Whether face detection is enabled, and whether it
7380           should output just the basic fields or the full set of
7381           fields.</details>
7382           <hal_details>
7383             SIMPLE mode must fill in android.statistics.faceRectangles and
7384             android.statistics.faceScores.
7385             FULL mode must also fill in android.statistics.faceIds, and
7386             android.statistics.faceLandmarks.
7387           </hal_details>
7388           <tag id="BC" />
7389         </entry>
7390         <entry name="histogramMode" type="byte" enum="true" typedef="boolean">
7391           <enum>
7392             <value>OFF</value>
7393             <value>ON</value>
7394           </enum>
7395           <description>Operating mode for histogram
7396           generation</description>
7397           <tag id="FUTURE" />
7398         </entry>
7399         <entry name="sharpnessMapMode" type="byte" enum="true" typedef="boolean">
7400           <enum>
7401             <value>OFF</value>
7402             <value>ON</value>
7403           </enum>
7404           <description>Operating mode for sharpness map
7405           generation</description>
7406           <tag id="FUTURE" />
7407         </entry>
7408         <entry name="hotPixelMapMode" type="byte" visibility="public" enum="true"
7409         typedef="boolean">
7410           <enum>
7411             <value>OFF
7412             <notes>Hot pixel map production is disabled.
7413             </notes></value>
7414             <value>ON
7415             <notes>Hot pixel map production is enabled.
7416             </notes></value>
7417           </enum>
7418           <description>
7419           Operating mode for hot pixel map generation.
7420           </description>
7421           <range>android.statistics.info.availableHotPixelMapModes</range>
7422           <details>
7423           If set to `true`, a hot pixel map is returned in android.statistics.hotPixelMap.
7424           If set to `false`, no hot pixel map will be returned.
7425           </details>
7426           <tag id="V1" />
7427           <tag id="RAW" />
7428         </entry>
7429       </controls>
7430       <static>
7431         <namespace name="info">
7432           <entry name="availableFaceDetectModes" type="byte"
7433                  visibility="public"
7434                  type_notes="List of enums from android.statistics.faceDetectMode"
7435                  container="array"
7436                  typedef="enumList"
7437                  hwlevel="legacy">
7438             <array>
7439               <size>n</size>
7440             </array>
7441             <description>List of face detection modes for android.statistics.faceDetectMode that are
7442             supported by this camera device.
7443             </description>
7444             <range>Any value listed in android.statistics.faceDetectMode</range>
7445             <details>OFF is always supported.
7446             </details>
7447           </entry>
7448           <entry name="histogramBucketCount" type="int32">
7449             <description>Number of histogram buckets
7450             supported</description>
7451             <range>&amp;gt;= 64</range>
7452             <tag id="FUTURE" />
7453           </entry>
7454           <entry name="maxFaceCount" type="int32" visibility="public" hwlevel="legacy">
7455             <description>The maximum number of simultaneously detectable
7456             faces.</description>
7457             <range>0 for cameras without available face detection; otherwise:
7458             `&gt;=4` for LIMITED or FULL hwlevel devices or
7459             `&gt;0` for LEGACY devices.</range>
7460             <tag id="BC" />
7461           </entry>
7462           <entry name="maxHistogramCount" type="int32">
7463             <description>Maximum value possible for a histogram
7464             bucket</description>
7465             <tag id="FUTURE" />
7466           </entry>
7467           <entry name="maxSharpnessMapValue" type="int32">
7468             <description>Maximum value possible for a sharpness map
7469             region.</description>
7470             <tag id="FUTURE" />
7471           </entry>
7472           <entry name="sharpnessMapSize" type="int32"
7473           type_notes="width x height" container="array" typedef="size">
7474             <array>
7475               <size>2</size>
7476             </array>
7477             <description>Dimensions of the sharpness
7478             map</description>
7479             <range>Must be at least 32 x 32</range>
7480             <tag id="FUTURE" />
7481           </entry>
7482           <entry name="availableHotPixelMapModes" type="byte" visibility="public"
7483                  type_notes="list of enums" container="array" typedef="boolean">
7484             <array>
7485               <size>n</size>
7486             </array>
7487             <description>
7488             List of hot pixel map output modes for android.statistics.hotPixelMapMode that are
7489             supported by this camera device.
7490             </description>
7491             <range>Any value listed in android.statistics.hotPixelMapMode</range>
7492             <details>
7493             If no hotpixel map output is available for this camera device, this will contain only
7494             `false`.
7495
7496             ON is always supported on devices with the RAW capability.
7497             </details>
7498             <tag id="V1" />
7499             <tag id="RAW" />
7500           </entry>
7501           <entry name="availableLensShadingMapModes" type="byte" visibility="public"
7502                  type_notes="list of enums" container="array" typedef="enumList">
7503             <array>
7504               <size>n</size>
7505             </array>
7506             <description>
7507             List of lens shading map output modes for android.statistics.lensShadingMapMode that
7508             are supported by this camera device.
7509             </description>
7510             <range>Any value listed in android.statistics.lensShadingMapMode</range>
7511             <details>
7512             If no lens shading map output is available for this camera device, this key will
7513             contain only OFF.
7514
7515             ON is always supported on devices with the RAW capability.
7516             LEGACY mode devices will always only support OFF.
7517             </details>
7518           </entry>
7519         </namespace>
7520       </static>
7521       <dynamic>
7522         <clone entry="android.statistics.faceDetectMode"
7523                kind="controls"></clone>
7524         <entry name="faceIds" type="int32" visibility="ndk_public"
7525                container="array" hwlevel="legacy">
7526           <array>
7527             <size>n</size>
7528           </array>
7529           <description>List of unique IDs for detected faces.</description>
7530           <details>
7531           Each detected face is given a unique ID that is valid for as long as the face is visible
7532           to the camera device.  A face that leaves the field of view and later returns may be
7533           assigned a new ID.
7534
7535           Only available if android.statistics.faceDetectMode == FULL</details>
7536           <tag id="BC" />
7537         </entry>
7538         <entry name="faceLandmarks" type="int32" visibility="ndk_public"
7539                type_notes="(leftEyeX, leftEyeY, rightEyeX, rightEyeY, mouthX, mouthY)"
7540                container="array" hwlevel="legacy">
7541           <array>
7542             <size>n</size>
7543             <size>6</size>
7544           </array>
7545           <description>List of landmarks for detected
7546           faces.</description>
7547           <details>
7548             The coordinate system is that of android.sensor.info.activeArraySize, with
7549             `(0, 0)` being the top-left pixel of the active array.
7550
7551             Only available if android.statistics.faceDetectMode == FULL</details>
7552           <tag id="BC" />
7553         </entry>
7554         <entry name="faceRectangles" type="int32" visibility="ndk_public"
7555                type_notes="(xmin, ymin, xmax, ymax). (0,0) is top-left of active pixel area"
7556                container="array" typedef="rectangle" hwlevel="legacy">
7557           <array>
7558             <size>n</size>
7559             <size>4</size>
7560           </array>
7561           <description>List of the bounding rectangles for detected
7562           faces.</description>
7563           <details>
7564             The data representation is int[4], which maps to (left, top, width, height).
7565
7566             The coordinate system is that of android.sensor.info.activeArraySize, with
7567             `(0, 0)` being the top-left pixel of the active array.
7568
7569             Only available if android.statistics.faceDetectMode != OFF</details>
7570           <tag id="BC" />
7571         </entry>
7572         <entry name="faceScores" type="byte" visibility="ndk_public"
7573                container="array" hwlevel="legacy">
7574           <array>
7575             <size>n</size>
7576           </array>
7577           <description>List of the face confidence scores for
7578           detected faces</description>
7579           <range>1-100</range>
7580           <details>Only available if android.statistics.faceDetectMode != OFF.
7581           </details>
7582           <hal_details>
7583           The value should be meaningful (for example, setting 100 at
7584           all times is illegal).</hal_details>
7585           <tag id="BC" />
7586         </entry>
7587         <entry name="faces" type="int32" visibility="java_public" synthetic="true"
7588                container="array" typedef="face" hwlevel="legacy">
7589           <array>
7590             <size>n</size>
7591           </array>
7592           <description>List of the faces detected through camera face detection
7593           in this capture.</description>
7594           <details>
7595           Only available if android.statistics.faceDetectMode `!=` OFF.
7596           </details>
7597         </entry>
7598         <entry name="histogram" type="int32"
7599         type_notes="count of pixels for each color channel that fall into each histogram bucket, scaled to be between 0 and maxHistogramCount"
7600         container="array">
7601           <array>
7602             <size>n</size>
7603             <size>3</size>
7604           </array>
7605           <description>A 3-channel histogram based on the raw
7606           sensor data</description>
7607           <details>The k'th bucket (0-based) covers the input range
7608           (with w = android.sensor.info.whiteLevel) of [ k * w/N,
7609           (k + 1) * w / N ). If only a monochrome sharpness map is
7610           supported, all channels should have the same data</details>
7611           <tag id="FUTURE" />
7612         </entry>
7613         <clone entry="android.statistics.histogramMode"
7614         kind="controls"></clone>
7615         <entry name="sharpnessMap" type="int32"
7616         type_notes="estimated sharpness for each region of the input image. Normalized to be between 0 and maxSharpnessMapValue. Higher values mean sharper (better focused)"
7617         container="array">
7618           <array>
7619             <size>n</size>
7620             <size>m</size>
7621             <size>3</size>
7622           </array>
7623           <description>A 3-channel sharpness map, based on the raw
7624           sensor data</description>
7625           <details>If only a monochrome sharpness map is supported,
7626           all channels should have the same data</details>
7627           <tag id="FUTURE" />
7628         </entry>
7629         <clone entry="android.statistics.sharpnessMapMode"
7630                kind="controls"></clone>
7631         <entry name="lensShadingCorrectionMap" type="byte" visibility="java_public"
7632                typedef="lensShadingMap" hwlevel="full">
7633           <description>The shading map is a low-resolution floating-point map
7634           that lists the coefficients used to correct for vignetting, for each
7635           Bayer color channel.</description>
7636           <range>Each gain factor is &amp;gt;= 1</range>
7637           <details>
7638           The map provided here is the same map that is used by the camera device to
7639           correct both color shading and vignetting for output non-RAW images.
7640
7641           When there is no lens shading correction applied to RAW
7642           output images (android.sensor.info.lensShadingApplied `==`
7643           false), this map is the complete lens shading correction
7644           map; when there is some lens shading correction applied to
7645           the RAW output image (android.sensor.info.lensShadingApplied
7646           `==` true), this map reports the remaining lens shading
7647           correction map that needs to be applied to get shading
7648           corrected images that match the camera device's output for
7649           non-RAW formats.
7650
7651           For a complete shading correction map, the least shaded
7652           section of the image will have a gain factor of 1; all
7653           other sections will have gains above 1.
7654
7655           When android.colorCorrection.mode = TRANSFORM_MATRIX, the map
7656           will take into account the colorCorrection settings.
7657
7658           The shading map is for the entire active pixel array, and is not
7659           affected by the crop region specified in the request. Each shading map
7660           entry is the value of the shading compensation map over a specific
7661           pixel on the sensor.  Specifically, with a (N x M) resolution shading
7662           map, and an active pixel array size (W x H), shading map entry
7663           (x,y) Ïµ (0 ... N-1, 0 ... M-1) is the value of the shading map at
7664           pixel ( ((W-1)/(N-1)) * x, ((H-1)/(M-1)) * y) for the four color channels.
7665           The map is assumed to be bilinearly interpolated between the sample points.
7666
7667           The channel order is [R, Geven, Godd, B], where Geven is the green
7668           channel for the even rows of a Bayer pattern, and Godd is the odd rows.
7669           The shading map is stored in a fully interleaved format.
7670
7671           The shading map will generally have on the order of 30-40 rows and columns,
7672           and will be smaller than 64x64.
7673
7674           As an example, given a very small map defined as:
7675
7676               width,height = [ 4, 3 ]
7677               values =
7678               [ 1.3, 1.2, 1.15, 1.2,  1.2, 1.2, 1.15, 1.2,
7679                   1.1, 1.2, 1.2, 1.2,  1.3, 1.2, 1.3, 1.3,
7680                 1.2, 1.2, 1.25, 1.1,  1.1, 1.1, 1.1, 1.0,
7681                   1.0, 1.0, 1.0, 1.0,  1.2, 1.3, 1.25, 1.2,
7682                 1.3, 1.2, 1.2, 1.3,   1.2, 1.15, 1.1, 1.2,
7683                   1.2, 1.1, 1.0, 1.2,  1.3, 1.15, 1.2, 1.3 ]
7684
7685           The low-resolution scaling map images for each channel are
7686           (displayed using nearest-neighbor interpolation):
7687
7688           ![Red lens shading map](android.statistics.lensShadingMap/red_shading.png)
7689           ![Green (even rows) lens shading map](android.statistics.lensShadingMap/green_e_shading.png)
7690           ![Green (odd rows) lens shading map](android.statistics.lensShadingMap/green_o_shading.png)
7691           ![Blue lens shading map](android.statistics.lensShadingMap/blue_shading.png)
7692
7693           As a visualization only, inverting the full-color map to recover an
7694           image of a gray wall (using bicubic interpolation for visual quality) as captured by the sensor gives:
7695
7696           ![Image of a uniform white wall (inverse shading map)](android.statistics.lensShadingMap/inv_shading.png)
7697           </details>
7698         </entry>
7699         <entry name="lensShadingMap" type="float" visibility="ndk_public"
7700                type_notes="2D array of float gain factors per channel to correct lens shading"
7701                container="array" hwlevel="full">
7702           <array>
7703             <size>4</size>
7704             <size>n</size>
7705             <size>m</size>
7706           </array>
7707           <description>The shading map is a low-resolution floating-point map
7708           that lists the coefficients used to correct for vignetting and color shading,
7709           for each Bayer color channel of RAW image data.</description>
7710           <range>Each gain factor is &amp;gt;= 1</range>
7711           <details>
7712           The map provided here is the same map that is used by the camera device to
7713           correct both color shading and vignetting for output non-RAW images.
7714
7715           When there is no lens shading correction applied to RAW
7716           output images (android.sensor.info.lensShadingApplied `==`
7717           false), this map is the complete lens shading correction
7718           map; when there is some lens shading correction applied to
7719           the RAW output image (android.sensor.info.lensShadingApplied
7720           `==` true), this map reports the remaining lens shading
7721           correction map that needs to be applied to get shading
7722           corrected images that match the camera device's output for
7723           non-RAW formats.
7724
7725           For a complete shading correction map, the least shaded
7726           section of the image will have a gain factor of 1; all
7727           other sections will have gains above 1.
7728
7729           When android.colorCorrection.mode = TRANSFORM_MATRIX, the map
7730           will take into account the colorCorrection settings.
7731
7732           The shading map is for the entire active pixel array, and is not
7733           affected by the crop region specified in the request. Each shading map
7734           entry is the value of the shading compensation map over a specific
7735           pixel on the sensor.  Specifically, with a (N x M) resolution shading
7736           map, and an active pixel array size (W x H), shading map entry
7737           (x,y) Ïµ (0 ... N-1, 0 ... M-1) is the value of the shading map at
7738           pixel ( ((W-1)/(N-1)) * x, ((H-1)/(M-1)) * y) for the four color channels.
7739           The map is assumed to be bilinearly interpolated between the sample points.
7740
7741           The channel order is [R, Geven, Godd, B], where Geven is the green
7742           channel for the even rows of a Bayer pattern, and Godd is the odd rows.
7743           The shading map is stored in a fully interleaved format, and its size
7744           is provided in the camera static metadata by android.lens.info.shadingMapSize.
7745
7746           The shading map will generally have on the order of 30-40 rows and columns,
7747           and will be smaller than 64x64.
7748
7749           As an example, given a very small map defined as:
7750
7751               android.lens.info.shadingMapSize = [ 4, 3 ]
7752               android.statistics.lensShadingMap =
7753               [ 1.3, 1.2, 1.15, 1.2,  1.2, 1.2, 1.15, 1.2,
7754                   1.1, 1.2, 1.2, 1.2,  1.3, 1.2, 1.3, 1.3,
7755                 1.2, 1.2, 1.25, 1.1,  1.1, 1.1, 1.1, 1.0,
7756                   1.0, 1.0, 1.0, 1.0,  1.2, 1.3, 1.25, 1.2,
7757                 1.3, 1.2, 1.2, 1.3,   1.2, 1.15, 1.1, 1.2,
7758                   1.2, 1.1, 1.0, 1.2,  1.3, 1.15, 1.2, 1.3 ]
7759
7760           The low-resolution scaling map images for each channel are
7761           (displayed using nearest-neighbor interpolation):
7762
7763           ![Red lens shading map](android.statistics.lensShadingMap/red_shading.png)
7764           ![Green (even rows) lens shading map](android.statistics.lensShadingMap/green_e_shading.png)
7765           ![Green (odd rows) lens shading map](android.statistics.lensShadingMap/green_o_shading.png)
7766           ![Blue lens shading map](android.statistics.lensShadingMap/blue_shading.png)
7767
7768           As a visualization only, inverting the full-color map to recover an
7769           image of a gray wall (using bicubic interpolation for visual quality)
7770           as captured by the sensor gives:
7771
7772           ![Image of a uniform white wall (inverse shading map)](android.statistics.lensShadingMap/inv_shading.png)
7773
7774           Note that the RAW image data might be subject to lens shading
7775           correction not reported on this map. Query
7776           android.sensor.info.lensShadingApplied to see if RAW image data has subject
7777           to lens shading correction. If android.sensor.info.lensShadingApplied
7778           is TRUE, the RAW image data is subject to partial or full lens shading
7779           correction. In the case full lens shading correction is applied to RAW
7780           images, the gain factor map reported in this key will contain all 1.0 gains.
7781           In other words, the map reported in this key is the remaining lens shading
7782           that needs to be applied on the RAW image to get images without lens shading
7783           artifacts. See android.request.maxNumOutputRaw for a list of RAW image
7784           formats.
7785           </details>
7786           <hal_details>
7787           The lens shading map calculation may depend on exposure and white balance statistics.
7788           When AE and AWB are in AUTO modes
7789           (android.control.aeMode `!=` OFF and android.control.awbMode `!=` OFF), the HAL
7790           may have all the information it need to generate most accurate lens shading map. When
7791           AE or AWB are in manual mode
7792           (android.control.aeMode `==` OFF or android.control.awbMode `==` OFF), the shading map
7793           may be adversely impacted by manual exposure or white balance parameters. To avoid
7794           generating unreliable shading map data, the HAL may choose to lock the shading map with
7795           the latest known good map generated when the AE and AWB are in AUTO modes.
7796           </hal_details>
7797         </entry>
7798         <entry name="predictedColorGains" type="float"
7799                visibility="hidden"
7800                deprecated="true"
7801                optional="true"
7802                type_notes="A 1D array of floats for 4 color channel gains"
7803                container="array">
7804           <array>
7805             <size>4</size>
7806           </array>
7807           <description>The best-fit color channel gains calculated
7808           by the camera device's statistics units for the current output frame.
7809           </description>
7810           <details>
7811           This may be different than the gains used for this frame,
7812           since statistics processing on data from a new frame
7813           typically completes after the transform has already been
7814           applied to that frame.
7815
7816           The 4 channel gains are defined in Bayer domain,
7817           see android.colorCorrection.gains for details.
7818
7819           This value should always be calculated by the auto-white balance (AWB) block,
7820           regardless of the android.control.* current values.
7821           </details>
7822         </entry>
7823         <entry name="predictedColorTransform" type="rational"
7824                visibility="hidden"
7825                deprecated="true"
7826                optional="true"
7827                type_notes="3x3 rational matrix in row-major order"
7828                container="array">
7829           <array>
7830             <size>3</size>
7831             <size>3</size>
7832           </array>
7833           <description>The best-fit color transform matrix estimate
7834           calculated by the camera device's statistics units for the current
7835           output frame.</description>
7836           <details>The camera device will provide the estimate from its
7837           statistics unit on the white balance transforms to use
7838           for the next frame. These are the values the camera device believes
7839           are the best fit for the current output frame. This may
7840           be different than the transform used for this frame, since
7841           statistics processing on data from a new frame typically
7842           completes after the transform has already been applied to
7843           that frame.
7844
7845           These estimates must be provided for all frames, even if
7846           capture settings and color transforms are set by the application.
7847
7848           This value should always be calculated by the auto-white balance (AWB) block,
7849           regardless of the android.control.* current values.
7850           </details>
7851         </entry>
7852         <entry name="sceneFlicker" type="byte" visibility="public" enum="true"
7853                hwlevel="full">
7854           <enum>
7855             <value>NONE
7856             <notes>The camera device does not detect any flickering illumination
7857             in the current scene.</notes></value>
7858             <value>50HZ
7859             <notes>The camera device detects illumination flickering at 50Hz
7860             in the current scene.</notes></value>
7861             <value>60HZ
7862             <notes>The camera device detects illumination flickering at 60Hz
7863             in the current scene.</notes></value>
7864           </enum>
7865           <description>The camera device estimated scene illumination lighting
7866           frequency.</description>
7867           <details>
7868           Many light sources, such as most fluorescent lights, flicker at a rate
7869           that depends on the local utility power standards. This flicker must be
7870           accounted for by auto-exposure routines to avoid artifacts in captured images.
7871           The camera device uses this entry to tell the application what the scene
7872           illuminant frequency is.
7873
7874           When manual exposure control is enabled
7875           (`android.control.aeMode == OFF` or `android.control.mode ==
7876           OFF`), the android.control.aeAntibandingMode doesn't perform
7877           antibanding, and the application can ensure it selects
7878           exposure times that do not cause banding issues by looking
7879           into this metadata field. See
7880           android.control.aeAntibandingMode for more details.
7881
7882           Reports NONE if there doesn't appear to be flickering illumination.
7883           </details>
7884         </entry>
7885         <clone entry="android.statistics.hotPixelMapMode" kind="controls">
7886         </clone>
7887         <entry name="hotPixelMap" type="int32" visibility="public"
7888         type_notes="list of coordinates based on android.sensor.pixelArraySize"
7889         container="array" typedef="point">
7890           <array>
7891             <size>2</size>
7892             <size>n</size>
7893           </array>
7894           <description>
7895           List of `(x, y)` coordinates of hot/defective pixels on the sensor.
7896           </description>
7897           <range>
7898           n &lt;= number of pixels on the sensor.
7899           The `(x, y)` coordinates must be bounded by
7900           android.sensor.info.pixelArraySize.
7901           </range>
7902           <details>
7903           A coordinate `(x, y)` must lie between `(0, 0)`, and
7904           `(width - 1, height - 1)` (inclusive), which are the top-left and
7905           bottom-right of the pixel array, respectively. The width and
7906           height dimensions are given in android.sensor.info.pixelArraySize.
7907           This may include hot pixels that lie outside of the active array
7908           bounds given by android.sensor.info.activeArraySize.
7909           </details>
7910           <hal_details>
7911           A hotpixel map contains the coordinates of pixels on the camera
7912           sensor that do report valid values (usually due to defects in
7913           the camera sensor). This includes pixels that are stuck at certain
7914           values, or have a response that does not accuractly encode the
7915           incoming light from the scene.
7916
7917           To avoid performance issues, there should be significantly fewer hot
7918           pixels than actual pixels on the camera sensor.
7919           </hal_details>
7920           <tag id="V1" />
7921           <tag id="RAW" />
7922         </entry>
7923       </dynamic>
7924       <controls>
7925         <entry name="lensShadingMapMode" type="byte" visibility="public" enum="true" hwlevel="full">
7926           <enum>
7927             <value>OFF
7928             <notes>Do not include a lens shading map in the capture result.</notes></value>
7929             <value>ON
7930             <notes>Include a lens shading map in the capture result.</notes></value>
7931           </enum>
7932           <description>Whether the camera device will output the lens
7933           shading map in output result metadata.</description>
7934           <range>android.statistics.info.availableLensShadingMapModes</range>
7935           <details>When set to ON,
7936           android.statistics.lensShadingMap will be provided in
7937           the output result metadata.
7938
7939           ON is always supported on devices with the RAW capability.
7940           </details>
7941           <tag id="RAW" />
7942         </entry>
7943       </controls>
7944       <dynamic>
7945         <clone entry="android.statistics.lensShadingMapMode" kind="controls">
7946         </clone>
7947       </dynamic>
7948     </section>
7949     <section name="tonemap">
7950       <controls>
7951         <entry name="curveBlue" type="float" visibility="ndk_public"
7952         type_notes="1D array of float pairs (P_IN, P_OUT). The maximum number of pairs is specified by android.tonemap.maxCurvePoints."
7953         container="array" hwlevel="full">
7954           <array>
7955             <size>n</size>
7956             <size>2</size>
7957           </array>
7958           <description>Tonemapping / contrast / gamma curve for the blue
7959           channel, to use when android.tonemap.mode is
7960           CONTRAST_CURVE.</description>
7961           <details>See android.tonemap.curveRed for more details.</details>
7962         </entry>
7963         <entry name="curveGreen" type="float" visibility="ndk_public"
7964         type_notes="1D array of float pairs (P_IN, P_OUT). The maximum number of pairs is specified by android.tonemap.maxCurvePoints."
7965         container="array" hwlevel="full">
7966           <array>
7967             <size>n</size>
7968             <size>2</size>
7969           </array>
7970           <description>Tonemapping / contrast / gamma curve for the green
7971           channel, to use when android.tonemap.mode is
7972           CONTRAST_CURVE.</description>
7973           <details>See android.tonemap.curveRed for more details.</details>
7974         </entry>
7975         <entry name="curveRed" type="float" visibility="ndk_public"
7976         type_notes="1D array of float pairs (P_IN, P_OUT). The maximum number of pairs is specified by android.tonemap.maxCurvePoints."
7977         container="array" hwlevel="full">
7978           <array>
7979             <size>n</size>
7980             <size>2</size>
7981           </array>
7982           <description>Tonemapping / contrast / gamma curve for the red
7983           channel, to use when android.tonemap.mode is
7984           CONTRAST_CURVE.</description>
7985           <range>0-1 on both input and output coordinates, normalized
7986           as a floating-point value such that 0 == black and 1 == white.
7987           </range>
7988           <details>
7989           Each channel's curve is defined by an array of control points:
7990
7991               android.tonemap.curveRed =
7992                 [ P0in, P0out, P1in, P1out, P2in, P2out, P3in, P3out, ..., PNin, PNout ]
7993               2 &lt;= N &lt;= android.tonemap.maxCurvePoints
7994
7995           These are sorted in order of increasing `Pin`; it is
7996           required that input values 0.0 and 1.0 are included in the list to
7997           define a complete mapping. For input values between control points,
7998           the camera device must linearly interpolate between the control
7999           points.
8000
8001           Each curve can have an independent number of points, and the number
8002           of points can be less than max (that is, the request doesn't have to
8003           always provide a curve with number of points equivalent to
8004           android.tonemap.maxCurvePoints).
8005
8006           A few examples, and their corresponding graphical mappings; these
8007           only specify the red channel and the precision is limited to 4
8008           digits, for conciseness.
8009
8010           Linear mapping:
8011
8012               android.tonemap.curveRed = [ 0, 0, 1.0, 1.0 ]
8013
8014           ![Linear mapping curve](android.tonemap.curveRed/linear_tonemap.png)
8015
8016           Invert mapping:
8017
8018               android.tonemap.curveRed = [ 0, 1.0, 1.0, 0 ]
8019
8020           ![Inverting mapping curve](android.tonemap.curveRed/inverse_tonemap.png)
8021
8022           Gamma 1/2.2 mapping, with 16 control points:
8023
8024               android.tonemap.curveRed = [
8025                 0.0000, 0.0000, 0.0667, 0.2920, 0.1333, 0.4002, 0.2000, 0.4812,
8026                 0.2667, 0.5484, 0.3333, 0.6069, 0.4000, 0.6594, 0.4667, 0.7072,
8027                 0.5333, 0.7515, 0.6000, 0.7928, 0.6667, 0.8317, 0.7333, 0.8685,
8028                 0.8000, 0.9035, 0.8667, 0.9370, 0.9333, 0.9691, 1.0000, 1.0000 ]
8029
8030           ![Gamma = 1/2.2 tonemapping curve](android.tonemap.curveRed/gamma_tonemap.png)
8031
8032           Standard sRGB gamma mapping, per IEC 61966-2-1:1999, with 16 control points:
8033
8034               android.tonemap.curveRed = [
8035                 0.0000, 0.0000, 0.0667, 0.2864, 0.1333, 0.4007, 0.2000, 0.4845,
8036                 0.2667, 0.5532, 0.3333, 0.6125, 0.4000, 0.6652, 0.4667, 0.7130,
8037                 0.5333, 0.7569, 0.6000, 0.7977, 0.6667, 0.8360, 0.7333, 0.8721,
8038                 0.8000, 0.9063, 0.8667, 0.9389, 0.9333, 0.9701, 1.0000, 1.0000 ]
8039
8040           ![sRGB tonemapping curve](android.tonemap.curveRed/srgb_tonemap.png)
8041         </details>
8042         <hal_details>
8043           For good quality of mapping, at least 128 control points are
8044           preferred.
8045
8046           A typical use case of this would be a gamma-1/2.2 curve, with as many
8047           control points used as are available.
8048         </hal_details>
8049         </entry>
8050         <entry name="curve" type="float" visibility="java_public" synthetic="true"
8051                typedef="tonemapCurve"
8052                hwlevel="full">
8053           <description>Tonemapping / contrast / gamma curve to use when android.tonemap.mode
8054           is CONTRAST_CURVE.</description>
8055           <details>
8056           The tonemapCurve consist of three curves for each of red, green, and blue
8057           channels respectively. The following example uses the red channel as an
8058           example. The same logic applies to green and blue channel.
8059           Each channel's curve is defined by an array of control points:
8060
8061               curveRed =
8062                 [ P0(in, out), P1(in, out), P2(in, out), P3(in, out), ..., PN(in, out) ]
8063               2 &lt;= N &lt;= android.tonemap.maxCurvePoints
8064
8065           These are sorted in order of increasing `Pin`; it is always
8066           guaranteed that input values 0.0 and 1.0 are included in the list to
8067           define a complete mapping. For input values between control points,
8068           the camera device must linearly interpolate between the control
8069           points.
8070
8071           Each curve can have an independent number of points, and the number
8072           of points can be less than max (that is, the request doesn't have to
8073           always provide a curve with number of points equivalent to
8074           android.tonemap.maxCurvePoints).
8075
8076           A few examples, and their corresponding graphical mappings; these
8077           only specify the red channel and the precision is limited to 4
8078           digits, for conciseness.
8079
8080           Linear mapping:
8081
8082               curveRed = [ (0, 0), (1.0, 1.0) ]
8083
8084           ![Linear mapping curve](android.tonemap.curveRed/linear_tonemap.png)
8085
8086           Invert mapping:
8087
8088               curveRed = [ (0, 1.0), (1.0, 0) ]
8089
8090           ![Inverting mapping curve](android.tonemap.curveRed/inverse_tonemap.png)
8091
8092           Gamma 1/2.2 mapping, with 16 control points:
8093
8094               curveRed = [
8095                 (0.0000, 0.0000), (0.0667, 0.2920), (0.1333, 0.4002), (0.2000, 0.4812),
8096                 (0.2667, 0.5484), (0.3333, 0.6069), (0.4000, 0.6594), (0.4667, 0.7072),
8097                 (0.5333, 0.7515), (0.6000, 0.7928), (0.6667, 0.8317), (0.7333, 0.8685),
8098                 (0.8000, 0.9035), (0.8667, 0.9370), (0.9333, 0.9691), (1.0000, 1.0000) ]
8099
8100           ![Gamma = 1/2.2 tonemapping curve](android.tonemap.curveRed/gamma_tonemap.png)
8101
8102           Standard sRGB gamma mapping, per IEC 61966-2-1:1999, with 16 control points:
8103
8104               curveRed = [
8105                 (0.0000, 0.0000), (0.0667, 0.2864), (0.1333, 0.4007), (0.2000, 0.4845),
8106                 (0.2667, 0.5532), (0.3333, 0.6125), (0.4000, 0.6652), (0.4667, 0.7130),
8107                 (0.5333, 0.7569), (0.6000, 0.7977), (0.6667, 0.8360), (0.7333, 0.8721),
8108                 (0.8000, 0.9063), (0.8667, 0.9389), (0.9333, 0.9701), (1.0000, 1.0000) ]
8109
8110           ![sRGB tonemapping curve](android.tonemap.curveRed/srgb_tonemap.png)
8111         </details>
8112         <hal_details>
8113             This entry is created by the framework from the curveRed, curveGreen and
8114             curveBlue entries.
8115         </hal_details>
8116         </entry>
8117         <entry name="mode" type="byte" visibility="public" enum="true"
8118                hwlevel="full">
8119           <enum>
8120             <value>CONTRAST_CURVE
8121               <notes>Use the tone mapping curve specified in
8122               the android.tonemap.curve* entries.
8123
8124               All color enhancement and tonemapping must be disabled, except
8125               for applying the tonemapping curve specified by
8126               android.tonemap.curve.
8127
8128               Must not slow down frame rate relative to raw
8129               sensor output.
8130               </notes>
8131             </value>
8132             <value>FAST
8133               <notes>
8134               Advanced gamma mapping and color enhancement may be applied, without
8135               reducing frame rate compared to raw sensor output.
8136               </notes>
8137             </value>
8138             <value>HIGH_QUALITY
8139               <notes>
8140               High-quality gamma mapping and color enhancement will be applied, at
8141               the cost of possibly reduced frame rate compared to raw sensor output.
8142               </notes>
8143             </value>
8144             <value>GAMMA_VALUE
8145               <notes>
8146               Use the gamma value specified in android.tonemap.gamma to peform
8147               tonemapping.
8148
8149               All color enhancement and tonemapping must be disabled, except
8150               for applying the tonemapping curve specified by android.tonemap.gamma.
8151
8152               Must not slow down frame rate relative to raw sensor output.
8153               </notes>
8154             </value>
8155             <value>PRESET_CURVE
8156               <notes>
8157               Use the preset tonemapping curve specified in
8158               android.tonemap.presetCurve to peform tonemapping.
8159
8160               All color enhancement and tonemapping must be disabled, except
8161               for applying the tonemapping curve specified by
8162               android.tonemap.presetCurve.
8163
8164               Must not slow down frame rate relative to raw sensor output.
8165               </notes>
8166             </value>
8167           </enum>
8168           <description>High-level global contrast/gamma/tonemapping control.
8169           </description>
8170           <range>android.tonemap.availableToneMapModes</range>
8171           <details>
8172           When switching to an application-defined contrast curve by setting
8173           android.tonemap.mode to CONTRAST_CURVE, the curve is defined
8174           per-channel with a set of `(in, out)` points that specify the
8175           mapping from input high-bit-depth pixel value to the output
8176           low-bit-depth value.  Since the actual pixel ranges of both input
8177           and output may change depending on the camera pipeline, the values
8178           are specified by normalized floating-point numbers.
8179
8180           More-complex color mapping operations such as 3D color look-up
8181           tables, selective chroma enhancement, or other non-linear color
8182           transforms will be disabled when android.tonemap.mode is
8183           CONTRAST_CURVE.
8184
8185           When using either FAST or HIGH_QUALITY, the camera device will
8186           emit its own tonemap curve in android.tonemap.curve.
8187           These values are always available, and as close as possible to the
8188           actually used nonlinear/nonglobal transforms.
8189
8190           If a request is sent with CONTRAST_CURVE with the camera device's
8191           provided curve in FAST or HIGH_QUALITY, the image's tonemap will be
8192           roughly the same.</details>
8193         </entry>
8194       </controls>
8195       <static>
8196         <entry name="maxCurvePoints" type="int32" visibility="public"
8197                hwlevel="full">
8198           <description>Maximum number of supported points in the
8199             tonemap curve that can be used for android.tonemap.curve.
8200           </description>
8201           <details>
8202           If the actual number of points provided by the application (in android.tonemap.curve*) is
8203           less than this maximum, the camera device will resample the curve to its internal
8204           representation, using linear interpolation.
8205
8206           The output curves in the result metadata may have a different number
8207           of points than the input curves, and will represent the actual
8208           hardware curves used as closely as possible when linearly interpolated.
8209           </details>
8210           <hal_details>
8211           This value must be at least 64. This should be at least 128.
8212           </hal_details>
8213         </entry>
8214         <entry name="availableToneMapModes" type="byte" visibility="public"
8215         type_notes="list of enums" container="array" typedef="enumList" hwlevel="full">
8216           <array>
8217             <size>n</size>
8218           </array>
8219           <description>
8220           List of tonemapping modes for android.tonemap.mode that are supported by this camera
8221           device.
8222           </description>
8223           <range>Any value listed in android.tonemap.mode</range>
8224           <details>
8225           Camera devices that support the MANUAL_POST_PROCESSING capability will always contain
8226           at least one of below mode combinations:
8227
8228           * CONTRAST_CURVE, FAST and HIGH_QUALITY
8229           * GAMMA_VALUE, PRESET_CURVE, FAST and HIGH_QUALITY
8230
8231           This includes all FULL level devices.
8232           </details>
8233           <hal_details>
8234             HAL must support both FAST and HIGH_QUALITY if automatic tonemap control is available
8235             on the camera device, but the underlying implementation can be the same for both modes.
8236             That is, if the highest quality implementation on the camera device does not slow down
8237             capture rate, then FAST and HIGH_QUALITY will generate the same output.
8238           </hal_details>
8239         </entry>
8240       </static>
8241       <dynamic>
8242         <clone entry="android.tonemap.curveBlue" kind="controls">
8243         </clone>
8244         <clone entry="android.tonemap.curveGreen" kind="controls">
8245         </clone>
8246         <clone entry="android.tonemap.curveRed" kind="controls">
8247         </clone>
8248         <clone entry="android.tonemap.curve" kind="controls">
8249         </clone>
8250         <clone entry="android.tonemap.mode" kind="controls">
8251         </clone>
8252       </dynamic>
8253       <controls>
8254         <entry name="gamma" type="float" visibility="public">
8255           <description> Tonemapping curve to use when android.tonemap.mode is
8256           GAMMA_VALUE
8257           </description>
8258           <details>
8259           The tonemap curve will be defined the following formula:
8260           * OUT = pow(IN, 1.0 / gamma)
8261           where IN and OUT is the input pixel value scaled to range [0.0, 1.0],
8262           pow is the power function and gamma is the gamma value specified by this
8263           key.
8264
8265           The same curve will be applied to all color channels. The camera device
8266           may clip the input gamma value to its supported range. The actual applied
8267           value will be returned in capture result.
8268
8269           The valid range of gamma value varies on different devices, but values
8270           within [1.0, 5.0] are guaranteed not to be clipped.
8271           </details>
8272         </entry>
8273         <entry name="presetCurve" type="byte" visibility="public" enum="true">
8274           <enum>
8275             <value>SRGB
8276               <notes>Tonemapping curve is defined by sRGB</notes>
8277             </value>
8278             <value>REC709
8279               <notes>Tonemapping curve is defined by ITU-R BT.709</notes>
8280             </value>
8281           </enum>
8282           <description> Tonemapping curve to use when android.tonemap.mode is
8283           PRESET_CURVE
8284           </description>
8285           <details>
8286           The tonemap curve will be defined by specified standard.
8287
8288           sRGB (approximated by 16 control points):
8289
8290           ![sRGB tonemapping curve](android.tonemap.curveRed/srgb_tonemap.png)
8291
8292           Rec. 709 (approximated by 16 control points):
8293
8294           ![Rec. 709 tonemapping curve](android.tonemap.curveRed/rec709_tonemap.png)
8295
8296           Note that above figures show a 16 control points approximation of preset
8297           curves. Camera devices may apply a different approximation to the curve.
8298           </details>
8299         </entry>
8300       </controls>
8301       <dynamic>
8302         <clone entry="android.tonemap.gamma" kind="controls">
8303         </clone>
8304         <clone entry="android.tonemap.presetCurve" kind="controls">
8305         </clone>
8306       </dynamic>
8307     </section>
8308     <section name="led">
8309       <controls>
8310         <entry name="transmit" type="byte" visibility="hidden" optional="true"
8311                enum="true" typedef="boolean">
8312           <enum>
8313             <value>OFF</value>
8314             <value>ON</value>
8315           </enum>
8316           <description>This LED is nominally used to indicate to the user
8317           that the camera is powered on and may be streaming images back to the
8318           Application Processor. In certain rare circumstances, the OS may
8319           disable this when video is processed locally and not transmitted to
8320           any untrusted applications.
8321
8322           In particular, the LED *must* always be on when the data could be
8323           transmitted off the device. The LED *should* always be on whenever
8324           data is stored locally on the device.
8325
8326           The LED *may* be off if a trusted application is using the data that
8327           doesn't violate the above rules.
8328           </description>
8329         </entry>
8330       </controls>
8331       <dynamic>
8332         <clone entry="android.led.transmit" kind="controls"></clone>
8333       </dynamic>
8334       <static>
8335         <entry name="availableLeds" type="byte" visibility="hidden" optional="true"
8336                enum="true"
8337                container="array">
8338           <array>
8339             <size>n</size>
8340           </array>
8341           <enum>
8342             <value>TRANSMIT
8343               <notes>android.led.transmit control is used.</notes>
8344             </value>
8345           </enum>
8346           <description>A list of camera LEDs that are available on this system.
8347           </description>
8348         </entry>
8349       </static>
8350     </section>
8351     <section name="info">
8352       <static>
8353         <entry name="supportedHardwareLevel" type="byte" visibility="public"
8354                enum="true" hwlevel="legacy">
8355           <enum>
8356             <value>
8357               LIMITED
8358               <notes>
8359               This camera device does not have enough capabilities to qualify as a `FULL` device or
8360               better.
8361
8362               Only the stream configurations listed in the `LEGACY` and `LIMITED` tables in the
8363               {@link ACameraDevice_createCaptureSession} documentation are guaranteed to be supported.
8364
8365               All `LIMITED` devices support the `BACKWARDS_COMPATIBLE` capability, indicating basic
8366               support for color image capture. The only exception is that the device may
8367               alternatively support only the `DEPTH_OUTPUT` capability, if it can only output depth
8368               measurements and not color images.
8369
8370               `LIMITED` devices and above require the use of android.control.aePrecaptureTrigger
8371               to lock exposure metering (and calculate flash power, for cameras with flash) before
8372               capturing a high-quality still image.
8373
8374               A `LIMITED` device that only lists the `BACKWARDS_COMPATIBLE` capability is only
8375               required to support full-automatic operation and post-processing (`OFF` is not
8376               supported for android.control.aeMode, android.control.afMode, or
8377               android.control.awbMode)
8378
8379               Additional capabilities may optionally be supported by a `LIMITED`-level device, and
8380               can be checked for in android.request.availableCapabilities.
8381               </notes>
8382             </value>
8383             <value>
8384               FULL
8385               <notes>
8386               This camera device is capable of supporting advanced imaging applications.
8387
8388               The stream configurations listed in the `FULL`, `LEGACY` and `LIMITED` tables in the
8389               {@link ACameraDevice_createCaptureSession} documentation are guaranteed to be supported.
8390
8391               A `FULL` device will support below capabilities:
8392
8393               * `BURST_CAPTURE` capability (android.request.availableCapabilities contains
8394                 `BURST_CAPTURE`)
8395               * Per frame control (android.sync.maxLatency `==` PER_FRAME_CONTROL)
8396               * Manual sensor control (android.request.availableCapabilities contains `MANUAL_SENSOR`)
8397               * Manual post-processing control (android.request.availableCapabilities contains
8398                 `MANUAL_POST_PROCESSING`)
8399               * The required exposure time range defined in android.sensor.info.exposureTimeRange
8400               * The required maxFrameDuration defined in android.sensor.info.maxFrameDuration
8401
8402               Note:
8403               Pre-API level 23, FULL devices also supported arbitrary cropping region
8404               (android.scaler.croppingType `== FREEFORM`); this requirement was relaxed in API level
8405               23, and `FULL` devices may only support `CENTERED` cropping.
8406               </notes>
8407             </value>
8408             <value>
8409               LEGACY
8410               <notes>
8411               This camera device is running in backward compatibility mode.
8412
8413               Only the stream configurations listed in the `LEGACY` table in the {@link
8414               ACameraDevice_createCaptureSession} documentation are supported.
8415
8416               A `LEGACY` device does not support per-frame control, manual sensor control, manual
8417               post-processing, arbitrary cropping regions, and has relaxed performance constraints.
8418               No additional capabilities beyond `BACKWARD_COMPATIBLE` will ever be listed by a
8419               `LEGACY` device in android.request.availableCapabilities.
8420
8421               In addition, the android.control.aePrecaptureTrigger is not functional on `LEGACY`
8422               devices. Instead, every request that includes a JPEG-format output target is treated
8423               as triggering a still capture, internally executing a precapture trigger.  This may
8424               fire the flash for flash power metering during precapture, and then fire the flash
8425               for the final capture, if a flash is available on the device and the AE mode is set to
8426               enable the flash.
8427               </notes>
8428             </value>
8429             <value>
8430               3
8431               <notes>
8432               This camera device is capable of YUV reprocessing and RAW data capture, in addition to
8433               FULL-level capabilities.
8434
8435               The stream configurations listed in the `LEVEL_3`, `RAW`, `FULL`, `LEGACY` and
8436               `LIMITED` tables in the {@link
8437               ACameraDevice_createCaptureSession}
8438               documentation are guaranteed to be supported.
8439
8440               The following additional capabilities are guaranteed to be supported:
8441
8442               * `YUV_REPROCESSING` capability (android.request.availableCapabilities contains
8443                 `YUV_REPROCESSING`)
8444               * `RAW` capability (android.request.availableCapabilities contains
8445                 `RAW`)
8446               </notes>
8447             </value>
8448           </enum>
8449           <description>
8450           Generally classifies the overall set of the camera device functionality.
8451           </description>
8452           <details>
8453           The supported hardware level is a high-level description of the camera device's
8454           capabilities, summarizing several capabilities into one field.  Each level adds additional
8455           features to the previous one, and is always a strict superset of the previous level.
8456           The ordering is `LEGACY &lt; LIMITED &lt; FULL &lt; LEVEL_3`.
8457
8458           Starting from `LEVEL_3`, the level enumerations are guaranteed to be in increasing
8459           numerical value as well. To check if a given device is at least at a given hardware level,
8460           the following code snippet can be used:
8461
8462               // Returns true if the device supports the required hardware level, or better.
8463               boolean isHardwareLevelSupported(CameraCharacteristics c, int requiredLevel) {
8464                   int deviceLevel = c.get(CameraCharacteristics.INFO_SUPPORTED_HARDWARE_LEVEL);
8465                   if (deviceLevel == CameraCharacteristics.INFO_SUPPORTED_HARDWARE_LEVEL_LEGACY) {
8466                       return requiredLevel == deviceLevel;
8467                   }
8468                   // deviceLevel is not LEGACY, can use numerical sort
8469                   return requiredLevel &lt;= deviceLevel;
8470               }
8471
8472           At a high level, the levels are:
8473
8474           * `LEGACY` devices operate in a backwards-compatibility mode for older
8475             Android devices, and have very limited capabilities.
8476           * `LIMITED` devices represent the
8477             baseline feature set, and may also include additional capabilities that are
8478             subsets of `FULL`.
8479           * `FULL` devices additionally support per-frame manual control of sensor, flash, lens and
8480             post-processing settings, and image capture at a high rate.
8481           * `LEVEL_3` devices additionally support YUV reprocessing and RAW image capture, along
8482             with additional output stream configurations.
8483
8484           See the individual level enums for full descriptions of the supported capabilities.  The
8485           android.request.availableCapabilities entry describes the device's capabilities at a
8486           finer-grain level, if needed. In addition, many controls have their available settings or
8487           ranges defined in individual metadata tag entries in this document.
8488
8489           Some features are not part of any particular hardware level or capability and must be
8490           queried separately. These include:
8491
8492           * Calibrated timestamps (android.sensor.info.timestampSource `==` REALTIME)
8493           * Precision lens control (android.lens.info.focusDistanceCalibration `==` CALIBRATED)
8494           * Face detection (android.statistics.info.availableFaceDetectModes)
8495           * Optical or electrical image stabilization
8496             (android.lens.info.availableOpticalStabilization,
8497              android.control.availableVideoStabilizationModes)
8498
8499           </details>
8500           <hal_details>
8501           The camera 3 HAL device can implement one of three possible operational modes; LIMITED,
8502           FULL, and LEVEL_3.
8503
8504           FULL support or better is expected from new higher-end devices. Limited
8505           mode has hardware requirements roughly in line with those for a camera HAL device v1
8506           implementation, and is expected from older or inexpensive devices. Each level is a strict
8507           superset of the previous level, and they share the same essential operational flow.
8508
8509           For full details refer to "S3. Operational Modes" in camera3.h
8510
8511           Camera HAL3+ must not implement LEGACY mode. It is there for backwards compatibility in
8512           the `android.hardware.camera2` user-facing API only on HALv1 devices, and is implemented
8513           by the camera framework code.
8514           </hal_details>
8515         </entry>
8516       </static>
8517     </section>
8518     <section name="blackLevel">
8519       <controls>
8520         <entry name="lock" type="byte" visibility="public" enum="true"
8521                typedef="boolean" hwlevel="full">
8522           <enum>
8523             <value>OFF</value>
8524             <value>ON</value>
8525           </enum>
8526           <description> Whether black-level compensation is locked
8527           to its current values, or is free to vary.</description>
8528           <details>When set to `true` (ON), the values used for black-level
8529           compensation will not change until the lock is set to
8530           `false` (OFF).
8531
8532           Since changes to certain capture parameters (such as
8533           exposure time) may require resetting of black level
8534           compensation, the camera device must report whether setting
8535           the black level lock was successful in the output result
8536           metadata.
8537
8538           For example, if a sequence of requests is as follows:
8539
8540           * Request 1: Exposure = 10ms, Black level lock = OFF
8541           * Request 2: Exposure = 10ms, Black level lock = ON
8542           * Request 3: Exposure = 10ms, Black level lock = ON
8543           * Request 4: Exposure = 20ms, Black level lock = ON
8544           * Request 5: Exposure = 20ms, Black level lock = ON
8545           * Request 6: Exposure = 20ms, Black level lock = ON
8546
8547           And the exposure change in Request 4 requires the camera
8548           device to reset the black level offsets, then the output
8549           result metadata is expected to be:
8550
8551           * Result 1: Exposure = 10ms, Black level lock = OFF
8552           * Result 2: Exposure = 10ms, Black level lock = ON
8553           * Result 3: Exposure = 10ms, Black level lock = ON
8554           * Result 4: Exposure = 20ms, Black level lock = OFF
8555           * Result 5: Exposure = 20ms, Black level lock = ON
8556           * Result 6: Exposure = 20ms, Black level lock = ON
8557
8558           This indicates to the application that on frame 4, black
8559           levels were reset due to exposure value changes, and pixel
8560           values may not be consistent across captures.
8561
8562           The camera device will maintain the lock to the extent
8563           possible, only overriding the lock to OFF when changes to
8564           other request parameters require a black level recalculation
8565           or reset.
8566           </details>
8567           <hal_details>
8568           If for some reason black level locking is no longer possible
8569           (for example, the analog gain has changed, which forces
8570           black level offsets to be recalculated), then the HAL must
8571           override this request (and it must report 'OFF' when this
8572           does happen) until the next capture for which locking is
8573           possible again.</hal_details>
8574           <tag id="HAL2" />
8575         </entry>
8576       </controls>
8577       <dynamic>
8578         <clone entry="android.blackLevel.lock"
8579           kind="controls">
8580           <details>
8581             Whether the black level offset was locked for this frame.  Should be
8582             ON if android.blackLevel.lock was ON in the capture request, unless
8583             a change in other capture settings forced the camera device to
8584             perform a black level reset.
8585           </details>
8586         </clone>
8587       </dynamic>
8588     </section>
8589     <section name="sync">
8590       <dynamic>
8591         <entry name="frameNumber" type="int64" visibility="ndk_public"
8592                enum="true" hwlevel="legacy">
8593           <enum>
8594             <value id="-1">CONVERGING
8595               <notes>
8596               The current result is not yet fully synchronized to any request.
8597
8598               Synchronization is in progress, and reading metadata from this
8599               result may include a mix of data that have taken effect since the
8600               last synchronization time.
8601
8602               In some future result, within android.sync.maxLatency frames,
8603               this value will update to the actual frame number frame number
8604               the result is guaranteed to be synchronized to (as long as the
8605               request settings remain constant).
8606             </notes>
8607             </value>
8608             <value id="-2">UNKNOWN
8609               <notes>
8610               The current result's synchronization status is unknown.
8611
8612               The result may have already converged, or it may be in
8613               progress.  Reading from this result may include some mix
8614               of settings from past requests.
8615
8616               After a settings change, the new settings will eventually all
8617               take effect for the output buffers and results. However, this
8618               value will not change when that happens. Altering settings
8619               rapidly may provide outcomes using mixes of settings from recent
8620               requests.
8621
8622               This value is intended primarily for backwards compatibility with
8623               the older camera implementations (for android.hardware.Camera).
8624             </notes>
8625             </value>
8626           </enum>
8627           <description>The frame number corresponding to the last request
8628           with which the output result (metadata + buffers) has been fully
8629           synchronized.</description>
8630           <range>Either a non-negative value corresponding to a
8631           `frame_number`, or one of the two enums (CONVERGING / UNKNOWN).
8632           </range>
8633           <details>
8634           When a request is submitted to the camera device, there is usually a
8635           delay of several frames before the controls get applied. A camera
8636           device may either choose to account for this delay by implementing a
8637           pipeline and carefully submit well-timed atomic control updates, or
8638           it may start streaming control changes that span over several frame
8639           boundaries.
8640
8641           In the latter case, whenever a request's settings change relative to
8642           the previous submitted request, the full set of changes may take
8643           multiple frame durations to fully take effect. Some settings may
8644           take effect sooner (in less frame durations) than others.
8645
8646           While a set of control changes are being propagated, this value
8647           will be CONVERGING.
8648
8649           Once it is fully known that a set of control changes have been
8650           finished propagating, and the resulting updated control settings
8651           have been read back by the camera device, this value will be set
8652           to a non-negative frame number (corresponding to the request to
8653           which the results have synchronized to).
8654
8655           Older camera device implementations may not have a way to detect
8656           when all camera controls have been applied, and will always set this
8657           value to UNKNOWN.
8658
8659           FULL capability devices will always have this value set to the
8660           frame number of the request corresponding to this result.
8661
8662           _Further details_:
8663
8664           * Whenever a request differs from the last request, any future
8665           results not yet returned may have this value set to CONVERGING (this
8666           could include any in-progress captures not yet returned by the camera
8667           device, for more details see pipeline considerations below).
8668           * Submitting a series of multiple requests that differ from the
8669           previous request (e.g. r1, r2, r3 s.t. r1 != r2 != r3)
8670           moves the new synchronization frame to the last non-repeating
8671           request (using the smallest frame number from the contiguous list of
8672           repeating requests).
8673           * Submitting the same request repeatedly will not change this value
8674           to CONVERGING, if it was already a non-negative value.
8675           * When this value changes to non-negative, that means that all of the
8676           metadata controls from the request have been applied, all of the
8677           metadata controls from the camera device have been read to the
8678           updated values (into the result), and all of the graphics buffers
8679           corresponding to this result are also synchronized to the request.
8680
8681           _Pipeline considerations_:
8682
8683           Submitting a request with updated controls relative to the previously
8684           submitted requests may also invalidate the synchronization state
8685           of all the results corresponding to currently in-flight requests.
8686
8687           In other words, results for this current request and up to
8688           android.request.pipelineMaxDepth prior requests may have their
8689           android.sync.frameNumber change to CONVERGING.
8690           </details>
8691           <hal_details>
8692           Using UNKNOWN here is illegal unless android.sync.maxLatency
8693           is also UNKNOWN.
8694
8695           FULL capability devices should simply set this value to the
8696           `frame_number` of the request this result corresponds to.
8697           </hal_details>
8698           <tag id="V1" />
8699         </entry>
8700       </dynamic>
8701       <static>
8702         <entry name="maxLatency" type="int32" visibility="public" enum="true"
8703                hwlevel="legacy">
8704           <enum>
8705             <value id="0">PER_FRAME_CONTROL
8706               <notes>
8707               Every frame has the requests immediately applied.
8708
8709               Changing controls over multiple requests one after another will
8710               produce results that have those controls applied atomically
8711               each frame.
8712
8713               All FULL capability devices will have this as their maxLatency.
8714               </notes>
8715             </value>
8716             <value id="-1">UNKNOWN
8717               <notes>
8718               Each new frame has some subset (potentially the entire set)
8719               of the past requests applied to the camera settings.
8720
8721               By submitting a series of identical requests, the camera device
8722               will eventually have the camera settings applied, but it is
8723               unknown when that exact point will be.
8724
8725               All LEGACY capability devices will have this as their maxLatency.
8726               </notes>
8727             </value>
8728           </enum>
8729           <description>
8730           The maximum number of frames that can occur after a request
8731           (different than the previous) has been submitted, and before the
8732           result's state becomes synchronized.
8733           </description>
8734           <units>Frame counts</units>
8735           <range>A positive value, PER_FRAME_CONTROL, or UNKNOWN.</range>
8736           <details>
8737           This defines the maximum distance (in number of metadata results),
8738           between the frame number of the request that has new controls to apply
8739           and the frame number of the result that has all the controls applied.
8740
8741           In other words this acts as an upper boundary for how many frames
8742           must occur before the camera device knows for a fact that the new
8743           submitted camera settings have been applied in outgoing frames.
8744           </details>
8745           <hal_details>
8746           For example if maxLatency was 2,
8747
8748               initial request = X (repeating)
8749               request1 = X
8750               request2 = Y
8751               request3 = Y
8752               request4 = Y
8753
8754               where requestN has frameNumber N, and the first of the repeating
8755               initial request's has frameNumber F (and F &lt; 1).
8756
8757               initial result = X' + { android.sync.frameNumber == F }
8758               result1 = X' + { android.sync.frameNumber == F }
8759               result2 = X' + { android.sync.frameNumber == CONVERGING }
8760               result3 = X' + { android.sync.frameNumber == CONVERGING }
8761               result4 = X' + { android.sync.frameNumber == 2 }
8762
8763               where resultN has frameNumber N.
8764
8765           Since `result4` has a `frameNumber == 4` and
8766           `android.sync.frameNumber == 2`, the distance is clearly
8767           `4 - 2 = 2`.
8768
8769           Use `frame_count` from camera3_request_t instead of
8770           android.request.frameCount or
8771           `{@link android.hardware.camera2.CaptureResult#getFrameNumber}`.
8772
8773           LIMITED devices are strongly encouraged to use a non-negative
8774           value. If UNKNOWN is used here then app developers do not have a way
8775           to know when sensor settings have been applied.
8776           </hal_details>
8777           <tag id="V1" />
8778         </entry>
8779       </static>
8780     </section>
8781     <section name="reprocess">
8782       <controls>
8783         <entry name="effectiveExposureFactor" type="float" visibility="java_public" hwlevel="limited">
8784             <description>
8785             The amount of exposure time increase factor applied to the original output
8786             frame by the application processing before sending for reprocessing.
8787             </description>
8788             <units>Relative exposure time increase factor.</units>
8789             <range> &amp;gt;= 1.0</range>
8790             <details>
8791             This is optional, and will be supported if the camera device supports YUV_REPROCESSING
8792             capability (android.request.availableCapabilities contains YUV_REPROCESSING).
8793
8794             For some YUV reprocessing use cases, the application may choose to filter the original
8795             output frames to effectively reduce the noise to the same level as a frame that was
8796             captured with longer exposure time. To be more specific, assuming the original captured
8797             images were captured with a sensitivity of S and an exposure time of T, the model in
8798             the camera device is that the amount of noise in the image would be approximately what
8799             would be expected if the original capture parameters had been a sensitivity of
8800             S/effectiveExposureFactor and an exposure time of T*effectiveExposureFactor, rather
8801             than S and T respectively. If the captured images were processed by the application
8802             before being sent for reprocessing, then the application may have used image processing
8803             algorithms and/or multi-frame image fusion to reduce the noise in the
8804             application-processed images (input images). By using the effectiveExposureFactor
8805             control, the application can communicate to the camera device the actual noise level
8806             improvement in the application-processed image. With this information, the camera
8807             device can select appropriate noise reduction and edge enhancement parameters to avoid
8808             excessive noise reduction (android.noiseReduction.mode) and insufficient edge
8809             enhancement (android.edge.mode) being applied to the reprocessed frames.
8810
8811             For example, for multi-frame image fusion use case, the application may fuse
8812             multiple output frames together to a final frame for reprocessing. When N image are
8813             fused into 1 image for reprocessing, the exposure time increase factor could be up to
8814             square root of N (based on a simple photon shot noise model). The camera device will
8815             adjust the reprocessing noise reduction and edge enhancement parameters accordingly to
8816             produce the best quality images.
8817
8818             This is relative factor, 1.0 indicates the application hasn't processed the input
8819             buffer in a way that affects its effective exposure time.
8820
8821             This control is only effective for YUV reprocessing capture request. For noise
8822             reduction reprocessing, it is only effective when `android.noiseReduction.mode != OFF`.
8823             Similarly, for edge enhancement reprocessing, it is only effective when
8824             `android.edge.mode != OFF`.
8825             </details>
8826           <tag id="REPROC" />
8827         </entry>
8828       </controls>
8829       <dynamic>
8830       <clone entry="android.reprocess.effectiveExposureFactor" kind="controls">
8831       </clone>
8832       </dynamic>
8833       <static>
8834         <entry name="maxCaptureStall" type="int32" visibility="java_public" hwlevel="limited">
8835           <description>
8836           The maximal camera capture pipeline stall (in unit of frame count) introduced by a
8837           reprocess capture request.
8838           </description>
8839           <units>Number of frames.</units>
8840           <range> &amp;lt;= 4</range>
8841           <details>
8842           The key describes the maximal interference that one reprocess (input) request
8843           can introduce to the camera simultaneous streaming of regular (output) capture
8844           requests, including repeating requests.
8845
8846           When a reprocessing capture request is submitted while a camera output repeating request
8847           (e.g. preview) is being served by the camera device, it may preempt the camera capture
8848           pipeline for at least one frame duration so that the camera device is unable to process
8849           the following capture request in time for the next sensor start of exposure boundary.
8850           When this happens, the application may observe a capture time gap (longer than one frame
8851           duration) between adjacent capture output frames, which usually exhibits as preview
8852           glitch if the repeating request output targets include a preview surface. This key gives
8853           the worst-case number of frame stall introduced by one reprocess request with any kind of
8854           formats/sizes combination.
8855
8856           If this key reports 0, it means a reprocess request doesn't introduce any glitch to the
8857           ongoing camera repeating request outputs, as if this reprocess request is never issued.
8858
8859           This key is supported if the camera device supports PRIVATE or YUV reprocessing (
8860           i.e. android.request.availableCapabilities contains PRIVATE_REPROCESSING or
8861           YUV_REPROCESSING).
8862           </details>
8863           <tag id="REPROC" />
8864         </entry>
8865       </static>
8866     </section>
8867     <section name="depth">
8868       <static>
8869         <entry name="maxDepthSamples" type="int32" visibility="system" hwlevel="limited">
8870           <description>Maximum number of points that a depth point cloud may contain.
8871           </description>
8872           <details>
8873             If a camera device supports outputting depth range data in the form of a depth point
8874             cloud ({@link android.graphics.ImageFormat#DEPTH_POINT_CLOUD}), this is the maximum
8875             number of points an output buffer may contain.
8876
8877             Any given buffer may contain between 0 and maxDepthSamples points, inclusive.
8878             If output in the depth point cloud format is not supported, this entry will
8879             not be defined.
8880           </details>
8881           <tag id="DEPTH" />
8882         </entry>
8883         <entry name="availableDepthStreamConfigurations" type="int32" visibility="ndk_public"
8884                enum="true" container="array" typedef="streamConfiguration" hwlevel="limited">
8885           <array>
8886             <size>n</size>
8887             <size>4</size>
8888           </array>
8889           <enum>
8890             <value>OUTPUT</value>
8891             <value>INPUT</value>
8892           </enum>
8893           <description>The available depth dataspace stream
8894           configurations that this camera device supports
8895           (i.e. format, width, height, output/input stream).
8896           </description>
8897           <details>
8898             These are output stream configurations for use with
8899             dataSpace HAL_DATASPACE_DEPTH. The configurations are
8900             listed as `(format, width, height, input?)` tuples.
8901
8902             Only devices that support depth output for at least
8903             the HAL_PIXEL_FORMAT_Y16 dense depth map may include
8904             this entry.
8905
8906             A device that also supports the HAL_PIXEL_FORMAT_BLOB
8907             sparse depth point cloud must report a single entry for
8908             the format in this list as `(HAL_PIXEL_FORMAT_BLOB,
8909             android.depth.maxDepthSamples, 1, OUTPUT)` in addition to
8910             the entries for HAL_PIXEL_FORMAT_Y16.
8911           </details>
8912           <tag id="DEPTH" />
8913         </entry>
8914         <entry name="availableDepthMinFrameDurations" type="int64" visibility="ndk_public"
8915                container="array" typedef="streamConfigurationDuration" hwlevel="limited">
8916           <array>
8917             <size>4</size>
8918             <size>n</size>
8919           </array>
8920           <description>This lists the minimum frame duration for each
8921           format/size combination for depth output formats.
8922           </description>
8923           <units>(format, width, height, ns) x n</units>
8924           <details>
8925           This should correspond to the frame duration when only that
8926           stream is active, with all processing (typically in android.*.mode)
8927           set to either OFF or FAST.
8928
8929           When multiple streams are used in a request, the minimum frame
8930           duration will be max(individual stream min durations).
8931
8932           The minimum frame duration of a stream (of a particular format, size)
8933           is the same regardless of whether the stream is input or output.
8934
8935           See android.sensor.frameDuration and
8936           android.scaler.availableStallDurations for more details about
8937           calculating the max frame rate.
8938           </details>
8939           <tag id="DEPTH" />
8940         </entry>
8941         <entry name="availableDepthStallDurations" type="int64" visibility="ndk_public"
8942                container="array" typedef="streamConfigurationDuration" hwlevel="limited">
8943           <array>
8944             <size>4</size>
8945             <size>n</size>
8946           </array>
8947           <description>This lists the maximum stall duration for each
8948           output format/size combination for depth streams.
8949           </description>
8950           <units>(format, width, height, ns) x n</units>
8951           <details>
8952           A stall duration is how much extra time would get added
8953           to the normal minimum frame duration for a repeating request
8954           that has streams with non-zero stall.
8955
8956           This functions similarly to
8957           android.scaler.availableStallDurations for depth
8958           streams.
8959
8960           All depth output stream formats may have a nonzero stall
8961           duration.
8962           </details>
8963           <tag id="DEPTH" />
8964         </entry>
8965         <entry name="depthIsExclusive" type="byte" visibility="public"
8966                enum="true" typedef="boolean" hwlevel="limited">
8967           <enum>
8968             <value>FALSE</value>
8969             <value>TRUE</value>
8970           </enum>
8971           <description>Indicates whether a capture request may target both a
8972           DEPTH16 / DEPTH_POINT_CLOUD output, and normal color outputs (such as
8973           YUV_420_888, JPEG, or RAW) simultaneously.
8974           </description>
8975           <details>
8976           If TRUE, including both depth and color outputs in a single
8977           capture request is not supported. An application must interleave color
8978           and depth requests.  If FALSE, a single request can target both types
8979           of output.
8980
8981           Typically, this restriction exists on camera devices that
8982           need to emit a specific pattern or wavelength of light to
8983           measure depth values, which causes the color image to be
8984           corrupted during depth measurement.
8985           </details>
8986         </entry>
8987       </static>
8988     </section>
8989   </namespace>
8990 </metadata>