OSDN Git Service

Distinguish COMPOSER_TARGET_BUFFER
[android-x86/external-minigbm.git] / helpers.c
1 /*
2  * Copyright 2014 The Chromium OS Authors. All rights reserved.
3  * Use of this source code is governed by a BSD-style license that can be
4  * found in the LICENSE file.
5  */
6
7 #include <assert.h>
8 #include <errno.h>
9 #include <stdio.h>
10 #include <stdlib.h>
11 #include <string.h>
12 #include <sys/mman.h>
13 #include <sys/types.h>
14 #include <unistd.h>
15 #include <xf86drm.h>
16
17 #include "drv_priv.h"
18 #include "helpers.h"
19 #include "util.h"
20
21 struct planar_layout {
22         size_t num_planes;
23         int horizontal_subsampling[DRV_MAX_PLANES];
24         int vertical_subsampling[DRV_MAX_PLANES];
25         int bytes_per_pixel[DRV_MAX_PLANES];
26 };
27
28 // clang-format off
29
30 static const struct planar_layout packed_1bpp_layout = {
31         .num_planes = 1,
32         .horizontal_subsampling = { 1 },
33         .vertical_subsampling = { 1 },
34         .bytes_per_pixel = { 1 }
35 };
36
37 static const struct planar_layout packed_2bpp_layout = {
38         .num_planes = 1,
39         .horizontal_subsampling = { 1 },
40         .vertical_subsampling = { 1 },
41         .bytes_per_pixel = { 2 }
42 };
43
44 static const struct planar_layout packed_3bpp_layout = {
45         .num_planes = 1,
46         .horizontal_subsampling = { 1 },
47         .vertical_subsampling = { 1 },
48         .bytes_per_pixel = { 3 }
49 };
50
51 static const struct planar_layout packed_4bpp_layout = {
52         .num_planes = 1,
53         .horizontal_subsampling = { 1 },
54         .vertical_subsampling = { 1 },
55         .bytes_per_pixel = { 4 }
56 };
57
58 static const struct planar_layout packed_8bpp_layout = {
59         .num_planes = 1,
60         .horizontal_subsampling = { 1 },
61         .vertical_subsampling = { 1 },
62         .bytes_per_pixel = { 8 }
63 };
64
65 static const struct planar_layout biplanar_yuv_420_layout = {
66         .num_planes = 2,
67         .horizontal_subsampling = { 1, 2 },
68         .vertical_subsampling = { 1, 2 },
69         .bytes_per_pixel = { 1, 2 }
70 };
71
72 static const struct planar_layout triplanar_yuv_420_layout = {
73         .num_planes = 3,
74         .horizontal_subsampling = { 1, 2, 2 },
75         .vertical_subsampling = { 1, 2, 2 },
76         .bytes_per_pixel = { 1, 1, 1 }
77 };
78
79 static const struct planar_layout biplanar_yuv_p010_layout = {
80         .num_planes = 2,
81         .horizontal_subsampling = { 1, 2 },
82         .vertical_subsampling = { 1, 2 },
83         .bytes_per_pixel = { 2, 4 }
84 };
85
86 // clang-format on
87
88 static const struct planar_layout *layout_from_format(uint32_t format)
89 {
90         switch (format) {
91         case DRM_FORMAT_BGR233:
92         case DRM_FORMAT_C8:
93         case DRM_FORMAT_R8:
94         case DRM_FORMAT_RGB332:
95                 return &packed_1bpp_layout;
96
97         case DRM_FORMAT_R16:
98                 return &packed_2bpp_layout;
99
100         case DRM_FORMAT_YVU420:
101         case DRM_FORMAT_YVU420_ANDROID:
102                 return &triplanar_yuv_420_layout;
103
104         case DRM_FORMAT_NV12:
105         case DRM_FORMAT_NV21:
106                 return &biplanar_yuv_420_layout;
107
108         case DRM_FORMAT_P010:
109                 return &biplanar_yuv_p010_layout;
110
111         case DRM_FORMAT_ABGR1555:
112         case DRM_FORMAT_ABGR4444:
113         case DRM_FORMAT_ARGB1555:
114         case DRM_FORMAT_ARGB4444:
115         case DRM_FORMAT_BGR565:
116         case DRM_FORMAT_BGRA4444:
117         case DRM_FORMAT_BGRA5551:
118         case DRM_FORMAT_BGRX4444:
119         case DRM_FORMAT_BGRX5551:
120         case DRM_FORMAT_GR88:
121         case DRM_FORMAT_RG88:
122         case DRM_FORMAT_RGB565:
123         case DRM_FORMAT_RGBA4444:
124         case DRM_FORMAT_RGBA5551:
125         case DRM_FORMAT_RGBX4444:
126         case DRM_FORMAT_RGBX5551:
127         case DRM_FORMAT_UYVY:
128         case DRM_FORMAT_VYUY:
129         case DRM_FORMAT_XBGR1555:
130         case DRM_FORMAT_XBGR4444:
131         case DRM_FORMAT_XRGB1555:
132         case DRM_FORMAT_XRGB4444:
133         case DRM_FORMAT_YUYV:
134         case DRM_FORMAT_YVYU:
135         case DRM_FORMAT_MTISP_SXYZW10:
136                 return &packed_2bpp_layout;
137
138         case DRM_FORMAT_BGR888:
139         case DRM_FORMAT_RGB888:
140                 return &packed_3bpp_layout;
141
142         case DRM_FORMAT_ABGR2101010:
143         case DRM_FORMAT_ABGR8888:
144         case DRM_FORMAT_ARGB2101010:
145         case DRM_FORMAT_ARGB8888:
146         case DRM_FORMAT_AYUV:
147         case DRM_FORMAT_BGRA1010102:
148         case DRM_FORMAT_BGRA8888:
149         case DRM_FORMAT_BGRX1010102:
150         case DRM_FORMAT_BGRX8888:
151         case DRM_FORMAT_RGBA1010102:
152         case DRM_FORMAT_RGBA8888:
153         case DRM_FORMAT_RGBX1010102:
154         case DRM_FORMAT_RGBX8888:
155         case DRM_FORMAT_XBGR2101010:
156         case DRM_FORMAT_XBGR8888:
157         case DRM_FORMAT_XRGB2101010:
158         case DRM_FORMAT_XRGB8888:
159                 return &packed_4bpp_layout;
160
161         case DRM_FORMAT_ABGR16161616F:
162                 return &packed_8bpp_layout;
163
164         default:
165                 drv_log("UNKNOWN FORMAT %d\n", format);
166                 return NULL;
167         }
168 }
169
170 size_t drv_num_planes_from_format(uint32_t format)
171 {
172         const struct planar_layout *layout = layout_from_format(format);
173
174         /*
175          * drv_bo_new calls this function early to query number of planes and
176          * considers 0 planes to mean unknown format, so we have to support
177          * that.  All other layout_from_format() queries can assume that the
178          * format is supported and that the return value is non-NULL.
179          */
180
181         return layout ? layout->num_planes : 0;
182 }
183
184 size_t drv_num_planes_from_modifier(struct driver *drv, uint32_t format, uint64_t modifier)
185 {
186         size_t planes = drv_num_planes_from_format(format);
187
188         /* Disallow unsupported formats. */
189         if (!planes)
190                 return 0;
191
192         if (drv->backend->num_planes_from_modifier && modifier != DRM_FORMAT_MOD_INVALID &&
193             modifier != DRM_FORMAT_MOD_LINEAR)
194                 return drv->backend->num_planes_from_modifier(drv, format, modifier);
195
196         return planes;
197 }
198
199 uint32_t drv_height_from_format(uint32_t format, uint32_t height, size_t plane)
200 {
201         const struct planar_layout *layout = layout_from_format(format);
202
203         assert(plane < layout->num_planes);
204
205         return DIV_ROUND_UP(height, layout->vertical_subsampling[plane]);
206 }
207
208 uint32_t drv_vertical_subsampling_from_format(uint32_t format, size_t plane)
209 {
210         const struct planar_layout *layout = layout_from_format(format);
211
212         assert(plane < layout->num_planes);
213
214         return layout->vertical_subsampling[plane];
215 }
216
217 uint32_t drv_bytes_per_pixel_from_format(uint32_t format, size_t plane)
218 {
219         const struct planar_layout *layout = layout_from_format(format);
220
221         assert(plane < layout->num_planes);
222
223         return layout->bytes_per_pixel[plane];
224 }
225
226 /*
227  * This function returns the stride for a given format, width and plane.
228  */
229 uint32_t drv_stride_from_format(uint32_t format, uint32_t width, size_t plane)
230 {
231         const struct planar_layout *layout = layout_from_format(format);
232         assert(plane < layout->num_planes);
233
234         uint32_t plane_width = DIV_ROUND_UP(width, layout->horizontal_subsampling[plane]);
235         uint32_t stride = plane_width * layout->bytes_per_pixel[plane];
236
237         /*
238          * The stride of Android YV12 buffers is required to be aligned to 16 bytes
239          * (see <system/graphics.h>).
240          */
241         if (format == DRM_FORMAT_YVU420_ANDROID)
242                 stride = (plane == 0) ? ALIGN(stride, 32) : ALIGN(stride, 16);
243
244         return stride;
245 }
246
247 uint32_t drv_size_from_format(uint32_t format, uint32_t stride, uint32_t height, size_t plane)
248 {
249         return stride * drv_height_from_format(format, height, plane);
250 }
251
252 static uint32_t subsample_stride(uint32_t stride, uint32_t format, size_t plane)
253 {
254         if (plane != 0) {
255                 switch (format) {
256                 case DRM_FORMAT_YVU420:
257                 case DRM_FORMAT_YVU420_ANDROID:
258                         stride = DIV_ROUND_UP(stride, 2);
259                         break;
260                 }
261         }
262
263         return stride;
264 }
265
266 /*
267  * This function fills in the buffer object given the driver aligned stride of
268  * the first plane, height and a format. This function assumes there is just
269  * one kernel buffer per buffer object.
270  */
271 int drv_bo_from_format(struct bo *bo, uint32_t stride, uint32_t aligned_height, uint32_t format)
272 {
273         uint32_t padding[DRV_MAX_PLANES] = { 0 };
274         return drv_bo_from_format_and_padding(bo, stride, aligned_height, format, padding);
275 }
276
277 int drv_bo_from_format_and_padding(struct bo *bo, uint32_t stride, uint32_t aligned_height,
278                                    uint32_t format, uint32_t padding[DRV_MAX_PLANES])
279 {
280         size_t p, num_planes;
281         uint32_t offset = 0;
282
283         num_planes = drv_num_planes_from_format(format);
284         assert(num_planes);
285
286         /*
287          * HAL_PIXEL_FORMAT_YV12 requires that (see <system/graphics.h>):
288          *  - the aligned height is same as the buffer's height.
289          *  - the chroma stride is 16 bytes aligned, i.e., the luma's strides
290          *    is 32 bytes aligned.
291          */
292         if (format == DRM_FORMAT_YVU420_ANDROID) {
293                 assert(aligned_height == bo->meta.height);
294                 assert(stride == ALIGN(stride, 32));
295         }
296
297         for (p = 0; p < num_planes; p++) {
298                 bo->meta.strides[p] = subsample_stride(stride, format, p);
299                 bo->meta.sizes[p] =
300                     drv_size_from_format(format, bo->meta.strides[p], aligned_height, p) +
301                     padding[p];
302                 bo->meta.offsets[p] = offset;
303                 offset += bo->meta.sizes[p];
304         }
305
306         bo->meta.total_size = offset;
307         return 0;
308 }
309
310 int drv_dumb_bo_create_ex(struct bo *bo, uint32_t width, uint32_t height, uint32_t format,
311                           uint64_t use_flags, uint64_t quirks)
312 {
313         int ret;
314         size_t plane;
315         uint32_t aligned_width, aligned_height;
316         struct drm_mode_create_dumb create_dumb = { 0 };
317
318         aligned_width = width;
319         aligned_height = height;
320         switch (format) {
321         case DRM_FORMAT_R16:
322                 /* HAL_PIXEL_FORMAT_Y16 requires that the buffer's width be 16 pixel
323                  * aligned. See hardware/interfaces/graphics/common/1.0/types.hal. */
324                 aligned_width = ALIGN(width, 16);
325                 break;
326         case DRM_FORMAT_YVU420_ANDROID:
327                 /* HAL_PIXEL_FORMAT_YV12 requires that the buffer's height not
328                  * be aligned. Update 'height' so that drv_bo_from_format below
329                  * uses the non-aligned height. */
330                 height = bo->meta.height;
331
332                 /* Align width to 32 pixels, so chroma strides are 16 bytes as
333                  * Android requires. */
334                 aligned_width = ALIGN(width, 32);
335
336                 /* Adjust the height to include room for chroma planes. */
337                 aligned_height = 3 * DIV_ROUND_UP(height, 2);
338                 break;
339         case DRM_FORMAT_YVU420:
340         case DRM_FORMAT_NV12:
341         case DRM_FORMAT_NV21:
342                 /* Adjust the height to include room for chroma planes */
343                 aligned_height = 3 * DIV_ROUND_UP(height, 2);
344                 break;
345         default:
346                 break;
347         }
348
349         if (quirks & BO_QUIRK_DUMB32BPP) {
350                 aligned_width =
351                     DIV_ROUND_UP(aligned_width * layout_from_format(format)->bytes_per_pixel[0], 4);
352                 create_dumb.bpp = 32;
353         } else {
354                 create_dumb.bpp = layout_from_format(format)->bytes_per_pixel[0] * 8;
355         }
356         create_dumb.width = aligned_width;
357         create_dumb.height = aligned_height;
358         create_dumb.flags = 0;
359
360         ret = drmIoctl(bo->drv->fd, DRM_IOCTL_MODE_CREATE_DUMB, &create_dumb);
361         if (ret) {
362                 drv_log("DRM_IOCTL_MODE_CREATE_DUMB failed (%d, %d)\n", bo->drv->fd, errno);
363                 return -errno;
364         }
365
366         drv_bo_from_format(bo, create_dumb.pitch, height, format);
367
368         for (plane = 0; plane < bo->meta.num_planes; plane++)
369                 bo->handles[plane].u32 = create_dumb.handle;
370
371         bo->meta.total_size = create_dumb.size;
372         return 0;
373 }
374
375 int drv_dumb_bo_create(struct bo *bo, uint32_t width, uint32_t height, uint32_t format,
376                        uint64_t use_flags)
377 {
378         return drv_dumb_bo_create_ex(bo, width, height, format, use_flags, BO_QUIRK_NONE);
379 }
380
381 int drv_dumb_bo_destroy(struct bo *bo)
382 {
383         int ret;
384         struct drm_mode_destroy_dumb destroy_dumb = { 0 };
385
386         destroy_dumb.handle = bo->handles[0].u32;
387         ret = drmIoctl(bo->drv->fd, DRM_IOCTL_MODE_DESTROY_DUMB, &destroy_dumb);
388         if (ret) {
389                 drv_log("DRM_IOCTL_MODE_DESTROY_DUMB failed (handle=%x)\n", bo->handles[0].u32);
390                 return -errno;
391         }
392
393         return 0;
394 }
395
396 int drv_gem_bo_destroy(struct bo *bo)
397 {
398         struct drm_gem_close gem_close;
399         int ret, error = 0;
400         size_t plane, i;
401
402         for (plane = 0; plane < bo->meta.num_planes; plane++) {
403                 for (i = 0; i < plane; i++)
404                         if (bo->handles[i].u32 == bo->handles[plane].u32)
405                                 break;
406                 /* Make sure close hasn't already been called on this handle */
407                 if (i != plane)
408                         continue;
409
410                 memset(&gem_close, 0, sizeof(gem_close));
411                 gem_close.handle = bo->handles[plane].u32;
412
413                 ret = drmIoctl(bo->drv->fd, DRM_IOCTL_GEM_CLOSE, &gem_close);
414                 if (ret) {
415                         drv_log("DRM_IOCTL_GEM_CLOSE failed (handle=%x) error %d\n",
416                                 bo->handles[plane].u32, ret);
417                         error = -errno;
418                 }
419         }
420
421         return error;
422 }
423
424 int drv_prime_bo_import(struct bo *bo, struct drv_import_fd_data *data)
425 {
426         int ret;
427         size_t plane;
428         struct drm_prime_handle prime_handle;
429
430         for (plane = 0; plane < bo->meta.num_planes; plane++) {
431                 memset(&prime_handle, 0, sizeof(prime_handle));
432                 prime_handle.fd = data->fds[plane];
433
434                 ret = drmIoctl(bo->drv->fd, DRM_IOCTL_PRIME_FD_TO_HANDLE, &prime_handle);
435
436                 if (ret) {
437                         drv_log("DRM_IOCTL_PRIME_FD_TO_HANDLE failed (fd=%u)\n", prime_handle.fd);
438
439                         /*
440                          * Need to call GEM close on planes that were opened,
441                          * if any. Adjust the num_planes variable to be the
442                          * plane that failed, so GEM close will be called on
443                          * planes before that plane.
444                          */
445                         bo->meta.num_planes = plane;
446                         drv_gem_bo_destroy(bo);
447                         return -errno;
448                 }
449
450                 bo->handles[plane].u32 = prime_handle.handle;
451         }
452         bo->meta.tiling = data->tiling;
453
454         return 0;
455 }
456
457 void *drv_dumb_bo_map(struct bo *bo, struct vma *vma, size_t plane, uint32_t map_flags)
458 {
459         int ret;
460         size_t i;
461         struct drm_mode_map_dumb map_dumb;
462
463         memset(&map_dumb, 0, sizeof(map_dumb));
464         map_dumb.handle = bo->handles[plane].u32;
465
466         ret = drmIoctl(bo->drv->fd, DRM_IOCTL_MODE_MAP_DUMB, &map_dumb);
467         if (ret) {
468                 drv_log("DRM_IOCTL_MODE_MAP_DUMB failed\n");
469                 return MAP_FAILED;
470         }
471
472         for (i = 0; i < bo->meta.num_planes; i++)
473                 if (bo->handles[i].u32 == bo->handles[plane].u32)
474                         vma->length += bo->meta.sizes[i];
475
476         return mmap(0, vma->length, drv_get_prot(map_flags), MAP_SHARED, bo->drv->fd,
477                     map_dumb.offset);
478 }
479
480 int drv_bo_munmap(struct bo *bo, struct vma *vma)
481 {
482         return munmap(vma->addr, vma->length);
483 }
484
485 int drv_mapping_destroy(struct bo *bo)
486 {
487         int ret;
488         size_t plane;
489         struct mapping *mapping;
490         uint32_t idx;
491
492         /*
493          * This function is called right before the buffer is destroyed. It will free any mappings
494          * associated with the buffer.
495          */
496
497         idx = 0;
498         for (plane = 0; plane < bo->meta.num_planes; plane++) {
499                 while (idx < drv_array_size(bo->drv->mappings)) {
500                         mapping = (struct mapping *)drv_array_at_idx(bo->drv->mappings, idx);
501                         if (mapping->vma->handle != bo->handles[plane].u32) {
502                                 idx++;
503                                 continue;
504                         }
505
506                         if (!--mapping->vma->refcount) {
507                                 ret = bo->drv->backend->bo_unmap(bo, mapping->vma);
508                                 if (ret) {
509                                         drv_log("munmap failed\n");
510                                         return ret;
511                                 }
512
513                                 free(mapping->vma);
514                         }
515
516                         /* This shrinks and shifts the array, so don't increment idx. */
517                         drv_array_remove(bo->drv->mappings, idx);
518                 }
519         }
520
521         return 0;
522 }
523
524 int drv_get_prot(uint32_t map_flags)
525 {
526         return (BO_MAP_WRITE & map_flags) ? PROT_WRITE | PROT_READ : PROT_READ;
527 }
528
529 uintptr_t drv_get_reference_count(struct driver *drv, struct bo *bo, size_t plane)
530 {
531         void *count;
532         uintptr_t num = 0;
533
534         if (!drmHashLookup(drv->buffer_table, bo->handles[plane].u32, &count))
535                 num = (uintptr_t)(count);
536
537         return num;
538 }
539
540 void drv_increment_reference_count(struct driver *drv, struct bo *bo, size_t plane)
541 {
542         uintptr_t num = drv_get_reference_count(drv, bo, plane);
543
544         /* If a value isn't in the table, drmHashDelete is a no-op */
545         drmHashDelete(drv->buffer_table, bo->handles[plane].u32);
546         drmHashInsert(drv->buffer_table, bo->handles[plane].u32, (void *)(num + 1));
547 }
548
549 void drv_decrement_reference_count(struct driver *drv, struct bo *bo, size_t plane)
550 {
551         uintptr_t num = drv_get_reference_count(drv, bo, plane);
552
553         drmHashDelete(drv->buffer_table, bo->handles[plane].u32);
554
555         if (num > 0)
556                 drmHashInsert(drv->buffer_table, bo->handles[plane].u32, (void *)(num - 1));
557 }
558
559 void drv_add_combination(struct driver *drv, const uint32_t format,
560                          struct format_metadata *metadata, uint64_t use_flags)
561 {
562         struct combination combo = { .format = format,
563                                      .metadata = *metadata,
564                                      .use_flags = use_flags };
565
566         drv_array_append(drv->combos, &combo);
567 }
568
569 void drv_add_combinations(struct driver *drv, const uint32_t *formats, uint32_t num_formats,
570                           struct format_metadata *metadata, uint64_t use_flags)
571 {
572         uint32_t i;
573
574         for (i = 0; i < num_formats; i++) {
575                 struct combination combo = { .format = formats[i],
576                                              .metadata = *metadata,
577                                              .use_flags = use_flags };
578
579                 drv_array_append(drv->combos, &combo);
580         }
581 }
582
583 void drv_modify_combination(struct driver *drv, uint32_t format, struct format_metadata *metadata,
584                             uint64_t use_flags)
585 {
586         uint32_t i;
587         struct combination *combo;
588         /* Attempts to add the specified flags to an existing combination. */
589         for (i = 0; i < drv_array_size(drv->combos); i++) {
590                 combo = (struct combination *)drv_array_at_idx(drv->combos, i);
591                 if (combo->format == format && combo->metadata.tiling == metadata->tiling &&
592                     combo->metadata.modifier == metadata->modifier)
593                         combo->use_flags |= use_flags;
594         }
595 }
596
597 int drv_modify_linear_combinations(struct driver *drv)
598 {
599         /*
600          * All current drivers can scanout linear XRGB8888/ARGB8888 as a primary
601          * plane and as a cursor.
602          */
603         drv_modify_combination(drv, DRM_FORMAT_XRGB8888, &LINEAR_METADATA,
604                                BO_USE_CURSOR | BO_USE_SCANOUT | BO_USE_COMPOSER_TARGET);
605         drv_modify_combination(drv, DRM_FORMAT_ARGB8888, &LINEAR_METADATA,
606                                BO_USE_CURSOR | BO_USE_SCANOUT | BO_USE_COMPOSER_TARGET);
607         return 0;
608 }
609
610 /*
611  * Pick the best modifier from modifiers, according to the ordering
612  * given by modifier_order.
613  */
614 uint64_t drv_pick_modifier(const uint64_t *modifiers, uint32_t count,
615                            const uint64_t *modifier_order, uint32_t order_count)
616 {
617         uint32_t i, j;
618
619         for (i = 0; i < order_count; i++) {
620                 for (j = 0; j < count; j++) {
621                         if (modifiers[j] == modifier_order[i]) {
622                                 return modifiers[j];
623                         }
624                 }
625         }
626
627         return DRM_FORMAT_MOD_LINEAR;
628 }
629
630 /*
631  * Search a list of modifiers to see if a given modifier is present
632  */
633 bool drv_has_modifier(const uint64_t *list, uint32_t count, uint64_t modifier)
634 {
635         uint32_t i;
636         for (i = 0; i < count; i++)
637                 if (list[i] == modifier)
638                         return true;
639
640         return false;
641 }
642
643 /*
644  * Map internal fourcc codes back to standard fourcc codes.
645  */
646 uint32_t drv_get_standard_fourcc(uint32_t fourcc_internal)
647 {
648         return (fourcc_internal == DRM_FORMAT_YVU420_ANDROID) ? DRM_FORMAT_YVU420 : fourcc_internal;
649 }