OSDN Git Service

merge back bunch of whitespace and misc changes from kernel
[android-x86/external-libdrm.git] / linux-core / drm_memory.h
1 /** 
2  * \file drm_memory.h 
3  * Memory management wrappers for DRM
4  *
5  * \author Rickard E. (Rik) Faith <faith@valinux.com>
6  * \author Gareth Hughes <gareth@valinux.com>
7  */
8
9 /* 
10  * Created: Thu Feb  4 14:00:34 1999 by faith@valinux.com
11  *
12  * Copyright 1999 Precision Insight, Inc., Cedar Park, Texas.
13  * Copyright 2000 VA Linux Systems, Inc., Sunnyvale, California.
14  * All Rights Reserved.
15  *
16  * Permission is hereby granted, free of charge, to any person obtaining a
17  * copy of this software and associated documentation files (the "Software"),
18  * to deal in the Software without restriction, including without limitation
19  * the rights to use, copy, modify, merge, publish, distribute, sublicense,
20  * and/or sell copies of the Software, and to permit persons to whom the
21  * Software is furnished to do so, subject to the following conditions:
22  *
23  * The above copyright notice and this permission notice (including the next
24  * paragraph) shall be included in all copies or substantial portions of the
25  * Software.
26  *
27  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
28  * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
29  * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
30  * VA LINUX SYSTEMS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM, DAMAGES OR
31  * OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE,
32  * ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR
33  * OTHER DEALINGS IN THE SOFTWARE.
34  */
35
36 #include <linux/config.h>
37 #include <linux/highmem.h>
38 #include "drmP.h"
39
40 /**
41  * Cut down version of drm_memory_debug.h, which used to be called
42  * drm_memory.h.  
43  */
44
45 /* Need the 4-argument version of vmap().  */
46 #if __OS_HAS_AGP && defined(VMAP_4_ARGS)
47
48 #include <linux/vmalloc.h>
49
50 #ifdef HAVE_PAGE_AGP
51 #include <asm/agp.h>
52 #else
53 # ifdef __powerpc__
54 #  define PAGE_AGP      __pgprot(_PAGE_KERNEL | _PAGE_NO_CACHE)
55 # else
56 #  define PAGE_AGP      PAGE_KERNEL
57 # endif
58 #endif
59
60 #if LINUX_VERSION_CODE < KERNEL_VERSION(2,5,0)
61 #ifndef pte_offset_kernel
62 # define pte_offset_kernel(dir, address)        pte_offset(dir, address)
63 #endif
64 #ifndef pte_pfn
65 # define pte_pfn(pte)                           (pte_page(pte) - mem_map)
66 #endif
67 #ifndef pfn_to_page
68 # define pfn_to_page(pfn)                       (mem_map + (pfn))
69 #endif
70 #endif
71
72 /*
73  * Find the drm_map that covers the range [offset, offset+size).
74  */
75 static inline drm_map_t *
76 drm_lookup_map (unsigned long offset, unsigned long size, drm_device_t *dev)
77 {
78         struct list_head *list;
79         drm_map_list_t *r_list;
80         drm_map_t *map;
81
82         list_for_each(list, &dev->maplist->head) {
83                 r_list = (drm_map_list_t *) list;
84                 map = r_list->map;
85                 if (!map)
86                         continue;
87                 if (map->offset <= offset && (offset + size) <= (map->offset + map->size))
88                         return map;
89         }
90         return NULL;
91 }
92
93 static inline void *
94 agp_remap (unsigned long offset, unsigned long size, drm_device_t *dev)
95 {
96         unsigned long *phys_addr_map, i, num_pages = PAGE_ALIGN(size) / PAGE_SIZE;
97         struct drm_agp_mem *agpmem;
98         struct page **page_map;
99         void *addr;
100
101         size = PAGE_ALIGN(size);
102
103 #ifdef __alpha__
104         offset -= dev->hose->mem_space->start;
105 #endif
106
107         for (agpmem = dev->agp->memory; agpmem; agpmem = agpmem->next)
108                 if (agpmem->bound <= offset
109                     && (agpmem->bound + (agpmem->pages << PAGE_SHIFT)) >= (offset + size))
110                         break;
111         if (!agpmem)
112                 return NULL;
113
114         /*
115          * OK, we're mapping AGP space on a chipset/platform on which memory accesses by
116          * the CPU do not get remapped by the GART.  We fix this by using the kernel's
117          * page-table instead (that's probably faster anyhow...).
118          */
119         /* note: use vmalloc() because num_pages could be large... */
120         page_map = vmalloc(num_pages * sizeof(struct page *));
121         if (!page_map)
122                 return NULL;
123
124         phys_addr_map = agpmem->memory->memory + (offset - agpmem->bound) / PAGE_SIZE;
125         for (i = 0; i < num_pages; ++i)
126                 page_map[i] = pfn_to_page(phys_addr_map[i] >> PAGE_SHIFT);
127         addr = vmap(page_map, num_pages, VM_IOREMAP, PAGE_AGP);
128         vfree(page_map);
129
130         return addr;
131 }
132
133 static inline unsigned long
134 drm_follow_page (void *vaddr)
135 {
136         pgd_t *pgd = pgd_offset_k((unsigned long) vaddr);
137         pmd_t *pmd = pmd_offset(pgd, (unsigned long) vaddr);
138         pte_t *ptep = pte_offset_kernel(pmd, (unsigned long) vaddr);
139         return pte_pfn(*ptep) << PAGE_SHIFT;
140 }
141
142 #else /* __OS_HAS_AGP */
143
144 static inline drm_map_t *drm_lookup_map(unsigned long offset, unsigned long size, drm_device_t *dev)
145 {
146   return NULL;
147 }
148
149 static inline void *agp_remap(unsigned long offset, unsigned long size, drm_device_t *dev)
150 {
151   return NULL;
152 }
153
154 static inline unsigned long drm_follow_page (void *vaddr)
155 {
156   return 0;
157 }
158
159 #endif
160
161 static inline void *drm_ioremap(unsigned long offset, unsigned long size, drm_device_t *dev)
162 {
163 #if defined(VMAP_4_ARGS)
164         if (drm_core_has_AGP(dev) && dev->agp && dev->agp->cant_use_aperture) {
165                 drm_map_t *map = drm_lookup_map(offset, size, dev);
166
167                 if (map && map->type == _DRM_AGP)
168                         return agp_remap(offset, size, dev);
169         }
170 #endif
171
172         return ioremap(offset, size);
173 }
174
175 static inline void *drm_ioremap_nocache(unsigned long offset, unsigned long size,
176                                         drm_device_t *dev)
177 {
178 #if defined(VMAP_4_ARGS)
179         if (drm_core_has_AGP(dev) && dev->agp && dev->agp->cant_use_aperture) {
180                 drm_map_t *map = drm_lookup_map(offset, size, dev);
181
182                 if (map && map->type == _DRM_AGP)
183                         return agp_remap(offset, size, dev);
184         }
185 #endif
186
187         return ioremap_nocache(offset, size);
188 }
189
190 static inline void drm_ioremapfree(void *pt, unsigned long size, drm_device_t *dev)
191 {
192 #if defined(VMAP_4_ARGS)
193         /*
194          * This is a bit ugly.  It would be much cleaner if the DRM API would use separate
195          * routines for handling mappings in the AGP space.  Hopefully this can be done in
196          * a future revision of the interface...
197          */
198         if (drm_core_has_AGP(dev) && dev->agp && dev->agp->cant_use_aperture
199             && ((unsigned long) pt >= VMALLOC_START && (unsigned long) pt < VMALLOC_END))
200         {
201                 unsigned long offset;
202                 drm_map_t *map;
203
204                 offset = drm_follow_page(pt) | ((unsigned long) pt & ~PAGE_MASK);
205                 map = drm_lookup_map(offset, size, dev);
206                 if (map && map->type == _DRM_AGP) {
207                         vunmap(pt);
208                         return;
209                 }
210         }
211 #endif
212
213         iounmap(pt);
214 }
215
216
217 #ifdef DEBUG_MEMORY
218 #include "drm_memory_debug.h"
219 #else
220
221 /** No-op. */
222 void DRM(mem_init)(void)
223 {
224 }
225
226 /**
227  * Called when "/proc/dri/%dev%/mem" is read.
228  * 
229  * \param buf output buffer.
230  * \param start start of output data.
231  * \param offset requested start offset.
232  * \param len requested number of bytes.
233  * \param eof whether there is no more data to return.
234  * \param data private data.
235  * \return number of written bytes.
236  *
237  * No-op. 
238  */
239 int DRM(mem_info)(char *buf, char **start, off_t offset,
240                   int len, int *eof, void *data)
241 {
242         return 0;
243 }
244
245 /** Wrapper around kmalloc() */
246 void *DRM(calloc)(size_t nmemb, size_t size, int area)
247 {
248         void *addr;
249
250         addr = kmalloc(size * nmemb, GFP_KERNEL);
251         if (addr != NULL)
252                 memset((void *)addr, 0, size * nmemb);
253
254         return addr;
255 }
256
257 /** Wrapper around kmalloc() and kfree() */
258 void *DRM(realloc)(void *oldpt, size_t oldsize, size_t size, int area)
259 {
260         void *pt;
261
262         if (!(pt = kmalloc(size, GFP_KERNEL))) return NULL;
263         if (oldpt && oldsize) {
264                 memcpy(pt, oldpt, oldsize);
265                 kfree(oldpt);
266         }
267         return pt;
268 }
269
270 /**
271  * Allocate pages.
272  *
273  * \param order size order.
274  * \param area memory area. (Not used.)
275  * \return page address on success, or zero on failure.
276  *
277  * Allocate and reserve free pages.
278  */
279 unsigned long DRM(alloc_pages)(int order, int area)
280 {
281         unsigned long address;
282         unsigned long bytes       = PAGE_SIZE << order;
283         unsigned long addr;
284         unsigned int  sz;
285
286         address = __get_free_pages(GFP_KERNEL, order);
287         if (!address) 
288                 return 0;
289
290                                 /* Zero */
291         memset((void *)address, 0, bytes);
292
293                                 /* Reserve */
294         for (addr = address, sz = bytes;
295              sz > 0;
296              addr += PAGE_SIZE, sz -= PAGE_SIZE) {
297                 SetPageReserved(virt_to_page(addr));
298         }
299
300         return address;
301 }
302
303 /**
304  * Free pages.
305  * 
306  * \param address address of the pages to free.
307  * \param order size order.
308  * \param area memory area. (Not used.)
309  *
310  * Unreserve and free pages allocated by alloc_pages().
311  */
312 void DRM(free_pages)(unsigned long address, int order, int area)
313 {
314         unsigned long bytes = PAGE_SIZE << order;
315         unsigned long addr;
316         unsigned int  sz;
317
318         if (!address) 
319                 return;
320
321         /* Unreserve */
322         for (addr = address, sz = bytes;
323              sz > 0;
324              addr += PAGE_SIZE, sz -= PAGE_SIZE) {
325                 ClearPageReserved(virt_to_page(addr));
326         }
327
328         free_pages(address, order);
329 }
330
331 /** Wrapper around drm_ioremap() */
332 void *DRM(ioremap)(unsigned long offset, unsigned long size, drm_device_t *dev)
333 {
334         return drm_ioremap(offset, size, dev);
335 }
336
337 /** Wrapper around drm_ioremap_nocache() */
338 void *DRM(ioremap_nocache)(unsigned long offset, unsigned long size, drm_device_t *dev)
339 {
340         return drm_ioremap_nocache(offset, size, dev);
341 }
342
343 /** Wrapper around drm_iounmap() */
344 void DRM(ioremapfree)(void *pt, unsigned long size, drm_device_t *dev)
345 {
346         drm_ioremapfree(pt, size, dev);
347 }
348
349 #if __OS_HAS_AGP
350 /** Wrapper around agp_allocate_memory() */
351 DRM_AGP_MEM *DRM(alloc_agp)(int pages, u32 type)
352 {
353         return DRM(agp_allocate_memory)(pages, type);
354 }
355
356 /** Wrapper around agp_free_memory() */
357 int DRM(free_agp)(DRM_AGP_MEM *handle, int pages)
358 {
359         return DRM(agp_free_memory)(handle) ? 0 : -EINVAL;
360 }
361
362 /** Wrapper around agp_bind_memory() */
363 int DRM(bind_agp)(DRM_AGP_MEM *handle, unsigned int start)
364 {
365         return DRM(agp_bind_memory)(handle, start);
366 }
367
368 /** Wrapper around agp_unbind_memory() */
369 int DRM(unbind_agp)(DRM_AGP_MEM *handle)
370 {
371         return DRM(agp_unbind_memory)(handle);
372 }
373 #endif /* agp */
374 #endif /* debug_memory */