OSDN Git Service

Compile fixes for recent 2.5/2.6 Linux kernels. I hope this doesn't break
[android-x86/external-libdrm.git] / linux-core / drm_memory.h
1 /** 
2  * \file drm_memory.h 
3  * Memory management wrappers for DRM
4  *
5  * \author Rickard E. (Rik) Faith <faith@valinux.com>
6  * \author Gareth Hughes <gareth@valinux.com>
7  */
8
9 /* 
10  * Created: Thu Feb  4 14:00:34 1999 by faith@valinux.com
11  *
12  * Copyright 1999 Precision Insight, Inc., Cedar Park, Texas.
13  * Copyright 2000 VA Linux Systems, Inc., Sunnyvale, California.
14  * All Rights Reserved.
15  *
16  * Permission is hereby granted, free of charge, to any person obtaining a
17  * copy of this software and associated documentation files (the "Software"),
18  * to deal in the Software without restriction, including without limitation
19  * the rights to use, copy, modify, merge, publish, distribute, sublicense,
20  * and/or sell copies of the Software, and to permit persons to whom the
21  * Software is furnished to do so, subject to the following conditions:
22  *
23  * The above copyright notice and this permission notice (including the next
24  * paragraph) shall be included in all copies or substantial portions of the
25  * Software.
26  *
27  * THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
28  * IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
29  * FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT.  IN NO EVENT SHALL
30  * VA LINUX SYSTEMS AND/OR ITS SUPPLIERS BE LIABLE FOR ANY CLAIM, DAMAGES OR
31  * OTHER LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE,
32  * ARISING FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR
33  * OTHER DEALINGS IN THE SOFTWARE.
34  */
35
36 #define __NO_VERSION__
37 #include <linux/config.h>
38 #include "drmP.h"
39
40 /**
41  * Cut down version of drm_memory_debug.h, which used to be called
42  * drm_memory.h.  If you want the debug functionality, change 0 to 1
43  * below.
44  */
45 #define DEBUG_MEMORY 0
46
47 /* Need the 4-argument version of vmap().  */
48 #if __REALLY_HAVE_AGP && defined(VMAP_4_ARGS)
49
50 #include <linux/vmalloc.h>
51
52 #ifdef HAVE_PAGE_AGP
53 #include <asm/agp.h>
54 #else
55 # ifdef __powerpc__
56 #  define PAGE_AGP      __pgprot(_PAGE_KERNEL | _PAGE_NO_CACHE)
57 # else
58 #  define PAGE_AGP      PAGE_KERNEL
59 # endif
60 #endif
61
62 #if LINUX_VERSION_CODE >= KERNEL_VERSION(2,5,0)
63 # include <asm/tlbflush.h>
64 #else
65 # define pte_offset_kernel(dir, address)        pte_offset(dir, address)
66 # define pte_pfn(pte)                           (pte_page(pte) - mem_map)
67 # define pfn_to_page(pfn)                       (mem_map + (pfn))
68 # define flush_tlb_kernel_range(s,e)            flush_tlb_all()
69 #endif
70
71 /*
72  * Find the drm_map that covers the range [offset, offset+size).
73  */
74 static inline drm_map_t *
75 drm_lookup_map (unsigned long offset, unsigned long size, drm_device_t *dev)
76 {
77         struct list_head *list;
78         drm_map_list_t *r_list;
79         drm_map_t *map;
80
81         list_for_each(list, &dev->maplist->head) {
82                 r_list = (drm_map_list_t *) list;
83                 map = r_list->map;
84                 if (!map)
85                         continue;
86                 if (map->offset <= offset && (offset + size) <= (map->offset + map->size))
87                         return map;
88         }
89         return NULL;
90 }
91
92 static inline void *
93 agp_remap (unsigned long offset, unsigned long size, drm_device_t *dev)
94 {
95         unsigned long *phys_addr_map, i, num_pages = PAGE_ALIGN(size) / PAGE_SIZE;
96         struct drm_agp_mem *agpmem;
97         struct page **page_map;
98         void *addr;
99
100         size = PAGE_ALIGN(size);
101
102 #ifdef __alpha__
103         offset -= dev->hose->mem_space->start;
104 #endif
105
106         for (agpmem = dev->agp->memory; agpmem; agpmem = agpmem->next)
107                 if (agpmem->bound <= offset
108                     && (agpmem->bound + (agpmem->pages << PAGE_SHIFT)) >= (offset + size))
109                         break;
110         if (!agpmem)
111                 return NULL;
112
113         /*
114          * OK, we're mapping AGP space on a chipset/platform on which memory accesses by
115          * the CPU do not get remapped by the GART.  We fix this by using the kernel's
116          * page-table instead (that's probably faster anyhow...).
117          */
118         /* note: use vmalloc() because num_pages could be large... */
119         page_map = vmalloc(num_pages * sizeof(struct page *));
120         if (!page_map)
121                 return NULL;
122
123         phys_addr_map = agpmem->memory->memory + (offset - agpmem->bound) / PAGE_SIZE;
124         for (i = 0; i < num_pages; ++i)
125                 page_map[i] = pfn_to_page(phys_addr_map[i] >> PAGE_SHIFT);
126         addr = vmap(page_map, num_pages, VM_IOREMAP, PAGE_AGP);
127         vfree(page_map);
128         if (!addr)
129                 return NULL;
130
131         flush_tlb_kernel_range((unsigned long) addr, (unsigned long) addr + size);
132         return addr;
133 }
134
135 static inline unsigned long
136 drm_follow_page (void *vaddr)
137 {
138         pgd_t *pgd = pgd_offset_k((unsigned long) vaddr);
139         pmd_t *pmd = pmd_offset(pgd, (unsigned long) vaddr);
140         pte_t *ptep = pte_offset_kernel(pmd, (unsigned long) vaddr);
141         return pte_pfn(*ptep) << PAGE_SHIFT;
142 }
143
144 #endif /* __REALLY_HAVE_AGP && defined(VMAP_4_ARGS) */
145
146 static inline void *drm_ioremap(unsigned long offset, unsigned long size, drm_device_t *dev)
147 {
148 #if __REALLY_HAVE_AGP && defined(VMAP_4_ARGS)
149         if (dev->agp && dev->agp->cant_use_aperture) {
150                 drm_map_t *map = drm_lookup_map(offset, size, dev);
151
152                 if (map && map->type == _DRM_AGP)
153                         return agp_remap(offset, size, dev);
154         }
155 #endif
156
157         return ioremap(offset, size);
158 }
159
160 static inline void *drm_ioremap_nocache(unsigned long offset, unsigned long size,
161                                         drm_device_t *dev)
162 {
163 #if __REALLY_HAVE_AGP && defined(VMAP_4_ARGS)
164         if (dev->agp && dev->agp->cant_use_aperture) {
165                 drm_map_t *map = drm_lookup_map(offset, size, dev);
166
167                 if (map && map->type == _DRM_AGP)
168                         return agp_remap(offset, size, dev);
169         }
170 #endif
171
172         return ioremap_nocache(offset, size);
173 }
174
175 static inline void drm_ioremapfree(void *pt, unsigned long size, drm_device_t *dev)
176 {
177 #if __REALLY_HAVE_AGP && defined(VMAP_4_ARGS)
178         /*
179          * This is a bit ugly.  It would be much cleaner if the DRM API would use separate
180          * routines for handling mappings in the AGP space.  Hopefully this can be done in
181          * a future revision of the interface...
182          */
183         if (dev->agp && dev->agp->cant_use_aperture
184             && ((unsigned long) pt >= VMALLOC_START && (unsigned long) pt < VMALLOC_END))
185         {
186                 unsigned long offset;
187                 drm_map_t *map;
188
189                 offset = drm_follow_page(pt) | ((unsigned long) pt & ~PAGE_MASK);
190                 map = drm_lookup_map(offset, size, dev);
191                 if (map && map->type == _DRM_AGP) {
192                         vunmap(pt);
193                         return;
194                 }
195         }
196 #endif
197
198         iounmap(pt);
199 }
200
201 #if DEBUG_MEMORY
202 #include "drm_memory_debug.h"
203 #else
204
205 /** No-op. */
206 void DRM(mem_init)(void)
207 {
208 }
209
210 /**
211  * Called when "/proc/dri/%dev%/mem" is read.
212  * 
213  * \param buf output buffer.
214  * \param start start of output data.
215  * \param offset requested start offset.
216  * \param len requested number of bytes.
217  * \param eof whether there is no more data to return.
218  * \param data private data.
219  * \return number of written bytes.
220  *
221  * No-op. 
222  */
223 int DRM(mem_info)(char *buf, char **start, off_t offset,
224                   int len, int *eof, void *data)
225 {
226         return 0;
227 }
228
229 /** Wrapper around kmalloc() */
230 void *DRM(alloc)(size_t size, int area)
231 {
232         return kmalloc(size, GFP_KERNEL);
233 }
234
235 /** Wrapper around kmalloc() and kfree() */
236 void *DRM(realloc)(void *oldpt, size_t oldsize, size_t size, int area)
237 {
238         void *pt;
239
240         if (!(pt = kmalloc(size, GFP_KERNEL))) return NULL;
241         if (oldpt && oldsize) {
242                 memcpy(pt, oldpt, oldsize);
243                 kfree(oldpt);
244         }
245         return pt;
246 }
247
248 /** Wrapper around kfree() */
249 void DRM(free)(void *pt, size_t size, int area)
250 {
251         kfree(pt);
252 }
253
254 /**
255  * Allocate pages.
256  *
257  * \param order size order.
258  * \param area memory area. (Not used.)
259  * \return page address on success, or zero on failure.
260  *
261  * Allocate and reserve free pages.
262  */
263 unsigned long DRM(alloc_pages)(int order, int area)
264 {
265         unsigned long address;
266         unsigned long bytes       = PAGE_SIZE << order;
267         unsigned long addr;
268         unsigned int  sz;
269
270         address = __get_free_pages(GFP_KERNEL, order);
271         if (!address) 
272                 return 0;
273
274                                 /* Zero */
275         memset((void *)address, 0, bytes);
276
277                                 /* Reserve */
278         for (addr = address, sz = bytes;
279              sz > 0;
280              addr += PAGE_SIZE, sz -= PAGE_SIZE) {
281                 SetPageReserved(virt_to_page(addr));
282         }
283
284         return address;
285 }
286
287 /**
288  * Free pages.
289  * 
290  * \param address address of the pages to free.
291  * \param order size order.
292  * \param area memory area. (Not used.)
293  *
294  * Unreserve and free pages allocated by alloc_pages().
295  */
296 void DRM(free_pages)(unsigned long address, int order, int area)
297 {
298         unsigned long bytes = PAGE_SIZE << order;
299         unsigned long addr;
300         unsigned int  sz;
301
302         if (!address) 
303                 return;
304
305         /* Unreserve */
306         for (addr = address, sz = bytes;
307              sz > 0;
308              addr += PAGE_SIZE, sz -= PAGE_SIZE) {
309                 ClearPageReserved(virt_to_page(addr));
310         }
311
312         free_pages(address, order);
313 }
314
315 /** Wrapper around drm_ioremap() */
316 void *DRM(ioremap)(unsigned long offset, unsigned long size, drm_device_t *dev)
317 {
318         return drm_ioremap(offset, size, dev);
319 }
320
321 /** Wrapper around drm_ioremap_nocache() */
322 void *DRM(ioremap_nocache)(unsigned long offset, unsigned long size, drm_device_t *dev)
323 {
324         return drm_ioremap_nocache(offset, size, dev);
325 }
326
327 /** Wrapper around drm_iounmap() */
328 void DRM(ioremapfree)(void *pt, unsigned long size, drm_device_t *dev)
329 {
330         drm_ioremapfree(pt, size, dev);
331 }
332
333 #if __REALLY_HAVE_AGP
334 /** Wrapper around agp_allocate_memory() */
335 DRM_AGP_MEM *DRM(alloc_agp)(int pages, u32 type)
336 {
337         return DRM(agp_allocate_memory)(pages, type);
338 }
339
340 /** Wrapper around agp_free_memory() */
341 int DRM(free_agp)(DRM_AGP_MEM *handle, int pages)
342 {
343         return DRM(agp_free_memory)(handle) ? 0 : -EINVAL;
344 }
345
346 /** Wrapper around agp_bind_memory() */
347 int DRM(bind_agp)(DRM_AGP_MEM *handle, unsigned int start)
348 {
349         return DRM(agp_bind_memory)(handle, start);
350 }
351
352 /** Wrapper around agp_unbind_memory() */
353 int DRM(unbind_agp)(DRM_AGP_MEM *handle)
354 {
355         return DRM(agp_unbind_memory)(handle);
356 }
357 #endif /* agp */
358 #endif /* debug_memory */