OSDN Git Service

5c2e7b2d9ca954b748b9ae391d32923e70234c40
[uclinux-h8/uClibc.git] / ldso / ldso / bfin / dl-inlines.h
1 /* Copyright (C) 2003, 2004 Red Hat, Inc.
2  * Contributed by Alexandre Oliva <aoliva@redhat.com>
3  * Copyright (C) 2006-2011 Analog Devices, Inc.
4  *
5  * Licensed under the LGPL v2.1, see the file COPYING.LIB in this tarball.
6  */
7
8 #include <bfin_sram.h>
9
10 #define __dl_loadaddr_unmap __dl_loadaddr_unmap
11
12 #include "../fdpic/dl-inlines.h"
13
14 static __always_inline void
15 __dl_loadaddr_unmap(struct elf32_fdpic_loadaddr loadaddr,
16                     struct funcdesc_ht *funcdesc_ht)
17 {
18         int i;
19
20         for (i = 0; i < loadaddr.map->nsegs; i++) {
21                 struct elf32_fdpic_loadseg *segdata;
22                 ssize_t offs;
23                 segdata = loadaddr.map->segs + i;
24
25                 /* FIXME:
26                  * A more cleaner way is to add type for struct elf32_fdpic_loadseg,
27                  * and release the memory according to the type.
28                  * Currently, we hardcode the memory address of L1 SRAM.
29                  */
30                 if ((segdata->addr & 0xff800000) == 0xff800000) {
31                         _dl_sram_free((void *)segdata->addr);
32                         continue;
33                 }
34
35                 offs = (segdata->p_vaddr & ADDR_ALIGN);
36                 _dl_munmap((void*)segdata->addr - offs,
37                         segdata->p_memsz + offs);
38           }
39
40         /*
41          * _dl_unmap is only called for dlopen()ed libraries, for which
42          * calling free() is safe, or before we've completed the initial
43          * relocation, in which case calling free() is probably pointless,
44          * but still safe.
45          */
46         _dl_free(loadaddr.map);
47         if (funcdesc_ht)
48                 htab_delete(funcdesc_ht);
49 }
50
51 static __always_inline int
52 __dl_is_special_segment(Elf32_Ehdr *epnt, Elf32_Phdr *ppnt)
53 {
54         if (ppnt->p_type != PT_LOAD)
55                 return 0;
56
57         /* Allow read-only executable segments to be loaded into L1 inst */
58         if ((epnt->e_flags & EF_BFIN_CODE_IN_L1) &&
59             !(ppnt->p_flags & PF_W) && (ppnt->p_flags & PF_X))
60                 return 1;
61
62         /* Allow writable non-executable segments to be loaded into L1 data */
63         if ((epnt->e_flags & EF_BFIN_DATA_IN_L1) &&
64             (ppnt->p_flags & PF_W) && !(ppnt->p_flags & PF_X))
65                 return 1;
66
67         /*
68          * These L1 memory addresses are also used in GNU ld and linux kernel.
69          * They need to be kept synchronized.
70          */
71         switch (ppnt->p_vaddr) {
72         case 0xff700000:
73         case 0xff800000:
74         case 0xff900000:
75         case 0xffa00000:
76         case 0xfeb00000:
77         case 0xfec00000:
78                 return 1;
79         default:
80                 return 0;
81         }
82 }
83
84 static __always_inline char *
85 __dl_map_segment(Elf32_Ehdr *epnt, Elf32_Phdr *ppnt, int infile, int flags)
86 {
87         void *addr;
88         unsigned long sram_flags;
89
90         /* Handle L1 inst mappings */
91         if (((epnt->e_flags & EF_BFIN_CODE_IN_L1) || ppnt->p_vaddr == 0xffa00000) &&
92             !(ppnt->p_flags & PF_W) && (ppnt->p_flags & PF_X))
93         {
94                 size_t size = (ppnt->p_vaddr & ADDR_ALIGN) + ppnt->p_filesz;
95                 void *status = _dl_mmap(NULL, size, LXFLAGS(ppnt->p_flags),
96                         flags | MAP_EXECUTABLE | MAP_DENYWRITE,
97                         infile, ppnt->p_offset & OFFS_ALIGN);
98                 if (_dl_mmap_check_error(status))
99                         return NULL;
100
101                 addr = _dl_sram_alloc(ppnt->p_filesz, L1_INST_SRAM);
102                 if (addr)
103                         _dl_dma_memcpy(addr, status + (ppnt->p_vaddr & ADDR_ALIGN), ppnt->p_filesz);
104                 else
105                         _dl_dprintf(2, "%s:%s: sram allocation %#x failed\n",
106                                 _dl_progname, __func__, ppnt->p_vaddr);
107
108                 _dl_munmap(status, size);
109                 return addr;
110         }
111
112         /* Handle L1 data mappings */
113         if (((epnt->e_flags & EF_BFIN_DATA_IN_L1) ||
114              ppnt->p_vaddr == 0xff700000 ||
115              ppnt->p_vaddr == 0xff800000 ||
116              ppnt->p_vaddr == 0xff900000) &&
117             (ppnt->p_flags & PF_W) && !(ppnt->p_flags & PF_X))
118         {
119                 switch (ppnt->p_vaddr) {
120                 case 0xff800000: sram_flags = L1_DATA_A_SRAM; break;
121                 case 0xff900000: sram_flags = L1_DATA_B_SRAM; break;
122                 default:         sram_flags = L1_DATA_SRAM;   break;
123                 }
124         }
125
126         /* Handle L2 mappings */
127         if (ppnt->p_vaddr == 0xfeb00000 || ppnt->p_vaddr == 0xfec00000)
128                 sram_flags = L2_SRAM;
129
130         if (sram_flags) {
131                 addr = _dl_sram_alloc(ppnt->p_memsz, sram_flags);
132                 if (addr) {
133                         if (_DL_PREAD(infile, addr, ppnt->p_filesz, ppnt->p_offset) != ppnt->p_filesz) {
134                                 _dl_sram_free(addr);
135                                 return NULL;
136                         }
137                         if (ppnt->p_filesz < ppnt->p_memsz)
138                                 _dl_memset(addr + ppnt->p_filesz, 0, ppnt->p_memsz - ppnt->p_filesz);
139                 } else
140                         _dl_dprintf(2, "%s:%s: sram allocation %#x failed\n",
141                                 _dl_progname, __func__, ppnt->p_vaddr);
142                 return addr;
143         }
144
145         return 0;
146 }