OSDN Git Service

KVM: selftests: Unconditionally use memslot '0' for page table allocations
authorSean Christopherson <seanjc@google.com>
Tue, 22 Jun 2021 20:05:22 +0000 (13:05 -0700)
committerPaolo Bonzini <pbonzini@redhat.com>
Thu, 24 Jun 2021 15:47:48 +0000 (11:47 -0400)
Drop the memslot param from virt_pg_map() and virt_map() and shove the
hardcoded '0' down to the vm_phy_page_alloc() calls.

No functional change intended.

Signed-off-by: Sean Christopherson <seanjc@google.com>
Message-Id: <20210622200529.3650424-13-seanjc@google.com>
Signed-off-by: Paolo Bonzini <pbonzini@redhat.com>
16 files changed:
tools/testing/selftests/kvm/dirty_log_test.c
tools/testing/selftests/kvm/include/kvm_util.h
tools/testing/selftests/kvm/kvm_page_table_test.c
tools/testing/selftests/kvm/lib/aarch64/processor.c
tools/testing/selftests/kvm/lib/aarch64/ucall.c
tools/testing/selftests/kvm/lib/kvm_util.c
tools/testing/selftests/kvm/lib/perf_test_util.c
tools/testing/selftests/kvm/lib/s390x/processor.c
tools/testing/selftests/kvm/lib/x86_64/processor.c
tools/testing/selftests/kvm/memslot_perf_test.c
tools/testing/selftests/kvm/set_memory_region_test.c
tools/testing/selftests/kvm/steal_time.c
tools/testing/selftests/kvm/x86_64/vmx_dirty_log_test.c
tools/testing/selftests/kvm/x86_64/xapic_ipi_test.c
tools/testing/selftests/kvm/x86_64/xen_shinfo_test.c
tools/testing/selftests/kvm/x86_64/xen_vmcall_test.c

index 9026fa4..5fe0140 100644 (file)
@@ -760,7 +760,7 @@ static void run_test(enum vm_guest_mode mode, void *arg)
                                    KVM_MEM_LOG_DIRTY_PAGES);
 
        /* Do mapping for the dirty track memory slot */
-       virt_map(vm, guest_test_virt_mem, guest_test_phys_mem, guest_num_pages, 0);
+       virt_map(vm, guest_test_virt_mem, guest_test_phys_mem, guest_num_pages);
 
        /* Cache the HVA pointer of the region */
        host_test_mem = addr_gpa2hva(vm, (vm_paddr_t)guest_test_phys_mem);
index 72cdd4d..532541a 100644 (file)
@@ -145,7 +145,7 @@ vm_vaddr_t vm_vaddr_alloc_pages(struct kvm_vm *vm, int nr_pages);
 vm_vaddr_t vm_vaddr_alloc_page(struct kvm_vm *vm);
 
 void virt_map(struct kvm_vm *vm, uint64_t vaddr, uint64_t paddr,
-             unsigned int npages, uint32_t pgd_memslot);
+             unsigned int npages);
 void *addr_gpa2hva(struct kvm_vm *vm, vm_paddr_t gpa);
 void *addr_gva2hva(struct kvm_vm *vm, vm_vaddr_t gva);
 vm_paddr_t addr_hva2gpa(struct kvm_vm *vm, void *hva);
@@ -256,8 +256,7 @@ void virt_pgd_alloc(struct kvm_vm *vm);
  * Within @vm, creates a virtual translation for the page starting
  * at @vaddr to the page starting at @paddr.
  */
-void virt_pg_map(struct kvm_vm *vm, uint64_t vaddr, uint64_t paddr,
-                uint32_t memslot);
+void virt_pg_map(struct kvm_vm *vm, uint64_t vaddr, uint64_t paddr);
 
 vm_paddr_t vm_phy_page_alloc(struct kvm_vm *vm, vm_paddr_t paddr_min,
                             uint32_t memslot);
index 82171f1..0d04a7d 100644 (file)
@@ -303,7 +303,7 @@ static struct kvm_vm *pre_init_before_test(enum vm_guest_mode mode, void *arg)
                                    TEST_MEM_SLOT_INDEX, guest_num_pages, 0);
 
        /* Do mapping(GVA->GPA) for the testing memory slot */
-       virt_map(vm, guest_test_virt_mem, guest_test_phys_mem, guest_num_pages, 0);
+       virt_map(vm, guest_test_virt_mem, guest_test_phys_mem, guest_num_pages);
 
        /* Cache the HVA pointer of the region */
        host_test_mem = addr_gpa2hva(vm, (vm_paddr_t)guest_test_phys_mem);
index eb079d8..ba6f0cf 100644 (file)
@@ -83,8 +83,8 @@ void virt_pgd_alloc(struct kvm_vm *vm)
        }
 }
 
-void _virt_pg_map(struct kvm_vm *vm, uint64_t vaddr, uint64_t paddr,
-                 uint32_t pgd_memslot, uint64_t flags)
+static void _virt_pg_map(struct kvm_vm *vm, uint64_t vaddr, uint64_t paddr,
+                        uint64_t flags)
 {
        uint8_t attr_idx = flags & 7;
        uint64_t *ptep;
@@ -105,7 +105,7 @@ void _virt_pg_map(struct kvm_vm *vm, uint64_t vaddr, uint64_t paddr,
 
        ptep = addr_gpa2hva(vm, vm->pgd) + pgd_index(vm, vaddr) * 8;
        if (!*ptep) {
-               *ptep = vm_phy_page_alloc(vm, KVM_GUEST_PAGE_TABLE_MIN_PADDR, pgd_memslot);
+               *ptep = vm_phy_page_alloc(vm, KVM_GUEST_PAGE_TABLE_MIN_PADDR, 0);
                *ptep |= 3;
        }
 
@@ -113,14 +113,14 @@ void _virt_pg_map(struct kvm_vm *vm, uint64_t vaddr, uint64_t paddr,
        case 4:
                ptep = addr_gpa2hva(vm, pte_addr(vm, *ptep)) + pud_index(vm, vaddr) * 8;
                if (!*ptep) {
-                       *ptep = vm_phy_page_alloc(vm, KVM_GUEST_PAGE_TABLE_MIN_PADDR, pgd_memslot);
+                       *ptep = vm_phy_page_alloc(vm, KVM_GUEST_PAGE_TABLE_MIN_PADDR, 0);
                        *ptep |= 3;
                }
                /* fall through */
        case 3:
                ptep = addr_gpa2hva(vm, pte_addr(vm, *ptep)) + pmd_index(vm, vaddr) * 8;
                if (!*ptep) {
-                       *ptep = vm_phy_page_alloc(vm, KVM_GUEST_PAGE_TABLE_MIN_PADDR, pgd_memslot);
+                       *ptep = vm_phy_page_alloc(vm, KVM_GUEST_PAGE_TABLE_MIN_PADDR, 0);
                        *ptep |= 3;
                }
                /* fall through */
@@ -135,12 +135,11 @@ void _virt_pg_map(struct kvm_vm *vm, uint64_t vaddr, uint64_t paddr,
        *ptep |= (attr_idx << 2) | (1 << 10) /* Access Flag */;
 }
 
-void virt_pg_map(struct kvm_vm *vm, uint64_t vaddr, uint64_t paddr,
-                uint32_t pgd_memslot)
+void virt_pg_map(struct kvm_vm *vm, uint64_t vaddr, uint64_t paddr)
 {
        uint64_t attr_idx = 4; /* NORMAL (See DEFAULT_MAIR_EL1) */
 
-       _virt_pg_map(vm, vaddr, paddr, pgd_memslot, attr_idx);
+       _virt_pg_map(vm, vaddr, paddr, attr_idx);
 }
 
 vm_paddr_t addr_gva2gpa(struct kvm_vm *vm, vm_vaddr_t gva)
index 2f37b90..e0b0164 100644 (file)
@@ -14,7 +14,7 @@ static bool ucall_mmio_init(struct kvm_vm *vm, vm_paddr_t gpa)
        if (kvm_userspace_memory_region_find(vm, gpa, gpa + 1))
                return false;
 
-       virt_pg_map(vm, gpa, gpa, 0);
+       virt_pg_map(vm, gpa, gpa);
 
        ucall_exit_mmio_addr = (vm_vaddr_t *)gpa;
        sync_global_to_guest(vm, ucall_exit_mmio_addr);
index 65369a4..06b8fa6 100644 (file)
@@ -1265,7 +1265,7 @@ vm_vaddr_t vm_vaddr_alloc(struct kvm_vm *vm, size_t sz, vm_vaddr_t vaddr_min)
        for (vm_vaddr_t vaddr = vaddr_start; pages > 0;
                pages--, vaddr += vm->page_size, paddr += vm->page_size) {
 
-               virt_pg_map(vm, vaddr, paddr, 0);
+               virt_pg_map(vm, vaddr, paddr);
 
                sparsebit_set(vm->vpages_mapped,
                        vaddr >> vm->page_shift);
@@ -1330,7 +1330,7 @@ vm_vaddr_t vm_vaddr_alloc_page(struct kvm_vm *vm)
  * @npages starting at @vaddr to the page range starting at @paddr.
  */
 void virt_map(struct kvm_vm *vm, uint64_t vaddr, uint64_t paddr,
-             unsigned int npages, uint32_t pgd_memslot)
+             unsigned int npages)
 {
        size_t page_size = vm->page_size;
        size_t size = npages * page_size;
@@ -1339,7 +1339,7 @@ void virt_map(struct kvm_vm *vm, uint64_t vaddr, uint64_t paddr,
        TEST_ASSERT(paddr + size > paddr, "Paddr overflow");
 
        while (npages--) {
-               virt_pg_map(vm, vaddr, paddr, pgd_memslot);
+               virt_pg_map(vm, vaddr, paddr);
                vaddr += page_size;
                paddr += page_size;
        }
index 7397ca2..b488f4a 100644 (file)
@@ -101,7 +101,7 @@ struct kvm_vm *perf_test_create_vm(enum vm_guest_mode mode, int vcpus,
                                    guest_num_pages, 0);
 
        /* Do mapping for the demand paging memory slot */
-       virt_map(vm, guest_test_virt_mem, guest_test_phys_mem, guest_num_pages, 0);
+       virt_map(vm, guest_test_virt_mem, guest_test_phys_mem, guest_num_pages);
 
        ucall_init(vm, NULL);
 
index b46e90b..fbc4ea2 100644 (file)
@@ -36,12 +36,12 @@ void virt_pgd_alloc(struct kvm_vm *vm)
  * a page table (ri == 4). Returns a suitable region/segment table entry
  * which points to the freshly allocated pages.
  */
-static uint64_t virt_alloc_region(struct kvm_vm *vm, int ri, uint32_t memslot)
+static uint64_t virt_alloc_region(struct kvm_vm *vm, int ri)
 {
        uint64_t taddr;
 
        taddr = vm_phy_pages_alloc(vm,  ri < 4 ? PAGES_PER_REGION : 1,
-                                  KVM_GUEST_PAGE_TABLE_MIN_PADDR, memslot);
+                                  KVM_GUEST_PAGE_TABLE_MIN_PADDR, 0);
        memset(addr_gpa2hva(vm, taddr), 0xff, PAGES_PER_REGION * vm->page_size);
 
        return (taddr & REGION_ENTRY_ORIGIN)
@@ -49,8 +49,7 @@ static uint64_t virt_alloc_region(struct kvm_vm *vm, int ri, uint32_t memslot)
                | ((ri < 4 ? (PAGES_PER_REGION - 1) : 0) & REGION_ENTRY_LENGTH);
 }
 
-void virt_pg_map(struct kvm_vm *vm, uint64_t gva, uint64_t gpa,
-                uint32_t memslot)
+void virt_pg_map(struct kvm_vm *vm, uint64_t gva, uint64_t gpa)
 {
        int ri, idx;
        uint64_t *entry;
@@ -77,7 +76,7 @@ void virt_pg_map(struct kvm_vm *vm, uint64_t gva, uint64_t gpa,
        for (ri = 1; ri <= 4; ri++) {
                idx = (gva >> (64 - 11 * ri)) & 0x7ffu;
                if (entry[idx] & REGION_ENTRY_INVALID)
-                       entry[idx] = virt_alloc_region(vm, ri, memslot);
+                       entry[idx] = virt_alloc_region(vm, ri);
                entry = addr_gpa2hva(vm, entry[idx] & REGION_ENTRY_ORIGIN);
        }
 
index f4b90de..92ec0b6 100644 (file)
@@ -221,8 +221,7 @@ void virt_pgd_alloc(struct kvm_vm *vm)
        }
 }
 
-void virt_pg_map(struct kvm_vm *vm, uint64_t vaddr, uint64_t paddr,
-       uint32_t pgd_memslot)
+void virt_pg_map(struct kvm_vm *vm, uint64_t vaddr, uint64_t paddr)
 {
        uint16_t index[4];
        struct pageMapL4Entry *pml4e;
@@ -256,7 +255,7 @@ void virt_pg_map(struct kvm_vm *vm, uint64_t vaddr, uint64_t paddr,
        pml4e = addr_gpa2hva(vm, vm->pgd);
        if (!pml4e[index[3]].present) {
                pml4e[index[3]].address = vm_phy_page_alloc(vm,
-                       KVM_GUEST_PAGE_TABLE_MIN_PADDR, pgd_memslot)
+                       KVM_GUEST_PAGE_TABLE_MIN_PADDR, 0)
                        >> vm->page_shift;
                pml4e[index[3]].writable = true;
                pml4e[index[3]].present = true;
@@ -267,7 +266,7 @@ void virt_pg_map(struct kvm_vm *vm, uint64_t vaddr, uint64_t paddr,
        pdpe = addr_gpa2hva(vm, pml4e[index[3]].address * vm->page_size);
        if (!pdpe[index[2]].present) {
                pdpe[index[2]].address = vm_phy_page_alloc(vm,
-                       KVM_GUEST_PAGE_TABLE_MIN_PADDR, pgd_memslot)
+                       KVM_GUEST_PAGE_TABLE_MIN_PADDR, 0)
                        >> vm->page_shift;
                pdpe[index[2]].writable = true;
                pdpe[index[2]].present = true;
@@ -278,7 +277,7 @@ void virt_pg_map(struct kvm_vm *vm, uint64_t vaddr, uint64_t paddr,
        pde = addr_gpa2hva(vm, pdpe[index[2]].address * vm->page_size);
        if (!pde[index[1]].present) {
                pde[index[1]].address = vm_phy_page_alloc(vm,
-                       KVM_GUEST_PAGE_TABLE_MIN_PADDR, pgd_memslot)
+                       KVM_GUEST_PAGE_TABLE_MIN_PADDR, 0)
                        >> vm->page_shift;
                pde[index[1]].writable = true;
                pde[index[1]].present = true;
index 1123965..d6e381e 100644 (file)
@@ -306,7 +306,7 @@ static bool prepare_vm(struct vm_data *data, int nslots, uint64_t *maxslots,
                guest_addr += npages * 4096;
        }
 
-       virt_map(data->vm, MEM_GPA, MEM_GPA, mempages, 0);
+       virt_map(data->vm, MEM_GPA, MEM_GPA, mempages);
 
        sync = (typeof(sync))vm_gpa2hva(data, MEM_SYNC_GPA, NULL);
        atomic_init(&sync->start_flag, false);
index 978f5b5..d79d58e 100644 (file)
@@ -132,7 +132,7 @@ static struct kvm_vm *spawn_vm(pthread_t *vcpu_thread, void *guest_code)
        gpa = vm_phy_pages_alloc(vm, 2, MEM_REGION_GPA, MEM_REGION_SLOT);
        TEST_ASSERT(gpa == MEM_REGION_GPA, "Failed vm_phy_pages_alloc\n");
 
-       virt_map(vm, MEM_REGION_GPA, MEM_REGION_GPA, 2, 0);
+       virt_map(vm, MEM_REGION_GPA, MEM_REGION_GPA, 2);
 
        /* Ditto for the host mapping so that both pages can be zeroed. */
        hva = addr_gpa2hva(vm, MEM_REGION_GPA);
index a6fe75c..b0031f2 100644 (file)
@@ -293,7 +293,7 @@ int main(int ac, char **av)
        vm = vm_create_default(0, 0, guest_code);
        gpages = vm_calc_num_guest_pages(VM_MODE_DEFAULT, STEAL_TIME_SIZE * NR_VCPUS);
        vm_userspace_mem_region_add(vm, VM_MEM_SRC_ANONYMOUS, ST_GPA_BASE, 1, gpages, 0);
-       virt_map(vm, ST_GPA_BASE, ST_GPA_BASE, gpages, 0);
+       virt_map(vm, ST_GPA_BASE, ST_GPA_BASE, gpages);
        ucall_init(vm, NULL);
 
        /* Add the rest of the VCPUs */
index 537de10..18f6361 100644 (file)
@@ -97,7 +97,7 @@ int main(int argc, char *argv[])
         * Add an identity map for GVA range [0xc0000000, 0xc0002000).  This
         * affects both L1 and L2.  However...
         */
-       virt_map(vm, GUEST_TEST_MEM, GUEST_TEST_MEM, TEST_MEM_PAGES, 0);
+       virt_map(vm, GUEST_TEST_MEM, GUEST_TEST_MEM, TEST_MEM_PAGES);
 
        /*
         * ... pages in the L2 GPA range [0xc0001000, 0xc0003000) will map to
index 5a79c8e..1846117 100644 (file)
@@ -423,7 +423,7 @@ int main(int argc, char *argv[])
        vcpu_init_descriptor_tables(vm, HALTER_VCPU_ID);
        vm_handle_exception(vm, IPI_VECTOR, guest_ipi_handler);
 
-       virt_pg_map(vm, APIC_DEFAULT_GPA, APIC_DEFAULT_GPA, 0);
+       virt_pg_map(vm, APIC_DEFAULT_GPA, APIC_DEFAULT_GPA);
 
        vm_vcpu_add_default(vm, SENDER_VCPU_ID, sender_guest_code);
 
index 1f4a059..117bf49 100644 (file)
@@ -146,7 +146,7 @@ int main(int argc, char *argv[])
        /* Map a region for the shared_info page */
        vm_userspace_mem_region_add(vm, VM_MEM_SRC_ANONYMOUS,
                                    SHINFO_REGION_GPA, SHINFO_REGION_SLOT, 2, 0);
-       virt_map(vm, SHINFO_REGION_GVA, SHINFO_REGION_GPA, 2, 0);
+       virt_map(vm, SHINFO_REGION_GVA, SHINFO_REGION_GPA, 2);
 
        struct kvm_xen_hvm_config hvmc = {
                .flags = KVM_XEN_HVM_CONFIG_INTERCEPT_HCALL,
index 8389e0b..adc9445 100644 (file)
@@ -103,7 +103,7 @@ int main(int argc, char *argv[])
        /* Map a region for the hypercall pages */
        vm_userspace_mem_region_add(vm, VM_MEM_SRC_ANONYMOUS,
                                    HCALL_REGION_GPA, HCALL_REGION_SLOT, 2, 0);
-       virt_map(vm, HCALL_REGION_GPA, HCALL_REGION_GPA, 2, 0);
+       virt_map(vm, HCALL_REGION_GPA, HCALL_REGION_GPA, 2);
 
        for (;;) {
                volatile struct kvm_run *run = vcpu_state(vm, VCPU_ID);