OSDN Git Service

x86/mm: Remove spurious fault pkey check
authorDave Hansen <dave.hansen@linux.intel.com>
Fri, 28 Sep 2018 16:02:31 +0000 (09:02 -0700)
committerPeter Zijlstra <peterz@infradead.org>
Tue, 9 Oct 2018 14:51:16 +0000 (16:51 +0200)
Spurious faults only ever occur in the kernel's address space.  They
are also constrained specifically to faults with one of these error codes:

X86_PF_WRITE | X86_PF_PROT
X86_PF_INSTR | X86_PF_PROT

So, it's never even possible to reach spurious_kernel_fault_check() with
X86_PF_PK set.

In addition, the kernel's address space never has pages with user-mode
protections.  Protection Keys are only enforced on pages with user-mode
protection.

This gives us lots of reasons to not check for protection keys in our
sprurious kernel fault handling.

But, let's also add some warnings to ensure that these assumptions about
protection keys hold true.

Cc: x86@kernel.org
Cc: Jann Horn <jannh@google.com>
Cc: Sean Christopherson <sean.j.christopherson@intel.com>
Cc: Thomas Gleixner <tglx@linutronix.de>
Cc: Andy Lutomirski <luto@kernel.org>
Signed-off-by: Dave Hansen <dave.hansen@linux.intel.com>
Signed-off-by: Peter Zijlstra (Intel) <peterz@infradead.org>
Link: http://lkml.kernel.org/r/20180928160231.243A0D6A@viggo.jf.intel.com
arch/x86/mm/fault.c

index 7e0fa7e..a166529 100644 (file)
@@ -1037,12 +1037,6 @@ static int spurious_kernel_fault_check(unsigned long error_code, pte_t *pte)
 
        if ((error_code & X86_PF_INSTR) && !pte_exec(*pte))
                return 0;
-       /*
-        * Note: We do not do lazy flushing on protection key
-        * changes, so no spurious fault will ever set X86_PF_PK.
-        */
-       if ((error_code & X86_PF_PK))
-               return 1;
 
        return 1;
 }
@@ -1218,6 +1212,13 @@ do_kern_addr_fault(struct pt_regs *regs, unsigned long hw_error_code,
                   unsigned long address)
 {
        /*
+        * Protection keys exceptions only happen on user pages.  We
+        * have no user pages in the kernel portion of the address
+        * space, so do not expect them here.
+        */
+       WARN_ON_ONCE(hw_error_code & X86_PF_PK);
+
+       /*
         * We can fault-in kernel-space virtual memory on-demand. The
         * 'reference' page table is init_mm.pgd.
         *