OSDN Git Service

Merge git://git.kernel.org/pub/scm/linux/kernel/git/bpf/bpf-next
authorDavid S. Miller <davem@davemloft.net>
Fri, 27 Dec 2019 22:20:10 +0000 (14:20 -0800)
committerDavid S. Miller <davem@davemloft.net>
Fri, 27 Dec 2019 22:20:10 +0000 (14:20 -0800)
Daniel Borkmann says:

====================
pull-request: bpf-next 2019-12-27

The following pull-request contains BPF updates for your *net-next* tree.

We've added 127 non-merge commits during the last 17 day(s) which contain
a total of 110 files changed, 6901 insertions(+), 2721 deletions(-).

There are three merge conflicts. Conflicts and resolution looks as follows:

1) Merge conflict in net/bpf/test_run.c:

There was a tree-wide cleanup c593642c8be0 ("treewide: Use sizeof_field() macro")
which gets in the way with b590cb5f802d ("bpf: Switch to offsetofend in
BPF_PROG_TEST_RUN"):

  <<<<<<< HEAD
          if (!range_is_zero(__skb, offsetof(struct __sk_buff, priority) +
                             sizeof_field(struct __sk_buff, priority),
  =======
          if (!range_is_zero(__skb, offsetofend(struct __sk_buff, priority),
  >>>>>>> 7c8dce4b166113743adad131b5a24c4acc12f92c

There are a few occasions that look similar to this. Always take the chunk with
offsetofend(). Note that there is one where the fields differ in here:

  <<<<<<< HEAD
          if (!range_is_zero(__skb, offsetof(struct __sk_buff, tstamp) +
                             sizeof_field(struct __sk_buff, tstamp),
  =======
          if (!range_is_zero(__skb, offsetofend(struct __sk_buff, gso_segs),
  >>>>>>> 7c8dce4b166113743adad131b5a24c4acc12f92c

Just take the one with offsetofend() /and/ gso_segs. Latter is correct due to
850a88cc4096 ("bpf: Expose __sk_buff wire_len/gso_segs to BPF_PROG_TEST_RUN").

2) Merge conflict in arch/riscv/net/bpf_jit_comp.c:

(I'm keeping Bjorn in Cc here for a double-check in case I got it wrong.)

  <<<<<<< HEAD
          if (is_13b_check(off, insn))
                  return -1;
          emit(rv_blt(tcc, RV_REG_ZERO, off >> 1), ctx);
  =======
          emit_branch(BPF_JSLT, RV_REG_T1, RV_REG_ZERO, off, ctx);
  >>>>>>> 7c8dce4b166113743adad131b5a24c4acc12f92c

Result should look like:

          emit_branch(BPF_JSLT, tcc, RV_REG_ZERO, off, ctx);

3) Merge conflict in arch/riscv/include/asm/pgtable.h:

  <<<<<<< HEAD
  =======
  #define VMALLOC_SIZE     (KERN_VIRT_SIZE >> 1)
  #define VMALLOC_END      (PAGE_OFFSET - 1)
  #define VMALLOC_START    (PAGE_OFFSET - VMALLOC_SIZE)

  #define BPF_JIT_REGION_SIZE     (SZ_128M)
  #define BPF_JIT_REGION_START    (PAGE_OFFSET - BPF_JIT_REGION_SIZE)
  #define BPF_JIT_REGION_END      (VMALLOC_END)

  /*
   * Roughly size the vmemmap space to be large enough to fit enough
   * struct pages to map half the virtual address space. Then
   * position vmemmap directly below the VMALLOC region.
   */
  #define VMEMMAP_SHIFT \
          (CONFIG_VA_BITS - PAGE_SHIFT - 1 + STRUCT_PAGE_MAX_SHIFT)
  #define VMEMMAP_SIZE    BIT(VMEMMAP_SHIFT)
  #define VMEMMAP_END     (VMALLOC_START - 1)
  #define VMEMMAP_START   (VMALLOC_START - VMEMMAP_SIZE)

  #define vmemmap         ((struct page *)VMEMMAP_START)

  >>>>>>> 7c8dce4b166113743adad131b5a24c4acc12f92c

Only take the BPF_* defines from there and move them higher up in the
same file. Remove the rest from the chunk. The VMALLOC_* etc defines
got moved via 01f52e16b868 ("riscv: define vmemmap before pfn_to_page
calls"). Result:

  [...]
  #define __S101  PAGE_READ_EXEC
  #define __S110  PAGE_SHARED_EXEC
  #define __S111  PAGE_SHARED_EXEC

  #define VMALLOC_SIZE     (KERN_VIRT_SIZE >> 1)
  #define VMALLOC_END      (PAGE_OFFSET - 1)
  #define VMALLOC_START    (PAGE_OFFSET - VMALLOC_SIZE)

  #define BPF_JIT_REGION_SIZE     (SZ_128M)
  #define BPF_JIT_REGION_START    (PAGE_OFFSET - BPF_JIT_REGION_SIZE)
  #define BPF_JIT_REGION_END      (VMALLOC_END)

  /*
   * Roughly size the vmemmap space to be large enough to fit enough
   * struct pages to map half the virtual address space. Then
   * position vmemmap directly below the VMALLOC region.
   */
  #define VMEMMAP_SHIFT \
          (CONFIG_VA_BITS - PAGE_SHIFT - 1 + STRUCT_PAGE_MAX_SHIFT)
  #define VMEMMAP_SIZE    BIT(VMEMMAP_SHIFT)
  #define VMEMMAP_END     (VMALLOC_START - 1)
  #define VMEMMAP_START   (VMALLOC_START - VMEMMAP_SIZE)

  [...]

Let me know if there are any other issues.

Anyway, the main changes are:

1) Extend bpftool to produce a struct (aka "skeleton") tailored and specific
   to a provided BPF object file. This provides an alternative, simplified API
   compared to standard libbpf interaction. Also, add libbpf extern variable
   resolution for .kconfig section to import Kconfig data, from Andrii Nakryiko.

2) Add BPF dispatcher for XDP which is a mechanism to avoid indirect calls by
   generating a branch funnel as discussed back in bpfconf'19 at LSF/MM. Also,
   add various BPF riscv JIT improvements, from Björn Töpel.

3) Extend bpftool to allow matching BPF programs and maps by name,
   from Paul Chaignon.

4) Support for replacing cgroup BPF programs attached with BPF_F_ALLOW_MULTI
   flag for allowing updates without service interruption, from Andrey Ignatov.

5) Cleanup and simplification of ring access functions for AF_XDP with a
   bonus of 0-5% performance improvement, from Magnus Karlsson.

6) Enable BPF JITs for x86-64 and arm64 by default. Also, final version of
   audit support for BPF, from Daniel Borkmann and latter with Jiri Olsa.

7) Move and extend test_select_reuseport into BPF program tests under
   BPF selftests, from Jakub Sitnicki.

8) Various BPF sample improvements for xdpsock for customizing parameters
   to set up and benchmark AF_XDP, from Jay Jayatheerthan.

9) Improve libbpf to provide a ulimit hint on permission denied errors.
   Also change XDP sample programs to attach in driver mode by default,
   from Toke Høiland-Jørgensen.

10) Extend BPF test infrastructure to allow changing skb mark from tc BPF
    programs, from Nikita V. Shirokov.

11) Optimize prologue code sequence in BPF arm32 JIT, from Russell King.

12) Fix xdp_redirect_cpu BPF sample to manually attach to tracepoints after
    libbpf conversion, from Jesper Dangaard Brouer.

13) Minor misc improvements from various others.
====================

Signed-off-by: David S. Miller <davem@davemloft.net>
14 files changed:
1  2 
arch/riscv/include/asm/pgtable.h
arch/riscv/net/bpf_jit_comp.c
drivers/net/ethernet/intel/i40e/i40e_xsk.c
drivers/net/ethernet/intel/ixgbe/ixgbe_xsk.c
include/linux/bpf-cgroup.h
include/linux/bpf.h
include/linux/filter.h
kernel/bpf/cgroup.c
kernel/bpf/core.c
kernel/bpf/trampoline.c
net/core/dev.c
net/core/filter.c
net/xdp/xsk.c
tools/bpf/bpftool/prog.c

@@@ -90,27 -90,6 +90,31 @@@ extern pgd_t swapper_pg_dir[]
  #define __S110        PAGE_SHARED_EXEC
  #define __S111        PAGE_SHARED_EXEC
  
 +#define VMALLOC_SIZE     (KERN_VIRT_SIZE >> 1)
 +#define VMALLOC_END      (PAGE_OFFSET - 1)
 +#define VMALLOC_START    (PAGE_OFFSET - VMALLOC_SIZE)
 +
++#define BPF_JIT_REGION_SIZE   (SZ_128M)
++#define BPF_JIT_REGION_START  (PAGE_OFFSET - BPF_JIT_REGION_SIZE)
++#define BPF_JIT_REGION_END    (VMALLOC_END)
++
 +/*
 + * Roughly size the vmemmap space to be large enough to fit enough
 + * struct pages to map half the virtual address space. Then
 + * position vmemmap directly below the VMALLOC region.
 + */
 +#define VMEMMAP_SHIFT \
 +      (CONFIG_VA_BITS - PAGE_SHIFT - 1 + STRUCT_PAGE_MAX_SHIFT)
 +#define VMEMMAP_SIZE  BIT(VMEMMAP_SHIFT)
 +#define VMEMMAP_END   (VMALLOC_START - 1)
 +#define VMEMMAP_START (VMALLOC_START - VMEMMAP_SIZE)
 +
 +/*
 + * Define vmemmap for pfn_to_page & page_to_pfn calls. Needed if kernel
 + * is configured with CONFIG_SPARSEMEM_VMEMMAP enabled.
 + */
 +#define vmemmap               ((struct page *)VMEMMAP_START)
 +
  static inline int pmd_present(pmd_t pmd)
  {
        return (pmd_val(pmd) & (_PAGE_PRESENT | _PAGE_PROT_NONE));
@@@ -627,18 -726,14 +726,14 @@@ static int emit_bpf_tail_call(int insn
                return -1;
        emit(rv_lwu(RV_REG_T1, off, RV_REG_A1), ctx);
        off = (tc_ninsn - (ctx->ninsns - start_insn)) << 2;
-       if (is_13b_check(off, insn))
-               return -1;
-       emit(rv_bgeu(RV_REG_A2, RV_REG_T1, off >> 1), ctx);
+       emit_branch(BPF_JGE, RV_REG_A2, RV_REG_T1, off, ctx);
  
 -      /* if (--TCC < 0)
 +      /* if (TCC-- < 0)
         *     goto out;
         */
        emit(rv_addi(RV_REG_T1, tcc, -1), ctx);
        off = (tc_ninsn - (ctx->ninsns - start_insn)) << 2;
-       if (is_13b_check(off, insn))
-               return -1;
-       emit(rv_blt(tcc, RV_REG_ZERO, off >> 1), ctx);
 -      emit_branch(BPF_JSLT, RV_REG_T1, RV_REG_ZERO, off, ctx);
++      emit_branch(BPF_JSLT, tcc, RV_REG_ZERO, off, ctx);
  
        /* prog = array->ptrs[index];
         * if (!prog)
Simple merge
Simple merge
Simple merge
Simple merge
Simple merge
Simple merge
diff --cc net/core/dev.c
Simple merge
Simple merge
diff --cc net/xdp/xsk.c
Simple merge
@@@ -428,74 -528,10 +528,10 @@@ prog_dump(struct bpf_prog_info *info, e
        ssize_t n;
        int fd;
  
-       if (is_prefix(*argv, "jited")) {
-               if (disasm_init())
-                       return -1;
-               mode = DUMP_JITED;
-       } else if (is_prefix(*argv, "xlated")) {
-               mode = DUMP_XLATED;
-       } else {
-               p_err("expected 'xlated' or 'jited', got: %s", *argv);
-               return -1;
-       }
-       NEXT_ARG();
-       if (argc < 2)
-               usage();
-       fd = prog_parse_fd(&argc, &argv);
-       if (fd < 0)
-               return -1;
-       if (is_prefix(*argv, "file")) {
-               NEXT_ARG();
-               if (!argc) {
-                       p_err("expected file path");
-                       return -1;
-               }
-               filepath = *argv;
-               NEXT_ARG();
-       } else if (is_prefix(*argv, "opcodes")) {
-               opcodes = true;
-               NEXT_ARG();
-       } else if (is_prefix(*argv, "visual")) {
-               visual = true;
-               NEXT_ARG();
-       } else if (is_prefix(*argv, "linum")) {
-               linum = true;
-               NEXT_ARG();
-       }
-       if (argc) {
-               usage();
-               return -1;
-       }
-       if (mode == DUMP_JITED)
-               arrays = 1UL << BPF_PROG_INFO_JITED_INSNS;
-       else
-               arrays = 1UL << BPF_PROG_INFO_XLATED_INSNS;
-       arrays |= 1UL << BPF_PROG_INFO_JITED_KSYMS;
-       arrays |= 1UL << BPF_PROG_INFO_JITED_FUNC_LENS;
-       arrays |= 1UL << BPF_PROG_INFO_FUNC_INFO;
-       arrays |= 1UL << BPF_PROG_INFO_LINE_INFO;
-       arrays |= 1UL << BPF_PROG_INFO_JITED_LINE_INFO;
-       info_linear = bpf_program__get_prog_info_linear(fd, arrays);
-       close(fd);
-       if (IS_ERR_OR_NULL(info_linear)) {
-               p_err("can't get prog info: %s", strerror(errno));
-               return -1;
-       }
-       info = &info_linear->info;
        if (mode == DUMP_JITED) {
 -              if (info->jited_prog_len == 0) {
 +              if (info->jited_prog_len == 0 || !info->jited_prog_insns) {
                        p_info("no instructions returned");
-                       goto err_free;
+                       return -1;
                }
                buf = (unsigned char *)(info->jited_prog_insns);
                member_len = info->jited_prog_len;