OSDN Git Service

[x86] add tests for backwards propagate mask bug (PR37060, PR37667); NFC
authorSanjay Patel <spatel@rotateright.com>
Thu, 7 Jun 2018 14:11:18 +0000 (14:11 +0000)
committerSanjay Patel <spatel@rotateright.com>
Thu, 7 Jun 2018 14:11:18 +0000 (14:11 +0000)
git-svn-id: https://llvm.org/svn/llvm-project/llvm/trunk@334199 91177308-0d34-0410-b5e6-96231b3b80d8

test/CodeGen/X86/backpropmask.ll [new file with mode: 0644]

diff --git a/test/CodeGen/X86/backpropmask.ll b/test/CodeGen/X86/backpropmask.ll
new file mode 100644 (file)
index 0000000..0c84321
--- /dev/null
@@ -0,0 +1,52 @@
+; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
+; RUN: llc -mtriple=x86_64-unknown-unknown < %s | FileCheck %s
+
+; FIXME:
+; Verify that backwards propagation of a mask does not affect
+; nodes with multiple result values. In both tests, the stored
+; 32-bit value should be masked to an 8-bit number (and 255).
+
+@b = local_unnamed_addr global i32 918, align 4
+@d = local_unnamed_addr global i32 8089, align 4
+@c = common local_unnamed_addr global i32 0, align 4
+@a = common local_unnamed_addr global i32 0, align 4
+
+define void @PR37667() {
+; CHECK-LABEL: PR37667:
+; CHECK:       # %bb.0:
+; CHECK-NEXT:    movzbl {{.*}}(%rip), %ecx
+; CHECK-NEXT:    movl {{.*}}(%rip), %eax
+; CHECK-NEXT:    xorl %edx, %edx
+; CHECK-NEXT:    divl {{.*}}(%rip)
+; CHECK-NEXT:    orl %ecx, %edx
+; CHECK-NEXT:    movl %edx, {{.*}}(%rip)
+; CHECK-NEXT:    retq
+  %t0 = load i32, i32* @c, align 4
+  %t1 = load i32, i32* @b, align 4
+  %t2 = load i32, i32* @d, align 4
+  %rem = urem i32 %t1, %t2
+  %or = or i32 %rem, %t0
+  %conv1 = and i32 %or, 255
+  store i32 %conv1, i32* @a, align 4
+  ret void
+}
+
+define void @PR37060() {
+; CHECK-LABEL: PR37060:
+; CHECK:       # %bb.0:
+; CHECK-NEXT:    movl $-1, %eax
+; CHECK-NEXT:    cltd
+; CHECK-NEXT:    idivl {{.*}}(%rip)
+; CHECK-NEXT:    movzbl {{.*}}(%rip), %eax
+; CHECK-NEXT:    xorl %edx, %eax
+; CHECK-NEXT:    movl %eax, {{.*}}(%rip)
+; CHECK-NEXT:    retq
+  %t0 = load i32, i32* @c, align 4
+  %rem = srem i32 -1, %t0
+  %t2 = load i32, i32* @b, align 4
+  %xor = xor i32 %t2, %rem
+  %conv3 = and i32 %xor, 255
+  store i32 %conv3, i32* @a, align 4
+  ret void
+}
+